To see the other types of publications on this topic, follow the link: Document automation.

Dissertations / Theses on the topic 'Document automation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Document automation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Seira, Argyri. "Low rate automation in manufacturing and assembly - A framework based om improved methods towards higher automation level : A case study at AIRBUS HELICOPTERS." Thesis, KTH, Industriell produktion, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-265567.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

McCarty, George E. "Integrating XML and Rdf concepts to achieve automation within a tactical knowledge management environment /." Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2004. http://library.nps.navy.mil/uhtbin/hyperion/04Mar%5FMcCarty.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Zuluaga, Valencia Maria Alejandra. "Methods for automation of vascular lesions detection in computed tomography images." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10010/document.

Full text
Abstract:
Les travaux de cette thèse sont consacrés à la détection et le diagnostic des lésions vasculaires, particulièrement dans le cas la maladie coronaire. La maladie coronaire continue à être la première cause de mortalité dans les pays industrialisés. En général, l'identification des lésions vasculaires est abordée en essayant de modéliser les anormalités (lésions). Le principal inconvénient de cette approche est que les lésions sont très hétérogènes, ce qui rend difficile la détection de nouvelles lésions qui n'ont pas été prises en compte par le modèle. Dans cette thèse, nous proposons de ne pas modéliser directement les lésions, mais de supposer que les lésions sont des événements anormaux qui se manifestent comme points avec une faible densité de probabilité. Nous proposons l'utilisation de deux méthodes de classification basées sur les Machines à Vecteurs de Support (SVM) pour résoudre le problème de détection du niveau de densité. Le principal avantage de ces deux méthodes est que la phase d'apprentissage ne requiert pas de données étiquetées représentant les lésions. La première méthode est complètement non supervisée, alors que la seconde exige des étiquettes seulement pour les cas qu'on appelle sains ou normaux. L'utilisation des algorithmes de classification sélectionnés nécessite des descripteurs tels que les anomalies soient représentées comme des points avec une densité de probabilité faible. A cette fin, nous avons développé une métrique basée sur l'intensité de l'image, que nous avons appelée concentric rings. Cette métrique est sensible à la quasi-symétrie des profils d'intensité des vaisseaux sains, mais aussi aux écarts par rapport à cette symétrie, observés dans des cas pathologiques. De plus, nous avons sélectionné plusieurs autres descripteurs candidats à utiliser comme entrée pour les classifieurs. Des expériences sur des données synthétiques et des données de CT cardiaques démontrent que notre métrique a une bonne performance dans la détection d'anomalies, lorsqu'elle est utilisée avec les classifeurs retenus. Une combinaison de plusieurs descripteurs candidats avec la métrique concentric rings peut améliorer la performance de la détection. Nous avons défini un schéma non supervisé de sélection de descripteurs qui permet de déterminer un sous-ensemble optimal de descripteurs. Nous avons confronté les résultats de détection réalisée en utilisant le sous-ensemble de descripteurs sélectionné par notre méthode avec les performances obtenues avec des sous-ensembles sélectionnés par des méthodes supervisées existantes. Ces expériences montrent qu'une combinaison de descripteurs bien choisis améliore effectivement les performances des classifieurs et que les meilleurs résultats s'obtiennent avec le sous-ensemble sélectionné par notre méthode, en association avec les algorithmes de détection retenus. Finalement, nous proposons de réaliser un recalage local entre deux images représentant différentes phases du cycle cardiaque, afin de confronter les résultats de détection dans ces images (phases). L'objectif ici est non seulement d'attirer l'attention du praticien sur les anomalies détectées comme lésions potentielles, mais aussi de l'aider à conforter son diagnostic en visualisant automatiquement la même région reconstruite à différents instants du cycle cardiaque
This thesis presents a framework for the detection and diagnosis of vascular lesions with a special emphasis on coronary heart disease. Coronary heart disease remains to be the first cause of mortality worldwide. Typically, the problem of vascular lesion identification has been solved by trying to model the abnormalities (lesions). The main drawback of this approach is that lesions are highly heterogeneous, which makes the detection of previously unseen abnormalities difficult. We have selected not to model lesions directly, but to treat them as anomalies which are seen as low probability density points. We propose the use of two classification frameworks based on support vector machines (SVM) for the density level detection problem. The main advantage of these two methods is that the learning stage does not require labeled data representing lesions, which is always difficult to obtain. The first method is completely unsupervised, whereas the second one only requires a limited number of labels for normality. The use of these anomaly detection algorithms requires the use of features such that anomalies are represented as points with low probability density. For this purpose, we developed an intensity based metric, denoted concentric rings, designed to capture the nearly symmetric intensity profiles of healthy vessels, as well as discrepancies with respect to the normal behavior. Moreover, we have selected a large set of alternative candidate features to use as input for the classifiers. Experiments on synthetic data and cardiac CT data demonstrated that our metric has a good performance in the detection of anomalies, when used with the selected classifiers. Combination of other features with the concentric rings metric has potential to improve the classification performance. We defined an unsupervised feature selection scheme that allows the definition of an optimal subset of features. We compared it with existent supervised feature selection methods. These experiments showed that, in general, the combination of features improves the classifiers performance, and that the best results are achieved with the combination selected by our scheme, associated with the proposed anomaly detection algorithms. Finally, we propose to use image registration in order to compare the classification results at different cardiac phases. The objective here is to match the regions detected as anomalous in different time-frames. In this way, more than attract the physician's attention to the anomaly detected as potential lesion, we want to aid in validating the diagnosis by automatically displaying the same suspected region reconstructed in different time-frames
APA, Harvard, Vancouver, ISO, and other styles
4

Katz, Jerry A. "An Introduction of Office Automation and A Document Management System Within a Multiple Plant Manufacturing Organization." NSUWorks, 1990. http://nsuworks.nova.edu/gscis_etd/626.

Full text
Abstract:
Baxter Dade Division is a U.S. manufacturer of diagnostic healthcare equipment and supplies. As a result of the introduction of a new series of technology products, sales revenue and production volumes have grown considerably in recent years. The problem facing this organization was that existing manufacturing specification documentation systems could not keep pace with recent production volume increases. The resultant system inefficiencies manifested themselves in delays in the implementation of instruction revisions, inconsistencies in specifications between distributed plant facilities, and a significant increase in the cost of clerical staff to administer documentation processing. To address these problems, this work focused on the definition, design, and selection of an automated documentation system with a central library of production specifications accessible to all plants via an interactive computer inquiry methodology. To solve these problems a computer based Electronic Documentation System was proposed to expedite the processing of manufacturing specifications. Specific tasks included the development of an Electronic Documentation System requirements definition, a conceptual design of a software application that satisfied these requirements, a review of market available systems, and a final recommendation to senior management of a cost effective and efficient system solution to the documentation issues. All recommendations presented as a result of this study were approved by Baxter Dade Division senior management and are currently being implemented. The organization has recently hired a Data Base Administrator to oversee the development and on-going processing of this new system. Reduced paper work processing, faster manufacturing specification through-put, and better documentation revision control will result as this system is introduced.
APA, Harvard, Vancouver, ISO, and other styles
5

Roch, Eduard. "Automatizace dokumentů jako nástroj minimalizace rizik." Master's thesis, Vysoké učení technické v Brně. Ústav soudního inženýrství, 2020. http://www.nusl.cz/ntk/nusl-414147.

Full text
Abstract:
This diploma thesis deals with the issues of risks in document creation processes and the possibilities of their minimization through the implementation of document automation tools. The thesis identifies the motives and goals of three major companies in the Czech Republic which have decided to implement a system for document automation Legito. Using the FMEA method, this thesis demonstrates the influence of document automation in minimizing identified risk incorporated with document creation. Furthermore, the thesis deals with the analysis of expected risks associated with the implementation of the document automation system and its subsequent adoption by end-users. From the obtained information, the author of the thesis formulates a general process of implementing document automation systems, which defines the various aspects necessary for the successful deployment of the document automation system in companies.
APA, Harvard, Vancouver, ISO, and other styles
6

Lovegrove, Will. "Advanced document analysis and automatic classification of PDF documents." Thesis, University of Nottingham, 1996. http://eprints.nottingham.ac.uk/13967/.

Full text
Abstract:
This thesis explores the domain of document analysis and document classification within the PDF document environment The main focus is the creation of a document classification technique which can identify the logical class of a PDF document and so provide necessary information to document class specific algorithms (such as document understanding techniques). The thesis describes a page decomposition technique which is tailored to render the information contained in an unstructured PDF file into a set of blocks. The new technique is based on published research but contains many modifications which enable it to competently analyse the internal document model of PDF documents. A new level of document processing is presented: advanced document analysis. The aim of advanced document analysis is to extract information from the PDF file which can be used to help identify the logical class of that PDF file. A blackboard framework is used in a process of block labelling in which the blocks created from earlier segmentation techniques are classified into one of eight basic categories. The blackboard's knowledge sources are programmed to find recurring patterns amongst the document's blocks and formulate document-specific heuristics which can be used to tag those blocks. Meaningful document features are found from three information sources: a statistical evaluation of the document's esthetic components; a logical based evaluation of the labelled document blocks and an appearance based evaluation of the labelled document blocks. The features are used to train and test a neural net classification system which identifies the recurring patterns amongst these features for four basic document classes: newspapers; brochures; forms and academic documents. In summary this thesis shows that it is possible to classify a PDF document (which is logically unstructured) into a basic logical document class. This has important ramifications for document processing systems which have traditionally relied upon a priori knowledge of the logical class of the document they are processing.
APA, Harvard, Vancouver, ISO, and other styles
7

Pokam, Meguia Raïssa. "Conception d'une interface avec réalité augmentée pour la conduite automobile autonome." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0029/document.

Full text
Abstract:
Cette thèse a été réalisée dans le cadre d’un projet intitulé Localisation et Réalité Augmentée (LRA). Mettant en relation plusieurs structures industrielles et universitaires, ce projet était appliqué à la fois au domaine ferroviaire et aux voitures autonomes. Elle aborde trois questions principales relatives à la conception des interfaces Humain-Machine dans les voitures autonomes : quelles informations faut-il présenter au conducteur ? Sous quelle forme ? À quel moment ou dans quel contexte ? Elle vise, au travers des réponses apportées à ces questions, à rendre le système « transparent », de façon à susciter une calibration de la confiance appropriée du conducteur en la voiture autonome mais aussi à susciter une expérience utilisateur satisfaisante. Nous nous sommes focalisés en particulier sur la tâche de changement de voie réalisée entièrement réalisée par la voiture autonome. Pour atteindre cet objectif, nous avons déployé une méthodologie comportant cinq étapes. Sur la base du modèle de LYONS (2013), des principes généraux de transparence ont été définis, et ont ensuite été opérationnalisées grâce à la démarche Cognitive Work Analysis. La forme des informations utiles ou potentiellement utiles au conducteur a été définie lors de de séances de créativité et en utilisant la Réalité Augmentée qui est au cœur du projet LRA. Ces informations ont été catégorisées selon les différentes fonctions dont elles résultent (prise d’information, analyse de l’information, prise de décision, implémentation de l’action). Cinq interfaces ont été conçues ; elles présentent des informations relevant de tout ou partie de ces 4 catégories. Elles représentent donc des niveaux de transparence plus ou moins élevés. La validité des principes de transparence a été éprouvée grâce à une expérimentation menée sur simulateur, auprès d’un échantillon de 45 personnes, durant laquelle différents indicateurs des activités cognitives et de l’Expérience Utilisateur ont été mesurés. L’analyse de ces données conduit à mettre en évidence des différences entre les cinq interfaces. L’interface présentant les informations issues des fonctions « prise d’information » et « implémentation de l’action » facilite les activités cognitives du conducteur/ Superviseur. Du point de vue de l’Expérience Utilisateur, c’est l’interface présentant toutes les catégories d’informations qui s’est distinguée des autres
This doctoral thesis was conducted under the canopy of the Localization and Augmented Reality (LAR) project. The research project was focused on railway yard and autonomous vehicles. The thesis provides answers to three main questions about the Human-Machine interface design in autonomous vehicles: Which information should be conveyed to the human agent? In which form? And when? Answers will enable an appropriate trust calibration of the human agent in the autonomous vehicle and improve driver’s experience by making automation “transparent”. We focus especially on the lane changing task entirely realized by the autonomous vehicle. The aim and the objectives were achieved by a five-steps methodology. Some general principles of transparency have been redefined on the LYONS (2013) model. These principles have been then operationalized by means of Cognitive Work Analysis. Graphical representation of useful information or potentially useful information was defined during creative sessions, by using Augmented Reality that lies at the heart of the LAR project. This information was categorized according to the functions from which it results: information acquisition, information analysis, decision making and action execution. Five interfaces were designed. Each of these interfaces presents information from some of these functions. Therefore, these interfaces corresponded to different transparency configurations more or less high. The validity of transparency principles was tested through an experiment on driving simulator with a sample of 45 participants. In this experiment, some indicators of cognitive activities and User Experience were measured. Data analysis has led to some differences between 5 interfaces. Indeed, the interface with related information to “information acquisition” and “action execution” functions improves the cognitive activities of the human agent. Considering the User Experience, it is the interface with the information related from the 4 functions which provides the best User Experience
APA, Harvard, Vancouver, ISO, and other styles
8

Seraphin-Thibon, Laurence. "Etude de l'automatisation des mouvements d'écriture chez l'enfant de 6 à 10 ans." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS040/document.

Full text
Abstract:
Chez l’adulte, la production écrite est une activité motrice automatisée. L’écriture est fluide et rapide car la production de chaque lettre repose sur l’activation préalable d’une mémoire procédurale connue sous le terme « programme moteur » ou « carte sensori-motrice ». Nous nous sommes attachés à comprendre comment s’élaborent ces programmes moteurs au cours de l’apprentissage de l’écriture. Nous avons étudié comment l'écriture des enfants évoluait d’une programmation trait par trait à une programmation lettre à lettre. Dans toutes nos études nous avons enregistré les mouvements d’écriture des enfants à l’aide d’une tablette digitalisante. Dans la première expérience, 98 enfants de 6 à 9 ans devaient produire des lettres de complexité variable, dépendant de leur nombre de strokes. Les résultats ont indiqué qu’à 6 et 7 ans, la durée du mouvement, la dysfluence et la trajectoire augmentaient avec le nombre de strokes de la lettre. Chaque allographe était produit par l’activation du premier stroke, puis du deuxième stroke et ainsi de suite jusqu’à la réalisation de la lettre complète. Le nombre de strokes des lettres affectait beaucoup moins la production des enfants plus âgés. Les enfants regroupaient la programmation de ces strokes en chunks, qui augmentaient en taille progressivement pour aboutir, à la fin du processus d’automatisation, à une production lettre à lettre. L’analyse a révélé que les premiers automatismes se stabilisaient aux alentours de 8 ans. Toutefois, certaines lettres restaient représentées en chunks même chez les enfants les plus âgés. La nature du stroke à produire semblait affecter également la mise en place des automatismes. Ainsi, une autre expérience a été réalisée pour étudier l’impact de la production des strokes nécessitant des mouvements de rotation, indispensables à la production de traits courbés (e.g., pour la lettre o), et des mouvements de pointage nécessaires pour positionner l’outil scripteur après leur lever (e.g., pour mettre le point sur le i). Nous avons demandé à 108 enfants âgés de 6 à 10 ans d’écrire des séquences de lettres majuscules variant en termes de mouvements de pointage et de rotation. Les résultats ont indiqué que les pointages requerraient un compromis entre les durées des mouvements sur la feuille et en l’air. Les mouvements de rotation impliquaient une réduction de l’écart entre les vitesses maximales et minimales. Le respect d’un tempo de l’écriture semble gouverner ces stratégies compensatoires qui sont spécifiques au type de mouvement. Au niveau développemental, la présence de paliers dans les données cinématiques, laisse à penser que la majeure partie de l’évolution se situe dans la période 6-8 ans, et précède une phase de stabilisation entre 8 et 10 ans caractérisant le début de l’automatisation des mouvements d’écriture. Notre travail met ainsi en évidence que plus l’enfant grandit et pratique l’écriture, plus il/elle est capable de programmer des chunks d’informations plus importantes. Or, cette augmentation en taille de la mémoire procédurale n’est pas seulement quantitative, elle s’accompagne d’une gestion différentielle en fonction du type de stroke à réaliser. Le contenu du programme moteur ne se limiterait donc pas à des informations sur la forme, l’ordre et la direction des strokes mais détiendrait également des informations permettant la mise en place de stratégies cinématiques compensatoires pour des gestes spécifiques comme ceux de rotation et de pointage. Les programmes moteurs s’élaborent pendant le processus d’apprentissage, qui s’étale sur la période 6-7 ans. À partir de 8 ans, ces acquisitions commencent à s’automatiser avec la pratique et l’augmentation des capacités cognitives, attentionnelles et mnésiques. L’automatisation de l’écriture semble être acquise pour la plupart des lettres entre 9 et 10 ans, et devient alors un outil de communication langagière. Les implications de ces résultats sont directement applicables en milieu scolaire
Written production is an automated motor activity for adults. Writing is smooth and fast because letter production relies on the prior activation of a procedural memory known as “motor program” or “sensori-motor map”. Our investigation focused on how motor programs develop during writing acquisition. We examined how writing evolved from stroke-to-stroke programming to letter-to-letter programming. In all our studies we recorded the children's writing movements with a digitizer. In the first experiment, 98 children aged 6 to 9 had to write letters of varying numbers of strokes. The results indicated that at ages 6-7, movement duration, dysfluency and trajectory increased with the letter’s number of strokes. The letters were produced by the activation of the first stroke, then the second stroke, and so on until the completion of the whole letter. The number of strokes affected much less the productions of the older children. They assembled the strokes into chunks, which gradually increased in size, until they could write, at the end of the automation process, with a letter-to-letter programming strategy. The analysis revealed that the first automatisms stabilized at age 8. However, some letters remained represented in chunks even among the older children. Specific types of strokes affected the stabilization of letter automation. We thus carried out another experiment to examine the impact of the rotation strokes that are necessary for the production of curved lines (e.g., to produce letter o) and the pointing movements that position the pen after a lift (e.g., to produce the dot on letter i). In the experiment, 108 children aged 6 to 10 wrote sequences of upper-case letters varying in pointing and rotation movements. The results indicated that the production of rotation movements required a speed trade-off to decrease differences between maximum and minimum velocities. Pointing movements required a duration trade-off between the movements executed on the sheet and in the air. There seems to be a sort of tempo for letter production that modulates letter production. This requires compensatory strategies that are cognitively demanding. At the developmental level, the kinematic data suggests that most of the learning process takes place between ages 6 to 8. Then there is stabilization phase that marks the beginning of writing automation. It evolves between ages 9 and 10. Our work thus revealed that as the child practices writing, the motor programs code increasingly bigger information chunks. This quantitative increase in procedural memory is also accompanied by qualitative information for certain types of strokes that require specific processing. Therefore, the content of motor programs is not limited to information about letter shape, stroke order and direction. Motor programs also code information on compensatory kinematic strategies for rotation and pointing movements. These motor programs are elaborated during the learning process between ages 6 to 7. At around age 8, with practice and the increase of cognitive, attentional and memory skills, they start to stabilize and become automated. At ages 9-10, writing is automated for most letters and becomes a linguistic communicational tool. The implications of these results are directly applicable in schools for the improvement of pedagogical tools in teaching writing
APA, Harvard, Vancouver, ISO, and other styles
9

Duffau, Clément. "Justification Factory : de l'élicitation d'exigences de justification jusqu'à leur production en continu." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4094/document.

Full text
Abstract:
Dans de nombreux domaines où il existe des risques pour l'homme, comme la médecine, le nucléaire ou l'avionique, il est nécessaire de passer par une phase de certification visant à garantir le bon fonctionnement d'un système ou d'un produit. La certification se fait en fonction de documents normatifs qui expriment les exigences de justifications auxquelles le produit et le processus de développement doivent se conformer. Un audit de certification consiste alors à produire une documentation attestant la conformité avec ce cadre réglementaire.Pour faire face à ce besoin de justifications visant à assurer la conformité avec les normes en vigueur et la complétude des justifications apportées, il faut dès lors être capable de cibler les exigences de justification à revendiquer pour un projet et produire les justifications durant le développement du projet. Dans ce contexte, éliciter les exigences de justifications à partir des normes et produire les justifications nécessaires et suffisantes sont des enjeux pour assurer le respect des normes et éviter la sur-justification.Dans ces travaux nous cherchons à structurer les exigences de justification pour ensuite aider à la production des justifications associées tout en restant attentif à la confiance que l'on peut placer en elles. Pour relever ces défis, nous avons défini une sémantique formelle pour une modélisation existante des justifications : les Diagrammes de Justification. A partir de cette sémantique, nous avons pu définir un ensemble d'opérations permettant de contrôler le cycle de vie des justifications pour assurer la conformité des justifications au regard des exigences de justification. Par ce formalisme, nous avons également pu guider, voire automatiser dans certains cas, la production des justifications et la vérification de la conformité.Ces contributions ont été appliquées dans le contexte des technologies médicales pour l'entreprise AXONIC, porteuse de ces travaux. Ceci a permis de i) éliciter les exigences de justification des normes médicales et pratiques internes de l'entreprise, ii) produire automatiquement les justifications associées à la norme IEC 62304 pour le logiciel en médical, iii) automatiser la vérification et validation des justifications ainsi que la production de documents utilisables lors d'audit
In many areas where it exists human risks, such as medicine, nuclear or avionics, it is necessary to go through a certification stage to ensure the proper functioning of a system or product. Certification is based on normative documents that express the justification requirements to which the product and the development process must conform. A certification audit then consists of producing documentation certifying compliance with this regulatory framework.To cope with this need for justifications to ensure compliance with the standards in force and the completeness of the justifications provided, it must therefore be able to target the justification requirements to be claimed for a project and produce justifications during the development of the project. In this context, eliciting the justification requirements from the standards and producing the necessary and sufficient justifications are issues to ensure compliance with standards and avoid over-justification.In these works we seek to structure the justification requirements and then help to produce the associated justifications while remaining attentive to the confidence that can be placed in them. To address these challenges, we have defined a formal semantics for an existing model of justifications: Justification Diagrams. From this semantics, we have been able to define a set of operations to control the life cycle of the justifications to ensure that the justifications regarding the justification requirements. Through this semantics, we have also been able to guide, and even automate in some cases, the production of justifications and the verification of conformance.These contributions were applied in the context of medical technologies for the company AXONIC, the bearer of this work. This made it possible to i) elicitate the justification requirements of the medical standards and company's internal practicals, ii) automatically produce the justifications associated with the IEC 62304 standard for medical software, iii) automate the verification and validation of the justifications as well as the production of documents that can be used during the audit
APA, Harvard, Vancouver, ISO, and other styles
10

Hussein, Ali Dina. "A social Internet of Things application architecture : applying semantic web technologies for achieving interoperability and automation between the cyber, physical and social worlds." Thesis, Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0024/document.

Full text
Abstract:
Récemment, l'intégration entre les environnements informatiques et de réseautage a été largement promu pour fournir des services intelligents à des utilisateurs finaux ainsi que l'utilisation efficace des ressources. Cette convergence a ouvert la voie à l'émergence de l'internet des objets (IdO). Le paradigme de l'IdO repose principalement sur la fabrication d'objets, appelés les choses, disparaître et se tissent dans le tissu de notre vie de tous les jours pour nous soutenir dans l'accomplissement des activités quotidiennes. L'évolutivité et l'hétérogénéité sont parmi les principaux défis qui entravent la réalisation à grande échelle de services de l'IdO dans la vie quotidienne des utilisateurs. Afin de relever les défis de l'IdO, un nouveau volet de recherche est venu en avant dans la littérature comme une classe paradigmatique des Cyber-physiques systèmes sociaux (CSPR), qui est connu comme l'Internet social des choses (Siot). Le SIOT se fonde sur la notion soulignée par phénomène petite-monde où la structure sociale permettant relation sociale fondée sur la confiance entre les personnes et les objets, d'une manière qui ressemble à des services de réseaux sociaux traditionnels (SNS) est suggérée de relever les défis de l'IdO. Cependant, depuis SIOT hérite des caractéristiques de différents informatiques et de réseautage environnements (par exemple, l'IdO et SNS) cela, en fait, augmente la quantité et la variété des données contextuelles qui doit être manipulé pour Adaptive fourniture de services dans Siot, qui agit comme le principal défi adressé dans cette thèse. Autrement dit, dans cette thèse, nous proposons la notion de contexte cognitif lorsque, dans certaine situation spatio-temporelle, le raisonnement sur les aspects objectifs du cadre, ce qui représente l'environnement physique, avec le contexte subjective, qui représente les aspects comportementaux et sociaux, est considéré comme l'amélioration des services SIOT intelligence et la capacité d'adaptation aux besoins conjoncturels des utilisateurs. Nous envisageons technologies du Web sémantique pour déployer notre contexte cognitif proposé dans deux domaines d'application; sensible au contexte recommandation des tâches quotidiennes dans les maisons intelligentes et structure sociale dépendant de la situation des choses. Un prototype de preuve de concept a été développé pour chaque domaine d'application, dans le but de démontrer l'intégration harmonieuse des objets sur le Web pour la réalisation de certaines applications. Nos résultats empiriques montrent un niveau de service amélioré l'adaptabilité et la complexité en temps de fonctionner lors de l'application de notre contexte cognitif suggéré
The paradigm of the Social Internet of Things (SIoT) is being promoted in the literature to boost a new trend wherein the benefits of social network services are exhibited within the network of connected objects i.e., the Internet of Things (IoT). The novel user-friendly interaction framework of the SIoT opens the doors for enhancing the intelligence required to stimulate a shift in the IoT from a heterogeneous network of independently connected objects towards a manageable network of everything. In practice, achieving scalability within the large-scale and the heterogeneous paradigm of the IoT while maintaining on top of its user-friendly and intuitive services to bridge human-to-machine perceptions and encourage the technology’s adaptation is a major challenge which is hindering the realization and deployment of the IoT technologies and applications into people’s daily live. For the goal of handling IoT challenges, as well as improve the level of smart services adaptability to users’ situational needs, in this thesis, novel SIoT-based application architecture is provided. That is, Semantic Web Technologies are envisaged as a means to develop automated, value-added services for SIoT. While, interoperability and automation are essential requirement to seamlessly integrate such services into user life, Ontologies are used to semantically describe Web services with the aim of enabling the automatic invocation and composition of these services as well as support interactions across the cyber, physical and social worlds. On the other hand, handling the variety of contextual data in SIoT for intelligent decision making is another big challenge which is still in very early stages of research. In this thesis we propose a cognitive reasoning approach taking into consideration achieving situational-awareness (SA) in SIoT. This reasoning approach is deployed within two application domains where results show an improved level of services adaptability compared to location-aware services which are previously proposed in the literature
APA, Harvard, Vancouver, ISO, and other styles
11

Brada, Jan. "Aplikace nástrojů řízení a automatizace administrativních procesů." Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2008. http://www.nusl.cz/ntk/nusl-221799.

Full text
Abstract:
Continual raise of data and information amount requires more sophisticated methods and procedures for their processing. The complexity of information systems and their specialized components increases with the volume of processed data. Applications for business process management support and for capacity and efficiency improving have formed a few basic categories for that this terminology becomes common: Business Process Management, Enterprise Content Management and Document Management System. These systems are known in commercial sphere and also in civil service and is used in many corporations. Diploma thesis focuses on the discovery of real situation how these systems are used at universities where they are applied very slowly. The aim of the thesis is to formulate recommendation for implementation of these systems in environment of The Brno University of Technology as a project study.
APA, Harvard, Vancouver, ISO, and other styles
12

Darwish, Molham. "Architecture et déploiement de services d'aide à la personne." Thesis, Lorient, 2016. http://www.theses.fr/2016LORIS411/document.

Full text
Abstract:
Le vieillissement de la population européenne a encouragé la communauté à favoriser larecherche de solutions pour soutenir cette évolution. Dans ce contexte, plusieurs questions (liéesaux services de soins de santé et aux établissements de santé, coûteux, et à capacités limitées)doivent être abordées.Ainsi, plusieurs projets de recherche et des solutions industrielles ont été proposés pour remédier àces problèmes. La plupart de ces solutions sont basées sur l'utilisation des derniers développementstechniques en matière de TIC permettant ainsi de fournir des solutions qui améliorent le bien-êtredes personnes âgées et de garantir leur indépendance dans leurs propres espaces de vie. Lessolutions technologiques fournies doivent être garanties contre les défauts potentiels deséquipements qui peuvent conduire à l'échec des systèmes et avoir un impact sur les besoins etl'indépendance des utilisateurs.Dans ce travail, nous proposons une représentation du système d'automatisation de la maison, surla base des besoins qui consiste à fournir des solutions continues et viables et répondant auxattentes des utilisateurs (tout en assurant la disponibilité des services des systèmes).Dans cet objectif, nous proposons de développer un cadre de modélisation représentant lesystème reconfigurable domotique et permettant l'examen de l'approche de la tolérance depanne, sur la base de la définition de scénarios alternatifs (assurant la délivrance continue desservices). Dans ce workflow, nous décrivons les éléments structurels du système (décrits commedes services et composants) en vue de la modélisation conceptuelle. Des règles de transformationde modèle permettent de générer un modèle d'analyse et un modèle de comportement. Lemodèle d'analyse permet de prendre une décision à propos de la sélection des élémentsalternatifs pour remplacer les éléments défectueux. Ce modèle d'analyse est défini sur la base dela notion d'approche d’arbre de défaillances, qui adopte la probabilité d'échec descomposantes pour évaluer l’état global du système considéré. Le modèle de comportement estresponsable de la simulation de l'exécution des services du système pour assurer que les scénariosconduisent à la délivrance du système.Par ailleurs, nous proposons de définir une caractéristique permettant d’évaluer l'importanceempirique (vue par le concepteur) des composantes d'un système dans le cadre d’un servicedonné. Ensuite, nous proposons une nouvelle approche, fondée sur l'intégration du facteur del'importance dans l'approche d’arbre de défaillances pour étudier la criticité du composant, encas d'échec, ainsi que la continuité de service. Un cadre de validation expérimentale, basé surplusieurs objectifs de validation est finalement proposé pour conclure ce travail de recherche
The ageing of the European population encouraged the community to search for solutions tosupport this evolution. In this context, several issues (related to the expensive and limited healthcare services and health facilities capacities) need to be addressed.Thus, several projects, research and industrial solutions have been proposed to address these issues.Most of these projects and industrial developments are based on the use of the latest ICT technicaldevelopments to provide solutions that ameliorate the well-being of the targeted ageing groupand to guaranty their independence in their own living spaces. The provided technologicalsolutions need to be guaranteed against potential faults which may lead to the systems failure andimpact the users’ needs and independency.In this work, we propose a home automation system representation, based on the user’s needs toprovide continuous and viable solutions that meets the users’ expectations, and ensuring theavailability of system’s services.For this goal, we propose to develop an integrated modeling framework allowing therepresentation of the home automation reconfigurable system with the consideration of a faulttolerance approach (based on the alternative definition of scenarios of system servicesdeliverance).In the proposed workflow, we describe the system structural elements (described as services andcomponents) in the design modeling view, and, we lead model transformation rules allowinggenerating an analysis model and a behavior model. The analysis model allows making a decisionabout the alternative elements selection in order to substitute the faulty elements. The analysismodel definition is based on the notion of Fault Tree Analysis approach (adopting the probabilityof events failure in order to evaluate a given system status).The behavior model is in charge of simulating the execution of the system services ensuring, thus,that the proposed scenarios lead to system services deliverance.Moreover, we propose to define an expert based feature measuring the importance of a system’scomponent within the service context. In this framework, we propose a new approach, based onthe joint integration of the importance factor into the Fault Tree Analysis approach in order to studythe criticality of the component, in case of failure, on the service continuity.We propose an experimental validation framework, based on several validation objectives toevaluate the proposed work in this research
APA, Harvard, Vancouver, ISO, and other styles
13

Salmi, Anas. "Aide à la Décision pour l’Optimisation du Niveau d’Automatisation lors de la Conception des Systèmes d’Assemblage Industriels." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI090/document.

Full text
Abstract:
Dans le cadre de ma thèse portant sur la détermination du niveau d’automatisation optimal pour la conception des lignes d’assemblage, une revue de littérature exhaustive a été élaborée en premier lieu sur le sujet. La revue a confirmé que peu de travaux traitent ce problème et montre un manque de méthodologies objectives et méthodiquement applicable afin de pouvoir fournir une aide à la décision d’automatisation. A la suite, les facteurs et critères intervenants dans la décision ont été identifiés. Une méthodologie guidant une décision multicritère dédiée aux systèmes d’assemblages a été établie. Cette méthode, permet la prise en compte de différents critères décisionnels, tels que : le temps et le coût d’assemblage, le critère qualité, l’aspect ergonomique, la stratégie et les préférences de l’industriel, la localisation et le contexte économique, la capacité d’investir ou l’aspect social de l’entreprise.La méthodologie de décision établie nécessite en particulier une méthode graphique standardisée de représentation du processus d’assemblage et de l’allocation des ressources. Les méthodes graphiques existantes concernant la représentation de processus d’assemblage ont été donc revues et analysées. Ceci a conduit à la définition d’une nouvelle méthode graphique dédiée établie par inspirations et combinaison de méthodes existantes afin de répondre aux exigences du sujet définies au préalable. Après définition de cette méthode baptisée ASML pour « Assembly Sequences Modeling Language », un vocabulaire standardisé de mouvements élémentaires d’assemblage a été réutilisé de la littérature.Un vocabulaire de plus haut niveau, celui des taches et techniques d’assemblage, en lien avec le premier, a ensuite été défini pour diverses raisons. Ceci permettra de bénéficier à la fois d’une facilité et d’une rapidité de modélisation avec l’utilisation du vocabulaire de taches défini, mais aussi des avantages du premier vocabulaire tel que la détermination des temps d’assemblage ou la détection des opérations répétitives comme signes propices pour une éventuelle automatisation à étudier. L’ensemble permet de définir, organiser, et représenter la séquence d’assemblage par analyse du design du produit. Une démarche d’allocation adéquate représente une conséquence directe qui a été définie en compagnie de certaines règles définie en cohérence avec les principes du « lean manufacturing ».Nous nous intéressons ensuite à l’intégration du critère coût vu l‘importance des investissements générés par des automatisations. Une revue exhaustive en estimation de coût a été ainsi établie. A la suite, un modèle intégré permettant l’estimation du coût d’assemblage par produit a été défini. Ce modèle, basé sur les estimations de temps du processus ainsi que sur des informations stratégiques de la production planifiée, a la vocation de prédire le coût d’assemblage par produit pour une alternative de système en question.A ce stade, tous les éléments sont réunis pour la modélisation et la prédiction de performance d’une alternative candidate de système d’assemblage. Or l’objectif est de déterminer la meilleure configuration possible, il est nécessaire d’appliquer l’approche sur plusieurs options possibles ou alternatives d’assemblage. Ce processus ne peut évidemment pas être réalisé d’une manière individuelle ou manuelle, et donc une implémentation d’un module de génération de scénarios possibles puis leurs évaluations est ainsi nécessaire. Cette implémentation a été réalisée par le développement d’une méthode de résolution exacte par formulation mathématique en un programme linéaire en nombre entiers. L’approche globale a été validée sur des exemples numériques, académiques de la littérature, mais aussi industriels. Les résultats s’avèrent ainsi prometteurs et représentent une approche innovante en matière de décision du niveau d’automatisation, un domaine qui manque de littérature et d’aide en décision
This work is performed in the context of PhD dissertation of Anas Salmi in Grenoble INP – School of Industrial Engineering. The thesis is supervised by Dr. Eric Blanco (Grenoble INP – GSCOP laboratory) and co-supervised by Dr. Pierre David (Grenoble INP – GSCOP laboratory) and Pr. Joshua Summers (Clemson University – CEDAR laboratory).The work aims at defining a procedure and tool to help assembly manufacturers, particularly deciders, managers, and systems designers in the decision about automation for their assembly processes design. The purpose is to orient to the optimal Level of Automation (LoA) of the process since the early conceptual design phase.The purpose is to provide the most appropriate solution, most profitable, with consideration of the production requirements, product design features and characteristics, assembly sequence, and manufacturer’s exigencies and preferences and prior decision criteria from different point of views such as quality level, ergonomics, reliability, and manufacturer’s best practices and historical data. Different manufacturer’s constraints have also to be also taken into account in the decision such as social, financial and investment potentials, as well as the location and labor rate.A state of the art of the topic was realized and has shown that the literature about LoA deciding is not abundant. This need to support LoA deciding and delicacy of such process were also recognized by several assembly manufactures and researchers.A first main contribution consists in a multi-criteria LoA decision methodology proposal involving several identified decision criteria to be considered in the decision process.The approach generated a need to define an adequate modelling language. A new graphic Assembly Sequences Modeling Language (ASML) was then defined allowing conceptual assembly processes modelling since the early phase by assembly operations with different architectural possibilities. A standard model can be then defined introducing an intuitive and generic way to define systems with various automation levels alternatives.Rules and time standard databases were also developed allowing assembly systems ASML modelled time estimation based on standardized motions, corresponding time standards, and process’ architectures.To easier the alternatives generation and for better standardization, a high layer vocabulary of 20 standardized assembly tasks, associated to the modelling language, is defined. These developments allow a quick modelling and time estimation when automatically linked to the motions vocabulary.As the economic criterion represents the major occupation and criterion for every manufacturer in such heavy investment, an early phase cost model is developed after an exhaustive review in the field. The cost model, when combined to the previous developments, allows assembly systems alternatives cost prediction with consideration of selected automation options.To computerize the automation decision approach and the exhaustive generation of assembly systems alternatives for the sake of finding the optimal configuration, a mathematical integer formulation is developed and validated. The model is implemented in CPLEX OPL and allows the convergence to the optimal configuration with consideration of the different entered constraints and manufacturers preliminary preferences as input matrices.This work includes theoretical and industrial validations. It opens multiple perspectives and openings in the field of assembly systems design, particularly the rationalization of product and process integrated development by the assembly system automatic generation directly from the product design CAD tool. Other openings of work instructions generation and standardization may represent also promising openings
APA, Harvard, Vancouver, ISO, and other styles
14

El, Mernissi Karim. "Une étude de la génération d'explication dans un système à base de règles." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066332/document.

Full text
Abstract:
Le concept de “Business Rule Management System” (BRMS) a été introduit pour faciliter la création, la vérification, le déploiement et l'exécution des politiques commerciales propres à chaque compagnie. Basée sur une approche symbolique, l'idée générale est de permettre aux utilisateurs métier de gérer les changements des règles métier dans le système sans avoir besoin de recourir à des compétences techniques. Il s'agit donc de fournir à ces derniers la possibilité de formuler des politiques commerciales et d'automatiser leur traitement tout en restant proche du langage naturel. De nos jours, avec l'expansion de ce type de systèmes, il faut faire face à des logiques de décision de plus en plus complexes et à de larges volumes de données. Il n'est pas toujours facile d'identifier les causes conduisant à une décision. On constate ainsi un besoin grandissant de justifier et d'optimiser les décisions dans de courts délais qui induit l'intégration à ses systèmes d'une composante d'explication évoluée. Le principal enjeu de ces recherches est de fournir une approche industrialisable de l'explication des processus de décision d'un BRMS et plus largement d'un système à base de règles. Cette approche devra être en mesure d'apporter les informations nécessaires à la compréhension générale de la décision, de faire office de justification auprès d'entités internes et externes ainsi que de permettre l'amélioration des moteurs de règles existants. La réflexion se portera tant sur la génération des explications en elles-mêmes que sur la manière et la forme sous lesquelles elles seront délivrées
The concept of “Business Rule Management System” (BRMS) has been introduced in order to facilitate the design, the management and the execution of company-specific business policies. Based on a symbolic approach, the main idea behind these tools is to enable the business users to manage the business rule changes in the system without requiring programming skills. It is therefore a question of providing them with tools that enable to formulate their business policies in a near natural language form and automate their processing. Nowadays, with the expansion of intelligent systems, we have to cope with more and more complex decision logic and large volumes of data. It is not straightforward to identify the causes leading to a decision. There is a growing need to justify and optimize automated decisions in a short time frame, which motivates the integration of advanced explanatory component into its systems. Thus, the main challenge of this research is to provide an industrializable approach for explaining the decision-making processes of business rules applications and more broadly rule-based systems. This approach should be able to provide the necessary information for enabling a general understanding of the decision, to serve as a justification for internal and external entities as well as to enable the improvement of existing rule engines. To this end, the focus will be on the generation of the explanations in themselves as well as on the manner and the form in which they will be delivered
APA, Harvard, Vancouver, ISO, and other styles
15

McCarty, George E. Jr. "Integrating XML and RDF concepts to achieve automation within a tactical knowledge management environment." Thesis, Monterey, California. Naval Postgraduate School, 2004. http://hdl.handle.net/10945/1648.

Full text
Abstract:
Approved for public release, distribution is unlimited
Since the advent of Naval Warfare, Tactical Knowledge Management (KM) has been critical to the success of the On Scene Commander. Today's Tactical Knowledge Manager typically operates in a high stressed environment with a multitude of knowledge sources including detailed sensor deployment plans, rules of engagement contingencies, and weapon delivery assignments. However the WarFighter has placed a heavy reliance on delivering this data with traditional messaging processes while focusing on information organization vice knowledge management. This information oriented paradigm results in a continuation of data overload due to the manual intervention of human resources. Focusing on the data archiving aspect of information management overlooks the advantages of computational processing while delaying the empowerment of the processor as an automated decision making tool. Resource Description Framework (RDF) and XML provide the potential of increased machine reasoning within a KM design allowing the WarFighter to migrate from the dependency on manual information systems to a more computational intensive Knowledge Management environment. However the unique environment of a tactical platform requires innovative solutions to automate the existing naval message architecture while improving the knowledge management process. This thesis captures the key aspects for building a prototype Knowledge Management Model and provides an implementation example for evaluation. The model developed for this analysis was instantiated to evaluate the use of RDF and XML technologies in the Knowledge Management domain. The goal for the prototype included: 1. Processing required technical links in RDF/XML for feeding the KM model from multiple information sources. 2. Experiment with the visualization of Knowledge Management processing vice traditional Information Resource Display techniques. The results from working with the prototype KM Model demonstrated the flexibility of processing all information data under an XML context. Furthermore the RDF attribute format provided a convenient structure for automated decision making based on multiple information sources. Additional research utilizing RDF/XML technologies will eventually enable the WarFighter to effectively make decisions under a Knowledge Management Environment.
Civilian, SPAWAR System Center San Diego
APA, Harvard, Vancouver, ISO, and other styles
16

Oudji, Salma. "Analyse de la robustesse et des améliorations potentielles du protocole RadioFréquences Sub-GHz KNX utilisé pour l’IoT domotique." Thesis, Limoges, 2016. http://www.theses.fr/2016LIMO0121/document.

Full text
Abstract:
Cette thèse aborde la performance du protocole KNX-RF utilisé dans les applications domotiques en termes de robustesse Radio Fréquences dans un environnement multi-protocoles potentiellement sujet aux interférences. Dans ces travaux, le but est d’évaluer les problématiques d’interférences rencontrées par KNX-RF en utilisant des modèles de simulation qui permettraient d’augmenter à sa fiabilité radio. Ainsi, un premier modèle a été développé sur MATLAB/Simulink et a permis de connaître les performances et les limitations de ce protocole au niveau de la couche physique dans un scénario d’interférence se produisant à l’intérieur d’une box/gateway domotique multi-protocoles. Ces simulations ont été complétées par des essais expérimentaux sur le terrain qui ont permis de vérifier les résultats obtenus. Un deuxième modèle a été développé pour évaluer les mécanismes de la couche MAC, cette fois-ci, grâce au simulateur OMNet++/MiXiM. Ce modèle reprend tous les mécanismes d’accès au canal et d’agilité en fréquence spécifiés par la norme KNX. Un scénario de collisions de trames a été simulé et plusieurs propositions d’améliorations sont discutées dans ce manuscrit. Les modèles développés permettent d’analyser et de prédire en avance de phase le comportement de KNX-RF dans un environnement radio contraignant
This thesis addresses the performance of the KNX-RF protocol used for home automation applications in terms of radiofrequency robustness in a multi-protocol environment that is potentially subject to interferences. In this work, the aim is to assess the interference problems encountered by KNX-RF using simulation models that would increase its RF reliability. Thus, a first model was developed on MATLAB / Simulink and allowed to investigate the performance and limitations of this protocol at its physical layer in an interference scenario occurring inside a multiprotocol home and building automation box/gateway. These simulations were followed by field experimental tests in an indoor environment (house) to verify the results. A second model was developed to evaluate the MAC layer mechanisms of KNX-RF through the discrete event simulator OMNeT ++/Mixim. This model includes all the mechanisms of channel access and frequency agility specified by KNX-RF standard. A frame collision scenario was simulated and several improvement proposals are discussed in this manuscript. The developed models can be used to analyze and predict in advance phase the behavior of KNX-RF in a radio-constrained environment
APA, Harvard, Vancouver, ISO, and other styles
17

Dainat, Jacques. "Étude du processus de perte de gènes et de pseudogénisation. Intégration et informatisation des concepts de l’évolution biologique. Application à la lignée humaine depuis l'origine des Eucaryotes." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4742/document.

Full text
Abstract:
La biologie a connu une extraordinaire révolution avec l'arrivée de nombreux génomes entièrement séquencés. L'analyse de la quantité d'informations disponibles nécessite la création et l'utilisation d'outils informatiques automatisés. L'interprétation des données biologiques prend tout son sens à la lumière de l'évolution. En ce sens, les études évolutives sont incontestablement nécessaires pour donner un sens aux données biologiques. Dans ce contexte, le laboratoire développe des outils pour étudier l'évolution des génomes (et protéomes) à travers les mutations subies. Cette thèse porte sur l'étude spécifique des événements de pertes de gènes unitaires. Ces événements peuvent révéler des pertes de fonctions très instructives pour comprendre l'évolution des espèces. En premier lieu, j'ai développé l'outil GLADX qui mime l'expertise humaine afin d'étudier automatiquement et avec précision les événements de pertes de gènes unitaires. Ces études se basent sur la création et l'interprétation de données phylogénétiques, de BLAST, de prédictions protéiques, etc., dans un contexte automatisé. Ensuite, j'ai développé une stratégie utilisant l'outil GLADX pour étudier à grande échelle les pertes de gènes unitaires au cours de l'évolution du protéome humain. La stratégie utilise d'abord comme filtre l'analyse de groupes d'orthologues fabriqués par un outil de clustérisation à partir du protéome complet de nombreuses espèces. Cette analyse a permis de détecter 6237 pertes de gènes unitaires putatives dans la lignée humaine. L'étude approfondie de ces pertes avec GLADX a mis en évidence de nombreux problèmes liés à la qualité des données disponibles dans les bases de données
Biology has undergone an extraordinary revolution with the appearance of numerous whole genomes sequenced. Analysis of the amount of information available requires creation and use of automated tools. The interpretation of biological data becomes meaningful in light of evolution. In view of all this, evolutionary studies are undoubtedly necessary to highlight the biological data. In this context, the laboratory develops tools to study the genomes (and proteomes) evolution through all the undergone mutations. The project of this thesis focuses specifically on the events of unitary gene losses. These events may reveal loss of functions very instructive for understanding the evolution of species. First, I developed the GLADX tool that mimics human expertise to automatically and accurately investigate the events of unitary gene losses. These studies are based on the creation and interpretation of phylogenetic data, BLAST, predictions of protein, etc., in an automated environment. Secondly, I developed a strategy using GLADX tool to study, at large-scale, the loss of unitary genes during the evolution of the human proteome. The strategy uses, in the first step, the analysis of orthologous groups produced by a clustering tool from complete proteomes of numerous species. This analysis used as a filter, allowed detecting 6237 putative losses in the human lineage. The study of these unitary gene loss cases has been deepened with GLADX and allowed to highlight many problems with the quality of available data in databases
APA, Harvard, Vancouver, ISO, and other styles
18

Kuijpers, Nicola. "Système autonome de sécurité lors de la préparation d'un repas pour les personnes cognitivement déficientes dans un habitat intelligent pour la santé." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS436/document.

Full text
Abstract:
Dans les pays développés tels que le Canada ou la France, la population est vieillissante et le nombre de personnes atteintes de déficiences cognitives augmente en conséquence. Ces troubles ont des conséquences sur les activités de la vie quotidienne pour les personnes qui en souffrent. Selon l’autonomie de ces personnes et la sévérité de leur déficience, un hébergement en centre spécialisé peut être envisagé. Ces centres spécialisés représentent souvent un coût financier énorme tant pour la personne que pour la société. Afin de limiter ces coûts, une solution alternative a émergé : les habitats domotiques. Ce sont des habitats dans lesquels un ensemble de technologies permet de pallier aux déficiences des personnes et de leur donner une autonomie accrue. L’activité de préparation d’un repas est une activité complexe qui peut présenter des risques variés pour des personnes atteintes de déficiences. Ces personnes vivent rarement seules, il faut tenir compte qu’un public varié puisse bénéficier du système. Ces habitats sont généralement déjà équipés d’appareils, il devient nécessaire pour le système de pouvoir s’adapter à ces appareils existants. L’objectif de ces travaux est la réalisation d’un prototype permettant d’assurer la sécurité lors de l’activité de la préparation d’un repas par des personnes atteintes de la maladie d’Alzheimer et ses aidants (professionnels ou naturels). Ce prototype doit s’adapter au profil des usagers, de son environnement et du matériel sur lequel il est déployé. Pour ce faire, le système, basé sur un système multi agent, applique des règles de sécurité qui se personnalisent par le biais du profil médical des usagers. Nos travaux ont été menés au sein de deux laboratoires, qui chacun, disposent d’appareils de cuisine différents dans leurs habitats intelligents pour la santé. Le système a pu être testé dans ces deux environnements, son adaptation vis-à-vis d’une clientèle variée et pour plusieurs risques de sécurité à travers des scénarios d’usage. Les résultats de ces expérimentations ont permis de montrer que le prototype répond bien aux objectifs visés
In developed countries such as Canada or France, the population is ageing and the number of people with disabilities increases. Those disabilities have an impact on their activities of daily living. According to the severity of the disability and the independance of those people, a placement in a specialized institution can be considered. Those institutions often represent huge financial costs for the people as for society. In order to reduce those costs, smart homes are an alternative solution. Smart homes make it possible for people to compensate their disabilities and increase their independance through a set of technologies. Preparing a meal is a complex activity can present various risks for those people. These people rarely live alone, and it must be taken into account that a varied public can use the system. Homes are usually already equipped with appliances, it is necessary for the system to adapt itself to these devices. This work aims the implementation of a prototype ensuring the safety of people with Alzheimer during meal preparation and their caregivers (natural or professional). The prototype must adapt itself to the user’s profiles, its environment and the appliances on which it is deployed. In order to do this, the system, based on a multi agent system, applies safety rules that are customizable through the users’ medical profiles. This work is carried out in two laboratories, each with distinct kitchen appliances in their smart home. The system had been tested in both environments, its adaptation towards different users and for several safety rules through use cases. The results of these experiments showed that the prototype meets the objectives
APA, Harvard, Vancouver, ISO, and other styles
19

Beeman, Jai Chowdhry. "Le rôle des gaz à effet de serre dans les variations climatiques passées : une approche basée sur des chronologies précises des forages polaires profonds." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAU023/document.

Full text
Abstract:
Les forages polaires profonds contiennent des enregistrements des conditions climatiques du passé et de l'air piégé qui témoignent des compositions atmosphériques du passé, notamment des gaz à effet de serre. Cette archive nous permet de décrypter le rôle des gaz à effet de serre dans les variations climatiques pendant huit cycles glaciaire-interglaciaires, soit l'équivalent de plus de 800 000 ans. Les carottes de glace, comme toute archive paléoclimatique, sont caractérisées par des incertitudes liées aux processus qui traduisent les variables climatiques en proxy, ainsi que par des incertitudes dues aux chronologies de la glace et des bulles d'air piégées. Nous développons un cadre méthodologique, basé sur la modélisation inverse dite Bayesienne et l'évaluation de fonctions complexes de densité de probabilité, pour traiter les incertitudes liées aux enregistrements paléoclimatiques des carottes de glace de manière précise. Nous proposons deux études dans ce cadre. Pour la première étude, nous identifions les probabilités de localisation des points de changement de pente de l'enregistrement du CO2 dans la carotte de WAIS Divide et d'un stack d'enregistrements de paléotempérature a partir de cinq carottes Antarctiques avec des fonctions linéaires par morceaux. Nous identifions aussi les probabilités pour chaque enregistrement individuel de température. Cela nous permet d'examiner les changements de pente à l'échelle millénaire dans chacune des séries, et de calculer les déphasages entre les changements cohérents. Nous trouvons que le déphasage entre la température en Antarctique et le CO2 à probablement varié (en restant inferieur, generalement, à 500 ans) lors de la déglaciation. L'âge des changements de temperature varie probablement entre les sites de carottage aussi. Ce résultat indique que les mécanismes qui reliaient la température en Antarctique et le CO2 lors de la déglaciation pouvaient être differents temporellement et spatialement. Dans la deuxième étude nous développons une méthode Bayesienne pour la synchronisation des carottes de glace dans le modèle inverse chronologique IceChrono. Nos simulations indiquent que cette méthode est capable de synchroniser des séries de CH4 avec précision, tout en prenant en compte des observations chronologiques externes et de l'information à priori sur les caractéristiques glaciologiques aux sites de forage. La méthode est continue et objective, apportant de la précision à la synchronisation des carottes de glace
Deep polar ice cores contain records of both past climate and trapped air that reflects past atmospheric compositions, notably of greenhouse gases. This record allows us to investigate the role of greenhouse gases in climate variations over eight glacial-interglacial cycles. The ice core record, like all paleoclimate records, contains uncertainties associated both with the relationships between proxies and climate variables, and with the chronologies of the records contained in the ice and trapped air bubbles. In this thesis, we develop a framework, based on Bayesian inverse modeling and the evaluation of complex probability densities, to accurately treat uncertainty in the ice core paleoclimate record. Using this framework, we develop two studies, the first about Antarctic Temperature and CO2 during the last deglaciation, and the second developing a Bayesian synchronization method for ice cores. In the first study, we use inverse modeling to identify the probabilities of piecewise linear fits to CO2 and a stack of Antarctic Temperature records from five ice cores, along with the individual temperature records from each core, over the last deglacial warming, known as Termination 1. Using the nodes, or change points in the piecewise linear fits accepted during the stochastic sampling of the posterior probability density, we discuss the timings of millenial-scale changes in trend in the series, and calculate the phasings between coherent changes. We find that the phasing between Antarctic Temperature and CO2 likely varied, though the response times remain within a range of ~500 years from synchrony, both between events during the deglaciation and accross the individual ice core records. This result indicates both regional-scale complexity and modulations or variations in the mechanisms linking Antarctic temperature and CO2 accross the deglaciation. In the second study, we develop a Bayesian method to synchronize ice cores using corresponding time series in the IceChrono inverse chronological model. Tests show that this method is able to accurately synchronize CH4 series, and is capable of including external chronological observations and prior information about the glaciological characteristics at the coring site. The method is continuous and objective, bringing a new degree of accuracy and precision to the use of synchronization in ice core chronologies
APA, Harvard, Vancouver, ISO, and other styles
20

Quereilhac, Alina. "Une approche générique pour l'automatisation des expériences sur les réseaux informatiques." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4036/document.

Full text
Abstract:
Cette thèse propose une approche générique pour automatiser des expériences sur des réseaux quelle que soit la technologie utilisée ou le type de plate-forme d'évaluation. L'approche proposée est basée sur l'abstraction du cycle de vie de l'expérience en étapes génériques à partir desquelles un modèle d'expérience et des primitives d'expérimentation sont dérivés. Une architecture générique d'expérimentation est proposée, composée d'un modèle d'expérience générique, d'une interface pour programmer des expériences et d'un algorithme d'orchestration qui peux être adapté aux simulateurs, émulateurs et bancs d'essai de réseaux. La faisabilité de cette approche est démontrée par la mise en œuvre d'un framework capable d'automatiser des expériences sur toute combinaison de ces plateformes. Trois aspects principaux du framework sont évalués : son extensibilité pour s'adapter à tout type de plate-forme, son efficacité pour orchestrer des expériences et sa flexibilité pour permettre des cas d'utilisation divers, y compris l'enseignement, la gestion des plate-formes et l'expérimentation avec des plates-formes multiples. Les résultats montrent que l'approche proposée peut être utilisée pour automatiser efficacement l'expérimentation sur les plates-formes d'évaluation hétérogènes et pour un éventail de scénarios variés
This thesis proposes a generic approach to automate network experiments for scenarios involving any networking technology on any type of network evaluation platform. The proposed approach is based on abstracting the experiment life cycle of the evaluation platforms into generic steps from which a generic experiment model and experimentation primitives are derived. A generic experimentation architecture is proposed, composed of an experiment model, a programmable experiment interface and an orchestration algorithm that can be adapted to network simulators, emulators and testbeds alike. The feasibility of the approach is demonstrated through the implementation of a framework capable of automating experiments using any combination of these platforms. Three main aspects of the framework are evaluated: its extensibility to support any type of platform, its efficiency to orchestrate experiments and its flexibility to support diverse use cases including education, platform management and experimentation with multiple platforms. The results show that the proposed approach can be used to efficiently automate experimentation on diverse platforms for a wide range of scenarios
APA, Harvard, Vancouver, ISO, and other styles
21

Hyafil, Jean-Éric. "Revenu universel : pertinence pour accompagner les métamorphoses du travail, rôle dans la politique fiscale et macroéconomique, modalités de mise en oeuvre et effets redistributifs." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E035/document.

Full text
Abstract:
Cette thèse porte sur les propositions de revenu universel remplaçant les seules prestations sociales sous condition de ressource dans le système social français (RSA et éventuellement APL). Dans une première partie, nous nous demandons si l’automatisation des emplois et le souhait de désaliéner le travail justifient la mise en œuvre d’un revenu universel. Dans une deuxième partie, nous présentons les intérêts d’un revenu universel dans la politique macroéconomique et fiscale : pour compenser les effets anti-redistributifs d’une hausse de la fiscalité sur la consommation ou écologique, pour concilier austérité salariale et relance keynésienne, etc. Dans une troisième partie, nous nous intéressons aux réformes socio-fiscales permettant d’introduire un revenu universel et à leurs enjeux politiques et techniques : enjeu de la suppression des dépenses fiscales sur l’impôt sur le revenu, de l’individualisation du système socio-fiscal, possibilité d’intégrer les APL au revenu universel, conséquences pour l’allocataire du RSA et l’efficacité des services sociaux, pour le prélèvement à la source, etc. Dans la quatrième partie, nous formulons une proposition de réforme fiscale introduisant un revenu universel, que nous simulons sur un échantillon de 821 812 individus représentatifs de la population française afin de mettre en évidence ses effets redistributifs. Nous nous demandons dans quelle mesure le revenu universel pourrait remplacer les exonérations de cotisation sur les emplois à bas salaire. La dernière partie, plus sociologique, tente de poser les termes du débat sur les enjeux du revenu universel dans l’intégration par le travail et l’exclusion sociale
This thesis focuses on proposals of basic income in lieu of means-tested cash transfers in the French welfare system. The first part questions whether job automation and a call for unalienating work can justify establishing a basic income. The second part presents the benefits of basic income for fiscal or macroeconomic policies, notably to compensate the anti-redistributive consequences of consumption or ecological taxes, and to conciliate wage wage-competitiveness with demand policies. The third part presents the characteristics of fiscal reforms that include a basic income and examines the specific case of the French socio-fiscal system: consequences of the removal of fiscal expenses on the income tax, individualization of the social and fiscal system, replacement of tax expenditures, consequences for the beneficiaries of means-tested transfers, on tax deduction at source, etc. In the fourth part, we formulate a proposal of fiscal reform that introduces a basic income, and we stimulate its redistributive consequences on a sample of 821,815 individuals representative of population in France. We investigate to what extent a basic income could replace subsidies on low-paid jobs. In the last part, we present key elements in the more sociological debate on the impact of basic income onto work incentives and social exclusion
APA, Harvard, Vancouver, ISO, and other styles
22

Gastebois, Jérémy. "Contribution à la commande temps réel des robots marcheurs. Application aux stratégies d'évitement des chutes." Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2315/document.

Full text
Abstract:
Les grands robots marcheurs sont des systèmes mécatroniques poly-articulés complexes qui cristallisent la volonté des humains de conférer leurs capacités à des artefacts, l’une d’entre elle étant la locomotion bipède, et plus particulièrement la conservation de l’équilibre face à des perturbations extérieures. Cette thèse propose un stabilisateur postural ainsi que sa mise en œuvre sur le système locomoteur BIP 2000.Ce robot anthropomorphique possède quinze degrés de libertés actionnés par moteurs électriques et a reçu un nouvel automate ainsi que des variateurs industriels lors de la mise à jour réalisée dans le cadre de ces travaux. Un contrôleur a été conçu et implémenté en suivant les principes de la programmation orientée objet afin de fournir une modularité qui s’inspire de la symétrie naturelle des humanoïdes. Cet aspect a conduit à l’élaboration d’un ensemble d’outils mathématiques permettant de calculer l’ensemble des modèles d’un robot composé de sous-robots dont on connaîtrait déjà les modèles. Le contrôleur permet notamment à la machine de suivre des trajectoires calculées hors ligne par des algorithmes de génération de marches dynamiques ainsi que de tester le stabilisateur postural.Ce dernier consiste en un contrôle en position du robot physique par la consigne d’un robot virtuel de modèle dégradé, commandé en effort, soumis à des champs électrostatiques contraignant sa configuration articulaire. Les tests effectués ont permis de montrer la faisabilité de la méthode
Big walking robots are complex multi-joints mechanical systems which crystallize the human will to confer their capabilities on artefacts, one of them being the bipedal locomotion and more especially the balance keeping against external disturbances. This thesis proposes a balance stabilizer under operating conditions displayed on the locomotor system BIP 2000.This anthropomorphic robot has got fifteen electrically actuated degree of freedom and an Industrial controller. A new software has been developed with an object-oriented programming approach in order to propose the modularity required by the emulated and natural human symmetry. This consideration leads to the development of a mathematical tool allowing the computation of every modelling of a serial robot which is the sum of multiple sub robots with already known modelling. The implemented software also enables the robot to run offline generated dynamic walking trajectories and to test the balance stabilizer.We explore in this thesis the feasibility of controlling the center of gravity of a multibody robotic system with electrostatic fields acting on its virtual counterpart in order to guarantee its balance. Experimental results confirm the potential of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
23

Barbosa, Haniel. "Nouvelles techniques pour l'instanciation et la production des preuves dans SMT." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0091/document.

Full text
Abstract:
Des nombreuses applications de méthodes formelles se fondent sur les solveurs SMT pour valider automatiquement les conditions à vérifier et fournissent des certificats de leurs résultats. Nous visons à la fois à améliorer l'efficacité des solveurs SMT et à accroître leur fiabilité. Notre première contribution est un cadre uniforme pour le raisonnement avec des formules quantifiées dans les solveurs SMT, dans lequel généralement diverses techniques d'instanciation sont utilisées. Nous montrons que les principales techniques d'instanciation peuvent être jetées dans ce cadre. Le cadre repose sur le problème de l'E-ground (dis)unification. Nous présentons une procédure de décision pour résoudre ce problème en pratique: Fermeture de congruence avec variables libres (CCFV}). Nous mesurons l'impact de CCFV dans les solveurs SMT veriT et CVC4. Nous montrons que nos implémentations présentent des améliorations par rapport aux approches à la fine pointe de la technologie. Notre deuxième contribution est un cadre pour le traitement des formules tout en produisant des preuves détaillées. Les principaux composants de notre cadre de production de preuve sont un algorithme de récurrence contextuelle générique et un ensemble extensible de règles d'inférence. Avec des structures de données appropriées, la génération des preuves ne crée que des frais généraux linéaires et les vérifications peuvent être vérifiées en temps linéaire. Nous avons également mis en œuvre l'approche en veriT. Cela nous a permis de simplifier considérablement la base du code tout en augmentant le nombre de problèmes pour lesquels des preuves détaillées peuvent être produites
In many formal methods applications it is common to rely on SMT solvers to automatically discharge conditions that need to be checked and provide certificates of their results. In this thesis we aim both to improve their efficiency of and to increase their reliability. Our first contribution is a uniform framework for reasoning with quantified formulas in SMT solvers, in which generally various instantiation techniques are employed. We show that the major instantiation techniques can be all cast in this unifying framework. Its basis is the problem of E-ground (dis)unification, a variation of the classic rigid E-unification problem. We introduce a decision procedure to solve this problem in practice: Congruence Closure with Free Variables (CCFV). We measure the impact of optimizations and instantiation techniques based on CCFV in the SMT solvers veriT and CVC4, showing that our implementations exhibit improvements over state-of-the-art approaches in several benchmark libraries stemming from real world applications. Our second contribution is a framework for processing formulas while producing detailed proofs. The main components of our proof producing framework are a generic contextual recursion algorithm and an extensible set of inference rules. With suitable data structures, proof generation creates only a linear-time overhead, and proofs can be checked in linear time. We also implemented the approach in veriT. This allowed us to dramatically simplify the code base while increasing the number of problems for which detailed proofs can be produced
APA, Harvard, Vancouver, ISO, and other styles
24

Gouraud, Jonas. "Mind wandering dynamic in automated environments and its influence on out-of-the-loop situations." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30269/document.

Full text
Abstract:
Des niveaux d'automatisation élevés sont intégrés dans les environnements critiques pour satisfaire la demande croissante de systèmes plus sûrs. Cette philosophie déplace les opérateurs vers un rôle de supervision et crée de nouveaux problèmes appelés problèmes de performance liés à la sortie de boucle (SDB). L'émergence de pensées sans lien avec ici et maintenant, ou divagation attentionnelle (DA), pourrait affecter les opérateurs dans des situations de SDB par le biais du découplage perceptuel induit. Cette thèse a étudié la dynamique de la DA dans les situations de SDB et son influence sur les opérateurs. Nous avons en premier lieu examiné les preuves dans la littérature pointant vers un lien entre le problème de performance lié à la SDB et la DA. Nous avons complété cette analyse théorique en rapportant la tendance des pilotes (collectée avec un questionnaire) à rencontrer plus de problèmes avec leur pilote automatique pour ceux ayant une plus grande propension au MW non lié à la tâche. Nous avons ensuite mené trois expériences dans des conditions de SDB. Nous avons observé une augmentation significative des épisodes de DA dans les situations de SDB quelle que soit la fiabilité du système, par rapport aux conditions manuelles. Les épisodes de DA étaient également accompagnés d'un découplage perceptuel vis-à-vis de la tâche créé par la DA non lié à la tâche. Ce découplage était visible sur des rapports de demande mentale ainsi que les signaux oculométriques et encéphalographiques. Dans l'ensemble, nos résultats démontrent la possibilité d'utiliser des marqueurs physiologiques de la DA dans des environnements de SDB complexes. Nous discutons de nouvelles perspectives d'utilisation des marqueurs de la DA pour caractériser les problèmes de performance liés à la SDB. Sans vouloir arrêter aveuglément l'émergence de la DA, qui pourrait être bénéfique pour les opérateurs, les recherches futures devraient se concentrer sur la conception de systèmes capables de gérer la DA et d'identifier les informations nécessaires pour faciliter la rentrée de l'opérateur dans la boucle de contrôle
Higher levels of automation are progressively integrated in critical environments to satisfy the increasing demand for safer systems. Such philosophy moves operators to a supervisory role, also called out-of-the-loop (OOTL) situations. Unfortunately, OOTL situations also create a new kind of human-machine interaction issues, called OOTL performance problem. The dramatic consequences of OOTL performance problem stress the need to identify which mechanisms could influence their appearance. The emergence of thoughts unrelated to the here and now, labeled mind wandering (MW), could affect operators in OOTL situations through the perceptual decoupling induced. This thesis investigates MW dynamic in OOTL situations and its influence on operators. We firstly reviewed the evidences in the literature underlining a link between OOTL performance problem and MW. We completed theoretical insights by reporting pilots' tendency (collected with a questionnaire) to encounter more problems with autopilots when experiencing more task-unrelated MW. Then, we conducted three experiments in OOTL conditions using an obstacle avoidance task. With non-expert population and sessions longer than 45 minutes, we observed a significant increase of MW in OOTL situations compared to manual conditions, independently of system reliability. MW episodes were also accompanied by a perceptual decoupling from the task induced by task-unrelated MW. This decoupling was visible on reports of mental demand as well as oculometric (pupil size, blinks) and encephalographic (N1 component, alpha activity) signals. Overall, our results demonstrate the possibility to use physiological markers of MW in complex OOTL environments. We discuss new perspectives towards the use of MW markers to characterize the OOTL performance problem. Instead of blindly stopping MW episodes, which could have benefits for operators, future research should focus on designing systems able to cope with MW and identify information needed to facilitate the reentry in the control loop when needed
APA, Harvard, Vancouver, ISO, and other styles
25

Sèdes, Florence. "Contribution au developpement des systemes bureautiques integres : gestion de donnees, repertoires, formulaires, documents." Toulouse 3, 1987. http://www.theses.fr/1987TOU30134.

Full text
Abstract:
Presentation d'une approche visant a integrer les bases textuelles et les bases de donnees en fournissant a l'utilisateur une interface multimedia du type formulaire. Presentation analytique de la fonction formulaire. Etude de l'environnement bureautique. Presentation de l'approche base textuelle. Les insuffisances de cette approche sont analysees ainsi que les contraintes dues au caractere non structure des informations. Il est mis en evidence alors la necessite et les avantages d'une structuration a posteriori. Le mixage d'informations de natures differentes est aussi aborde. Certains aspects sont illustres par des applications concretes
APA, Harvard, Vancouver, ISO, and other styles
26

McElroy, Jonathan David. "Automatic Document Classification in Small Environments." DigitalCommons@CalPoly, 2012. https://digitalcommons.calpoly.edu/theses/682.

Full text
Abstract:
Document classification is used to sort and label documents. This gives users quicker access to relevant data. Users that work with large inflow of documents spend time filing and categorizing them to allow for easier procurement. The Automatic Classification and Document Filing (ACDF) system proposed here is designed to allow users working with files or documents to rely on the system to classify and store them with little manual attention. By using a system built on Hidden Markov Models, the documents in a smaller desktop environment are categorized with better results than the traditional Naive Bayes implementation of classification.
APA, Harvard, Vancouver, ISO, and other styles
27

Hamoui, Mohamad Fady. "Un système multi-agents à base de composants pour l’adaptation autonomique au contexte – Application à la domotique." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20088/document.

Full text
Abstract:
Les environnements domotiques sont des environnements ubiquitaires dans lesquels des équipements domestiques, disséminés dans une habitation, fournissent des services utilisables à distance au travers d'un réseau. Des systèmes domotiques sont proposés pour permettre aux utilisateurs de contrôler les équipements en fonction de leurs besoins.Idéalement, ces systèmes orchestrent l'exécution des services fournis par les équipements pour réaliser des services complexes. Mieux encore, ces systèmes doivent s'adapter à la variété des environnements en termes d'équipements et des besoins des utilisateurs. Ils doivent également pouvoir s'adapter dynamiquement, si possible de manière autonome, au changement de leur contexte d'exécution (apparition ou disparition d'un équipement, évolution des besoins).Dans cette thèse, nous apportons une réponse à cette problématique avec SAASHA, un système domotique multi-agents à base de composants. La combinaison de ses deux paradigmes permet de gérer l'adaptation à trois niveaux : présentation (interfaces utilisateur),organisation (architecture du système) et comportement (architecture interne des agents).Les agents perçoivent le contexte et ses changements. Les utilisateurs se voient proposer une vue dynamique du contexte leur permettant de définir des scénarios personnalisés sous forme de règles. Les agents se répartissent les rôles pour réaliser les scénarios. Ils modifient dynamiquement leur architecture interne grâce à la génération, au déploiement et à l'assemblage de composants pour se doter de nouveaux comportements de contrôle des équipements et des scénarios. Les agents collaborent ainsi pour exécuter les scénarios. En cas de changement, ces trois niveaux d'adaptation sont mis en oeuvre de manière dynamique et autonome pour maintenir la continuité de service. Un prototype de SAASHA, basé sur les standards industriels UPnP et OSGi, a été développé pour évaluer la faisabilité de notre proposition
Home automation environments are ubiquitous environments where domestic devices, scattered throughout a home, provide services that can be used remotely over a network. Home automation systems are proposed to enable the users of controlling the devices according to their needs. Ideally, these systems orchestrate the execution of the services provided by the devices to achieve complex services. Even more, these systems must adapt to the variety of environments in terms of devices and users needs. They must also be able to adapt dynamically, if possible in an autonomous manner, to the changes of their execution context (appearance or disappearance of a device, changing needs).In this thesis, we provide an answer to this problematic with SAASHA, a multi-agent home automation system based on components. The combination of these two paradigms enables managing the adaptation on three levels: presentation (user interface), organization (system architecture) and behavior (internal architecture of agents). The agents perceive their context and its changes. The Users are offered a dynamic view of the context allowing them to define custom scenarios as rules. The agents divide the roles among them to realize the scenarios. They modify dynamically their internal architecture throughout the generation, deployment and assembly of components to adopt new device control behaviors and scenarios. The agents collaborate to execute the scenarios. In case of a change, these three levels of adaptation are updated dynamically and autonomously to maintain the service continuity. A SAASHA prototype, based on UPnP and OSGi industry standards, has been developed to assess the feasibility of our proposal
APA, Harvard, Vancouver, ISO, and other styles
28

Macher, Hélène. "Du nuage de points à la maquette numérique de bâtiment : reconstruction 3D semi-automatique de bâtiments existants." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD006/document.

Full text
Abstract:
La création d'une maquette numérique d'un bâtiment existant nécessite le relevé du bâtiment. Le scanner laser terrestre est largement utilisé pour atteindre cet objectif. Il permet d'obtenir la géométrie des objets sous forme de nuages de points. Il fournit une grande quantité de données précises de manière très rapide et avec un niveau élevé de détails. Malheureusement, le passage du nuage de points à la maquette numérique reste actuellement largement manuel en raison du volume important de données et des processus qui sont difficiles à automatiser. Cette démarche est chronophage et source d'erreurs. Un défi majeur aujourd'hui est donc d'automatiser le processus menant à la reconstruction 3D de bâtiments existants à partir de nuages de points. L'objectif de cette thèse est de développer une chaîne de traitements permettant d'extraire automatiquement le maximum d'informations du nuage de points d'un bâtiment en vue d'intégrer le résultat dans un logiciel de BIM
The creation of an as-built BIM requires the acquisition of the as-is conditions of existing buildings. Terrestrial laser scanning (TLS) is widely used to achieve this goal. Indeed, laser scanners permit to collect information about object geometry in form of point clouds. They provide a large amount of accurate data in a very fast way and with a high level of details. Unfortunately, the scan-to-BIM process remains currently largely a manual process because of the huge amount of data and because of processes, which are difficult to automate. It is time consuming and error-prone. A key challenge today is thus to automate the process leading to 3D reconstruction of existing buildings from point clouds. The aim of this thesis is to develop a processing chain to extract the maximum amount of information from a building point cloud in order to integrate the result in a BIM software
APA, Harvard, Vancouver, ISO, and other styles
29

Leon, Diego, and Viktor Meyer. "Efficiency evaluation of digitalization." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-258134.

Full text
Abstract:
The concept of digitalization has become more and more prevalent due to the unprecedented computational power of our current digital machines. Swedish healthcare has been focusing on digitalization in the form of e-health during the last decade and the amount of digital services is rapidly increasing. By using modern technology to create smarter and more efficient processes it is possible to improve quality for patients and users.There is a need for more reliable knowledge about digitalization and its potential for efficiency. This project seeks to investigate and discuss efficiency in digitalization. The purpose is to directly contribute with more data on the topic.This project implements a qualitative research method as well as a case-study to conduct efficiency tests and compare manual processes to digitalized ones.The research methodology consists of a literature study, the construction of a digitalized process, and two tests where each test involves executing a process both manually and digitally. The processes involve document generation and communication, within the healthcare sector.The test results show that digitalization achieves an overall efficiency increase of 333% when all results are summarized. Overall, it is clear from the results that digitalization leads to increased efficiency. The efficiency achieved varies from process to process. In the general case, an increase in efficiency is observed, but sometimes also a decrease.
Konceptet digitalisering har blivit allt mer utbrett på grund av den enorma datorkraft som finns i våra nuvarande digitala maskiner. Den svenska sjukvården har fokuserat på digitalisering i form av e-hälsa under det senaste decenniet och antalet digitala tjänster ökar snabbt. Genom att använda modern teknik för att skapa smartare och effektivare processer är det möjligt att förbättra kvaliteten för patienter och användare.Det finns ett behov av mer tillförlitlig kunskap om digitalisering och dess potential för effektivitet. Detta projekt har som mål att undersöka denna effektivitet. Syftet är att direkt bidra med mer data om ämnet digitalisering.Detta projekt bygger på en kvalitativ forskningsmetod samt en fallstudie för att genomföra effektivitetsprov och jämföra manuella med digitaliserade arbetsprocesser.Den använda forskningsmetodiken består av en litteraturstudie, konstruktion av en digitaliserad process, samt två tester där vardera test utvärderar både en manuell och digital process. Processerna innefattar dokumentgenerering och kommunikation, inom sjukvården.Testresultaten visar att digitalisering uppnår en total effektivitetsökning på 333% när alla resultat sammanställs. Överlag är det från resultaten uppenbart att digitalisering leder till ökad effektivitet. Effektiviteten som uppnås varierar från process till process. I det generella fallet observeras ökad effektivitet, men ibland även minskad.
APA, Harvard, Vancouver, ISO, and other styles
30

Christophe, François. "Semantics and Knowledge Engineering for Requirements and Synthesis in Conceptual Design: Towards the Automation of Requirements Clarification and the Synthesis of Conceptual Design Solutions." Phd thesis, Ecole centrale de nantes - ECN, 2012. http://tel.archives-ouvertes.fr/tel-00977676.

Full text
Abstract:
This thesis suggests the use of tools from the disciplines of Computational Linguistics and Knowledge Representation with the idea that such tools would enable the partial automation of two processes of Conceptual Design: the analysis of Requirements and the synthesis of concepts of solution. The viewpoint on Conceptual Design developed in this research is based on the systematic methodologies developed in the literature. The evolution of these methodologies provided precise description of the tasks to be achieved by the designing team in order to achieve successful design. Therefore, the argument of this thesis is that it is possible to create computer models of some of these tasks in order to partially automate the refinement of the design problem and the exploration of the design space. In Requirements Engineering, the definition of requirements consists in identifying the needs of various stakeholders and formalizing it into design speciႡcations. During this task, designers face the problem of having to deal with individuals from different expertise, expressing their needs with different levels of clarity. This research tackles this issue with requirements expressed in natural language (in this case in English). The analysis of needs is realised from different linguistic levels: lexical, syntactic and semantic. The lexical level deals with the meaning of words of a language. Syntactic analysis provides the construction of the sentence in language, i.e. the grammar of a language. The semantic level aims at Ⴁnding about the specific meaning of words in the context of a sentence. This research makes extensive use of a semantic atlas based on the concept of clique from graph theory. Such concept enables the computation of distances between a word and its synonyms. Additionally, a methodology and a metric of similarity was defined for clarifying requirements at syntactic, lexical and semantic levels. This methodology integrates tools from research collaborators. In the synthesis process, a Knowledge Representation of the necessary concepts for enabling computers to create concepts of solution was developed. Such, concepts are: function, input/output Ⴂow, generic organs, behaviour, components. The semantic atlas is also used at that stage to enable a mapping between functions and their solutions. It works as the interface between the concepts of this Knowledge Representation.
APA, Harvard, Vancouver, ISO, and other styles
31

Бушуева, К. С., and K. S. Bushueva. "Внедрение машинного обучения в системы электронного документооборота : магистерская диссертация." Master's thesis, б. и, 2020. http://hdl.handle.net/10995/93436.

Full text
Abstract:
Актуальность выбранной темы состоит в том, что внедрение машинного обучения в системы электронного документооборота является новым и мощным инструментом для упрощения работы с документами. Многие организации уже перевели бумажный документооборот в электронный, поэтому необходимо рассмотреть вопрос как внедрение машинного обучения с систему электронного документооборота повысит производительность каждого сотрудника и предприятия в целом. Целью исследования является автоматизация процесса подготовки документа с использованием алгоритмов машинного обучения. Материалы данной работы, обобщённые по итогам анализа, могут быть использованы в качестве практического применения на предприятии для повышения эффективности работы всех подразделений и как следствие получения экономической выгоды от внедрения машинного обучения в систему электронного документооборота.
The relevance of the chosen topic lies in the fact that the introduction of machine learning into electronic document management systems is a new and powerful tool for simplifying work with documents. Many organizations have already transferred paper workflow to electronic, so it is necessary to consider how the introduction of machine learning from an electronic document management system will increase the productivity of each employee and the enterprise as a whole. The aim of the research is to automate the document preparation process using machine learning algorithms. The materials of this work, summarized according to the results of the analysis, can be used as a practical application at the enterprise to increase the efficiency of all departments and, as a result, obtain economic benefits from the introduction of machine learning into the electronic document management system.
APA, Harvard, Vancouver, ISO, and other styles
32

Désage, Simon-Frédéric. "Contraintes et opportunités pour l'automatisation de l'inspection visuelle au regard du processus humain." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA028/document.

Full text
Abstract:
Ces travaux de recherche ont pour ambition de contribuer à l'automatisation de l'inspection visuelle, dans le cadre du contrôle qualité de pièces métalliques à géométrie complexe. En soi, de nombreuses techniques d'optique, de numérisation, d'implémentation de rendu photo-réaliste, de classification d'images ou de données, et de reconnaissance de formes sont déjà fortement développées et appliquées chacune dans des domaines particuliers. Or, elles ne sont pas, ou rarement pour des cas particuliers, combinées pour obtenir une méthode complète de numérisation de l'apparence jusqu'à la reconnaissance, effective et perceptuelle, de l'objet et des anomalies esthétiques.Ces travaux ont profité des avancements des thèses précédentes sur la formalisation du contrôle qualité ainsi que sur un système agile de numérisation d'aspect de surface permettant la mise en évidence de toute la diversité d'anomalies esthétiques de surfaces. Ainsi, la contribution majeure réside dans l'adaptation des méthodes de traitement d'images à la structure formalisée du contrôle qualité, au format riche des données d'apparence et aux méthodes de classification pour réaliser la reconnaissance telle que le contrôleur humain.En ce sens, la thèse propose un décryptage des différentes méthodologies liées au contrôle qualité, au comportement du contrôleur humain, aux anomalies d'aspect de surface, aux managements et traitements de l'information visuelle, jusqu'à la combinaison de toutes ces contraintes pour obtenir un système de substitution partielle au contrôleur humain. L'objectif de la thèse, et du décryptage, est d'identifier et de réduire les sources de variabilité pour obtenir un meilleur contrôle qualité, notamment par l'automatisation intelligente et structurée de l'inspection visuelle. A partir d'un dispositif de vision par ordinateur choisi, la solution proposée consiste à analyser la texture visuelle. Celle est considérée en tant que signature globale de l'information d'apparence visuelle supérieure à une unique image contenant des textures images. L'analyse est effectuée avec des mécanismes de reconnaissance de formes et d'apprentissage machine pour établir la détection et l'évaluation automatiques d'anomalies d'aspect
This research has the ambition to contribute to the automation of visual inspection, in the quality control of complex geometry metal parts. Firstly, many optical techniques, scanning, implementation of photorealistic rendering, classification of images or data, and pattern recognition are already highly developed and applied in each particular areas. But they are not, or rarely, in special cases, combined for a complete scanning method of appearance to the recognition, effective and perceptual, of object and aesthetic anomalies.This work benefited from the advancements of previous thesis on the formalization of quality control, as well as an agile system of surface appearance scanning to highlight the diversity of aesthetic anomalies surfaces. Thus, the major contribution lies in the adaptation of image processing methods to the formal structure of quality control, rich appearance data format and classification methods to achieve recognition as the human controller.In this sense, the thesis deciphers the different methodologies related to quality control, the human controller processes, surface appearance defects, the managements and processing of visual information, to the combination of all these constraints for a partial substitution system of the human controller. The aim of the thesis is to identify and reduce sources of variability to obtain better quality control, including through the intelligent and structured automation of visual inspection. From a selected computer vision device, the proposed solution is to analyze visual texture. This is regarded as a global signature of superior visual appearance information to a single image containing images textures. The analysis is performed with pattern recognition and machine learning mechanisms to develop automatic detection and evaluation of appearance defects
APA, Harvard, Vancouver, ISO, and other styles
33

Moens, Marie-Francine. "Automatic indexing and abstracting of document texts /." Boston, Mass. [u.a.] : Kluwer Academic Publ, 2000. http://www.loc.gov/catdir/enhancements/fy0820/00020394-d.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Blein, Florent. "Automatic Document Classification Applied to Swedish News." Thesis, Linköping University, Department of Computer and Information Science, 2005. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-3065.

Full text
Abstract:

The first part of this paper presents briefly the ELIN[1] system, an electronic newspaper project. ELIN is a framework that stores news and displays them to the end-user. Such news are formatted using the xml[2] format. The project partner Corren[3] provided ELIN with xml articles, however the format used was not the same. My first task has been to develop a software that converts the news from one xml format (Corren) to another (ELIN).

The second and main part addresses the problem of automatic document classification and tries to find a solution for a specific issue. The goal is to automatically classify news articles from a Swedish newspaper company (Corren) into the IPTC[4] news categories.

This work has been carried out by implementing several classification algorithms, testing them and comparing their accuracy with existing software. The training and test documents were 3 weeks of the Corren newspaper that had to be classified into 2 categories.

The last tests were run with only one algorithm (Naïve Bayes) over a larger amount of data (7, then 10 weeks) and categories (12) to simulate a more real environment.

The results show that the Naïve Bayes algorithm, although the oldest, was the most accurate in this particular case. An issue raised by the results is that feature selection improves speed but can seldom reduce accuracy by removing too many features.

APA, Harvard, Vancouver, ISO, and other styles
35

Ou, Shiyan, Christopher S. G. Khoo, and Dion H. Goh. "Automatic multi-document summarization for digital libraries." School of Communication & Information, Nanyang Technological University, 2006. http://hdl.handle.net/10150/106042.

Full text
Abstract:
With the rapid growth of the World Wide Web and online information services, more and more information is available and accessible online. Automatic summarization is an indispensable solution to reduce the information overload problem. Multi-document summarization is useful to provide an overview of a topic and allow users to zoom in for more details on aspects of interest. This paper reports three types of multi-document summaries generated for a set of research abstracts, using different summarization approaches: a sentence-based summary generated by a MEAD summarization system that extracts important sentences using various features, another sentence-based summary generated by extracting research objective sentences, and a variable-based summary focusing on research concepts and relationships. A user evaluation was carried out to compare the three types of summaries. The evaluation results indicated that the majority of users (70%) preferred the variable-based summary, while 55% of the users preferred the research objective summary, and only 25% preferred the MEAD summary.
APA, Harvard, Vancouver, ISO, and other styles
36

Greening, Christopher. "Automatic writer identification for forensic document analysis." Thesis, University of Essex, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.520166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Wilson, Irene Meredith 1976. "An empirical study of automatic document extraction." Thesis, Massachusetts Institute of Technology, 1999. http://hdl.handle.net/1721.1/80137.

Full text
Abstract:
Thesis (S.B. and M.Eng.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1999.
Includes bibliographical references (leaves 104-105).
by Irene M. Wilson.
S.B.and M.Eng.
APA, Harvard, Vancouver, ISO, and other styles
38

Somon, Bertille. "Corrélats neuro-fonctionnels du phénomène de sortie de boucle : impacts sur le monitoring des performances." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS042/document.

Full text
Abstract:
Les mutations technologiques à l’œuvre dans les systèmes aéronautiques ont profondément modifié les interactions entre l’homme et la machine. Au fil de cette évolution, les opérateurs se sont retrouvés face à des systèmes de plus en plus complexes, de plus en plus automatisés et de plus en plus opaques. De nombreuses tragédies montrent à quel point la supervision des systèmes par des opérateurs humains reste un problème sensible. En particulier, de nombreuses évidences montrent que l’automatisation a eu tendance à éloigner l’opérateur de la boucle de contrôle des systèmes, créant un phénomène dit de sortie de boucle (OOL). Ce phénomène se caractérise notamment par une diminution de la conscience de la situation et de la vigilance de l’opérateur, ainsi qu’une complaisance et une sur-confiance dans les automatismes. Ces difficultés déclenchent notamment une baisse des performances de l’opérateur qui n’est plus capable de détecter les erreurs du système et de reprendre la main si nécessaire. La caractérisation de l’OOL est donc un enjeux majeur des interactions homme-système et de notre société en constante évolution. Malgré plusieurs décennies de recherche, l’OOL reste difficile à caractériser, et plus encore à anticiper. Nous avons dans cette thèse utilisé les théories issues des neurosciences, notamment sur le processus de détection d’erreurs, afin de progresser sur notre compréhension de ce phénomène dans le but de développer des outils de mesure physiologique permettant de caractériser l’état de sortie de boucle lors d’interactions avec des systèmes écologiques. En particulier, l’objectif de cette thèse était de caractériser l’OOL à travers l’activité électroencéphalographique (EEG) dans le but d’identifier des marqueurs et/ou précurseurs de la dégradation du processus de supervision du système. Nous avons dans un premier temps évalué ce processus de détection d’erreurs dans des conditions standards de laboratoire plus ou moins complexes. Deux études en EEG nous ont d’abord permis : (i) de montrer qu’une activité cérébrale associée à ce processus cognitif se met en place dans les régions fronto-centrales à la fois lors de la détection de nos propres erreurs (ERN-Pe et FRN-P300) et lors de la détection des erreurs d’un agent que l’on supervise, (complexe N2-P3) et (ii) que la complexité de la tâche évaluée peut dégrader cette activité cérébrale. Puis nous avons mené une autre étude portant sur une tâche plus écologique et se rapprochant des conditions de supervision courantes d’opérateurs dans l’aéronautique. Au travers de techniques de traitement du signal EEG particulières (e.g., analyse temps-fréquence essai par essai), cette étude a mis en évidence : (i) l’existence d’une activité spectrale θ dans les régions fronto-centrales qui peut être assimilée aux activités mesurées en condition de laboratoire, (ii) une diminution de l’activité cérébrale associée à la détection des décisions du système au cours de la tâche, et (iii) une diminution spécifique de cette activité pour les erreurs. Dans cette thèse, plusieurs mesures et analyses statistiques de l’activité EEG ont été adaptées afin de considérer les contraintes des tâches écologiques. Les perspectives de cette thèse ouvrent sur une étude en cours dont le but est de mettre en évidence la dégradation de l’activité de supervision des systèmes lors de la sortie de boucle, ce qui permettrait d’identifier des marqueurs précis de ce phénomène permettant ainsi de le détecter, voire même, de l’anticiper
The ongoing technological mutations occuring in aeronautics have profoundly changed the interactions between men and machines. Systems are more and more complex, automated and opaque. Several tragedies have reminded us that the supervision of those systems by human operators is still a challenge. Particularly, evidences have been made that automation has driven the operators away from the control loop of the system thus creating an out-of-the-loop phenomenon (OOL). This phenomenon is characterized by a decrease in situation awareness and vigilance, but also complacency and over-reliance towards automated systems. These difficulties have been shown to result in a degradation of the operator’s performances. Thus, the OOL phenomenon is a major issue of today’s society to improve human-machine interactions. Even though it has been studied for several decades, the OOL is still difficult to characterize, and even more to predict. The aim of this thesis is to define how cognitive neurosciences theories, such as the performance monitoring activity, can be used in order to better characterize the OOL phenomenon and the operator’s state, particularly through physiological measures. Consequently, we have used electroencephalographic activity (EEG) to try and identify markers and/or precursors of the supervision activity during system monitoring. In a first step we evaluated the error detection or performance monitoring activity through standard laboratory tasks, with varying levels of difficulty. We performed two EEG studies allowing us to show that : (i) the performance monitoring activity emerges both for our own errors detection but also during another agent supervision, may it be a human agent or an automated system, and (ii) the performance monitoring activity is significantly decreased by increasing task difficulty. These results led us to develop another experiment to assess the brain activity associated with system supervision in an ecological environment, resembling everydaylife aeronautical system monitoring. Thanks to adapted signal processing techniques (e.g. trial-by-trial time-frequency decomposition), we were able to show that there is : (i) a fronto-central θ activité time-locked to the system’s decision similar to the one obtained in laboratory condition, (ii) a decrease in overall supervision activity time-locked to the system’s decision, and (iii) a specific decrease of monitoring activity for errors. In this thesis, several EEG measures have been used in order to adapt to the context at hand. As a perspective, we have developped a final study aiming at defining the evolution of the monitoring activity during the OOL. Finding markers of this degradation would allow to monitor its emersion, and even better, predict it
APA, Harvard, Vancouver, ISO, and other styles
39

Pizziol, Sergio. "Prédiction des conflits dans des systèmes homme-machine." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0039/document.

Full text
Abstract:
Prédiction des conflits dans le systèmes homme-machine. Le travail fait partie de la recherche consacrée à des problèmes d'interaction homme-machine et aux conflits entre l'homme et la machine qui pourrait découler de ces situations
Conflict prediction in human-machine systems. The work is part of research devoted to problems of human-machine interaction and conflict between human and machine which may arise from such situations
APA, Harvard, Vancouver, ISO, and other styles
40

Tang, Bo. "WEBDOC: AN AUTOMATED WEB DOCUMENT INDEXING SYSTEM." MSSTATE, 2002. http://sun.library.msstate.edu/ETD-db/theses/available/etd-11052002-213723/.

Full text
Abstract:
This thesis describes WebDoc, an automated system that classifies Web documents according to the Library of Congress classification system. This work is an extension of an early version of the system that successfully generated indexes for journal articles. The unique features of Web documents, as well as how they will affect the design of a classification system, are discussed. We argue that full-text analysis of Web documents is inevitable, and contextual information must be used to assist the classification. The architecture of the WebDoc system is presented. We performed experiments on it with and without the assistance of contextual information. The results show that contextual information improved the system?s performance significantly.
APA, Harvard, Vancouver, ISO, and other styles
41

Rosati, Elise. "Outils d'aide à la conception pour l'ingénierie de systèmes biologiques." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD008/document.

Full text
Abstract:
En biologie synthétique, il existe plusieurs manières d’adresser les problèmes soulevés dans plusieurs domaines comme la thérapeutique, les biofuels, les biomatériaux ou encore les biocapteurs. Nous avons choisi de nous concentrer sur l’une d’entre elles : les réseaux de régulation génétique (RRG). Un constat peut être fait : la diversité des problèmes résolus grâce aux RRGs est bridée par la complexité de ces RRGs, qui a atteint une limite. Quelles solutions s’offrent aux biologistes, pour repousser cette limite et continuer d’augmenter la complexité de leur système ? Cette thèse a pour but de fournir aux biologistes les outils nécessaires à la conception et à la simulation de RRGs complexes. Un examen de l’état de l’art en la matière nous a mené à adapter les outils de la micro-électronique à la biologie ainsi qu’à créer un algorithme de programmation génétique pour la conception des RRGs. D’une part, nous avons élaboré les modèles Verilog A de différents systèmes biologiques (passe-bande, proie-prédateur, repressilator, XOR) ainsi que de la diffusion spatiotemporelle d’une molécule. Ces modèles fonctionnent très bien avec plusieurs simulateurs électroniques (Spectre et NgSpice). D’autre part, les premières marches vers l’automatisation de la conception de RRGs ont été gravies. En effet, nous avons développé un algorithme capable d’optimiser les paramètres d’un RRG pour remplir un cahier des charges donné. De plus, la programmation génétique a été utilisée pour optimiser non seulement les paramètres d’un RRG mais aussi sa topologie. Ces outils ont su prouver leur utilité en apportant des réponses pertinentes à des problèmes soulevés lors du développement de systèmes biologiques. Ce travail a permis de montrer que notre approche, à savoir adapter les outils de la micro-électronique et utiliser des algorithmes de programmation génétique, est valide dans le contexte de la biologie synthétique. L’assistance que notre environnement de développement fournit au biologiste devrait encourager l’émergence de systèmes plus complexes
In synthetic biology, Gene Regulatory Networks (GRN) are one of the main ways to create new biological functions to solve problems in various areas (therapeutics, biofuels, biomaterials, biosensing). However, the complexity of the designed networks has reached a limit, thereby restraining the variety of problems they can address. How can biologists overcome this limit and further increase the complexity of their systems? The goal of this thesis is to provide the biologists with tools to assist them in the design and simulation of complex GRNs. To this aim, the current state of the art was examined and it was decided to adapt tools from the micro-electronic field to biology, as well as to create a Genetic Programming algorithm for GRN design. On the one hand, models of diffusion and of other various systems (band-pass, prey-predator, repressilator, XOR) were created and written in Verilog A. They are already implemented and well-functioning on the Spectre solver as well as a free solver, namely NgSpice. On the other hand, the first steps of automatic GRN design were achieved. Indeed, an algorithm able to optimize the parameters of a given GRN according to a specification was developed. Moreover, Genetic Programming was applied to GRN design, allowing the optimization of both the topology and the parameters of a GRN. These tools proved their usefulness for the biologists’ community by efficiently answering relevant biological questions arising in the development of a system. With this work, we were able to show that adapting microelectronics and Genetic Programming tools to biology is doable and useful. By assisting design and simulation, such tools should promote the emergence of more complex systems
APA, Harvard, Vancouver, ISO, and other styles
42

Addad, Boussad. "Evaluation analytique du temps de réponse des systèmes de commande en réseau en utilisant l’algèbre (max,+)." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0023/document.

Full text
Abstract:
Les systèmes de commande en réseau (SCR) sont de plus en plus répandus dans le milieu industriel. Ils procurent en effet de nombreux avantages en termes de coût, de flexibilité, de maintenance, etc. Cependant,l’introduction d’un réseau, qui par nature est composé de ressources partagées, impacte considérablement les performances temporelles des systèmes de commande. Un signal de commande par exemple n’arrive à destination qu’après un certain délai. Pour s’assurer que ce délai soit inférieur à un certain seuil de sécurité ou du respect d’autres contraintes temps réels de ces systèmes, une évaluation au préalable, avant la mise en service d’un SCR, s’avère donc nécessaire. Dans nos travaux de recherche, nous nous intéressons à la réactivité des SCR client/serveur et évaluons leur temps de réponse.Notre contribution dans ces travaux est d’adopter une approche analytique à base de l’algèbre (Max,+) et remédier aux problèmes des méthodes existantes comme l’explosion combinatoire de la vérification formelle ou de la non exhaustivité des approches par simulation. Après modélisation des SCR client/serveur à l’aide de Graphe d’Evénements Temporisés puis représentation de leurs dynamiques à l’aides d’équations (Max,+) linéaires, nous obtenons des formules de calcul direct du temps de réponse. Plus précisément, nous adoptons une analyse déterministe pour calculer les bornes, minimale et maximale, du temps de réponse puis une analyse stochastique pour calculer la fonction de sa distribution. De plus, nous prenons en compte dans nos travaux tous les délais élémentaires qui composent le temps de réponse, y compris les délais de bout-en-bout, dus à la traversée du seul réseau de communication. Ce dernier étant naturellement composé de ressources partagées, rendant l’utilisation des modèles (Max,+) classiques impossibles, nous introduisons une nouvelle approche de modélisation à base du formalisme (Max,+) mais prenant en compte le concept de conflit ou ressource partagée.L’exemple d’un réseau de type Ethernet est considéré pour évaluer ces délais de bout-en-bout. Par ailleurs, cette nouvelle méthode (Max,+) est assez générique et reste applicable à de nombreux systèmes impliquant des ressources partagées, au delà des seuls réseaux de communication. Enfin, pour vérifier la validité des résultats obtenus dans nos travaux, notamment la formule de la borne maximale du temps de réponse, une compagne de mesures expérimentales sont menées sur une plateforme dédiée. Différentes configurations et conditions de trafic dans un réseau Ethernet sont considérées
Networked automation systems (NAS) are more and more used in industry, given the several advantages they provide like flexibility, low cost, ease of maintenance, etc. However, the use of a communication network in SCR means in essence sharing some resources and therefore strikingly impacts their time performances. For instance, a control signal does get to its destination (actuator) only after a non zero delay. So, to guarantee that such a delay is shorter than a given threshold or other time constraints well respected, an a priori evaluation is necessary before operating the SCR. In our research activities, we are interested in client/server SCR reactivity and the evaluation of their response time.Our contribution in this investigation is the introduction of a (Max,+) Algebra-based analytic approach to solve some problems, faced in the existing methods like state explosion of model checking or the non exhaustivity of simulation. So, after getting Timed Event Graphs based models of the SCR and their linear state (Max,+) representation, we obtain formulae that enables to calculate straightforwardly the SCR response times. More precisely, we obtain formulae of the bounds of response time by adopting a deterministic analysis and other formulae to calculate the probability density of response time by considering a stochastic analysis. Moreover, in our investigation we take into account every single elementary delay involved in the response time, including the end-to-end delays, due exclusively to crossing the communication network. This latter being however constituted of shared resources, making by the way the use of TEG and (Max,+) Algebra impossible, we introduce a novel approach to model the communication network. This approach brings to life a new class of Petri nets, called Conflicting Timed Event Graphs (CTEG), which enables us to solve the problem of the shared resources. We also manage to represent the CTEG dynamics using recurrent (Max,+) equations and therefore calculate the end to-end delays. An Ethernet-based network is studied as an example to apply this novel approach. Note by the way that the field of application of this approach borders largely communication networks and is quite possible when dealing with other systems.Finally, to validate the different results of our research activities and the related hypotheses, especially the maximal bound of response time formula, we carry out lots of experimental measurements on a lab facility. We compare the measures to the formula predictions and check their agreement under different conditions
APA, Harvard, Vancouver, ISO, and other styles
43

Liu, Shibo. "Numerical and experimental study on residual stresses in laser beam welding of dual phase DP600 steel plates." Thesis, Rennes, INSA, 2017. http://www.theses.fr/2017ISAR0003/document.

Full text
Abstract:
Le procédé de soudage laser est largement utilisé dans les travaux d'assemblage, en particulier, dans ledomaine de l'industrie automobile. L'acier dual phase DP600 est un acier à haute résistance qui permet deréduire le poids de l'automobile dans le cadre de l'allègement des structures. Notre travail s' estessentiellement basé sur l'évaluation des contraintes résiduelles générées dans l'acier DP600 lors du soudagepar laser. Deux approches ont été réalisées. L'approche expérimentale a été réalisée à l'aide de méthodes derayon X et par neutrons pour calculer les contraintes résiduelles. L'approche de simulation a été réalisée parcouplage de différentes formulations numériques.Numériquement, le formalisme de la mécanique continue a été utilisé par des simulations par éléments finis(FEM) pour analyser et évaluer les contraintes résiduelles. Sur la base de tests de traction expérimentaux, lemodèle constitutif élasto-thermo-plastique de l'acier DP600 a été identifié. L'écrouissage du matériau a étéétudié par la loi de Ludwik et de Voce. A partir de résultats experimentaux, un modèle a été proposé et lesrésultats analysés en utilisant une loi de mélange martensite (écrouissage Ludwik) et ferrite (adoucissementde Voce). De même, nous avons étudié la sensibilité à la température en utilisant plusieurs modèles :Johnson-Cook, Khan, Chen. A partir de cette étude, nous avons proposé un modèle de sensibilité à tatempérature. Enfin, un modèle de sensibilité à la déformation plastique, à la vitesse de déformation issu destravaux d'A.Gavrus et un modèle d'anisotropie planaire définit par la théorie de Hill ont été ajoutés.Une méthode d'automate cellulaire (CA) 2D a été programmée pour simuler l'évolution de la microstructurelors de la solification liée au processus de soudage laser. Dans ce modèle, les phénomènes de nucléationavec prise en compte de l'orientation de la croissance, de la concentration et de la vitesse de croissance àl'interface solide/liquide, l'anisotropie de la tension de surface, de la diffusion, ainsi que la fraction desphases en présence ont été pris en compte. De plus, les équations de conservation ont été étudiées en détail etanalysés. Les résultats ainsi que le champ de température issu du modèle FEM ont été importés dans lemodèle CA. En comparant la simulation et les résultats expérimentaux, de bonnes concordances ont ététrouvées.Par la suite, nous avons réalisés un couplage des deux modèles CA et FEM. Concernant le procédé laser, lesrésultats du modèle par éléments finis ont été analysés. La géométrie de l'échantillon, la source de chaleur,les conditions aux limites, le comportement thermo-mécanique de l'acier dual phase DP600 telles que laconductivité, la densité, la chaleur spécifique, l'expansion, l'élasticité et la plasticité sont introduites. Lesmodèles d'analyse du terme d'écrouissage, de la sensibilité à la vitesse de déformation, de la sensibilité à latempérature, de l'anisotropie plastique et de l'anisotropie élastique ont été simulés. Les fractions volumiquesconcernant ta nature des deux phases en présence ont été également étudiées.Les résultats numériques finaux tes contraintes résiduelles ont été étudiées. Les comparaisons avec desmesures experimentales ont montré à la fois quels phénomènes étudiés sont prépondérants et tes effets moinsinfluents sur l'évaluation des contraintes résiduelles. Les résultats tes plus probants ont montré des bonnesconvergences entre l'approche numérique et expérimentale. Ces résultats confortent la robustesse du modèlenumérique developpé
Laser welding process is widely used in assembly work of automobi le industry. DP600 dual phase steeis a high strength steel to reduce automobile weight. Residual stresses are produced during laser weldingDP600. Continuum mechanics is used for analyzing res idual stresses by finite element simulation.Based on experimental tensile tests, the DP600 steel constitutive model are identified. The hardening termaccording to Ludwik law, Voce law and a proposed synthesis model are studied. The temperature sensitivityof Johnson-Cook, Khan, Chen and a proposed temperature sensitivity model are investigated. The strain ratesensitivity model proposed by A. Gavrus and planar anisotropy defined by Hi ll theory are also used.Cellul ar Automaton (CA) 20 method are programed for the simulation of solidification microstructureevolution during laser welding process. The temperature field of CA are imported from finite element analysimodel. The analysis function of nucleation, solid fraction, interface concentration, surface tension an isotropy,diffusion, interface growth ve locity and conservation equations are presented in detail. By comparing thesimulation and experimental results, good accordances are found.Modelling by a finite element method of laser welding process are presented. Geometry of specimen, heatsource, boundary conditions, DP600 dual phase steel material properties such as conductivity, density, specifiheat, expansion, elasticity and plasticity are introduced. Models analyzing hardening term, strain ratesensitivity, temperature sensitivity, plastic an isotropy and elastic an isotropy are simulated.The numerical results of laser welding DP600 steel process are presented. The influence of hardening term,strain rate sensitivity, temperature sensitivity and anisotropy on residual stresses are analyzed. Comparisonwith experimental data show good numerical accuracy.Keywords: Laser Welding, DP600, Residual Stress, Cellular Automaton, Hardening, Temperature sensitivity,Strain Rate Sensitivity, Anisotropy, Mixture dual phase law
APA, Harvard, Vancouver, ISO, and other styles
44

Yu, Xinyao. "Filter-based automatic document content creation in hypermedia." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp04/mq22433.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Latif, Seemab. "Automatic summarisation as pre-processing for document clustering." Thesis, University of Manchester, 2010. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.521783.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Ionita, Mihaela-Izabela. "Contribution to the study of synchronized differential oscillators used to controm antenna arrays." Thesis, Poitiers, 2012. http://www.theses.fr/2012POIT2271/document.

Full text
Abstract:
Le travail présenté dans ce mémoire traite de l'étude d'oscillateurs et d'Oscillateurs Contrôlés en Tension (OCT) différentiels couplés appliqués à la commande d'un réseau d’antennes linéaire. Après avoir rappelé les concepts d'antennes réseaux et d'oscillateurs, une synthèse de la théorie élaborée par R. York et donnant les équations dynamiques modélisant deux oscillateurs de Van der Pol couplés par un circuit résonnant a été présentée. Après avoir montré la limitation de cette approche concernant la prédiction de l'amplitude des oscillateurs, une nouvelle formulation des équations non linéaires décrivant les états de synchronisation a été proposée. Néanmoins, compte tenu du caractère trigonométrique et fortement non linéaire de ces équations, une nouvelle écriture facilitant la résolution numérique a été proposée. Ceci a permis l'élaboration d'un outil de Conception Assistée par Ordinateur (CAO) fournissant une cartographie de la zone de synchronisation de deux oscillateurs de Van der Pol couplés. Celle-ci permet de déterminer rapidement les fréquences d'oscillation libres nécessaires à l'obtention du déphasage souhaité. Pour ce faire, une procédure de modélisation de deux oscillateurs et OCTs différentiels couplés, par deux oscillateurs de Van der Pol couplés par une résistance a été élaborée. Les résultats fournis par l'outil de CAO proposé ont ensuite été comparés avec les résultats de simulations de deux oscillateurs et OCTs différentiels couplés obtenus avec le logiciel ADS d'Agilent. Une très bonne concordance des résultats a alors été obtenue montrant ainsi l'utilité et la précision de l'outil présenté
The work presented in this thesis deals with the study of coupled differential oscillators and Voltage Controlled Oscillators (VCO) used to control antenna arrays. After reminding the concept of antenna arrays and oscillators, an overview of R. York's theory giving the dynamics for two Van der Pol oscillators coupled through a resonant network was presented. Then, showing the limitation of this approach regarding the prediction of the oscillators' amplitudes, a new formulation of the nonlinear equations describing the oscillators' locked states was proposed. Nevertheless, due to the trigonometric and strongly non-linear aspect of these equations, mathematical manipulations were applied in order to obtain a new system easier to solve numerically. This has allowed to the elaboration of a Computer Aided Design (CAD) tool, which provides a cartography giving the frequency locking region of two coupled differential Van der Pol oscillators. This cartography can help the designer to rapidly find the free-running frequencies of the two outermost differential oscillators or VCOs of the array required to achieve the desired phase shift. To do so, a modeling procedure of two coupled differential oscillators and VCOs as two coupled differential Van der Pol oscillators, with a resistive coupling network was performed. Then, in order to validate the results provided by our CAD tool, we compared them to the simulation results of two coupled differential oscillators and VCOs obtained with Agilent’s ADS software. Good agreements between the simulations of the circuits, the models and the theoretical results from our CAD tool were found
APA, Harvard, Vancouver, ISO, and other styles
47

Ding, Jie. "Automatic classification of multi-lingual documents." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ39111.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Chan, Wai-man. "Medical document management system using XML." Hong Kong : University of Hong Kong, 2001. http://sunzi.lib.hku.hk/hkuto/record.jsp?B23273203.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Matsubara, Shigeki, Tomohiro Ohno, and Masashi Ito. "Automatic Editing of Spoken Document for Intelligent Speech Archive." 日本知能情報ファジイ学会, 2008. http://hdl.handle.net/2237/15111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Chen, Hsinchun, and K. J. Lynch. "Automatic Construction of Networks of Concepts Characterizing Document Databases." IEEE, 1992. http://hdl.handle.net/10150/105175.

Full text
Abstract:
Artificial Intelligence Lab, Department of MIS, University of Arizona
The results of a study that involved the creation of knowledge bases of concepts from large, operational textual databases are reported. Two East-bloc computing knowledge bases, both based on a semantic network structure, were created automatically using two statistical algorithms. With the help of four East-bloc computing experts, we evaluated the two knowledge bases in detail in a concept-association experiment based on recall and recognition tests. In the experiment, one of the knowledge bases that exhibited the asymmetric link property out-performed all four experts in recalling relevant concepts in East-bloc computing. The knowledge base, which contained about 20,O00 concepts (nodes) and 280,O00 weighted relationships (links), was incorporated as a thesaurus-like component into an intelligent retrieval system. The system allowed users to perform semantics-based information management and information retrieval via interactive, conceptual relevance feedback.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography