To see the other types of publications on this topic, follow the link: Date of conception.

Dissertations / Theses on the topic 'Date of conception'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Date of conception.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tran, Thi chien. "Impact des facteurs environnementaux sur la survenue d’une pré-éclampsie sévère." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV057/document.

Full text
Abstract:
L'effet des facteurs environnementaux physiques – conditions météorologiques sur la survenue d'une pré-éclampsie est une préoccupation relativement récente, mais diversement évalués par des études de méthodologie très hétérogène qui ne peuvent ainsi faire le tri des hypothèses physio-pathologiques. Comme le rappelait un rapport d'experts, les difficultés méthodologiques sont nombreuses, parmi lesquelles: la mesure de l’exposition et la détermination des fenêtres d'exposition, l’emploi d’une modélisation statistique adéquate, la prise en compte de l’ensemble des facteurs de confusion (facteurs de risque connus de morbidité chez les femmes enceintes ou prise en compte de la saisonnalité des naissances). Par ailleurs, l'intrication des facteurs physiques avec les facteurs sociaux, individuels ou de contexte vient compliquer l'interprétation. Aucune des études publiées jusqu'ici dans le domaine de la pré-éclampsie ne prend simultanément en compte ces 3 catégories de facteurs. Enfin, il n'existe guère d'étude française répondant à l'ensemble de ces questions alors que les modalités de suivi de la grossesse jouent un rôle important et dépendent étroitement de l'organisation socio-sanitaire du pays. Avec l’expérience d'un an dans la préparation du projet, nous proposons d'évaluer ces effets conjoints en étudiant un registre avec plus de 100 000 femmes enceintes /an suivies dans le réseau de maternités du département des Yvelines qui rassemble des territoires urbains et ruraux
During two last decades, the effect of meteorological factors on human health, especially pregnancy, has become a growing public health concern. However, the influence of meteorological and environmental factors on the occurrence of pre-eclampsia still has to be precisely determined. The main objective of this work is to determine the influence of meteorological conditions at various time during pregnancy (date of conception, near date of conception) on the occurrence of pre-eclampsia in a large French registry of pregnant women and to determine at which moment are the women more susceptible
APA, Harvard, Vancouver, ISO, and other styles
2

Noëth, Johannes Georg. "Saamwoon voor die huwelik : 'n teologies-etiese beoordeling / Johannes Georg Noëth." Thesis, North-West University, 2005. http://hdl.handle.net/10394/844.

Full text
Abstract:
The problem that is studied is formulated in chapter 1. It boils down to the fact that nowadays, also in churches with 'mainly white congregations, there are different viewpoints on living together. It varies from a direct rejection to a de facto acceptance. In view of this research is done for the purpose of assessing cohabitation according to Scriptures. In chapter 2 the essence and purpose of the Christian marriage are portrayed. It becomes clear that it is God's will that sexual intercourse may only take place inside the marriage. In chapter 3 the main reasons for cohabitation are examined. It is found that if all the causes are considered in their close relationship with each other, a favourable infrastructure for living together is created and people are strongly influenced to live together. The practice of cohabitation is evaluated in chapter 4 by using 8 of the 9 social ethical norms formulated by Heyns in the light of Scriptures and applied by Steensma as normative viewpoints. It is found that cohabiting is at variance with all eight social ethical norms. It is also found that living together doesn't always result in marriage, and if it results in marriage, there is no guarantee that the marriage will succeed and will not end up in at court of divorce. In chapter 5 a summary is given of the problem identification and the results of the previous 4 chapters. Then a conclusion is made about cohabitation in the light of Scriptures, namely that it is in conflict with the will of God. In the third section guidelines are given for the purpose of pastoral guidance towards people who cohabit or plan to do so. The role of the government and topics for further studies about cohabitation are also given.
Thesis (Th.M. (Ethics))--North-West University, Potchefstroom Campus, 2005.
APA, Harvard, Vancouver, ISO, and other styles
3

Abbott, Karen Elizabeth. "Student nurses' conceptions of computers in hospitals." Thesis, University of British Columbia, 1988. http://hdl.handle.net/2429/28567.

Full text
Abstract:
The trend toward increased computerization in Canadian hospitals has profound implications for hospital employed nurses, the majority of whom are educated in community college nursing programs. Educators, in response to this trend, must be attentive to the quality of student learning when planning for computer content in nursing curricula. The purpose of this phenomenological study was to identify how student nurses, enrolled in a community college nursing program, conceptualize the impact of computer use on hospital employed nurses. Students' conceptions were analyzed in relation to their: (a) attitude toward computers, and (b) length of clinical experience. Thirty-five (11 first-year, 11 second-year and 13 third-year) students enrolled in the nursing program at Cariboo College in Kamloops, British Columbia, were interviewed. Three broad, and ten forced-response, questions generated both qualitative and quantitative data, which were reported as primary and secondary findings. Data analysis, through use of the constant comparative method, was carried out on a formative and summative basis. Findings indicated that subjects had little awareness of computer use by nurses today. Their knowledge of how computers may be used by nurses in the future was also limited, and appeared to center around three broad areas: nursing, communication, and administration. Subjects conceptions of the impact of computer use on hospital employed nurses fell into four categories: (a) nursing image, (b) professionalism, (c) patient care, and (d) workload. Their comments on these four categories were further classified into three: sub-categories, indicating whether they felt that the increased use of computers would: (a) enhance, (b) detract from or (c) both enhance and detract from, each category. It was found that subjects' conceptions differed in complexity in direct proportion to the year in which they were enrolled in the program and also the length of their clinical experience. The majority of subjects had positive attitudes toward computer use. In addition, it was found that there was a significant relationship between complexity of conception and attitude. Students enter nursing programs with established conceptions and attitudes. The goal in planning computer programs must be to sequence computer content through the use of a taxonomy of learning outcomes, so that quality of learning is a priority, and positive attitudes are fostered.
Education, Faculty of
Educational Studies (EDST), Department of
Graduate
APA, Harvard, Vancouver, ISO, and other styles
4

Dubuc, Dominique. "Philosophie de la conception avec les nouveaux outils informatiques." Thesis, McGill University, 1993. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=69772.

Full text
Abstract:
To arrive at a definition of the new CAD, the thesis is divided into four chapters, accompanied by a conclusion, permitting an analysis of the current CAD situation and the technology available today or in the near future. This analysis leads to the definition of a work station adapted to design so as to bridge the existing gaps.$ sp4$
The first chapter consists of an introduction which illustrates the approaches that were used to complete this thesis. Several methods and analyses support the development of approaches upon which future research into the philosophy of design using new computer tools should be based.
The second chapter lists the computer peripherals which determine the features of a computer work station. Without its peripherals, the computer is simply a giant calculator. It is therefore important to address this subject in depth when creating a work station adapted to design.
The third chapter covers the description of current CAD and the manner in which the data are classified according to their use. Following a summary of the history of CAD and the evolution of generations of systems, this chapter describes today's CAD from the point of view of the user, that is, by the data he uses.
The fourth chapter of the thesis describes the progress of a project using the process of continuous design. This chapter looks at the interrelation that exists between the stages in order to show the usefulness of the computer as a design tool. Significant interest has been shown in a new stage: the formalization of the project, which makes the link between the drawing stage and the preproject stage.
The conclusion of this thesis puts the current CAD situation into perspective in order to pave the way for the development of new CAD, better adapted to architects and designers and allowing them to finally conceive their projects on computer.
APA, Harvard, Vancouver, ISO, and other styles
5

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Full text
Abstract:
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
APA, Harvard, Vancouver, ISO, and other styles
6

Bogo, Gilles. "Conception d'applications pour systèmes transactionnels coopérants." Habilitation à diriger des recherches, Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00315574.

Full text
Abstract:
Les moyens offerts par les systèmes de gestion de base de données et les systèmes transactionnels pour maintenir la cohérence et l'intégrité des systèmes d'information sont tout d'abord analysés tant en centralisé qu'en réparti. La seconde partie est consacrée à l'étude de deux grandes classes de méthodes de conception, l'une fondée sur les modèles de description de données, l'autre sur les types abstraits. Dans chaque cas, une méthode particulière est présentée et analysée. Après présentation de l'application bancaire pilote, la troisième partie définit un modèle pour la description des applications transactionnelles. Celui-ci est appliqué et confronté à l'application pilote. La dernière partie décrit la réalisation de ce modèle dans le langage ADA. Un environnement de conception est construit et se présente comme un sur-ensemble du langage ADA. Enfin, cet outil est comparé à d'autres propositions du domaine de la recherche
APA, Harvard, Vancouver, ISO, and other styles
7

DE, VITO DOMINIQUE. "Conception et implementation d'un modele d'execution pour un langage declaratif data-parallele." Paris 11, 1998. http://www.theses.fr/1998PA112124.

Full text
Abstract:
Dans cette these, nous nous sommes consacres a la conception et au developpement d'un modele d'execution portable pour le langage 8 1/2. Les travaux realises s'inscrivent dans le cadre du projet 8 1/2 dedie au developpement d'un langage parallele declaratif pour la simulation des systemes dynamiques. Ce type d'applications a conduit a developper des structures de donnees de haut-niveau dediees a la simulation des systemes dynamiques : le stream et la collection 8 1/2, et surtout, a etudier la compilation efficace des programmes declaratifs definissant de telles structures de donnees. Cet objectif a ete atteint, dans un cadre statique, avec le developpement d'un generateur de code vers une machine cible sequentielle et la generalisation du schema d'execution sequentielle a un modele d'execution msimd. Deux constatations sont alors venues inflechir nos directions de recherche. D'une part, les objets modelises lors des simulations sont de plus en plus complexes (traitement de l'irregulier et du dynamique). D'autre part, un support d'execution dynamique et adaptable est de plus en plus requis (utilisation croissante des reseaux heterogenes de stations de travail comme architectures cibles). Ces constatations poussent a etendre la notion de collection 8 1/2 et a developper un schema d'execution parallele plus souple. Ainsi, dans la deuxieme moitie de cette these, nous avons tout d'abord propose d'etendre la notion de collection statique 8 1/2 (correspondant a un tableau) a une structure parallele plus abstraite et plus generale : les champs de donnees. Ensuite, nous avons concu une architecture distribuee permettant de calculer en parallele sur les champs. Cette architecture distribuee constitue une machine virtuelle permettant l'evaluation parallele de programmes 8 1/2 dynamiques en utilisant des ressources heterogenes de calcul.
APA, Harvard, Vancouver, ISO, and other styles
8

Brunet, Solenn. "Conception de mécanismes d'accréditations anonymes et d'anonymisation de données." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S130/document.

Full text
Abstract:
L'émergence de terminaux mobiles personnels, capables à la fois de communiquer et de se positionner, entraîne de nouveaux usages et services personnalisés. Néanmoins, ils impliquent une collecte importante de données à caractère personnel et nécessitent des solutions adaptées en termes de sécurité. Les utilisateurs n'ont pas toujours conscience des informations personnelles et sensibles qui peuvent être déduites de leurs utilisations. L'objectif principal de cette thèse est de montrer comment des mécanismes cryptographiques et des techniques d'anonymisation de données peuvent permettre de concilier à la fois le respect de la vie privée, les exigences de sécurité et l'utilité du service fourni. Dans une première partie, nous étudions les accréditations anonymes avec vérification par clé. Elles permettent de garantir l'anonymat des utilisateurs vis-à-vis du fournisseur de service : un utilisateur prouve son droit d'accès, sans révéler d'information superflue. Nous introduisons des nouvelles primitives qui offrent des propriétés distinctes et ont un intérêt à elles-seules. Nous utilisons ces constructions pour concevoir trois systèmes respectueux de la vie privée : un premier système d'accréditations anonymes avec vérification par clé, un deuxième appliqué au vote électronique et un dernier pour le paiement électronique. Chaque solution est validée par des preuves de sécurité et offre une efficacité adaptée aux utilisations pratiques. En particulier, pour deux de ces contributions, des implémentations sur carte SIM ont été réalisées. Néanmoins, certains types de services nécessitent tout de même l'utilisation ou le stockage de données à caractère personnel, par nécessité de service ou encore par obligation légale. Dans une seconde partie, nous étudions comment rendre respectueuses de la vie privée les données liées à l'usage de ces services. Nous proposons un procédé d'anonymisation pour des données de mobilité stockées, basé sur la confidentialité différentielle. Il permet de fournir des bases de données anonymes, en limitant le bruit ajouté. De telles bases de données peuvent alors être exploitées à des fins d'études scientifiques, économiques ou sociétales, par exemple
The emergence of personal mobile devices, with communication and positioning features, is leading to new use cases and personalized services. However, they imply a significant collection of personal data and therefore require appropriate security solutions. Indeed, users are not always aware of the personal and sensitive information that can be inferred from their use. The main objective of this thesis is to show how cryptographic mechanisms and data anonymization techniques can reconcile privacy, security requirements and utility of the service provided. In the first part, we study keyed-verification anonymous credentials which guarantee the anonymity of users with respect to a given service provider: a user proves that she is granted access to its services without revealing any additional information. We introduce new such primitives that offer different properties and are of independent interest. We use these constructions to design three privacy-preserving systems: a keyed-verification anonymous credentials system, a coercion-resistant electronic voting scheme and an electronic payment system. Each of these solutions is practical and proven secure. Indeed, for two of these contributions, implementations on SIM cards have been carried out. Nevertheless, some kinds of services still require using or storing personal data for compliance with a legal obligation or for the provision of the service. In the second part, we study how to preserve users' privacy in such services. To this end, we propose an anonymization process for mobility traces based on differential privacy. It allows us to provide anonymous databases by limiting the added noise. Such databases can then be exploited for scientific, economic or societal purposes, for instance
APA, Harvard, Vancouver, ISO, and other styles
9

Stylianou, Christos. "Predictive modelling of assisted conception data with embryo-level covariates : statistical issues and application." Thesis, University of Manchester, 2011. https://www.research.manchester.ac.uk/portal/en/theses/predictive-modelling-of-assisted-conception-data-withembryolevel-covariatesstatistical-issues-and-application(a9c4d835-a082-43c7-b980-a1b6b8e165c8).html.

Full text
Abstract:
Statistical modelling of data from the embryo transfer process of In-Vitro Fertilization (IVF) treatments is motivated by the need to perform statistical inference for potential factors and to develop predictive models for these treatments. The biggest issue arising when modelling these treatments is that a number of embryos are transferred but unless all of the embryos get implanted or fail to implant then it is not possible to identify which of the embryos implanted. Little work has been done to address this partial observability of the outcome as it arises in this context. We adopt an Embryo-Uterus (EU) framework where a patient response has distinct uterine and embryo components. This framework is used to construct statistical models, expand them to allow for clustering effects and develop a package that will enable the fitting and prediction of these models in STATA. The capabilities of this package are demonstrated in two real datasets, aimed in investigating the effect of a new embryo prognostic variable and the effect of patient clustering in these treatments. In a simulation study EU models are shown to be capable of identifying a patient covariate either as a predictor of uterine receptivity or embryo viability. However a simulation case study shows that a considerable amount of information about the embryo covariate is lost due to the partial observability of the outcome. Further simulation work evaluating the performance of a number of proposed alternatives to the EU model shows that these alternatives are either biased or conservative. The partially observed cycles are finally considered as a missing data problem and two novel modelling approaches are developed which are able to handle the structure of these treatments. These novel models, based on multiple imputation and probability weighting, are compared to the EU model using simulation in terms of predictive accuracy and are found to have similar predictive accuracy to the EU model.
APA, Harvard, Vancouver, ISO, and other styles
10

Ahmed, Bacha Adda Redouane. "Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif"." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0051/document.

Full text
Abstract:
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible
“ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data
APA, Harvard, Vancouver, ISO, and other styles
11

Wang, Keqin. "Knowledge discovery in manufacturing quality data to support product design decision making." Troyes, 2010. http://www.theses.fr/2010TROY0005.

Full text
Abstract:
La conception des produits implique de grandes quantités de décisions (MQD). Le soutien pertinent et efficace des connaissances est important pour les décisions. La plupart des travaux ont été réalisées sur les connaissances de conception comme support à la conception. Cependant la connaissance de fabrication sur la qualité des produits est également une caractéristique qui n'est pas jugé suffisant. Entre-temps, de grands volumes de données de fabrication sont générés et enregistrés. Des connaissances nécessaires à la production sont implicites dans ces données. Les travaux présentés dans cette thèse se concentre sur l'extraction de connaissances de fabrication de qualité dans ces données en utilisant des méthodes d'exploration de données et de retour d’expérience utiles pour les concepteurs de produits (une ontologie regroupant les éléments importants à la prise de décision a été définie). Des techniques de Data Mining sont ensuite exploitées afin de répondre aux problèmes de qualité de la connaissance en production. Un prototype support à la prise de décision en conception de produits a été défini. Il considère les critères de qualité dans l’extraction et la recherche des connaissances
This work studies knowledge extraction in manufacturing quality data (MQD) for support-ing design decisions. Firstly, an ontological approach for analyzing design decisions and identifying designer’s needs for manufacturing quality knowledge is proposed. The decisions are analyzed ranging from task clarification, conceptual design, embodiment design to detail design. A decision model is proposed in which decisions and its knowledge elements are illustrated. An ontology is constructed to represent the decisions and their knowledge needs. Secondly, MQD preparation for further knowledge discovery is described. The nature of data in manufacturing is described. A GT (group technology) and QBOM (Quality Bill of Material)-based method is proposed to classify and organize MQD. As an important factor, the data quality (DQ) issues related with MQD is also analyzed for data mining (DM) application. A QFD (quality function deployment) based approach is proposed for translating data consumers’ DQ needs into specific DQ dimensions and initiatives. Thirdly, a DM-based manufacturing quality knowledge discovery method is proposed and validated through two popular DM functions and related algorithms. The two DM functions are illustrated through real world data sets from two different production lines. Fourthly, a MQD-based design support proto-type is developed. The prototype includes three major functions such as data input, knowledge extraction and input, knowledge search
APA, Harvard, Vancouver, ISO, and other styles
12

Agard, Bruno. "Contribution à une méthodologie de conception de produits à forte diversité." Phd thesis, Grenoble INPG, 2002. http://tel.archives-ouvertes.fr/tel-00007637.

Full text
Abstract:
Dans un contexte de conception de produits, les industriels sont conduits à concevoir et réaliser une grande diversité de produits pour répondre à des besoins clients différents et des contraintes spécifiques liées aux marchés. Deux questions couplées apparaissent donc immédiatement qui concernent d'une part la diversité qu'il est nécessaire de proposer, d'autre part la manière de gérer et produire cette diversité dans des délais et des coûts acceptables. La contribution de cette thèse porte sur la proposition d'un modèle servant de support à une méthodologie globale de conception de produits à forte diversité. L'apport essentiel réside plus précisément d'une part, dans une séparation entre les différents types de diversité nécessaires à la description du cycle de mise sur le marché d'une famille de produits, d'autre part dans la déclinaison d'un type de diversité à l'autre en s'appuyant sur les outils disponibles actuellement dans la littérature. L'étude de la littérature montre l'absence de démarche globale. Une proposition de démarche a été formalisée en de 8 étapes clés, elle porte notamment sur l'analyse des besoins fonctionnels (avec une distinction entre les fonctions stables et les fonctions variables), la création d'une structure fonctionnelle, la création d'une structure technique et l'analyse de l'ensemble des process utilisables. Ce travail de thèse est illustré par la mise en oeuvre de la démarche sur le cas des faisceaux électriques automobiles dans un contexte de livraison synchrone ; un outil logiciel créé spécifiquement permet de supporter le travail des concepteurs.
APA, Harvard, Vancouver, ISO, and other styles
13

Émirian, Frédéric. "Étude et conception d'une machine parallèle multi-modèles pour les réseaux de neurones." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT091H.

Full text
Abstract:
Les modeles de reseaux de neurones, constitues de cellules interconnectees travaillant simultanement, se pretent tres naturellement a une simulation sur architecture parallele. Cependant, l'obtention de bonnes performances sur les differents types de reseaux neuronaux impose d'avoir une machine suffisamment souple et dotee d'un reseau de communication tres performant. Dans cette etude, nous proposons une architecture parallele mimd dotee d'un reseau de communication en anneau a cordes dont les parametres topologiques sont optimises afin de reduire son diametre tout en le rendant partitionnable. Le modele de communication que nous choisissons est du type statique, point a point entre processeurs directement connectes, et sans aucun mecanisme de routage. Cette derniere restriction ne diminue en rien les performances dans la mesure ou les principales architectures neuronales sont elles-memes statiques ; elle nous permet en outre de simplifier le materiel et d'optimiser l'ordonnancement des travaux des processeurs explicitement par programme. Nous avons introduit une extension parallele du langage c implantant un modele de programmation du type spmd (parallelisme de donnees) avec instructions de communications globales afin de faciliter le developpement des applications. Ce langage permet d'effectuer un controle semantique assurant l'absence de risques d'inter-blocage des processeurs. Nous avons realise un compilateur generant du code pour un environnement de simulation, et nous avons ecrit des programmes pour les principaux algorithmes neuronaux ainsi que pour des algorithmes de traitement d'images afin de confirmer l'interet du couple architecture-langage choisi. Nous proposons des solutions pour une realisation materielle a base de processeurs de signaux et/ou d'asic ; notre etude porte essentiellement sur la realisation des liaisons de communication entre les nuds du reseau
APA, Harvard, Vancouver, ISO, and other styles
14

Seitz, Ludwig Brunie Lionel Pierson Jean-Marc. "Conception et mise en oeuvre de mécanismes sécurisés d'échange de données confidentielles." Villeurbanne : Doc'INSA, 2006. http://docinsa.insa-lyon.fr/these/pont.php?id=seitz.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Triki, Salah. "Sécurisation des entrepôts de données : de la conception à l’exploitation." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22026.

Full text
Abstract:
Les entrepôts des données centralisent des données critiques et sensibles qui sont nécessaires pour l'analyse et la prise de décisions. La centralisation permet une gestion efficace et une administration aisée, par contre de point de vu sécurité, centraliser les données critiques dans un seul endroit ; l'entrepôt de données, attire la convoitise des pirates. En 2011 par exemple, les entreprises SONY et RSA, ont été victime d'attaques qui ont engendré des pertes considérables. En plus, les entreprises sont de plus en plus dépendantes des entrepôts des données du faite qu'ils génèrent de plus en plus de données. Le cabinet d'analyse IDC indique que les quantités des données générées par les entreprise sont en train d'exploser et que en 2015, la quantité des données atteindra 8 billion TB. La sécurisation des entrepôts de données est donc primordiale. Dans ce contexte, nos travaux de thèse consiste a proposer une architecture pour la sécurisation des entrepôts de données de la conception à l'exploitation. Au niveau conceptuel, nous proposons un profil UML pour la définition des autorisations et les niveaux de sensibilités des données, une méthode pour la prévention des inférences, et des règles pour analyser la cohérence des autorisations. Au niveau exploitation, une méthode pour renforcer les autorisations définis au niveau conception, une méthode pour la prévention des inférences, une méthode pour respecter les contraintes d'additivités.Afin de valider l'architecture que nous proposons et montrer son applicabilité, nous l'avons tester le benchmark Star Schema Benchmark
Companies have to make strategic decisions that involve competitive advantages. In the context of decision making, the data warehouse concept has emerged in the nineties. A data warehouse is a special kind of database that consolidates and historizes data from the operational information system of a company. Moreover, a company's data are proprietary and sensitive and should not be sold without controls. Indeed, some data are personal and may harm their owners when they are disclosed, for example, medical data, religious or ideological beliefs. Thus, many governments have enacted laws to protect the private lives of their citizens. Faced with these laws, organizations are, therefore, forced to implement strict security measures to comply with these laws. Our work takes place in the context of secure data warehouses that can be addressed at two levels: (i) design that aims to develop a secure data storage level, and (ii) operating level, which aims to strengthen the rights access / user entitlements, and any malicious data to infer prohibited from data it has access to user banned. For securing the design level, we have made three contributions. The first contribution is a specification language for secure storage. This language is a UML profile called SECDW+, which is an extended version of SECDW for consideration of conflicts of interest in design level. SECDW is a UML profile for specifying some concepts of security in a data warehouse by adopting the standard models of RBAC security and MAC. Although SECDW allows the designer to specify what role has access to any part of the data warehouse, it does not take into account conflicts of interest. Thus, through stereotypes and tagged values , we extended SECDW to allow the definition of conflict of interest for the various elements of a multidimensional model. Our second contribution, at this level, is an approach to detect potential inferences from conception. Our approach is based on the class diagram of the power sources to detect inferences conceptual level. Note that prevention inferences at this level reduces the cost of administering the OLAP server used to manage access to a data warehouse. Finally, our third contribution to the design of a secure warehouse consists of rules for analyzing the consistency of authorizations modeled. As for safety operating level, we proposed: an architecture for enhancing the permissions for configuration, a method for the prevention of inferences, and a method to meet the constraints of additive measures. The proposed architecture adds to system access control, typically present in any secure DBMS, a module to prevent inferences. This takes our security methods against inferences and respect for additivity constraints. Our method of preventing inferences operates for both types of inferences: precise and partial. For accurate inferences, our method is based on Bayesian networks. It builds Bayesian networks corresponding to user queries using the MAX and MIN functions, and prohibits those that are likely to generate inferences. We proposed a set of definitions to translate the result of a query in Bayesian networks. Based on these definitions, we have developed algorithms for constructing Bayesian networks to prohibit those that are likely to generate inferences. In addition, to provide a reasonable response time needed to deal with the prevention treatment, we proposed a technique for predicting potential applications to prohibit. The technique is based on the frequency of inheritance queries to determine the most common query that could follow a request being processed. In addition to specific inferences (performed through queries using the MIN and MAX functions), our method is also facing partial inferences made through queries using the SUM function. Inspired by statistical techniques, our method relies on the distribution of data in the warehouse to decide to prohibit or allow the execution of queries
APA, Harvard, Vancouver, ISO, and other styles
16

El, Haddadi Amine. "Conception et développement d'un système d'intelligence économique (SIE) pour l'analyse de big data dans un environnement de cloud computing." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30033.

Full text
Abstract:
Aujourd'hui, avec la connexion présente en tout lieu et à tout instant, des données considérables naissent. Ces données ou data deviennent un acteur clé pour la compréhension, l'analyse, l'anticipation et la résolution des grands problèmes économiques, politiques, sociaux et scientifiques. Les data changent aussi nos procédures de travail, notre environnement culturel, allant même jusqu'à restructurer notre manière de penser. Et à peine que le monde scientifique, manageriel et financier, s'intéresse au Big Data, qu'une nouvelle discipline est en train de monter en puissance : le Fast Data. Outre le volume saillant de données ; une autre variante devient décisive, la capacité de traiter à vitesse efficiente les données dans toute leur diversité, de les transformer en connaissances en fournissant la bonne information à la bonne personne et au bon moment, voire les utiliser pour prédire l'avenir. L'exploitation de Big Data nécessite la proposition de nouvelles approches mathématiques et informatiques adaptées mais aussi une réingénierie des approches managériales pour la maîtrise de l'environnement informationnel d'un organisme public ou privé. Tout en se basant sur une démarche de management stratégique d'information comme l'Intelligence Économique (IE). Cette dernière combine et englobe les techniques de Business Intelligence pour la maîtrise des données internes et les techniques de veille stratégique pour la surveillance et la maitrise des flux d'informations externe. Cependant, le Big Data, comme source d'information sans limite pour l'IE, a bouleversé le processus traditionnel de l'IE, ce qui demande une réingénierie de la démarche d'IE. Mes travaux de recherche s'inscrivent parfaitement dans ce contexte caractérisé par un environnement incertain et imprévisible. Dans l'objectif principal est de proposer un nouveau système d'IE (SIE) pour l'analyse de Big Data. Donc, comment peut-on adapter la démarche d'IE à la nouvelle ère moderne de Big Data ? Dans lequel les organismes publics ou privés se trouvent submergés par l'information. Une première réponse, fait l'objet de ma contribution sur la proposition d'un nouveau SIE nommé XEW 2.0, qui se base sur une architecture Big Data orientée service, agile et modulable. L'architecture décisionnelle de XEW 2.0, se compose de quatre services : le Service de Sourcing (SS-XEW), le Service de Data Warehousing (SDW-XEW), le Service de Big Data Analytics (SBDA-XEW) et le Service de Big Data Visualisation (SBDV-XEW). Chaque service est vu comme une composante indépendante qui doit rendre un service bien précis aux autres composantes de XEW 2.0
In the information era, people's lives are deeply impacted by IT due to the exposure of social networks, emails, RSS feeds, chats, white papers, web pages, etc. Such data are considered very valuable for companies since they will help them in improving their strategies, analyzing their customers' trends or their competitors' marketing interventions is a simple and obvious example. Also, with the advent of the era of Big Data, organizations can obtain information about the dynamic environment of the markets by analyzing consumer's reactions, preferences, opinions and rating on various social media and other networking platforms. Thus, the companies should be equipped with the consciousness of competitive intelligence (CI), and grasp the key points of CI, with setting up an efficient and simple competitive intelligence system adapted to support Big Data. The objective of this thesis is to introduce a new architectural model of Big Data collecting, analyzing and using, named XEW 2.0. This system operates according to four principal steps, where each of which has a dedicated service : (i) XEW sourcing service (XEW-SS), allows searching, collecting, and processing the data from different sources ; (ii) XEW data warehousing services (XEW-DWS) : This brings a unified view of the target corpus and then, creates a data warehouse accessible from the analytics and visualization services ; (iii) XEW Big Data Analytics service (XEW-BDAS) : allows for making multidimensional analyses by adapting data mining algorithms to Big Data ; (iv) XEW Big Data Visualization service (XEW-BDVS) : allows visualizing Big Data in the form of innovative design and graphs representing, for instance, social networks, semantic networks, strategic alliances networks, etc
APA, Harvard, Vancouver, ISO, and other styles
17

Herve, Baptiste. "Conception de service dans les entreprises orientées produit sur la base des systèmes de valorisation de données." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0026/document.

Full text
Abstract:
Dans un paysage industriel de plus en plus tourné vers le numérique, les opportunités des entreprises ne manquent pas pour innover et répondre à une demande jusqu’alors inaccessible. C’est dans ce cadre que l’internet des objets apparait comme un élan technologique a fort potentiel. Ce levier d’innovation, basé sur la valorisation de flux de données, sont par nature intangible et c’est pourquoi nous les considérons ici comme des services. Cependant, les concepteurs doivent faire face ici à un univers complexe où de nombreux domaines d’expertise et de connaissance sont engagés. C’est pourquoi nous proposons dans cette thèse un modèle méthodologique de conception mettant en scène le service, l’expertise métier et les technologies de découverte de connaissance de manière optimisé pour concevoir à l’internet des objets. Ce modèle de conception a été éprouvé chez e.l.m. leblanc, entreprise du groupe Bosch, dans le développement d’un appareil de chauffage connecté et de ses services
In a more and more numeric oriented industrial landscape, the business opportunities for companies to innovate and answer needs inaccessible yep are increasing. In this framework, the internet of things appears as a high potential technology. This innovation lever, where the value-creation is principally based on the data, is not tangible by nature and this is the reason why we conceder it as a service in this thesis. However, the designer has to face a complex universe where a high number expertise and knowledge are engaged. This is the reason why we propose in this thesis a design methodology model organizing the service, the domain knowledge and the data discovery technologies in an optimized process to design the internet of things. This model has been experienced at e.l.m. leblanc, company of the Bosch group, in the development of a connected boiler and its services
APA, Harvard, Vancouver, ISO, and other styles
18

Pham, Thi Ngoc Diem. "Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l’apprentissage humain." Thesis, Le Mans, 2011. http://www.theses.fr/2011LEMA1015/document.

Full text
Abstract:
Notre travail de recherche s’inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l’indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d’indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d’un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l’automatisation du calcul d’indicateurs. Pour cela, nous avons élaboré une nouvelle version d’UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l’enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d’indicateurs à partir des traces collectées par un EIAH, (2) d’intégrer des fonctions externes (qui proviennent d’autres outils d’analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d’indicateurs. Nous avons également développé un outil d’analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d’une analyse de l’état de l’art, mais aussi de travaux exploratoires sur la modélisation d’indicateurs et l’analyse de traces. L’approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants
The research topic of this thesis is a part of the REDIM (model driven re-engineering) research project. It focuses specifically on the analysis of tracks collected during the learning session by a TEL (Technology Enhanced Learning) system in order to provide teachers indicators calculated. In our work environment, UTL (Usage Tracking Language) allows users to define the indicators in a form close to the design patterns. It was designed to response capitalization and reuse questions. However, UTL did not initially have any means to formally specify how to calculate indicators based on tracks collected. In general, design patterns are limited to the description, they cannot be automated. In addition, textual descriptions in UTL to produce indicators from tracks do not allow generating automatically an indicator’s values.Our main research objective was therefore to define models, methods and tools for formalizing and automating the calculation of indicators. We propose an extension for UTL named DCL4UTL (Data Combination Language for UTL) to model indicators in a capitalizable, automatable and reusable form to provide meaningful indicators to teachers/designers. With this new version, the indicators can be calculated in real-time or after a learning session in the context of tutoring actions or the reengineering of learning scenarios, respectively.The originality of our approach (DCL4UTL) lies in the fact that this version not only capitalize know-how on analysis techniques of the use an TEL system, but also (1) formally describe models and calculation methods of indicators from tracks collected by a TEL system, (2) integrate external functions (from other analysis tools), and (3) create parameterized intermediate data facilitating the modeling and reuse of indicators’ calculation method. We have also developed an analysis tool to calculate modeled indicators. Our approach and language have been validated by several experiments with several existent TEL systems
APA, Harvard, Vancouver, ISO, and other styles
19

Boukorca, Ahcène. "Hypergraphs in the Service of Very Large Scale Query Optimization. Application : Data Warehousing." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2016. http://www.theses.fr/2016ESMA0026/document.

Full text
Abstract:
L'apparition du phénomène Big-Data, a conduit à l'arrivée de nouvelles besoins croissants et urgents de partage de données qui a engendré un grand nombre de requêtes que les SGBD doivent gérer. Ce problème a été aggravé par d 'autres besoins de recommandation et d 'exploration des requêtes. Vu que le traitement de données est toujours possible grâce aux solutions liées à l'optimisation de requêtes, la conception physique et l'architecture de déploiement, où ces solutions sont des résultats de problèmes combinatoires basés sur les requêtes, il est indispensable de revoir les méthodes traditionnelles pour répondre aux nouvelles besoins de passage à l'échelle. Cette thèse s'intéresse à ce problème de nombreuses requêtes et propose une approche, implémentée par un Framework appelé Big-Quereis, qui passe à l'échelle et basée sur le hypergraph, une structure de données flexible qui a une grande puissance de modélisation et permet des formulations précises de nombreux problèmes d•combinatoire informatique. Cette approche est. le fruit. de collaboration avec l'entreprise Mentor Graphies. Elle vise à capturer l'interaction de requêtes dans un plan unifié de requêtes et utiliser des algorithmes de partitionnement pour assurer le passage à l'échelle et avoir des structures d'optimisation optimales (vues matérialisées et partitionnement de données). Ce plan unifié est. utilisé dans la phase de déploiement des entrepôts de données parallèles, par le partitionnement de données en fragments et l'allocation de ces fragments dans les noeuds de calcule correspondants. Une étude expérimentale intensive a montré l'intérêt de notre approche en termes de passage à l'échelle des algorithmes et de réduction de temps de réponse de requêtes
The emergence of the phenomenon Big-Data conducts to the introduction of new increased and urgent needs to share data between users and communities, which has engender a large number of queries that DBMS must handle. This problem has been compounded by other needs of recommendation and exploration of queries. Since data processing is still possible through solutions of query optimization, physical design and deployment architectures, in which these solutions are the results of combinatorial problems based on queries, it is essential to review traditional methods to respond to new needs of scalability. This thesis focuses on the problem of numerous queries and proposes a scalable approach implemented on framework called Big-queries and based on the hypergraph, a flexible data structure, which bas a larger modeling power and may allow accurate formulation of many problems of combinatorial scientific computing. This approach is the result of collaboration with the company Mentor Graphies. It aims to capture the queries interaction in an unified query plan and to use partitioning algorithms to ensure scalability and to optimal optimization structures (materialized views and data partitioning). Also, the unified plan is used in the deploymemt phase of parallel data warehouses, by allowing data partitioning in fragments and allocating these fragments in the correspond processing nodes. Intensive experimental study sbowed the interest of our approach in terms of scaling algorithms and minimization of query response time
APA, Harvard, Vancouver, ISO, and other styles
20

Saoudi, Massinissa. "Conception d'un réseau de capteurs sans fil pour des prises de décision à base de méthodes du Data Mining." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0065/document.

Full text
Abstract:
Les réseaux de capteurs sans fil (RCSFs) déterminent un axe de recherche en plein essor, puisqu’ils sont utilisés aujourd’hui dans de nombreuses applications qui diffèrent par leurs objectifs et leurs contraintes individuelles.Toutefois, le dénominateur commun de toutes les applications de réseaux de capteurs reste la vulnérabilité des nœuds capteurs en raison de leurs caractéristiques et aussi de la nature des données générées.En effet, les RCSFs génèrent une grande masse de données en continue à des vitesses élevées, hétérogènes et provenant d’emplacements répartis. Par ailleurs, la nécessité de traiter et d’extraire des connaissances à partir de ces grandes quantités de données nous ont motivé à explorer l’une des techniques conçues pour traiter efficacement ces ensembles de données et fournir leurs modèles de représentation. Cependant, parmi les techniques utilisées pour la gestion des données, nous pouvons utiliser les techniques de Data mining. Néanmoins, ces méthodes ne sont pas directement applicables aux RCSFs à cause des contraintes des noeuds capteurs. Il faut donc répondre à un double objectif : l’efficacité d’une solution tout en offrant une bonne adaptation des méthodes de Data mining classiques pour l’analyse de grosses masses de données des RCSFs en prenant en compte les contraintes des noeuds capteurs, et aussi l’extraction du maximum de connaissances afin de prendre des décisions meilleures. Les contributions de cette thèse portent principalement sur l’étude de plusieurs algorithmes distribués qui répondent à la nature des données et aux contraintes de ressources des noeuds capteurs en se basant sur les techniques de Data mining. Chaque noeud favorise un traitement local des techniques de Data mining et ensuite échange ses informations avec ses voisins, pour parvenir à un consensus sur un modèle global. Les différents résultats obtenus montrent que les approches proposées réduisent considérablement la consommation d’énergie et les coûts de consommation, ce qui étend la durée de vie du réseau.Les résultats obtenus indiquent aussi que les approches proposées sont extrêmement efficaces en termes de calcul du modèle, de latence, de réduction de la taille des données, d’adaptabilité et de détection des événements
Recently, Wireless Sensor Networks (WSNs) have emerged as one of the most exciting fields. However, the common challenge of all sensor network applications remains the vulnerability of sensor nodes due to their characteristics and also the nature of the data generated which are of large volume, heterogeneous, and distributed. On the other hand, the need to process and extract knowledge from these large quantities of data motivated us to explore Data mining techniques and develop new approaches to improve the detection accuracy, the quality of information, the reduction of data size, and the extraction of knowledge from WSN datasets to help decision making. However, the classical Data mining methods are not directly applicable to WSNs due to their constraints.It is therefore necessary to satisfy the following objectives: an efficient solution offering a good adaptation of Data mining methods to the analysis of huge and continuously arriving data from WSNs, by taking into account the constraints of the sensor nodes which allows to extract knowledge in order to make better decisions. The contributions of this thesis focus mainly on the study of several distributed algorithms which can deal with the nature of sensed data and the resource constraints of sensor nodes based on the Data mining algorithms by first using the local computation at each node and then exchange messages with its neighbors, in order to reach consensus on a global model. The different results obtained show that the proposed approaches reduce the energy consumption and the communication cost considerably which extends the network lifetime.The results also indicate that the proposed approaches are extremely efficient in terms of model computation, latency, reduction of data size, adaptability, and event detection
APA, Harvard, Vancouver, ISO, and other styles
21

Bournez, Colin. "Conception d'un logiciel pour la recherche de nouvelles molécules bioactives." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE3043.

Full text
Abstract:
La famille des protéines kinases est impliquée dans plusieurs processus de contrôle des cellules, comme la division ou la signalisation cellulaire. Elle est souvent associée à des pathologies graves, dont le cancer, et représente ainsi une famille de cibles thérapeutiques importantes en chimie médicinale. A l’heure actuelle, il est difficile de concevoir des inhibiteurs de protéines kinases novateurs, notamment par manque de sélectivité du fait de la grande similarité existant entre les sites actifs de ces protéines. Une méthode expérimentale ayant fait ses preuves et aujourd’hui largement utilisée dans la conception de composés innovants est l’approche par fragments. Nous avons donc développé notre propre logiciel, Frags2Drugs, qui utilise cette approche pour construire des molécules bioactives. Frags2Drugs repose sur les données expérimentales disponibles publiquement, plus particulièrement sur les structures des ligands co-cristallisés avec des protéines kinases. Nous avons tout d’abord élaboré une méthode de fragmentation de ces ligands afin d’obtenir une librairie de plusieurs milliers de fragments tridimensionnels. Cette librairie est alors stockée sous la forme d'un graphe où chaque fragment est modélisé par un nœud et chaque relation entre deux fragments, représentant une liaison chimique possible entre eux, par une arête. Nous avons ensuite développé un algorithme permettant de calculer toutes les combinaisons possibles de tous les fragments disponibles, et ce directement dans le site actif de la cible. Notre programme Frags2Drugs peut créer rapidement des milliers de molécules à partir d’un fragment initial défini par l’utilisateur. De plus, de nombreuses méthodes ont été implémentées pour filtrer les résultats afin de ne conserver que les composés les plus prometteurs. Le logiciel a été validé sur trois protéines kinases impliquées dans différents cancers. Les molécules proposées ont ensuite été synthétisées et ont montré d’excellentes activités in vitro
Kinases belong to a family of proteins greatly involved in several aspects of cell control including division or signaling. They are often associated with serious pathologies such as cancer. Therefore, they represent important therapeutic targets in medicinal chemistry. Currently, it has become difficult to design new innovative kinase inhibitors, particularly since the active site of these proteins share a great similarity causing selectivity issues. One of the main used experimental method is fragment-based drug design. Thus, we developed our own software, Frags2Drugs, which uses this approach to build bioactive molecules. Frags2Drugs relies on publicly available experimental data, especially co-crystallized ligands bound to protein kinase structure. We first developed a new fragmentation method to acquire our library composed of thousands of three-dimensional fragments. Our library is then stored as a graph object where each fragment corresponds to a node and each relation, representing a possible chemical bond between fragments, to a link between the two concerned nodes. We have afterwards developed an algorithm to calculate all possible combinations between each available fragment, directly in the binding site of the target. Our program Frags2Drugs can quickly create thousands of molecules from an initial user-defined fragment (the seed). In addition, many methods for filtering the results, in order to retain only the most promising compounds, were also implemented. The software were validated on three protein kinases involved in different cancers. The proposed molecules were then synthesized and show excellent in vitro activity
APA, Harvard, Vancouver, ISO, and other styles
22

Marty, Guy. "Contribution à la conception et à la réalisation d'une machine EDIFACT." Toulouse 3, 1995. http://www.theses.fr/1995TOU30100.

Full text
Abstract:
Un des buts actuels de l'informatique est de tendre vers le bureau sans papiers. Une de ces branches appelee edi (echange de donnees informatise) est normalise au sein des nations-unies sous le nom de edifact. Les donnees sont echangees a l'interieur de messages. La norme fournit un langage de description de ces messages. Nous avons pu constater en interrogeant le monde industriel et commercial que l'echange d'informations commerciales sous une forme normalisee etait un besoin des industries et administrations, mais il n'existe pas a ce jour de systemes simples et universels permettant de repondre a ce besoin. Notre propos est la conception d'un systeme de communication base sur edifact. Ce systeme comprend deux types de machines edifact: une station utilisateur et un centre de traitement, et utilise des reseaux de communication. La partie communication, ouverte, necessite la definition d'un reseau virtuel. Nous proposons sur ce reseau virtuel un protocole de communication multi-trafic. La station utilisateur doit etre conviviale (facilite d'utilisation, reconfiguration du message en fonction des donnees utilisees), capable de comprendre et d'integrer simplement tous les types de message. Pour cela nous decrivons un sur ensemble au langage de description des documents permettant d'integrer ces contraintes. Le centre de traitement sert de centre de communication et de serveur d'informations. Toute information circulant dans le systeme est sous forme edifact. Pour eviter des problemes de transformation nous avons defini une base d'informations et ses interrogations en edifact
APA, Harvard, Vancouver, ISO, and other styles
23

Matulovic, Broqué Maja. "Aide à la conception et à l'implémentation d'un mécanisme d'exécution des règles actives." Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0008.

Full text
Abstract:
Un système de bases de données actif est capable d'exécuter automatiquement des actions prédéfinies en réponse à des avènements spécifiques lorsque certaines conditions sont satisfaites. Les règles actives, de la forme évènement - condition - action, sont au coeur de cette approche. Les systèmes actifs existants ont un comportement prédéfinis et ne permettent pas d'adapter ce comportement aux besoins des applications. Le développeur a, alors, recours aux interfaces passives du sgbd pour implémenter les fonctionnalités requises. Il en résulte la dispersion du code ou la dégradation des performances. Après avoir analysé les problèmes d'utilisation des systèmes actifs existants, Cette thèse propose une approche de type boite à outils permettant la construction de mécanismes d'exécution des règles actives spécifiques à un domaine d'application (ou à une application particulière). Ainsi, nous proposons une architecture de référence, un ensemble d'architectures opérationnelles envisageables et un ensemble de composants logiciels (classes java) architecture permettant d'implémenter un mécanisme d'exécution adapté (par spécialisation de classes java) à l'application utilisateur. L'application du rafraîchissement d'un entrepôt de données est utilisée pour étudier comment définir une boite à outils. Un entrepôt est alimenté par diverses bases opérationnelles et il est nécessaire de propager les modifications des données dans les sources opérationnelles sur les données d'entrepôt. Après une étude du problème, nous proposons la spécification du rafraîchissement au moyen d'un workflow. Le workflow est mis en oeuvre au moyen de règles actives. Un scénario particulier est défini, le mécanisme d'exécution des règles associé est implémenté et l'architecture fonctionnelle, adaptée à cette famille d'application, est définie. A partir de cette impléntation un ensemble d'expérimentations nous permet de définir une boite à outils pouvant être adaptée à d'autres domaines d'application
Un systeme de bases de donnees actif est capable d'executer automatiquement des actions predefinies en reponse a des evenements specifiques lorsque certaines conditions sont satisfaites. Les regles actives, de la forme evenement - condition - action, sont au cur de cette approche. Les systemes actifs existants ont un comportement predefinis et ne permettent pas d'adapter ce comportement aux besoins des applications. Le developpeur a, alors, recours aux interfaces passives du sgbd pour implementer les fonctionnalites requises. Il en resulte la dispersion du code ou la degradation des performances. Apres avoir analyse les problemes d'utilisation des systemes actifs existants, cette these propose une approche de type boite a outils permettant la construction de mecanismes d'execution des regles actives specifiques a un domaine d'application (ou a une application particuliere). Ainsi, nous proposons une architecture de reference, un ensemble d'architectures operationnelles envisageables et un ensemble de composants logiciels (classes java) architecture permettant d'implementer un mecanisme d'execution adapte (par specialisation de classes java) a l'application utilisateur. L'application du rafraichissement d'un entrepot de donnees est utilisee pour etudier comment definir une boite a outils. Un entrepot est alimente par diverses bases operationnelles et il est necessaire de propager les modifications des donnees dans les sources operationnelles sur les donnees d'entrepot. Apres une etude du probleme, nous proposons la specification du rafraichissement au moyen d'un workflow. Le workflow est mis en uvre au moyen de regles actives. Un scenario particulier est defini, le mecanisme d'execution des regles associe est implemente et l'architecture fonctionnelle, adaptee a cette famille d'application, est definie. A partir de cette implementation un ensemble d'experimentations nous permet de definir une boite a outils pouvant etre adaptee a d'autres domaines d'application
APA, Harvard, Vancouver, ISO, and other styles
24

Gamatié, Abdoulaye. "Design and Analysis for Multi-Clock and Data-Intensive Applications on Multiprocessor Systems-on-Chip." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00756967.

Full text
Abstract:
Avec l'intégration croissante des fonctions, les systèmes embarqués modernes deviennent très intelligents et sophistiqués. Les exemples les plus emblématiques de cette tendance sont les téléphones portables de dernière génération, qui offrent à leurs utilisateurs un large panel de services pour la communication, la musique, la vidéo, la photographie, l'accès à Internet, etc. Ces services sont réalisés au travers d'un certain nombre d'applications traitant d'énormes quantités d'informations, qualifiées d'applications de traitements intensifs de données. Ces applications sont également caractérisées par des comportements multi-horloges car elles comportent souvent des composants fonctionnant à des rythmes différents d'activations lors de l'exécution. Les systèmes embarqués ont souvent des contraintes temps réel. Par exemple, une application de traitement vidéo se voit généralement imposer des contraintes de taux ou de délai d'affichage d'images. Pour cette raison, les plates-formes d'exécution doivent souvent fournir la puissance de calcul requise. Le parallélisme joue un rôle central dans la réponse à cette attente. L'intégration de plusieurs cœurs ou processeurs sur une seule puce, menant aux systèmes multiprocesseurs sur puce (en anglais, "multiprocessor systems-on-chip - MPSoCs") est une solution-clé pour fournir aux applications des performances suffisantes, à un coût réduit en termes d'énergie pour l'exécution. Afin de trouver un bon compromis entre performance et consommation d'énergie, l'hétérogénéité des ressources est exploitée dans les MPSoC en incluant des unités de traitements aux caractéristiques variées. Typiquement, des processeurs classiques sont combinés avec des accélérateurs (unités de traitements graphiques ou accélérateurs matériels). Outre l'hétérogénéité, l'adaptativité est une autre caractéristique importante des systèmes embarqués modernes. Elle permet de gérer de manière souple les paramètres de performances en fonction des variations de l'environnement et d'une plate-forme d'exécution d'un système. Dans un tel contexte, la complexité du développement des systèmes embarqués modernes paraît évidente. Elle soulève un certain nombre de défis traités dans nos contributions, comme suit : 1) tout d'abord, puisque les MPSoC sont des systèmes distribués, comment peut-on aborder avec succès la correction de leur conception, de telle sorte que les propriétés fonctionnelles des applications multi-horloges déployées puissent être garanties ? Cela est étudié en considérant une méthodologie de distribution "correcte-par-construction" pour ces applications sur plates-formes multiprocesseurs. 2) Ensuite, pour les applications de traitement intensif de données à exécuter sur de telles plates-formes, comment peut-on aborder leur conception et leur analyse de manière adéquate, tout en tenant pleinement compte de leur caractère réactif et de leur parallélisme potentiel ? 3) Enfin, en considérant l'exécution de ces applications sur des MPSoC, comment peut-on analyser leurs propriétés non fonctionnelles (par exemple, temps d'exécution ou énergie), afin de pouvoir prédire leurs performances ? La réponse à cette question devrait alors servir à l'exploration d'espaces complexes de conception. Nos travaux visent à répondre aux trois défis ci-dessus de manière pragmatique, en adoptant une vision basée sur des modèles. Pour cela, ils considèrent deux paradigmes complémentaires de modélisation flot de données : la "modélisation polychrone" liée à l'approche synchrone réactive, et la "modélisation de structures répétitives" liée à la programmation orientée tableaux pour le parallélisme de données. Le premier paradigme permet de raisonner sur des systèmes multi-horloges dans lesquels les composants interagissent, sans supposer l'existence d'une horloge de référence. Le second paradigme est quant à lui suffisamment expressif pour permettre la spécification du parallélisme massif d'un système.
APA, Harvard, Vancouver, ISO, and other styles
25

Pirayesh, Neghab Amir. "Évaluation basée sur l’interopérabilité de la performance des collaborationsdans le processus de conception." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0033/document.

Full text
Abstract:
Un processus de conception que ce soit d'un produit ou d'un service est composé d'un grand nombre d'activités reliées par des échanges nombreux de données et d'informations. La qualité de ces échanges, appelés collaborations, nécessite d'être capable d'envoyer et de recevoir des informations et données utiles, compréhensibles et univoques pour les différents concepteurs impliqués. La problématique de ces travaux de thèse se focalise donc sur la définition et l'évaluation de la performance des collaborations, et par extension, du processus de conception dans sa totalité. Cette évaluation de la performance exige la définition de plusieurs éléments clefs tels que : les objets à évaluer, les indicateurs de performance et les variables d'actions. Afin de définir l'objet d'évaluation, ces travaux s'appuient sur une étude de la littérature afin de proposer un méta-modèle de la conception collaborative. La mesure de la performance de ces collaborations est quant à elle basée sur le concept d'interopérabilité. Cette mesure estime ainsi l'interopérabilité technique et sémantique des différentes collaborations élémentaires. Ces travaux se concluent par la proposition d'un cadre méthodologique outillé d'évaluation de la performance des collaborations. Par une approche en deux étapes (modélisation puis évaluation), ce cadre facilite l'identification des collaborations peu performantes et de leurs causes. Ce cadre est illustré et partiellement validé à l'aide d'un exemple académique et d'une étude de cas dans le cadre de la conception
A design process, whether for a product or for a service, is composed of a large number of activities connected by many data and information exchanges. The quality of these exchanges, called collaborations, requires being able to send and receive data and information which are useful, understandable and unambiguous to the different designers involved. The research question is thus focused on the definition and evaluation of the performance of collaborations, and by extension, of the design process in its entirety. This performance evaluation requires the definition of several key elements such as object(s) to be evaluated, the performance indicator(s) and action variable(s).In order to define the object of evaluation, this research relies on a study of the literature resulting in a meta-model of collaborative process. The measurement of the performance of these collaborations is for its part based on the concept of interoperability. The measurement of the performance of the collaborations is for its part based on the concept of interoperability. Furthermore, this measure estimates the technical and conceptual interoperability of the different elementary collaborations. This work is concluded by proposing a tooled methodological framework for collaborations' performance evaluation. Through a two-step approach (modeling and evaluation), this framework facilitates the identification of inefficient collaborations and their causes. This framework is illustrated and partially validated using an academic example and a case study in design domain
APA, Harvard, Vancouver, ISO, and other styles
26

Haddi, Zouhair. "Conception et développement d'un système multicapteurs en gaz et en liquide pour la sécurité alimentaire." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10292/document.

Full text
Abstract:
Les systèmes de nez et de langues électroniques à base de capteurs chimiques et électrochimiques constituent une solution avantageuse pour la caractérisation des odeurs et des saveurs émanant des produits agroalimentaires. La sélectivité croisée de la matrice des capteurs couplée aux méthodes de reconnaissance de formes est l'élément clé dans la conception et le développement de ces systèmes. Dans cette optique, nous avons démontré la capacité d'un dispositif expérimental de nez électronique à discriminer entre les différents types de drogues, à analyser la fraîcheur des fromages, à identifier entre les fromages adultérés et à différentier entre les eaux potables et usées. Nous avons également réussi à classifier correctement les eaux potables (minérales, de source, gazeuse et de robinet) et usées par utilisation d'une langue électronique potentiométrique. Cette étude a été validée par la Chromatographie en Phase Gazeuse couplée à la Spectrométrie de Masse (CPG-MS). En outre, nous avons développé une langue électronique voltammétrique à base d'une électrode de Diamant Dopé au Bore pour différencier les phases de traitement des eaux usées domestiques et hospitaliers et pour identifier les différents métaux lourds (Pb, Hg, Cu, Cd, Ni et le Zn) contenus dans l'eau du fleuve Rhône. La Voltammétrie à Redissolution Anodique à Impulsion Différentielle (DPASV) a été utilisée comme une méthode électrochimique pour caractériser les eaux étudiées. Enfin, les systèmes multicapteurs hybrides se sont avérés un bon outil analytique pour caractériser les produits de l'industrie agroalimentaire tels que les jus tunisiens et les huiles d'olives marocaines
Electronic noses and tongues systems based on chemical and electrochemical sensors are an advantageous solution for the characterisation of odours and tastes that are emanating from food products. The cross-selectivity of the sensor array coupled with patter recognition methods is the key element in the design and development of these systems. In this context, we have demonstrated the ability of an electronic nose device to discriminate between different types of drugs, to analyse cheeses freshness, to identify adulterated cheeses and to differentiate between potable and wastewaters. We have also succeeded to correctly classify drinking waters (mineral, natural, sparkling and tap) and wastewaters by using a potentiometric electronic tongue. This study was validated by Gas Chromatography coupled with Mass Spectrometry (GC-MS). Furthermore, we have developed a voltammetric electronic tongue based on a Diamond Doped Boron electrode to differentiate treatment stages of domestic and hospital wastewaters and to identify different heavy metals (Pb, Hg, Cu, Cd, Ni and Zn) contained in Rhône river. The Differential Pulse Anodic Stripping Voltammetry (DPASV) was used as an electrochemical method to characterise the studied waters. Finally, the hybrid multisensor systems have proven to be good analytical tools to characterise the products of food industry such as Tunisian juices and Moroccan olive oils
APA, Harvard, Vancouver, ISO, and other styles
27

Jaziri, Faouzi. "Conception et analyse des biopuces à ADN en environnements parallèles et distribués." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22465/document.

Full text
Abstract:
Les microorganismes constituent la plus grande diversité du monde vivant. Ils jouent un rôle clef dans tous les processus biologiques grâce à leurs capacités d’adaptation et à la diversité de leurs capacités métaboliques. Le développement de nouvelles approches de génomique permet de mieux explorer les populations microbiennes. Dans ce contexte, les biopuces à ADN représentent un outil à haut débit de choix pour l'étude de plusieurs milliers d’espèces en une seule expérience. Cependant, la conception et l’analyse des biopuces à ADN, avec leurs formats de haute densité actuels ainsi que l’immense quantité de données à traiter, représentent des étapes complexes mais cruciales. Pour améliorer la qualité et la performance de ces deux étapes, nous avons proposé de nouvelles approches bioinformatiques pour la conception et l’analyse des biopuces à ADN en environnements parallèles. Ces approches généralistes et polyvalentes utilisent le calcul haute performance (HPC) et les nouvelles approches du génie logiciel inspirées de la modélisation, notamment l’ingénierie dirigée par les modèles (IDM) pour contourner les limites actuelles. Nous avons développé PhylGrid 2.0, une nouvelle approche distribuée sur grilles de calcul pour la sélection de sondes exploratoires pour biopuces phylogénétiques. Ce logiciel a alors été utilisé pour construire PhylOPDb: une base de données complète de sondes oligonucléotidiques pour l’étude des communautés procaryotiques. MetaExploArrays qui est un logiciel parallèle pour la détermination de sondes sur différentes architectures de calcul (un PC, un multiprocesseur, un cluster ou une grille de calcul), en utilisant une approche de méta-programmation et d’ingénierie dirigée par les modèles a alors été conçu pour apporter une flexibilité aux utilisateurs en fonction de leurs ressources matériel. PhylInterpret, quant à lui est un nouveau logiciel pour faciliter l’analyse des résultats d’hybridation des biopuces à ADN. PhylInterpret utilise les notions de la logique propositionnelle pour déterminer la composition en procaryotes d’échantillons métagénomiques. Enfin, une démarche d’ingénierie dirigée par les modèles pour la parallélisation de la traduction inverse d’oligopeptides pour le design des biopuces à ADN fonctionnelles a également été mise en place
Microorganisms represent the largest diversity of the living beings. They play a crucial rôle in all biological processes related to their huge metabolic potentialities and their capacity for adaptation to different ecological niches. The development of new genomic approaches allows a better knowledge of the microbial communities involved in complex environments functioning. In this context, DNA microarrays represent high-throughput tools able to study the presence, or the expression levels of several thousands of genes, combining qualitative and quantitative aspects in only one experiment. However, the design and analysis of DNA microarrays, with their current high density formats as well as the huge amount of data to process, are complex but crucial steps. To improve the quality and performance of these two steps, we have proposed new bioinformatics approaches for the design and analysis of DNA microarrays in parallel and distributed environments. These multipurpose approaches use high performance computing (HPC) and new software engineering approaches, especially model driven engineering (MDE), to overcome the current limitations. We have first developed PhylGrid 2.0, a new distributed approach for the selection of explorative probes for phylogenetic DNA microarrays at large scale using computing grids. This software was used to build PhylOPDb: a comprehensive 16S rRNA oligonucleotide probe database for prokaryotic identification. MetaExploArrays, which is a parallel software of oligonucleotide probe selection on different computing architectures (a PC, a multiprocessor, a cluster or a computing grid) using meta-programming and a model driven engineering approach, has been developed to improve flexibility in accordance to user’s informatics resources. Then, PhylInterpret, a new software for the analysis of hybridization results of DNA microarrays. PhylInterpret uses the concepts of propositional logic to determine the prokaryotic composition of metagenomic samples. Finally, a new parallelization method based on model driven engineering (MDE) has been proposed to compute a complete backtranslation of short peptides to select probes for functional microarrays
APA, Harvard, Vancouver, ISO, and other styles
28

Charfi, Manel. "Declarative approach for long-term sensor data storage." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI081/document.

Full text
Abstract:
De nos jours, on a de plus en plus de capteurs qui ont tendance à apporter confort et facilité dans notre vie quotidienne. Ces capteurs sont faciles à déployer et à intégrer dans une variété d’applications (monitoring de bâtiments intelligents, aide à la personne,...). Ces milliers (voire millions)de capteurs sont de plus en plus envahissants et génèrent sans arrêt des masses énormes de données qu’on doit stocker et gérer pour le bon fonctionnement des applications qui en dépendent. A chaque fois qu'un capteur génère une donnée, deux dimensions sont d'un intérêt particulier : la dimension temporelle et la dimension spatiale. Ces deux dimensions permettent d'identifier l'instant de réception et la source émettrice de chaque donnée. Chaque dimension peut se voir associée à une hiérarchie de granularités qui peut varier selon le contexte d'application. Dans cette thèse, nous nous concentrons sur les applications nécessitant une conservation à long terme des données issues des flux de données capteurs. Notre approche vise à contrôler le stockage des données capteurs en ne gardant que les données jugées pertinentes selon la spécification des granularités spatio-temporelles représentatives des besoins applicatifs, afin d’améliorer l'efficacité de certaines requêtes. Notre idée clé consiste à emprunter l'approche déclarative développée pour la conception de bases de données à partir de contraintes et d'étendre les dépendances fonctionnelles avec des composantes spatiales et temporelles afin de revoir le processus classique de normalisation de schéma de base de données. Étant donné des flux de données capteurs, nous considérons à la fois les hiérarchies de granularités spatio-temporelles et les Dépendances Fonctionnelles SpatioTemporelles (DFSTs) comme objets de premier ordre pour concevoir des bases de données de capteurs compatibles avec n'importe quel SGBDR. Nous avons implémenté un prototype de cette architecture qui traite à la fois la conception de la base de données ainsi que le chargement des données. Nous avons mené des expériences avec des flux de donnés synthétiques et réels provenant de bâtiments intelligents. Nous avons comparé notre solution avec la solution de base et nous avons obtenu des résultats prometteurs en termes de performance de requêtes et d'utilisation de la mémoire. Nous avons également étudié le compromis entre la réduction des données et l'approximation des données
Nowadays, sensors are cheap, easy to deploy and immediate to integrate into applications. These thousands of sensors are increasingly invasive and are constantly generating enormous amounts of data that must be stored and managed for the proper functioning of the applications depending on them. Sensor data, in addition of being of major interest in real-time applications, e.g. building control, health supervision..., are also important for long-term reporting applications, e.g. reporting, statistics, research data... Whenever a sensor produces data, two dimensions are of particular interest: the temporal dimension to stamp the produced value at a particular time and the spatial dimension to identify the location of the sensor. Both dimensions have different granularities that can be organized into hierarchies specific to the concerned context application. In this PhD thesis, we focus on applications that require long-term storage of sensor data issued from sensor data streams. Since huge amount of sensor data can be generated, our main goal is to select only relevant data to be saved for further usage, in particular long-term query facilities. More precisely, our aim is to develop an approach that controls the storage of sensor data by keeping only the data considered as relevant according to the spatial and temporal granularities representative of the application requirements. In such cases, approximating data in order to reduce the quantity of stored values enhances the efficiency of those queries. Our key idea is to borrow the declarative approach developed in the seventies for database design from constraints and to extend functional dependencies with spatial and temporal components in order to revisit the classical database schema normalization process. Given sensor data streams, we consider both spatio-temporal granularity hierarchies and Spatio-Temporal Functional Dependencies (STFDs) as first class-citizens for designing sensor databases on top of any RDBMS. We propose a specific axiomatisation of STFDs and the associated attribute closure algorithm, leading to a new normalization algorithm. We have implemented a prototype of this architecture to deal with both database design and data loading. We conducted experiments with synthetic and real-life data streams from intelligent buildings
APA, Harvard, Vancouver, ISO, and other styles
29

Bosom, Jérémie. "Conception de microservices intelligents pour la supervision de systèmes sociotechniques : application aux systèmes énergétiques." Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLP051.

Full text
Abstract:
De nombreuses institutions et entreprises ont pour ambition de gérer de manière précise la performance énergétique de leur parc immobilier, notamment en s’appuyant sur l’Internet des objets qui permet le déploiement à grande échelle de capteurs. La supervision de ces parcs peut se faire à l’aide de l’informatique distribuée en exploitant de grands volumes de données et l’apprentissage automatique. Le concept de tiers de confiance pour la mesure et la performance énergétique (TCMPE) s’impose avec les technologies du Cloud pour gérer ces écosystèmes énergétiques. La question traitée dans cette thèse est la conception d’un système de supervision distribué et extensible, allant de la collecte des données à la fourniture de tableaux de bord, permettant un pilotage des infrastructures des bâtiments d’une institution. La réalisation de cet objectif fait face à plusieurs difficultés majeures : les différentes échelles d’espace et de temps, l’hétérogénéité des composants du système, les défis inhérents à l’informatique distribuée et à la modélisation énergétique de bâtiments. L’informatique distribuée soulève des problématiques relatives à l’orchestration et à la chorégraphie de microservices, notamment celle de la mise à l’échelle. Dans ce contexte, construire la généricité de la solution apportée par rapport aux détails techniques nécessite un formalisme abstrait. À cette fin, la présentation de l’architecture du système de supervision fait usage de l’algèbre de processus Orc qui est adaptée pour la chorégraphie de processus concurrents et distribués sujets aux délais et aux pannes. La deuxième contribution est un modèle hiérarchique intitulé Multi-Institution Building Energy System (MIBES) conçu pour la modélisation du TCMPE. Ce modèle s’appuie sur différents sous-systèmes modélisés, essentiels pour l’aide à la décision : capteurs, sites, groupes de sites et organismes. Il prépare de façon rationnelle le développement d’algorithmes en fournissant de multiples vues aux différents niveaux de modélisation. Ces algorithmes sont organisés sous forme d’une bibliothèque extensible de microservices. L’adoption des méthodes de Développement et Opérations (DevOps) répond à l’organisation humaine en préconisant la collaboration humaine entre les départements de l’organisation en charge du projet et l’automatisation de ce dernier. En intégrant ces principes du DevOps, un prototype du système de supervision est développé afin de démontrer les différents avantages apportés par notre approche. Ces avantages s’expriment sous forme de facilités de mise à l’échelle, de reproductibilité et d’aide à la décision. Le prototype développé forme une base solide pour la supervision intelligente de bâtiments et peut être réutilisé pour d’autres applications telles que des Smart Grids
Many institutions and companies aim to manage precisely the energy performance of their building stocks, in particular by relying on the Internet of Things (IoT) which allows the large-scale deployment of sensors. The supervision of these building stocks can then be done using distributed computing and by exploiting the data collected using machine learning methods. The concept of Trusted Third Party for Energy Measurement and Performance (TTPEMP) is needed with Cloud technologies to manage these energy ecosystems. The question addressed in this thesis is the design of a distributed and scalable supervision system, ranging from data collection to dashboards provisioning, allowing management of the buildings’ infrastructures of several institutions. The resolution of this goal faces several major difficulties: the different scales of space and time, the system’s components heterogeneity, the inherent challenges of distributed computing and building energy modeling. Distributed computing raises issues related to microservices orchestration and choreography, in particular those of scalability. In this context, highlighting the genericity of the provided solution over the technical details requires an abstract formalism. To this end, the presentation of the supervision system architecture makes use of the Orc process algebra which is suitable for the choreography of concurrent and distributed processes that are subject to delays and failures. Our second contribution consists in providing a hierarchical model called Multi-Institution Building Energy System (MIBES) designed for the modeling of the TTPEMP. This model highlights different subsystems, that are essential for decision-making : sensors, sites, groups of sites (building stocks) and organizations. It rationally prepares the development of algorithms by providing multiple views at the different modeling levels. These algorithms are organized as an extensible library of microservices. The adoption of Development and Operations (DevOps) methods responds to human organization by advocating human collaboration between the departments of the organization in charge of the project and the automation of the latter. By integrating these DevOps principles, a prototype of the supervision system is developed in order to demonstrate the various advantages brought by our approach. These advantages are expressed in the form of scaling, reproducibility and decision-making facilities. The prototype thus produced forms a solid basis for buildings’ smart supervision and can be reused for other applications such as Smart Grids
APA, Harvard, Vancouver, ISO, and other styles
30

Abbas, Nivine. "Conception et performance de schémas de coordination dans les réseaux cellulaires." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0068/document.

Full text
Abstract:
L'interférence entre stations de base est considérée comme le principal facteur limitant les performances des réseaux cellulaires. Nous nous intéressons aux différents schémas de coordination multi-point (CoMP) proposés dans la norme LTE-A pour y faire face, en tenant compte de l'aspect dynamique du trafic et de la mobilité des utilisateurs. Les résultats sont obtenus par l'analyse mathématique de modèles markoviens et par des simulations du système. Nous montrons l'importance de l'algorithme d'ordonnancement sur les performances en présence d'utilisateurs mobiles, pour des services de téléchargement de fichier et de streaming vidéo. Nous proposons un nouvel algorithme d'ordonnancement basé sur la dé-priorisation des utilisateurs mobiles se trouvant en bord de cellule, afin d'améliorer l'efficacité globale du système. Nous montrons ensuite qu'il est intéressant d'activer la technique dite Joint Processing uniquement dans un réseau à forte interférence, son activation dans un réseau à faible interférence pouvant conduire à une dégradation des performances. Nous proposons un nouveau mécanisme de coordination où une cellule ne coopère que lorsque sa coopération apporte un gain moyen de débit suffisant pour compenser les pertes de ressources engendrées. Nous considérons enfin la technique de formation de faisceaux coordonnée. Nous montrons notamment que la coordination n'est pas nécessaire lorsque l'on dispose d'un grand nombre d'antennes par station de base, un simple mécanisme d'ordonnancement opportuniste permettant d'obtenir des performances optimales. Pour un nombre limité d’antennes parstation de base, la coordination est nécessaire afin d’éviter l’interférence entre les faisceaux activés, et permet des gains de performance substantiels
Interference is still the main limiting factor in cellular networks. We focus on the different coordinated multi-point schemes (CoMP) proposed in the LTE-A standard to cope with interference, taking into account the dynamic aspect of traffic and users’ mobility. The results are obtained by the analysis of Markov models and system-level simulations. We show the important impact of the scheduling strategy on the network performance in the presence of mobile users considering elastic traffic and video streaming. We propose a new scheduler that deprioritizes mobile users at the cell edge, in order to improve the overall system efficiency. We show that it is interesting to activate Joint Processing technique only in a high-interference network, its activation in a low-interference network may lead to performance degradation. We propose a new coordination mechanism, where a cell cooperates only when its cooperation brings a sufficient mean throughput gain, which compensates the extra resource consumption. Finally, we show that the coordination of beams is not necessary when a large number of antennas is deployed at each base station; a simple opportunistic scheduling strategy provides optimal performance. For a limited number of antennas per base station,coordination is necessary to avoid interference between the activated beams, allowing substantial performance gains
APA, Harvard, Vancouver, ISO, and other styles
31

Kahelras, Mohamed. "Conception d'observateurs pour différentes classes de systèmes à retards non linéaires." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS005/document.

Full text
Abstract:
Le retard est un phénomène naturel présent dans la majorité des systèmes physiques et dans les applications d’ingénierie, ainsi, les systèmes à retard ont été un domaine de recherche très actif en automatique durant les 60 dernières années. La conception d’observateur est un des sujets les plus importants qui a été étudié, ceci est dû à l’importance des observateurs en automatique et dans les systèmes de commande en absence de capteur pour mesurer une variable. Dans ce travail, l’objectif principal est de concevoir des observateurs pour différentes classes de systèmes à retard avec un retard arbitrairement large, et ce en utilisant différentes approches. Dans la première partie de cette thèse, la conception d’un observateur a été réalisée pour une classe de systèmes non linéaires triangulaires avec une sortie échantillonnée et un retard arbitraire. Une l’autre difficulté majeure avec cette classe de systèmes est le fait que la matrice d’état dépend du signal de sortie non-retardé qui est immesurable. Un nouvel observateur en chaine, composé de sous-observateurs en série est conçu pour compenser les retards arbitrairement larges. Dans la seconde partie de ce travail, un nouvel observateur a été conçu pour un autre type de systèmes non linéaires triangulaires, où le retard a été considéré, cette fois-ci, comme une équation aux dérivées partielles de type hyperbolique du premier ordre. La transformation inverse en backstepping et le concept de l’observateur en chaine ont été utilisés lors de la conception de cet observateur afin d’assurer son efficacité en cas de grands retards. Dans la dernière partie de cette thèse, la conception d’un nouvel observateur a été réalisée pour un type de système modélisé par des équations paraboliques non linéaires où les mesures sont issues d’un nombre fini de points du domaine spatial. Cet observateur est constitué d’une série de sous-observateurs en chaine. Chaque sous-observateur compense une fraction du retard global. L'analyse de la stabilité des systèmes d’erreur a été fondée sur différentes fonctionnelles Lyapunov-Krasovskii. Par ailleurs, différents instruments mathématiques ont été employés au cours des différentes preuves présentées. Les résultats de simulation ont été présentés dans le but de confirmer l'exactitude des résultats théoriques
Time-delay is a natural phenomenon that is present in most physical systems and engineering applications, thus, delay systems have been an active area of research in control engineering for more than 60 years. Observer design is one of the most important subject that has been dealt with, this is due to the importance of observers in control engineering systems not only when sensing is not sufficient but also when a sensing reliability is needed. In this work, the main goal was to design observers for different classes of nonlinear delayed systems with an arbitrary large delay, using different approaches. In the first part, the problem of observer design is addressed for a class of triangular nonlinear systems with not necessarily small delay and sampled output measurements. Another major difficulty with this class of systems is the fact that the state matrix is dependent on the un-delayed output signal which is not accessible to measurement. A new chain observer, composed of sub-observers in series, is designed to compensate for output sampling and arbitrary large delays.In the second part of this work, another kind of triangular nonlinear delayed systems was considered, where this time the delay was considered as a first order hyperbolic partial differential equation. The inverse backstepping transformation was invoked and a chain observer was developed to ensure its effectiveness in case of large delays. Finally, a new observer was designed for a class of nonlinear parabolic partial differential equations under point measurements, in the case of large delays. The observer was composed of several chained sub-observers. Each sub-observer compensates a fraction of the global delay. The stability analyses of the error systems were based on different Lyapunov-Krasovskii functionals. Also different mathematical tools have been used in order to prove the results. Simulation results were presented to confirm the accuracy of the theoretical results
APA, Harvard, Vancouver, ISO, and other styles
32

Cordeil, Maxime. "Exploration et exploitation de l’espace de conception des transitions animées en visualisation d’information." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0044/document.

Full text
Abstract:
Les visualisations de données permettent de transmettre de l’information aux utilisateurs. Pour explorer et comprendre les données, les utilisateurs sont amenés à interagir avec ces visualisations.Toutefois, l’interaction avec les visualisations modifie le visuel. Pour éviter des changements brusques et garder l’utilisateur focalisé sur les objets graphiques d’intérêt, des transitions visuelles sont nécessaires pour accompagner les modifications de la visualisation. Ces transitions visuelles peuvent être codées sous la forme d’animations, ou de techniques qui permettent de faire des correspondances, ou des liens avec des données représentées sur plusieurs affichages. Le premier objectif de cette thèse était d’étudier les bénéfices et les propriétés des animations pour l’exploration et la compréhension de grandes quantités de données multidimensionnelles. Nous avons établi en conséquence une taxonomie des transitions animées en visualisation d’information basée sur les tâches des utilisateurs. Cette taxonomie a permis de constater qu’il n’existe pas de contrôle utilisateur sur la direction des objets durant l’animation. Nous avons donc proposé des interactions pour le contrôle de la direction des objets graphiques lors d’une transition animée. D’autre part, nous avons étudié une technique de transition animée mettant en jeu une rotation 3D entre visualisations. Nous avons identifié les avantages qu’elle pouvait apporter et en avons proposé une amélioration.Le second objectif était d’étudier les transitions visuelles dans le domaine du Contrôle du Trafic Aérien. En effet, les contrôleurs utilisent de nombreuses visualisations qui comportent des informations étalées et dupliquées sur plusieurs affichages: l’écran Radar, le tableau de strips, des listes spécifiques d’avions (départ, arrivées) etc. Ainsi dans leur activité, les Contrôleurs Aériens réalisent des transitions visuelles en recherchant et en reliant de l’information à travers les différents affichages. Nous avons étudié comment les animations pouvaient être utilisées dans le domaine du contrôle aérien en implémentant un prototype d’image radar regroupant trois visualisations usuelles pour instrumenter l’activité de supervision du trafic aérien
Data visualizations allow information to be transmitted to users. In order to explore and understand the data, it is often necessary for users to manipulate the display of this data. When manipulating the visualization, visual transitions are necessary to avoid abrupt changes in this visualization, and to allow the user to focus on the graphical object of interest. These visual transitions can be coded as an animation, or techniques that link the data across several displays. The first aim of this thesis was to examine the benefits and properties of animated transitions used to explore and understand large quantities of multidimensional data. In order to do so, we created a taxonomy of existing animated transitions. This taxonomy allowed us to identify that no animated transition currently exists that allows the user to control the direction of objects during the transition. We therefore proposed an animated transition that allows the user to have this control during the animation. In addition, we studied an animated transition technique that uses 3D rotation to transition between visualizations. We identified the advantages of this technique and propose an improvement to the current design. The second objective was to study the visual transitions used in the Air Traffic Control domain. Air Traffic Controllers use a number of visualizations to view vast information which is duplicated in several places: the Radar screen, the strip board, airplane lists (departures/arrivals) etc. Air traffic controllers perform visual transitions as they search between these different displays of information. We studied the way animations can be used in the Air Traffic Control domain by implementing a radar image prototype which combines three visualizations typically used by Air Traffic Controllers
APA, Harvard, Vancouver, ISO, and other styles
33

Adame, Issifou. "Conception et réalisation de la décentralisation sur micro-ordinateur d'une base de données économique." Lyon 1, 1985. http://www.theses.fr/1985LYO19008.

Full text
Abstract:
Toute entreprise a besoin des informations internes fournies par sa gestion courante et de celles de son environnement pour éclairer ses décisions industrielles ou commerciales, mais s’ il est plus facile à une entreprise de recenser ses informations internes, il lui est plus difficile de rassembler celles de son environnement. C'est pour répondre à ce besoin dans la branche économique du bâtiment que nous avons dans un premier temps réalisé une banque de données centralisées qui fournit des informations externes de manière intermittente aux entreprises, puis dans un second temps, nous avons, en nous appuyant sur la micro-informatique étudié la décentralisation de cette base de données de manière à permettre à chaque utilisateur : - de stocker et de disposer chez soi d'une plus grande masse d'informations externes, - de pouvoir constituer une base locale cohérente des informations internes et externes qu'il pourra consulter de manière instantanée, - de pouvoir utiliser directement les outils logiciels de simulation et d’aide à la décision pour mieux bâtir des modèles afin de mieux prévoir pour mieux décider
APA, Harvard, Vancouver, ISO, and other styles
34

Liu, Yinling. "Conception et vérification du système d'Information pour la maintenance aéronautique." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI133.

Full text
Abstract:
Le soutien opérationnel est l’un des aspects les plus importants pour la maintenance aéronautique. Il vise essentiellement à fournir un portefeuille de services permettant d’implémenter la maintenance avec un niveau élevé d’efficacité, de fiabilité et d’accessibilité. L’une des principales difficultés du support opérationnel est qu’il n’existe pas de plate-forme intégrant tous les processus de maintenance des avions afin de réduire les coûts et d’améliorer le niveau de service. Il est donc nécessaire de réaliser un système autonome de maintenance des avions dans lequel toutes les informations de maintenance peuvent être collectées, organisées, analysées et gérées de manière à faciliter la prise de décision. Pour ce faire, une méthodologie innovante a été proposée, qui concerne la modélisation, simulation, vérification formelle et analyse des performances du système autonome mentionné. Trois axes ont été abordés dans cette thèse. Premier axe concerne la conception et simulation d'un système autonome pour la maintenance aéronautique. Nous proposons une conception innovante d'un système autonome prenant en charge la prise de décision automatique pour la planification de la maintenance. Deuxième axe vise la vérification de modèles sur des systèmes de simulation. Nous proposons une approche plus complète de la vérification des comportements globaux et des comportements opérationnels des systèmes. Troisième axe porte sur l'analyse de la performance des systèmes de simulation. Nous proposons une approche consistant à combiner un système de simulation à base d’agent avec une approche « Fuzzy Rough Nearest Neighbor », afin de mettre en œuvre la classification et prévision efficaces des pannes pour la maintenance des avions avec des données manquantes. Finalement, des modèles et systèmes de la simulation ont été proposés. Des expérimentations de la simulation illustrent la faisabilité de l’approche proposée
Operational support is one of the most important aspects of aeronautical maintenance. It aims to provide a portfolio of services to implement maintenance with a high level of efficiency, reliability and accessibility. One of the major difficulties in operational support is that there is no platform that integrates all aircraft maintenance processes in order to reduce costs and improve the level of service. It is therefore necessary to build an autonomous aircraft maintenance system in which all maintenance information can be collected, organized, analyzed and managed in a way that facilitates decision-making. To do this, an innovative methodology has been proposed, which concerns modelling, simulation, formal verification and performance analysis of the autonomous system mentioned. Three axes were addressed in this thesis. The first axis concerns the design and simulation of an autonomous system for aeronautical maintenance. We offer an innovative design of an autonomous system that supports automatic decision making for maintenance planning. The second axis is the verification of models on simulation systems. We propose a more comprehensive approach to verifying global behaviours and operational behaviours of systems. The third axis focuses on the analysis of the performance of simulation systems. We propose an approach of combining an agent-based simulation system with the “Fuzzy Rough Nearest Neighbor” approach, in order to implement efficient classification and prediction of aircraft maintenance failures with missing data. Finally, simulation models and systems have been proposed. Simulation experiments illustrate the feasibility of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
35

Abi, Akle Audrey. "Visualisation d’information pour une décision informée en exploration d’espace de conception par shopping." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0039/document.

Full text
Abstract:
Lors de l’exploration d’espace de conception, les données résultantes de la simulation d’un grand nombre d’alternatives de conception peuvent conduire à la surcharge d’information quand il s’agit de choisir une bonne solution de conception. Cette exploration d’espace de conception s’apparente à une méthode d’optimisation en conception multicritère mais en mode manuel pour lequel des outils appropriés à la visualisation de données multidimensionnelle sont employés. Pour le concepteur, un processus en trois phases – découverte, optimisation, sélection – est suivi selon un paradigme dit de Design by Shopping. Le fait de « parcourir » l’espace de conception permet de gagner en intuition sur les sous-espaces de solutions faisables et infaisables et sur les solutions offrant de bons compromis. Le concepteur apprend au cours de ces manipulations graphiques de données. La sélection d’une solution optimale se fait donc sur la base d’une décision dite informée. L’objectif de cette recherche est la performance des représentations graphiques pour l’exploration d’espace de conception, pour les trois phases du processus en Design by Shopping. Pour cela, cinq représentations graphiques, identifiées comme potentiellement performantes, sont testées à travers deux expérimentations. Dans la première, trente participants ont testé trois graphiques, pour la phase de sélection dans une situation multi-attribut, à travers trois scénarios de conception où une voiture doit être choisie parmi quarante selon des préférences énoncées. Pour cela, un indice de qualité est proposé pour calculer la qualité de la solution du concepteur pour un des trois scénarios définis, la solution optimale selon cet indice étant comparée à celles obtenues après manipulation des graphiques. Dans la deuxième expérimentation, quarante-deux concepteurs novices ont résolu deux problèmes de conception à l’aide de trois graphiques. Dans ce cas, la performance des graphiques est testée pour la prise de décision informée et pour les trois phases du processus dans une situation multi-objectif. Les résultats révèlent qu’un graphique est adapté à chacune des trois phases du Design by Shopping :: le graphique Scatter Plot Matrix pour la phase de découverte et pour la prise de décision informée, le graphique Simple Scatter pour la phase d’optimisation et le graphique Parallel Coordinate Plot pour la phase de sélection aussi bien dans une situation multi-attribut que multi-objectif
In Design space exploration, the resulting data, from simulation of large amount of new design alternatives, can lead to information overload when one good design solution must be chosen. The design space exploration relates to a multi-criteria optimization method in design but in manual mode, for which appropriate tools to support multi-dimensional data visualization are employed. For the designer, a three-phase process - discovery, optimization, selection - is followed according to a paradigm called Design by Shopping. Exploring the design space helps to gain insight into both feasible and infeasible solutions subspaces, and into solutions presenting good trade-offs. Designers learn during these graphical data manipulations and the selection of an optimal solution is based on a so-called informed decision. The objective of this research is the performance of graphs for design space exploration according to the three phases of the Design by Shopping process. In consequence, five graphs, identified as potentially efficient, are tested through two experiments. In the first, thirty participants tested three graphs, in three design scenarios where one car must be chosen out of a total of forty, for the selection phase in a multi-attribute situation where preferences are enounced. A response quality index is proposed to compute the choice quality for each of the three given scenarios, the optimal solutions being compared to the ones resulting from the graphical manipulations. In the second experiment, forty-two novice designers solved two design problems with three graphs. In this case, the performance of graphs is tested for informed decision-making and for the three phases of the process in a multi-objective situation. The results reveal three efficient graphs for the design space exploration: the Scatter Plot Matrix for the discovery phase and for informed decision-making, the Simple Scatter Plot for the optimization phase and the Parallel Coordinate Plot for the selection phase in a multi-attribute as well as multi-objective situation
APA, Harvard, Vancouver, ISO, and other styles
36

Spinelli-Flesch, Marie. "Pensée et construction lors de la naissance du gothique." Besançon, 1990. http://www.theses.fr/1990BESA1018.

Full text
Abstract:
L'analyse des grands édifices au XIIème siècle et des textes les accompagnant permet de préciser les interractions pensée-construction. La dévotion à Dieu et aux saints fonde toute construction et en assure le financement. L'importance des reliques à Saint-Denis amène Suger à une mise en scène spectaculaire de celles-ci. Dans le plan se retrouve l'idée augustinienne du beau. De nouveaux besoins le modifient : liturgie, augmentation des fidèles. La mise en espace qui naît de l'élévation change complètement la perception romane. Le sentiment religieux modifié par la nouvelle christologie a pu contribuer a ce changement des formes. En revanche, la comparaison des pensées du Suger et du pseudo-Denys montre des différences fondamentales entre elles et nie l'influence dans le premier art gothique du corpus dionysiacum. En geométrie, le savoir des lettres présente un intérêt classificatoire et encyclopédique et non pas experimental. Les expériences des constructeurs ne sont qu'occasionnellement aidées par un savoir scolaire. Le progrès technique et les formes gothiques sont essentiellement le fait des maçons fermement appuyés par la volonté des commanditaires
The great edifices analysis during the twelth century and texts going with permit to precise thought-construction relations. The devoutness to God and the saints founds all constructions and provides their financements. The importance of the relics at Saint-denis makes Suger do a spectacular presentation. In the plan, is the augustinian idea of beautiful witch modify the new needs (liturgy, increasing of the faithfuls). Religious feeling modified by the new christology contributed to the changes of the gothic art. The comparison of Suger's thought and the pseudo-Denys shows fondamental differences between them and deny the influence on the first gothic of the corpus dionysiacum. In geometry, the know of the "litterati" doesn't present any experimental interest but a classificatory one. The builders' experiments are only occasionaly helped by the know of the scolars. The technical progress and the gothic forms are mostly the fact of the masons hardly supported by the sleeping-partners' will
APA, Harvard, Vancouver, ISO, and other styles
37

Zaher, Noufal Issam al. "Outils de CAO pour la génération d'opérateurs arithmétiques auto-contrôlables." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0028.

Full text
Abstract:
Les chemins de données sont des parties logiques essentielles dans les microprocesseurs et les microcontrôleurs. La conception de chemins de données fiables est donc un pas important vers la réalisation de circuits intégrés plus sûrs. Nous avons, d’abord, étudié des multiplieurs auto-contrôlables basés sur le code résidu. Nous avons montré qu’on peut avoir des multiplieurs sûrs en présence de fautes de type collage logique avec un surcoût très faible, notamment pour les multiplieurs de grande taille (de 10 à 15 % pour les multiplieurs de taille 32x32). Dans la deuxième partie, nous avons généralisé des solutions auto-contrôlables existantes d’opérateurs arithmétiques basés sur la parité. Les nouvelles versions ont plusieurs bits de parité et permettent d’augmenter sensiblement la couverture de fautes transitoires. Les solutions développées sont intégrées dans un outil informatique. Cet outil donne une grande flexibilité de choix d’opérateurs arithmétiques et logiques auto contrôlables permettant ainsi de faciliter la tâche des concepteurs non spécialisés
APA, Harvard, Vancouver, ISO, and other styles
38

Capdevila, Ibañez Bruno. "Serious game architecture and design : modular component-based data-driven entity system framework to support systemic modeling and design in agile serious game developments." Paris 6, 2013. http://www.theses.fr/2013PA066727.

Full text
Abstract:
Depuis une dizaine d’années, on constate que les propriétés d’apprentissage inhérentes aux jeux-vidéo incitent de nombreux développeurs à explorer leur potentiel en tant que moyen d’expression pour des buts divers et innovateurs (sérieux). L’apprentissage est au cœur de l’expérience de jeu, mais il prend normalement place dans les domaines affectifs et psychomoteurs. Quand l’apprentissage cible un contenu sérieux, des designers cognitifs/pédagogiques doivent veiller à son effectivité dans le domaine cognitif. Dans des équipes éminemment multidisciplinaires (jeu, technologie, cognition et art), la compréhension et la communication sont indispensables pour une collaboration efficace dès la première étape de conception. Dans une approche génie logiciel, on s’intéresse aux activités (multidisciplinaires) du processus de développement plutôt qu’aux disciplines elles-mêmes, dans le but d’uniformiser et clarifier le domaine. Puis, nous proposons une fondation logicielle qui renforce ce modèle multidisciplinaire grâce à une approche d’underdesign qui favorise la création des espaces de design collaboratifs. Ainsi, Genome Engine peut être vu comme une infrastructure sociotechnique dirigée-donnée qui permet à des développeurs non-programmeurs, comme le game designer et éventuellement le designer cognitif, de participer activement dans la construction du design du produit, plutôt que de l’évaluer déjà en temps d’utilisation. Son architecture est fondée sur un style de système de systèmes d’entités, ce qui contribue à sa modularité, sa réutilisabilité et adaptabilité, ainsi qu’à fournir des abstractions qui favorisent la communication. Plusieurs projets réels nous ont permis de tester notre approche
For the last ten years, we witness how the inherent learning properties of videogames entice several creators into exploring their potential as a medium of expression for diverse and innovative (serious) purposes. Learning is at the core of the play experience, but it usually takes place at the affective and psychomotor domains. When the learning targets the serious content, cognitive/instructional designers must ensure its effectiveness at the cognitive domain. In such eminently multidisciplinary teams (game, technology, cognition, art), understanding and communication are essential for an effective collaboration from the early stage of inception. In a software engineering approach, we focus on the (multidisciplinary) activities of the development process rather than the disciplines themselves, with the intent to uniform and clarify the field. Then, we propose a software foundation that reinforces this multidisciplinary model thanks to an underdesign approach that favors the creation of collaborative design workspaces. Thereby, Genome Engine can be considered as a data-driven sociotechnical infrastructure that provides non-programmer developers, such as game designers and eventually cognitive designers, with a means to actively participate in the construction of the product design, rather than evaluating it once in usage time. Its architecture is based on a component-based application framework with an entity system of systems runtime object model, which contributes to modularity, reuse and adaptability, as well as to provide familiar abstractions that ease communication. Our approach has been extensively evaluated with the development of several serious game projects
APA, Harvard, Vancouver, ISO, and other styles
39

Whitman, Isabelle M. "Dante, Damnation, and The Undead: How The Conception of Hell Has Changed in Western Literature from Dante's Inferno to The Zombie Apocalypse." ScholarWorks@UNO, 2015. http://scholarworks.uno.edu/td/1997.

Full text
Abstract:
Dante's Inferno defined hell in Western literature for centuries; it was a physical place for sinners, they were subjected to physical torments, and it was in the afterlife. Dante’s depiction was firmly rooted in Christian theology. However, as fears and morals change, ideas of hell evolve as well. With the popularity of the zombie and other apocalypse narratives, these ideas return to the notion of physical torment and earthly places. In poetry, novels, theater, television, and film, writers examine different interpretations of hell, punishment, and redemption as metaphors for modern sins. In Sartre’s Huis clos, hell is a windowless room, and the tortures are inflicted psychologically by other people. In Romero’s Living Dead films, hell comes to earth, and the torments are both physical and psychological. Joss Whedon’s Buffy the Vampire Slayer shows how hellish the common experiences of high school and growing up can be. Cormac McCarthy’s The Road examines hell as a lack of place, a relentless journey without end. In these and other works, the concept of hell is reinvented and replaced by new ideas, but the influence of the past iterations shapes the new landscapes.
APA, Harvard, Vancouver, ISO, and other styles
40

Cohen, Albert. "Contributions à la conception de systèmes à hautes performances, programmables et sûrs: principes, interfaces, algorithmes et outils." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00550830.

Full text
Abstract:
La loi de Moore sur semi-conducteurs approche de sa fin. L'evolution de l'architecture de von Neumann à travers les 40 ans d'histoire du microprocesseur a conduit à des circuits d'une insoutenable complexité, à un très faible rendement de calcul par transistor, et une forte consommation énergetique. D'autre-part, le monde du calcul parallèle ne supporte pas la comparaison avec les niveaux de portabilité, d'accessibilité, de productivité et de fiabilité de l'ingénérie du logiciel séquentiel. Ce dangereux fossé se traduit par des défis passionnants pour la recherche en compilation et en langages de programmation pour le calcul à hautes performances, généraliste ou embarqué. Cette thèse motive notre piste pour relever ces défis, introduit nos principales directions de travail, et établit des perspectives de recherche.
APA, Harvard, Vancouver, ISO, and other styles
41

Combelles, Cécil. "Modélisation ab-initio Appliquée à la Conception de Nouvelles Batteries Li-Ion." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00421182.

Full text
Abstract:
Pour améliorer les performances des batteries au lithium, des ruptures technologiques sont nécessaires. Ceci impose que les aspects fondamentaux liés au fonctionnement de ces dispositifs électroniques soient reconsidérés. Dans cette optique, les méthodes de la chimie quantique peuvent apporter une aide précieuse, notamment pour comprendre les phénomènes électroniques microscopiques, à l'origine du stockage de l'énergie. Établir une relation directe entre la nature de la liaison chimique (microscopique) et les propriétés physico-chimiques (macroscopiques) des matériaux d'électrode pour batteries Li-Ion est donc l'objectif dans lequel s'inscrivent les travaux exposés dans cette thèse. Ce travail explore à la fois des aspects méthodologiques et des applications. Il vise à proposer des méthodologies d'analyse simples permettant de traiter les réactions électrochimiques d'un point de vue théorique et de déterminer les mécanismes microscopiques mis en jeu au cours des cycles de charge et de décharge des batteries. Les systèmes étudiés sont les composés d'insertion du graphite (Li-GICs) et un matériau hybride de type MOFs (« Metal Organic Framework ») basé sur l'ion ferrique (MIL-53(Fe)). Pour les Li-GICs, une nouvelle méthode couplant des calculs premiers principes DFT à un modèle statistique dérivé du modèle de Bethe-Peierls a été développée pour rendre compte des effets d'entropie (de configuration) dans leur diagramme de phase. Les résultats obtenus apportent un nouveau regard sur les processus électrochimiques induits par le lithium, ouvrant des perspectives technologiques intéressantes pour remédier aux problèmes de sécurité posés par ce type d'électrode. Pour le MIL-53(Fe), la méthode DFT+U a été utilisée pour rendre compte des effets de corrélation électronique et pour reproduire l'état fondamental complexe de ce système. Les résultats obtenus ont permis de comprendre l'origine de la faible capacité de ce matériau vis-`a-vis du lithium.
APA, Harvard, Vancouver, ISO, and other styles
42

Godot, Xavier. "Interactions Projet/Données lors de la conception de produits multi-technologiques en contexte collaboratif." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0024/document.

Full text
Abstract:
Du point de vue industriel, la conception de produit a pour finalité de répondreaux besoins de développement d’une entreprise. Elle fait appel à de nombreusesconnaissances et compétences différentes qui doivent concourir à un unique but : décrire unproduit qui répond aux besoins du marché visé par l’entreprise. Il existe donc de fortesinteractions entre l’entreprise, son marché et l’activité de conception. Par conséquent, toutprojet de développement doit tenir compte des caractéristiques et des contraintes de chacun deces trois éléments. L’objectif de cette thèse est donc de proposer un cadre méthodologiquegénérique permettant de construire et de piloter des projets de conception de produits enfonction des objectifs de développement d’une entreprise, mais également de ses ressourcestant humaines que matérielles ou financières. Pour atteindre cet objectif, il est indispensabled’intégrer plusieurs facteurs importants. Certains sont d’ordre technique (l’innovation, lacomplexité croissante des produits multi-technologiques, l’hétérogénéité des donnéesnumériques…) et d’autres d’ordre économique ou financier (un contexte concurrentiel trèsdifficile, des financements de projets de développement limités et incertains…). La prise encompte de ces multiples paramètres hétérogènes nécessite une approche systémique. Ainsi,une démarche en deux temps a été élaborée. L’ensemble des objets concernant les objectifsde développement de l’entreprise, son marché et l’activité de conception a tout d’abord étéidentifié et formalisé au sein d’un même diagramme de concepts. Celui-ci a ensuite permisd’identifier les interactions entre ces objets et d’en déduire les mécanismes de fonctionnement.Ces premiers résultats ont finalement été traduits sous la forme d’un processus générique quiconstitue la proposition de cette thèse. Plusieurs exemples issus des PME du secteur de lamécanique sont traités afin d’éprouver la validité de cette solution
As an industrial point of view, product design activity answer to firmsdevelopment needs. This activity requires a lot of heterogeneous knowledge and skills, whichhave to converge towards a common goal: describe a product meeting the market needs.Consequently, there are many interactions between the firm, its market and the design activity.Therefore, a development project must take into account specifications and constraints of eachelement. The goal of this PhD is to define a generic methodological framework allowing to builtand control a product design project depending on the firm development goals and its ownresources. For this, it is important to include many technical factors (such innovation, multitechnologicalproducts and numerical data specificities) but also economical and financialfactors (as the difficult competitive environment or limited financial resources). All theseheterogeneous parameters involve a global approach of the problem. That is why a two-stageresearch approach is applied to build this framework. In the first stage, a conceptual diagram isdesigned using items coming from the company goals, its market and design activity.Interactions and behavior of all these items are deduced from this conceptual diagram. Theseresults are formalized through a generic process. This last one is finally applied to severalexamples from SME working in the mechanical field
APA, Harvard, Vancouver, ISO, and other styles
43

Sakka, Mohamed Amin. "Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0023/document.

Full text
Abstract:
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d’échange, de partage et de stockage de l’information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d’accès ainsi qu’une efficacité d’organisation et de recherche de l’information. Malgré ses avantages, l’information numérique a l’inconvénient d’être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l’information et pour vérifier si elle répond à un ensemble d’exigences métier, techniques et légales. Aujourd’hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L’objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l’information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l’exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l’hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d’interprétation minimal et commun pour n’importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l’interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d’abord une architecture logique de PMS indépendante des choix technologiques d’implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d’un PMS. Par la suite, et afin de préserver l’autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l’ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l’archivage de documents à valeur probante. Ensuite, l’aspect passage à l’ échelle de notre architecture a été testé par l’implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l’interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
Provenance is a key metadata for assessing electronic documents trustworthiness. It allows to prove the quality and the reliability of its content. With the maturation of service oriented technologies and Cloud computing, more and more data is exchanged electronically and dematerialization becomes one of the key concepts to cost reduction and efficiency improvement. Although most of the applications exchanging and processing documents on the Web or in the Cloud become provenance aware and provide heterogeneous, decentralized and not interoperable provenance data, most of Provenance Management Systems (PMSs) are either dedicated to a specific application (workflow, database, ...) or a specific data type. Those systems were not conceived to support provenance over distributed and heterogeneous sources. This implies that end-users are faced with different provenance models and different query languages. For these reasons, modeling, collecting and querying provenance across heterogeneous distributed sources is considered today as a challenging task. This is also the case for designing scalable PMSs providing these features. In the fist part of our thesis, we focus on provenance modelling. We present a new provenance modelling approach based on semantic Web technologies. Our approach allows to import provenance data from heterogeneous sources, to enrich it semantically to obtain high level representation of provenance. It provides syntactic interoperability between those sources based on a minimal domain model (MDM), supports the construction of rich domain models what allows high level representations of provenance while keeping the semantic interoperability. Our modelling approch supports also semantic correlation between different provenance sources and allows the use of a high level semantic query language. In the second part of our thesis, we focus on the design, implementation and scalability issues of provenance management systems. Based on our modelling approach, we propose a centralized logical architecture for PMSs. Then, we present a mediator based architecture for PMSs aiming to preserve provenance sources distribution. Within this architecture, the mediator has a global vision on all provenance sources and possesses query processing and distribution capabilities. The validation of our modelling approach was performed in a document archival context within Novapost, a company offering SaaS services for documents archiving. Also, we propose a non-functional validation aiming to test the scalability of our architecture. This validation is based on two implementation of our PMS : he first uses an RDF triple store (Sesame) and the second a NoSQL DBMS coupled with the map-reduce parallel model (CouchDB). The tests we performed show the limits of Sesame in storing and querying large amounts of provenance data. However, the PMS based on CouchDB showed a good performance and a linear scalability
APA, Harvard, Vancouver, ISO, and other styles
44

Peyret, Thomas. "Architecture matérielle et flot de programmation associé pour la conception de systèmes numériques tolérants aux fautes." Thesis, Lorient, 2014. http://www.theses.fr/2014LORIS348/document.

Full text
Abstract:
Que ce soit dans l’automobile avec des contraintes thermiques ou dans l’aérospatial et lenucléaire soumis à des rayonnements ionisants, l’environnement entraîne l’apparition de fautesdans les systèmes électroniques. Ces fautes peuvent être transitoires ou permanentes et vontinduire des résultats erronés inacceptables dans certains contextes applicatifs. L’utilisation decomposants dits « rad-hard » est parfois compromise par leurs coûts élevés ou les difficultésd’approvisionnement liés aux règles d’exportation.Cette thèse propose une approche conjointe matérielle et logicielle indépendante de la technologied’intégration permettant d’utiliser des composants numériques programmables dans desenvironnements susceptibles de générer des fautes. Notre proposition comporte la définitiond’une Architecture Reconfigurable à Gros Grains (CGRA) capable d’exécuter des codes applicatifscomplets mais aussi l’ensemble des mécanismes matériels et logiciels permettant de rendrecette architecture tolérante aux fautes. Ce résultat est obtenu par l’association de redondance etde reconfiguration dynamique du CGRA en s’appuyant sur une banque de configurations généréepar une chaîne de programmation complète. Cette chaîne outillée repose sur un flot permettantde porter un code sous forme de Control and Data Flow Graph (CDFG) sur l’architecture enobtenant un grand nombre de configurations différentes et qui permet d’exploiter au mieux lepotentiel de l’architecture.Les travaux, qui ont été validés aux travers d’expériences sur des applications du domaine dutraitement du signal et de l’image, ont fait l’objet de publications en conférences internationaleset de dépôts de brevets
Whether in automotive with heat stress or in aerospace and nuclear field subjected to cosmic,neutron and gamma radiation, the environment can lead to the development of faults in electronicsystems. These faults, which can be transient or permanent, will lead to erroneous results thatare unacceptable in some application contexts. The use of so-called rad-hard components issometimes compromised due to their high costs and supply problems associated with exportrules.This thesis proposes a joint hardware and software approach independent of integrationtechnology for using digital programmable devices in environments that generate faults. Ourapproach includes the definition of a Coarse Grained Reconfigurable Architecture (CGRA) ableto execute entire application code but also all the hardware and software mechanisms to make ittolerant to transient and permanent faults. This is achieved by the combination of redundancyand dynamic reconfiguration of the CGRA based on a library of configurations generated by acomplete conception flow. This implemented flow relies on a flow to map a code represented as aControl and Data Flow Graph (CDFG) on the CGRA architecture by obtaining directly a largenumber of different configurations and allows to exploit the full potential of architecture.This work, which has been validated through experiments with applications in the field ofsignal and image processing, has been the subject of two publications in international conferencesand of two patents
APA, Harvard, Vancouver, ISO, and other styles
45

Masse, Pierre-Aymeric. "Conception contextuelle des interactions entre un modèle de processus opérationnel et des modèles de processus supports." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0039.

Full text
Abstract:
De nos jours, l’utilisation des techniques de gestion de processus au sein des entreprises permet un gain significatif d’efficacité du système opérationnel. Ces techniques assistent les experts métier lors de la modélisation des processus de l’entreprise, de leur mise en oeuvre, de leurs analyses et de leurs améliorations. Le contexte d’exécution d’un processus métier contient des informations permettant d’identifier et de comprendre les interactions entre lui-même et d'autres processus. Le premier processus est déclenché suite à un besoin client (processus opérationnel) et les autres, suite à un besoin du processus opérationnel (processus supports). La satisfaction d’un besoin client dépend d’une interaction efficace entre le processus opérationnel et les processus supports qui lui sont liés. Ces interactions se définissent au travers des données opérationnelles, manipulées par le processus opérationnel, et des données supports, manipulées par les processus supports. Nos travaux se fondent sur l'Ingénierie dirigée par les Modèles. L’approche proposée dans cette thèse est fondée sur l’annotation des modèles de processus opérationnels ou supports. Cette annotation est réalisée avec l’aide d’une ontologie définissant le domaine métier décrit par ces processus. Ces annotations sont ensuite exploitées afin de constituer un ensemble de données, dites données contextuelles. L’analyse des traces de l'exécution du processus et de ces données contextuelles permet de sélectionner les meilleurs d'entre elles, au sens métier. Ainsi, un processus opérationnel pourra être associé à un ensemble de processus supports via les données contextuelles
Nowadays, the use of business process management techniques within companies allows a significant improvement in the efficiency of the operational systems. These techniques assist business experts in modelling business processes, implementation, analytics, and enhancements. The execution context of a business process contains information to identify and understand the interactions between itself and other processes. The first process is triggered following a customer need (operational process) and the others, following the need of the operationnal process (support processes). The satisfaction of a customer need depends on an effective interaction between an operational process and the related support processes. These interactions are defined through operational data, manipulated by the operational process, and support data, manipulated by the support processes. Our work is based on the framework of Model Driven Engineering. The approach proposed in this thesis is based on the annotation of operational or support process models. This annotation is performed with the help of an ontology defining the business domain described by these processes. These annotations are then exploited to constitute a set of data, called contextual data. The analysis of the traces of the execution of the operational process and of these contextual data makes it possible to select the best sub set of contextual data, in the business sense. Thus, an operational process can be associated with a set of support processes via the contextual data
APA, Harvard, Vancouver, ISO, and other styles
46

Hamouda, Cherif. "Étude d’une architecture d’émission/réception impulsionnelle ULB pour dispositifs nomades à 60 GHz." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1098/document.

Full text
Abstract:
Ce travail porte sur l'étude de faisabilité d'une architecture radio, dédiée aux applications WPANs nomades et faible consommation en utilisant la bande autour de 60 GHz. Des débits de l'ordre de Gbps, une compacité élevée et une consommation de puissance faible sont obtenus en réalisant une conception conjointe front-end antenne. Avant de proposer l'architecture adaptée au cahier de charge, une étude préalable du canal de propagation à 60 GHz est faite. Les deux principales normes de canal IEEE, le 802.15.3c et le 802.11.ad, sont étudiées. L'analyse d'une architecture impulsionnelle mono-bande adaptée aux systèmes à faible consommation montre une limitation du débit quand des antennes non directives sont utilisées dans la norme de canal 802.11.ad. Afin de remédier à ce problème, une architecture multi-bande impulsionnelle MBOOK à récepteur non-cohérent est proposée. Cette architecture autorise un haut débit avec l'utilisation de quatre sous bandes. Elle conduit également à une consommation faible grâce à l'utilisation d'un récepteur non-cohérent et d'une topologie différentielle de l'émetteur évitant l'intégration de combineurs. Pour valider le concept d'architecture proposée, des antennes différentielles dédiées à l'architecture différentielle sont conçues. Les premières antennes sont de type patch différentiel excité par des lignes microrubans. Ces dernières présentent des caractéristiques de rayonnement adaptées aux besoins du cahier de charge. Néanmoins elles occupent une surface importante. Afin d'avoir une meilleure compacité, un patch alimenté par couplage à fente est développé. Il exploite deux polarisations linéaires orthogonales excitées par une paire d'entrées différentielles. Afin d'obtenir la directivité élevée nécessaire pour les scénarios LOS à 60 GHz sans utiliser de réseaux d'antennes ou de lentilles diélectriques, des métamatériaux sont utilisés. La mesure des antennes est basée sur la réalisation d'une transition guide d'onde WR-15 ligne microruban pour connecter l'antenne à l'analyseur de réseau. La mesure de l'antenne patch différentielle présente une bonne concordance avec les résultats de simulations. La technologie TQP15 de TriQuint est utilisée pour concevoir les différents éléments de la partie front-end. L'évaluation de la consommation globale d'émetteur valide l'architecture proposée en termes de faible consommation. Ce travail se termine par une évaluation du débit du système en tenant en compte de l'influence de l'antenne et du canal de propagation. Cette évaluation prouve la potentialité de l'architecture en termes de haut débit. On propose finalement une technique basée sur la technologie LTCC pour l'assemblage antenne/front-end
This work deals with the feasibility study of a radio architecture dedicated to mobile WPAN applications at 60 GHz and characterized by a low power consumption. Data rates of the order of Gbps, high compactness and low power consumption are obtained by co-designing the antenna and the front-end. Before proposing the architecture matching the specification needs, a preliminary study of the propagation channel at 60 GHz is made. The two main standards IEEE 802.15.3c and 802.11.ad the channel are studied. The analysis of a single-band architecture suitable for low-power systems shows a data rate limitation when directional antennas are used in the standard channel 802.11.ad. To address this problem, a multi-band impulse architecture MBOOK using a non-coherent receiver is proposed. This architecture allows high throughput with the use of four sub-bands. It also leads to a low power consumption through the use of a non-coherent receiver and a differential transmitter topology avoiding combiners. To validate the concept of the proposed architecture, differential antennas dedicated to the differential architecture are designed. Patch antennas excited by differential microstrip lines fulfil the needs of the specifications but occupy a large area. In order to miniaturize the antenna, slot-fed patch antennas are designed using two orthogonal linear polarizations excited by a pair of differential inputs. To achieve the high directivity required in LOS scenarios without using antenna arrays or dielectric lenses, metamaterials are used. The antenna measurement is based on the realization of a WR-15 waveguide-to-microstrip line transition to connect the antenna to the network analyzer. The differential measurement of the antenna patch exhibits a good agreement with the simulated results. The TriQuint's TQP15 technology is used to design the various circuits of the front-end. The emitter architecture is validated once the overall consumption has been evaluated. This work ends with an evaluation of the throughput of the system taking into account the influence of the antenna and the propagation channel. This evaluation shows the potential of the architecture in terms of high throughput. We finally propose an approach based on the LTCC technology for the antenna / front-end assembly
APA, Harvard, Vancouver, ISO, and other styles
47

Saïdi, Houssem Eddine. "Conception et évaluation de techniques d'interaction pour l'exploration de données complexes dans de larges espaces d'affichage." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30252/document.

Full text
Abstract:
Les données d'aujourd'hui deviennent de plus en plus complexes à cause de la forte croissance de leurs volumes ainsi que leur multidimensionnalité. Il devient donc nécessaire d'explorer des environnements d'affichage qui aillent au-delà du simple affichage de données offert par les moniteurs traditionnels et ce, afin de fournir une plus grande surface d'affichage ainsi que des techniques d'interaction plus performantes pour l'exploration de données. Les environnements correspondants à cette description sont les suivants : Les écrans large ; les environnements multi-écrans (EME) composés de plusieurs écrans hétérogènes spatialement distribués (moniteurs, smartphones, tablettes, table interactive ...) ; les environnements immersifs. Dans ce contexte, l'objectif de ces travaux de thèse est de concevoir et d'évaluer des solutions d'interaction originales, efficaces et adaptées à chacun des trois environnements cités précédemment. Une première contribution de nos travaux consiste en Split-focus : une interface de visualisation et d'interaction qui exploite les facilités offertes par les environnements multi-écrans dans la visualisation de données multidimensionnelles au travers d'une interface overview + multi-detail multi-écrans. Bien que plusieurs techniques d'interaction offrent plus d'une vue détaillée en simultané, le nombre optimal de vues détaillées n'a pas été étudié. Dans ce type d'interface, le nombre de vues détaillées influe grandement sur l'interaction : avoir une seule vue détaillée offre un grand espace d'affichage mais ne permet qu'une exploration séquentielle de la vue d'ensemble?; avoir plusieurs vues détaillées réduit l'espace d'affichage dans chaque vue mais permet une exploration parallèle de la vue d'ensemble. Ce travail explore le bénéfice de diviser la vue détaillée d'une interface overview + detail pour manipuler de larges graphes à travers une étude expérimentale utilisant la technique Split-focus. Split-focus est une interface overview + multi-détails permettant d'avoir une vue d'ensemble sur un grand écran et plusieurs vues détaillées (1,2 ou 4) sur une tablette. [...]
Today's ever-growing data is becoming increasingly complex due to its large volume and high dimensionality: it thus becomes crucial to explore interactive visualization environments that go beyond the traditional desktop in order to provide a larger display area and offer more efficient interaction techniques to manipulate the data. The main environments fitting the aforementioned description are: large displays, i.e. an assembly of displays amounting to a single space; Multi-display Environments (MDEs), i.e. a combination of heterogeneous displays (monitors, smartphones/tablets/wearables, interactive tabletops...) spatially distributed in the environment; and immersive environments, i.e. systems where everything can be used as a display surface, without imposing any bound between displays and immersing the user within the environment. The objective of our work is to design and experiment original and efficient interaction techniques well suited for each of the previously described environments. First, we focused on the interaction with large datasets on large displays. We specifically studied simultaneous interaction with multiple regions of interest of the displayed visualization. We implemented and evaluated an extension of the traditional overview+detail interface to tackle this problem: it consists of an overview+detail interface where the overview is displayed on a large screen and multiple detailed views are displayed on a tactile tablet. The interface allows the user to have up to four detailed views of the visualization at the same time. We studied its usefulness as well as the optimal number of detailed views that can be used efficiently. Second, we designed a novel touch-enabled device, TDome, to facilitate interactions in Multi- display environments. The device is composed of a dome-like base and provides up to 6 degrees of freedom, a touchscreen and a camera that can sense the environment. [...]
APA, Harvard, Vancouver, ISO, and other styles
48

Bugnet, Henri. "Conception et test d'un circuit intégré (ASIC) : application aux chambres multifils et aux photomultiplicateurs de l'expérience GRAAL." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10192.

Full text
Abstract:
Le projet de physique nucleaire graal installe a grenoble aupres du synchrotron europeen (esrf), fournit un faisceau de photons etiquetes de haute energie (jusqu'a 1,5 gev). Ce faisceau, produit par retrodiffusion compton, est facilement polarisable et il permet de sonder d'une maniere originale la structure du nucleon. L'ensemble de detection associe comprend entre autres, des chambres a fils proportionnelles et des hodoscopes de scintillateurs. Un ensemble de six asic (application specific integrated circuit) a ete developpe, il assure le traitement des signaux des detecteurs et le conditionnement des donnees jusqu'au systeme d'acquisition. Cette electronique integree permet l'implantation des circuits directement sur les detecteurs. Les avantages evidents qui en decoulent sont une meilleure qualite des signaux et une fiabilite accrue, toutes deux dues a la reduction de la longueur et du nombre des connexions. Le wire processor (wp), asic concu et teste durant cette these, permet le traitement des signaux issus des fils de chambres ou des photomultiplicateurs. Le circuit comprend deux voies identiques qui permettent: l'amplification, la discrimination d'amplitude, la generation d'un retard programmable et l'ecriture dans une memoire deux etats, si la mise en coincidence avec un signal exterieur de validation a eue lieu. La mesure de l'efficacite d'une chambre a fils a permis de montrer le bon fonctionnement du wp, de l'electronique de conditionnement des donnees, du systeme d'acquisition et de la chambre elle meme
APA, Harvard, Vancouver, ISO, and other styles
49

Brejla, Tomáš. "Návrh koncepce prevence ztráty dat." Master's thesis, Vysoká škola ekonomická v Praze, 2011. http://www.nusl.cz/ntk/nusl-114106.

Full text
Abstract:
This work deals with the making of conception of implementation of processes and software tools designed to ensure sensitive data leakage prevention from the organization infrastructure. The structure consists of three key parts. The first one describes theoretical basis of the work. It explains what is the data loss prevention, what it comes from, why it is necessary to deal with it and what its goals are. It also describes how this fits into the whole area of corporate ICT security environment. There are defined all the risks associated with leakage of sensitive data and there are also defined possible solutions and problems that are associated with these solutions. The first part also analyzes the current state of data loss prevention in organizations. They are divided according to their size and for each group there is a list of the most common weaknesses and risks. It is evaluated how the organizations currently solve prevention of data loss and how they cover this issue from both a procedural point of view and in terms of software tools. The second part focuses directly on the software tools. It is characterized the principle of operation of these systems and it is explained their network architecture. There are described and evaluated current trends in the development of the data loss prevention tools and it is outlined possible further development. They are divided into different categories depending on what features they offer and how these categories cover the needs of organizations. At the end of the second part there are compared the software solutions from leading vendors in the market against actual experience, focusing on their strengths and weaknesses. The third part presents the core content. IT joins two previous sections and the result is the creation of the overall concept of the implementation of data loss prevention with focus on breakdown by several different levels -- processes, time and size of the company. At the beginning of this third section it is described what precedes the implementation of data loss prevention, and what the organizations should be careful of. It is defined by how and what the organizations should set their own expectations for the project could be manageable. The main point is the creation of a procedure of data loss prevention implementation by creating a strategy, choice of solutions, to the implementation of this solution and related processes. The end of the third part deals with the legal and personnel issues which are with the implementation of DLP very closely related. There are made recommendations based on analysis of the law standards and these recommendations are added to the framework approach of HR staff. At the very end there are named benefits of implementing data loss prevention, and the created concept is summarized as a list of best practices.
APA, Harvard, Vancouver, ISO, and other styles
50

Toure, Carine. "Capitalisation pérenne de connaissances industrielles : Vers des méthodes de conception incrémentales et itératives centrées sur l’activité." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI095/document.

Full text
Abstract:
Dans ce travail de recherche, nous nous intéressons à la question de la pérennité de l’usage des systèmes de gestion des connaissances (SGC) dans les entreprises. Les SGC sont ces environnements informatiques qui sont mis en place dans les entreprises pour mutualiser et construire l’expertise commune grâce aux collaborateurs. Le constat montre que, malgré la rigueur employée par les entreprises pour la mise en œuvre de ces SGC, le risque d’échec des initiatives de gestion des connaissances, notamment lié à l’acceptation de ces environnements par les utilisateurs professionnels ainsi qu’à leur usage continu et durable, reste d’actualité. La persistance et l’ampleur de ce constat dans les entreprises a motivé notre intérêt d’apporter une contribution à cette question générale de recherche. Comme propositions de réponse à cette problématique, nous avons donc 1) dégagé à partir de l’état de l’art, quatre facettes qui sont requises pour favoriser l’usage pérenne d’une plateforme gérant la connaissance ; 2) proposé un modèle théorique de régulation mixte qui unifie des outils de stimulation pour l’autorégulation et des outils soutenant l’accompagnement au changement et qui permet la mise en œuvre continue des différents facteurs stimulants l’usage pérenne des SGC ; 3) proposé une méthodologie de conception, adaptée à ce modèle et basée sur les concepts Agile, qui intègre une méthode d’évaluation mixte de la satisfaction et de l’usage effectif ainsi que des outils d’IHM pour l’exécution des différentes itérations de notre méthodologie ; 4) implémenté la méthodologie en contexte réel, à la Société du Canal de Provence, ce qui nous a permis de tester sa faisabilité et de proposer des ajustements/recommandations génériques aux concepteurs pour son application en contexte. L’outil résultant de notre implémentation a reçu un accueil positif par les utilisateurs en termes de satisfaction et d’usages
In this research, we are interested in the question of sustainability of the use of knowledge management systems (KMS) in companies. KMS are those IT environments that are set up in companies to share and build common expertise through collaborators. Findings show that, despite the rigor employed by companies in the implementation of these KMS, the risk of knowledge management initiatives being unsuccessful, particularly related to the acceptance and continuous use of these environments by users remains prevalent. The persistence of this fact in companies has motivated our interest to contribute to this general research question. As contributions to this problem, we have 1) identified from the state of the art, four facets that are required to promote the perennial use of a platform managing knowledge; 2) proposed a theoretical model of mixed regulation that unifies tools for self-regulation and tools to support change, and allows the continuous implementation of the various factors that stimulate the sustainable use of CMS; 3) proposed a design methodology, adapted to this model and based on the Agile concepts, which incorporates a mixed evaluation methodology of satisfaction and effective use as well as CHI tools for the completion of different iterations of our methodology; 4) implemented the methodology in real context at the Société du Canal de Provence, which allowed us to test its feasibility and propose generic adjustments / recommendations to designers for its application in context. The tool resulting from our implementation was positively received by the users in terms of satisfaction and usages
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography