Academic literature on the topic 'Réduction et traitement de données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Réduction et traitement de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Réduction et traitement de données"

1

Flitti, Farid. "Techniques de réduction de données et analyse d'images multispéctrales astronomiques par arbres de Markov." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/FLITTI_Farid_2005.pdf.

Full text
Abstract:
Le développement des capteurs multispectraux en imagerie astronomique permet l'acquisition de données très riches. Néanmoins, la classification d'images multidimensionnelles se heurte souvent au phénomène de Hughes : l'augmentation de la dimensionalité induit l’accroissement du nombre de paramètres du modèle ce qui cause la baisse de précision de leur estimation entraînant une dégradation de la qualité de la segmentation. Il est donc impératif d'écarter l'information redondante pour réaliser des opérations de segmentation ou de classification robustes. Dans ce travail, nous avons proposé deux méthodes de réduction de la dimensionnalité pour des images multispectrales : 1) le regroupement de bandes suivis de projections locales ; 2) la réduction des cubes radio par un modèle de mélange de gaussiennes. Nous avons également proposé un schéma de réduction/segmentation jointe basé sur la régularisation du mélange d'analyseurs en composantes principales probabilistes (MACPP). Pour la tâche de segmentation, nous avons choisie une approche bayésienne s'appuyant sur des modèles hiérarchiques récents à base d'arbres de Markov caché et couple. Ces modèles permettent un calcul rapide et exact des probabilités a posteriori. Pour le terme d'attache aux données, nous avons utilisée la loi gaussienne multidimensionnelle, la loi gaussienne généralisée multidimensionnelle formulée grâce à la théorie des copules et la vraisemblance par rapport au modèle de l'ACP probabiliste (MACPP régularisée). L'apport majeur de ce travail consiste à proposer différents modèles markoviens hiérarchiques de segmentation adaptés aux données multidimensionnelles et multirésolutions. Leur exploitation pour des données issues d'une analyse par ondelettes adaptée au contexte astronomique nous a permis de développer des techniques de débruitage et de fusion d'images astronomiques multispectrales nouvelles. Tous les algorithmes sont non supervisés et ont été validés sur des images synthétiques et réelles<br>The development of astronomical multispectral sensors allows data of a great richness. Nevertheless, the classification of multidimensional images is often limited by Hughes phenomenon: when dimensionality increases the number of parameters of the model grows and the precision of their estimates falls inevitably, therefore the quality of the segmentation dramatically decreases. It is thus imperative to discard redundant information in order to carry out robust segmentation or classification. In this thesis, we have proposed two methods for multispectral image dimensionnality reduction: 1) bands regrouping followed by local projections; 2) radio cubes reduction by a mixture of Gaussians model. We have also proposed joint reduction/segmentation scheme based on the regularization of the mixture of probabilistic principal components analyzers (MPPCA). For the segmentation task, we have used a Bayesian approach based on hierarchical Markov models namely the hidden Markov tree and the pairwise Markov tree. These models allow fast and exact computation of the a posteriori probabilities. For the data driven term, we have used three formulations: 1) the classical multidimensional Gaussian distribution 2) the multidimensional generalized Gaussian distribution formulated using copulas theory 3) the likelihood of the probabilistic PCA model (within the framework of the regularized MPPCA). The major contribution of this work consists in introducing various hierarchical Markov models for multidimensional and multiresolution data segmentation. Their exploitation for data issued from wavelets analysis, adapted to the astronomical context, enabled us to develop new denoising and fusion techniques of multispectral astronomical images. All our algorithms are unsupervised and were validated on synthetic and real images
APA, Harvard, Vancouver, ISO, and other styles
2

Jouvard, Jean-Marie. "Relations isotopiques et réduction des données spectroscopiques : application au traitement simultané des premières polyades des molécules 12CH4, 13CH4, 12CD4 et 13CD4." Dijon, 1991. http://www.theses.fr/1991DIJOS007.

Full text
Abstract:
Nous proposons une méthode de réduction des données spectroscopiques (paramètres de raies) basée sur l'utilisation des constantes de force du potentiel (invariant isotopique). Nous avons appliqué cette méthode à l'ajustement simultané des données spectroscopiques (fréquences) relatives àquatre isotopes tétraédriques du méthane : 12CH4, 13CH4, 12CD4 et 13CD4. La mise en oeuvre de cette méthode nous a conduits à considérer en détail les phases successives du processus de réduction des données, en appliquant le raisonnement statistique d'une manière aussi rigoureuse que possible. Une restructuration de la chaine de programmes d'analyse du laboratoire a été nécessaire, et a permis entre autre l'étude de l'effet Stark du silane. Une partie importante de notre travail a été consacrée à l'analyse de la pentade du13CH4. Il s'agit de la première analyse de ce système de bandes en interaction dans le schéma polyade. Les analyses existantes des trois premières polyades des quatre isotopes ont été reprises afin de cerner plus finement la précision et la convergence des modèles dans la perspective de notre ajustement simultané. Les résultats préliminaires issus de cette méthode de réduction se traduisent par une diminution importante du nombre de paramètres permettant de décrire les données primaires avec une précision comparable à celle obtenue à l'aide des modèles antérieurs. Ce travail nous a également permis de mettre en évidence les conséquences de certaines approximations implicitement appliquées lors de la détermination des constantes de force du potentielà partir des paramètres des hamiltoniens moléculaires effectifs.
APA, Harvard, Vancouver, ISO, and other styles
3

Girard, Robin. "Réduction de dimension en statistique et application en imagerie hyper-spectrale." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00379179.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire.
APA, Harvard, Vancouver, ISO, and other styles
4

Oger, Myriam. "Indexation automatique d'images numériques : application aux images histopathologiques du cancer du sein et hématologiques de leucémies lympoïdes chroniques." Caen, 2008. http://www.theses.fr/2008CAEN2066.

Full text
Abstract:
Dans un contexte où les économies de santé sont de plus en plus drastiques, où les spécialistes sont de moins en moins nombreux, alors que, grâce aux campagnes de dépistage, le nombre de cas à analyser est en constante augmentation, le travail des pathologistes devient de plus en plus difficile. En outre, les lésions précoces découvertes lors du dépistage sont souvent mal connues et/ou de très petite taille ce qui rend délicat le diagnostic histopathologique. Un problème similaire est rencontré en hématologie avec la pratique de plus en plus répandue des examens sanguins systématiques et la difficulté d'identification de cellules suspectes et d'évènements rares au sein d'un frottis sanguin. Il est par conséquent très important d’apprécier dans quelle mesure la microscopie numérique et les outils d’analyse automatique des images pourront dans l’avenir aider ces spécialistes dans l’accomplissement de leur tâche quotidienne. Le présent travail de thèse, mené dans cette optique, se fonde sur l'utilisation de lames virtuelles des préparations histologiques et cytologiques, acquises à basse ou à haute résolution. Il consiste à développer et à tester une série d'outils d'aide au diagnostic basés sur l’indexation automatique des images. Cependant, l’utilisation des lames virtuelles implique la manipulation d'une masse de données très importante, qui constitue un frein pour traiter, analyser et même visualiser les images de manière classique. Nous avons donc testé tout d’abord la pertinence d'une analyse globale des images, puis d'une analyse locale de celles-ci, accompagnées d’une réduction de dimension des données par diverses méthodes, dont l'analyse spectrale. Nous avons choisi de mettre en œuvre cette approche à propos de deux localisations dont l’incidence constitue un problème de santé publique, les tumeurs mammaires et la leucémie lymphoïde chronique<br>In a context where health economies are increasingly curbed, where specialists are fewer and fewer, while, thanks to screening campaigns, the number of cases to analyze is constantly growing, the task of pathologists is more and more difficult. In addition, early lesions discovered during the screening are often poorly known and / or of very small size which makes the histopathological diagnosis difficult. A similar problem is encountered in hematology with the increasingly widespread practice of systematic blood tests and the difficulty of identifying suspicious cells and rare events in blood smears. It is therefore very important to assess how digital microscopy and automatic processing techniques will be able to help the specialists in their daily practice in the future. This present work is based on the use of virtual slides of histological and cytological preparations, acquired at low or high resolution. It aims at developing and testing several tools for computer assisted diagnosis based on automatic indexing of images. However, the use of virtual slides involves the manipulation of very large data and it is difficult to process, analyze or visualize these images in a classical way. The first objective of the study was to assess the relevance of a global analysis of images, then the contribution of their local analysis, with a dimensional reduction of data by various methods including spectral analysis. These methods have been applied to virtual slides of breast tumors and chronic lymphoid leukemia, two tumor locations whose incidence is a public health problem
APA, Harvard, Vancouver, ISO, and other styles
5

Dyrek, Achrène. "L'atmosphère des exoplanètes avec le James Webb Space Telescope." Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7096.

Full text
Abstract:
Ma thèse est consacrée à l'étude des atmosphères d'exoplanètes avec le télescope spatial James Webb Space Telescope (JWST). L'étude et la caractérisation d'atmosphères d'exoplanètes représente aujourd'hui un enjeu majeur au sein de la communauté scientifique et au-delà, puisqu'il s'agit de mettre en perspective tous ces mondes découverts au cours des trois dernières décennies et notre propre Système solaire, seul hôte connu de la vie à ce jour. La première partie de ce manuscrit est consacrée à une introduction qui présente l'état de l'art de notre connaissance des atmosphères d'exoplanètes en termes de composition atomique et moléculaire, de structure et de dynamique. Cette introduction se concentre sur l'étude des atmosphères d'exoplanètes dites transitantes (lorsque la planète passe devant ou derrière son étoile dans l'axe de visée des télescopes) et fournit une description de cette méthode observationnelle ainsi que des défis associés. La deuxième partie de ce manuscrit s'intéresse à l'élaboration de simulations d'observations d'atmosphères d'exoplanètes à l'aide du Mid-InfraRed Instrument (MIRI) du JWST (à l'époque encore en attente de son lancement) et de son spectromètre basse résolution (LRS). Mon objectif principal est la conception d'un outil de simulation complet et robuste qui permette à la communauté de valider les méthodes de réduction de données et de prédire les détections moléculaires [Dyrek+, sub., 2023, Morello, Dyrek+, 2022]. La troisième partie de ce manuscrit est dédiée à l'étude des performances en vol du LRS de MIRI après le lancement du JWST, le jour de Noël 2021. En effet, l'arrivée des premières données du JWST marque le début d'une étape cruciale de ma thèse. En particulier, je m'appuie sur le premier transit exoplanétaire observé par MIRI, celui de la Super-Terre L168-9b, choisie comme cible pour l'étude des performances. A partir de ces données, je me suis concentrée sur l'identification de variations instrumentales infimes qui pourraient porter atteinte à la stabilité temporelle des observations. De fait, je discute des axes d'améliorations des méthodes de réduction de données dans le cadre de l'étude d'exoplanètes en transit [Dyrek+, sub., 2023]. La dernière partie de ce manuscrit est consacrée à l'analyse scientifique des courbes de lumières photométriques et spectroscopiques d'atmosphères d'exoplanètes, des géantes gazeuses aux rocheuses tempérées. Je présente mes travaux collaboratifs dans le cadre du Temps Garanti d'Observation (GTO) et de l'Early Release Science (ERS) du JWST pour lesquels j'ai mené la réduction et l'analyse des données. En particulier, je m'intéresse à la super-Neptune WASP-107b dont l'analyse de données a conduit notamment à la première détection de dioxyde soufre (SO2) en infrarouge moyen et à la première détection de nuages de silicates [Dyrek+, sub., 2023b]. Enfin, je présente la première détection de l'émission thermique d'une exoplanète rocheuse et tempérée, TRAPPIST-1b, pour laquelle nous avons contraint la température de brillance qui indique l'absence d'une atmosphère dense [Greene +, 2023]. Le chapitre final est dédié à l'ensemble des perspectives ouvertes par la révolution observationnelle du JWST et de la future mission dédiée aux exoplanètes : Ariel<br>My thesis is devoted to the characterisation of exoplanet atmospheres with the newly-operating James Webb Space Telescope (JWST). Our understanding of exoplanet atmospheres is being revolutionised by the observational capabilities of such an observatory. The scientific outcomes will reach our scientific community and the general public, putting into perspective our knowledge of our own Solar System, the only system that is known to host life. The first part of this manuscript is devoted to an introduction that includes a state-of-the-art review of exoplanet atmospheres characterisation in terms of atomic and molecular composition, structure and dynamics. In this introduction, we focus on transiting exoplanets (when the planet passes in front of or behind its host star in the telescope's line of sight). We provide a description of this observational method and key results that have been obtained over the past two decades. The second part of this manuscript focuses on the molecular composition predictions with the JWST Mid-InfraRed Instrument (MIRI) and its Low-Resolution Spectrometer (LRS) that is meant to carry out atmospheric spectroscopy in an uncharted wavelength range. Here, we present realistic simulations of transiting exoplanets I developed during my thesis, with the MIRI LRS instrument that include various instrumental systematics likely to alter the atmospheric features we are meant to detect in our data [Dyrek+, sub., 2023, Morello, Dyrek+, 2022]. Our main objective is to design a comprehensive simulation tool that enables the community to build robust data reduction methods and to predict molecular detections. The third part of this manuscript is dedicated to the characterisation of the in-flight post-commissioning performances of the MIRI LRS. This work is based on the first exoplanetary transit observed with MIRI of the Super-Earth L168-9b, chosen to be a calibration target. My work focuses on identifying in-flight instrumental systematics that undermine observations' stability and more generally, the study of transiting exoplanets [Dyrek+, sub., 2023]. The final part of this manuscript is devoted to the scientific analysis of photometric and spectroscopic observations of both gas giants and temperate rocky exoplanet atmospheres. Here, I present my contribution on data reduction and analysis to the collaborative work we conducted as part of the Guaranteed Time Observation (GTO) and the Early Release Science (ERS) consortia. In particular, our work on the super-Neptune WASP-107b led to the first mid-infrared detection of sulphur dioxide (SO2) and silicate clouds [Dyrek+, sub., 2023b]. In addition, we conducted the first detection of the thermal emission of the rocky temperate exoplanet TRAPPIST-1b. In this work, we have constrained its brightness temperature, revealing key insights in the presence or not of an atmosphere [Greene+, 2023]. The final chapter of my thesis is dedicated to the prospects offered by JWST and the future Ariel mission, as these two telescopes will provide game-changing observations over the next decades
APA, Harvard, Vancouver, ISO, and other styles
6

Laforest, Valérie. "Technologies propres : méthodes de minimisation des rejets et de choix des procédés de valorisation des effluents : application aux ateliers de traitements de surface." Lyon, INSA, 1999. http://theses.insa-lyon.fr/publication/1999ISAL0118/these.pdf.

Full text
Abstract:
Le traitement des eaux constitue actuellement la part essentielle des investissements industriels pour la protection de l'environnement. En France, les moyens consacrés à la dépollution des eaux sont de l'ordre de 20 milliards de Francs dont la plus grosse part est consacré à l'activité industrielle. Les actions engagées se font par une gestion globale des effluents en privilégiant les actions de réduction à la source notamment par la mise en place de technologies propres (optimisation, changement et modification du procédé de production). Nous avons concentré notre étude sur la mise en place des technologies propres dans les ateliers de traitement de surface (consommateur et générateur d'eau et de produits chimiques). Pour cela, nous avons mis au point deux méthodes de gestion de l'information qui ont abouti au développement de deux systèmes informatiques d'aide à la décision. La première a pour objectif de minimiser la consommation et les rejets en eau tout en optimisant le procédé de production en assurant une efficacité et un rendement optima des rinçages. La deuxième concerne le choix des procédés de valorisation suivant les objectifs de valorisation, les caractéristiques de l'effluent et les paramètres limitant l'utilisation des procédés. Notre approche entre dans une démarche globale de gestion des effluents du traitement de surface. Elle a pour but de limiter la quantité des effluents générés, de valoriser les flux et d'une manière générale de mettre en place les technologies propres dans un contexte de développement durable<br>Currently, the essential part of the money invested by the industrialist is for the water treatment. In France, most of the 20 billions francs per year devoted to the water treatment is used for the industrial activity. The global management of effluents favour the integration of clean technologies (optimisation, change and modification of the production process) in order to reduce the pollution problem at its source. Our study aims at the introduction of clean technologies in the metal workshops (consumer and generator of water and chemicals) by the development of two data management methods, which lead to two decision support systems. The aim of the first one is to minimise both the water consumption and the wastewater disposal by optimising the production process (optimum yield and efficiency of the rinsing baths. The second one concerns the choice of valorisation techniques considering the valorisation objectives, the effluents characteristics and the parameters limiting the use of the techniques. Our approach fits into a global management method for the metal finishing industry wastewater. Its aim is to limit the quantity of wastewater generated, to valorise effluents and by this way to develop the clean technologies
APA, Harvard, Vancouver, ISO, and other styles
7

Teixeira, Ramachrisna. "Traitement global des observations méridiennes de l'Observatoire de Bordeaux." Bordeaux 1, 1990. http://www.theses.fr/1990BOR10618.

Full text
Abstract:
Usuellement les observations meridiennes sont groupees en series qui sont reduites separement, et le systeme instrumental est fixe par les observations d'etoiles de repere. Dans ce travail, nous traitons les donnees acquises pendant deux ans avec la lunette meridienne de bordeaux, en considerant simultanement toutes les observations. Ainsi, nous sommes amenes a resoudre un seul probleme de moindres carres dont les inconnues ne sont plus uniquement les parametres instrumentaux mais aussi les positions de toutes les etoiles. Dans ce cas, toutes les etoiles contribuent a la definition du systeme instrumental et, par consequent, nous sommes moins tributaires des catalogues de repere. Les solutions du systeme d'equations resultant, qui contient quelques dizaines de milliers d'equations et des milliers d'inconnues et est singulier, sont obtenues par une adaptation de la methode iterative de gauss-seidel. La convergence des iterations est demontree et les resultats ainsi obtenus sont presentes et analyses
APA, Harvard, Vancouver, ISO, and other styles
8

Ravazzola, Patrice. "Approximation et réduction de modèles en traitement d'antenne." Grenoble INPG, 1990. http://www.theses.fr/1990INPG0104.

Full text
Abstract:
L'objectif de cette these est d'elaborer des methodes de traitement d'antenne robustes vis-a-vis du bruit (de densite spatiale inconnue) et ayant de bonnes performances en detection de sources faibles. On concoit aisement que l'obtention d'un gain significatif par rapport aux methodes haute resolution usuelles n'est possible qu'en exploitant au mieux les hypotheses classiques, et en abordant le probleme de l'analyse spatiale sous un angle original. En utilisant les hypotheses de propagation en onde plane et de stationnarite spatiale, on exhibe un modele rationnel particulier fournissant une bonne approximation du champ de bruit recu sur une antenne lineaire. La determination des gisements des sources peut alors se ramener a un probleme de realisation stochastique approchee. Fondees sur des criteres permettant de separer judicieusement les contributions des sources et du bruit, ces methodes conduisent a une amelioration du pouvoir de detection et surtout a une bonne robustesse vis-a-vis de la correlation spatiale du bruit. Cependant, elles souffrent encore de la perte de structure lors de l'estimation du sous-espace relatif aux sources. Pour obtenir un gain significatif en detection, il est necessaire de conserver la structure particuliere de ce sous-espace. A cette fin, l'analyse spatiale est ramenee a un probleme d'approximation d'une matrice de hankel de rang maximum par une matrice de meme type de rang donne. Cette methode de reduction de modele selon la norme hankel apporte un gain tres important en detection par rapport aux methodes haute resolution usuelles. En outre, elle se prete tres bien a l'extension large bande
APA, Harvard, Vancouver, ISO, and other styles
9

Wright, Sophie. "Données obstétricales et néonatales précoces des grossesses gémellaires après réduction embryonnaire." Montpellier 1, 1994. http://www.theses.fr/1994MON11106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Full text
Abstract:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED<br>Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography