To see the other types of publications on this topic, follow the link: Modèles basés sur l'activité.

Dissertations / Theses on the topic 'Modèles basés sur l'activité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles basés sur l'activité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Galassi, Luquezi Leonardo. "Including everyday mobility and activities with agent-based models when assessing noise exposure at the metropolitan scale." Electronic Thesis or Diss., Le Mans, 2025. http://www.theses.fr/2025LEMA1004.

Full text
Abstract:
Le bruit environnemental est un problème majeur dans les zones urbaines en raison de ses effets sanitaires et de ses coûts sociaux et économiques. Selon l'Organisation mondiale de la santé, environ un tiers des Européens subissent des gênes liées au bruit environnemental pendant la journée, et environ un cinquième d'entre eux voient leur sommeil gêné par le seul bruit de la circulation routière. Les effets du bruit sur la santé s'intensifient avec l'urbanisation, qui s'accompagne d'une augmentation du nombre et de la diversité des sources de bruit. Dans le but d'établir un cadre juridique pour traiter le bruit dans l'environnement, l'Union européenne a adopté la directive sur le bruit dans l'environnement 2002/49/EC, et formulé une méthode commune d'évaluation du bruit basée sur la modélisation numérique. Cette méthode présente des limites importantes : (1) la localisation des individus est statique, considérée à leur domicile ; (2) l'exposition est estimée sur la base de doses de bruit à long terme, généralement des moyennes énergétiques quotidiennes ou annuelles, négligeant la dynamique détaillée du bruit ; (3) l'évaluation des groupes socio-économiques les plus affectés par le bruit n'est pas systématisée et la population exposée est traitée comme homogène, sans variabilité intra-populationnelle dans les expositions et les réactions au bruit. Parallèlement, une nouvelle génération d'études dans le domaine de la recherche sur la santé environnementale, inspirée par les théories de la géographie temporelle et de l'écologie spatiale, préconise l'intégration de la mobilité et des activités quotidiennes dans la recherche sur la santé publique, afin d'étudier les phénomènes d'exposition en tant que processus spatio-temporel complexes. Une solution pour améliorer l'évaluation de l'exposition au bruit consiste à mettre en œuvre des approches multi-agents, qui simulent un plan d'activité quotidien pour chaque individu (appelé agent) d'une population modélisée sur une période de 24 heures d'un jour de semaine type . Ce cadre de modélisation à l’échelle individuelle estime, pour chaque agent de la modélisation, à la fois la trajectoire spatio-temporelle et les niveaux de bruit rencontrés dans différents contextes d'activité. Cependant, il est très important de comprendre la pertinence de ces évaluations dans le contexte de modèles initialement conçus pour des études de transport. L'objectif initial de ce travail de thèse est donc de situer l'estimation de l'exposition à l'aide de multi-agents par rapport à d'autres méthodologies d'évaluation de l'exposition, en identifiant ses limites, ses points forts et les possibilités d'amélioration. De plus, les connaissances concernant l'utilisation et la formulation d'analyses basées sur ces résultats sont encore limitées. Par conséquent, le deuxième objectif est de développer des cadres d'évaluation, des mesures et des indicateurs innovants dans le contexte des problèmes de bruit urbains contemporains. À cette fin, deux études ont été menées : (a) une évaluation spatio-temporelle de l'accessibilité d'une population aux zones calmes, et (b) une évaluation des zones d'exposition critique au cours de la journée dans le contexte de la formulation de plans d'action contre le bruit. Ces études s'appuient sur un scénario open-source appliqué à l'aire métropolitaine de Lyon et composé de trois outils principaux : EQASim, MATSim et NoiseModelling. EQASim est utilisé pour la modélisation de la population synthétique, de l'attribution des plans d'activité aux agents et de la modélisation des infrastructures et des services de transport. MATSim est utilisé pour la simulation de transport multi-agents utilisant la population synthétique et le système de transport précédemment modélisés par EQASim. Enfin, NoiseModelling permet de caractériser le bruit provenant des différents flux de transport et des sources environnementales. (...)
Environmental noise is a major problem to be confronted in urban areas due to its detrimental health outcomes, and social and economic costs. According to the World Health Organization, approximately one-third of Europeans experience environmental noise-related disturbances during the daytime with approximately one-fifth having their sleep disturbed by traffic noise alone. Noise health impacts are intensified with urbanization which is associated with an increase in the diversity of noise sources. With the objective of establishing a legal framework to address environmental noise, the European Union passed the Environmental Noise Directive and formulated a Common Noise Assessment Methods based on numerical modeling. The European method has strong limitations: (1) the location of the individuals is static as it is assumed that individuals are fixed to their homes; (2) the exposure is estimated based on long-term noise doses, usually daily or annual energetic averages, neglecting detailed noise dynamics; (3) the assessment of the socio-economic groups the most affected by noise is not promoted and the exposed population is treated as homogeneous, without intra-population variability in noise reactions. In parallel, a new generation of studies in environmental health research, inspired by the theories of time geography and spatial ecology, advocates for the integration of mobility and everyday activities in public health research to study the exposure phenomena as a complex spatio-temporal process. One solution for improving noise exposure assessments is the implementation of agent-based exposure frameworks. These frameworks simulate an everyday activity plan for each individual of a modeled population over a 24-hours of a typical working weekday. These individual-level exposure assessments allow the estimation of both agents' trajectories and the noise conditions they encounter over different activity contexts. However, it is very important to understand the relevance of these assessments within the context of models initially designed for transport studies. Then, the initial objective of this doctoral thesis is to situate the exposure estimation with agent-based models in relation to other exposure assessment methodologies, identifying its limitations, its strengths, and the avenues for its enhancement. Furthermore, there is still limited knowledge regarding the utilization and formulation of analyses based on these results. Consequently, the second objective is to develop innovative assessment frameworks, metrics, and indicators in the context of contemporary urban noise problems. To this end, two studies have been conducted: (a) a spatio-temporal assessment of the accessibility of a population to quiet areas, and (b) an assessment of critical exposure areas over the clock in the context of formulating Noise Action Plans. These studies rely on an open-source scenario applied to the Lyon Metropolitan Area composed of three main tools: EQASim, MATSim and NoiseModelling. EQASim is utilized for the modeling of the synthetic population, the assignment of activity plans to agents, and the modeling of transport infrastructure and services. MATSim is utilized for the agent-based transport simulation utilizing the synthetic population and transportation system previously modeled by EQASim. NoiseModelling is utilized to characterize noise from different transport traffic flows and environmental sources. It then calculates sound propagation and estimates the environmental noise conditions. The findings of this study underscore the imperative of conceptualizing exposure assessment as a multifaceted process encompassing four modeling dimensions: the representation of space, time, the individual, and his trajectory of activities. (...)
APA, Harvard, Vancouver, ISO, and other styles
2

Delort, Jean-Yves. "Modèles de navigation sur le Web basés sur le contenu." Paris 6, 2003. http://www.theses.fr/2003PA066396.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Philibert, Thomas. "Modèles basés sur les données pour les écoulements turbulents séparés." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0499.

Full text
Abstract:
Les modèles de Navier-Stokes moyennés de Reynolds (RANS) sont couramment utilisés dans les applications industrielles en raison de leur efficacité pour simuler des écoulements de fluides complexes, offrant un équilibre pratique entre précision et coût computationnel. Cependant, les modèles RANS présentent des limitations inhérentes pouvant affecter leur précision, en particulier pour les écoulements séparés ou hautement complexes. Un problème important réside dans les écarts observés dans les contraintes de Reynolds par rapport aux données de haute fidélité obtenues via la simulation numérique directe (DNS) ou des mesures expérimentales. Ces divergences peuvent entraîner des imprécisions dans les prédictions des caractéristiques d’écoulement, soulignant le besoin d’approches de modélisation améliorées pour renforcer la fiabilité des résultats des RANS. Dans ce travail, nous proposons deux approches innovantes pour traiter ces écarts tout en conservant l’efficacité computationnelle du modèle de transport des contraintes de cisaillement de Menter (SST). La première approche implique un modèle algébrique explicite associé à un réseau de neurones (en particulier un perceptron multicouche, ouMLP) pour corriger le temps caractéristique turbulent dans le modèle RANS. La seconde approche vise l’approximation de Boussinesq elle-même, en utilisant soit unMLPsoit un réseau antagoniste génératif (GAN) pour corriger directement cette approximation à partir de données guidées. De plus, pour garantir des prédictions physiquement cohérentes, nous intégrons des contraintes de réalisabilité dans les deux modèles en introduisant des termes de pénalisation. Les conditions de réalisabilité sont essentielles pour les modèles de turbulence, car elles assurent que les tenseurs de contrainte prédits respectent les principes physiques fondamentaux, comme la positivité de l’énergie cinétique turbulente. L’intégration de ces contraintes améliore la stabilité et la fiabilité du modèle tant au cours de l’entraînement que de l’application. Le modèle de contraintes de Reynolds proposé, complété par la correction du temps caractéristique (via le MLP) et la correction de l’approximation de Boussinesq (via MLP ou GAN), démontre de solides performances prédictives dans des configurations d’écoulement à la fois intra et extrapolées. Testé dans divers scénarios d’écoulement, le modèle capture avec précision les principales caractéristiques des écoulements turbulents tout en maintenant des prédictions physiquement réalistes. Ces résultats indiquent que nos approches améliorent l’adaptabilité et la fiabilité des modèles RANS, permettant des simulations plus précises d’écoulements complexes et pertinents sur le plan industriel, sans les coûts computationnels élevés associés à la DNS
Reynolds-averaged Navier-Stokes (RANS) models are commonly used in industrial applications due to their efficiency in simulating complex fluid flows, offering a practical balance between accuracy and computational cost. However, RANS models have inherent limitations that can affect their accuracy, particularly in cases involving separated or highly complex flows. One significant issue is the discrepancy in Reynolds stresses compared to high-fidelity data obtained from Direct Numerical Simulation (DNS) or experimental measurements. These disparities can lead to inaccuracies in flowcharacteristic predictions, underscoring the need for improved modeling approaches to enhance the reliability of RANS results. In this work, we propose two innovative approaches aimed at addressing these discrepancies while retaining the computational efficiency of theMenter Shear Stress Transport (SST) model. The first approach involves an explicit algebraic model paired with a neural network (specifically a multilayer perceptron, or MLP) to correct the turbulent characteristic time within the RANS model. The second approach targets the Boussinesq approximation itself, using either an MLP or a Generative AdversarialNetwork (GAN) to directly correct this approximation based on data-driven insights. Further, to ensure physically consistent predictions,we integrate realizability constraints within both models by introducing penalization terms. Realizability conditions are essential for turbulence models, as they ensure that the predicted stress tensors align with fundamental physical principles, such as the positivity of turbulent kinetic energy. Incorporating these constraints enhances model stability and reliability during both the training and application phases. The proposed Reynolds stress model, augmented with characteristic time correction (via the MLP) and Boussinesq approximation correction (via MLP or GAN), demonstrates strong predictive performance in both in-sample and out-of-sample flow configurations. Tested across various flow scenarios, the model accurately captures key turbulent flow characteristics while maintaining physically realistic predictions. These findings indicate that our approaches enhance the adaptability and reliability of RANS models, enabling more accurate simulations of complex, industrially relevant flow conditions without the high computational costs associated with DNS
APA, Harvard, Vancouver, ISO, and other styles
4

Amate, Laure. "Apprentissage de modèles de formes parcimonieux basés sur des représentations splines." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00456612.

Full text
Abstract:
Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identification de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation des leurs propriétés sera probabiliste. Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse. Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa fidélité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle. Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois.
APA, Harvard, Vancouver, ISO, and other styles
5

Amate, Laure. "Apprentissage de modèles de formes parcimonieux basés sur les représentations splines." Nice, 2009. http://www.theses.fr/2009NICE4117.

Full text
Abstract:
Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identification de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation des leurs propriétés sera probabiliste. Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse. Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa _délité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle. Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois
In many contexts it is important to be able to find compact representations of the collective morphological properties of a set of objects. This is the case of autonomous robotic platforms operating in natural environments that must use the perceptual properties of the objects present in their workspace to execute their mission. This thesis is a contribution to the definition of formalisms and methods for automatic identification of such models. The shapes we want to characterize are closed curves corresponding to contours of objects detected in the scene. We begin with the formal definition of the notion of shape as classes of equivalence with respect to groups of basic geometric operators, introducing two distinct approaches that have been used in the literature: discrete and continuous. The discrete theory, admitting the existence of a finite number of recognizable landmarks, provides in an obvious manner a compact representation but is sensible to their selection. The continuous theory of shapes provides a more fundamental approach, but leads to shape spaces of infinite dimension, lacking the parsimony of the discrete representation. We thus combine in our work the advantages of both approaches representing shapes of curves with splines: piece-wise continuous polynomials defined by sets of knots and control points. We first study the problem of fitting free-knots splines of varying complexity to a single observed curve. The trade-o_ between the parsimony of the representation and its fidelity to the observations is a well known characteristic of model identification using nested families of increasing dimension. After presenting an overview of methods previously proposed in the literature, we single out a two-step approach which is formally sound and matches our specific requirements. It splits the identification, simulating a reversible jump Markov chain to select the complexity of the model followed by a simulated annealing algorithm to estimate its parameters. We investigate the link between Kendall's shape space and spline representations when we take the spline control points as landmarks. We consider now the more complex problem of modeling a set of objects with similar morphological characteristics. We equate the problem to finding the statistical distribution of the parameters of the spline representation, modeling the knots and control points as unobserved variables. The identified distribution is the maximizer of a marginal likelihood criterion, and we propose a new Expectation-Maximization algorithm to optimize it. Because we may want to treat a large number of curves observed sequentially, we adapt an iterative (on-line) version of the EM algorithm recently proposed in the literature. For the choice of statistical distributions that we consider, both the expectation and the maximization steps must resort to numerical approximations, leading to a stochastic/on-line variant of the EM algorithm that, as far as we know, is implemented here for the first time
APA, Harvard, Vancouver, ISO, and other styles
6

Cortes, Cornax Mario. "Amélioration continue de chorégraphie de services : conception et diagnostic basés sur les modèles." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM020/document.

Full text
Abstract:
Les processus métier des organisations deviennent de plus en plus complexes et dépendent souvent des processus et des services fournis par d'autres organisations. Le terme processus inter-organisationnel apparaît pour décrire un processus qui franchit les frontières de l'organisation intégrant un ensemble de processus avec un but commun. Du point de vue technique, les organisations mettent en place leurs processus internes sous la forme d'orchestrations de services techniques. Pour permettre à ces derniers d'interagir, il est essentiel d'établir les règles de communication afin de promouvoir une compréhension commune entre les services participants ainsi que de garantir leur interopérabilité. Dans ce cadre apparait le concept de chorégraphie de services. Une chorégraphie est un contrat métier décrivant l'ordre et la manière d'interagir des différents services visant un but commun. La vision globale donnée par la chorégraphie complète la vision locale donnée par les orchestrations. Notre travail a pour objectif de comprendre et exploiter le concept de chorégraphie en considérant le niveau intentionnel (les objectifs), le niveau organisationnel souvent capturés par des modèles graphiques et le niveau opérationnel centré sur les détails techniques. Pour cela, nous proposons une démarche d'amélioration continue en se focalisant sur les phases de conception et de diagnostic. Nous nous appuyons sur les modèles pour mieux comprendre, construire, analyser et maîtriser la complexité des chorégraphies
Organizations' business processes become increasingly complex and often depend on processes and services provided by other organizations. The term inter-organizational process appears to describe a process that goes beyond an organization's boundaries and integrates a set of processes with a common goal. From a technical point of view, organizations implement their internal processes as service orchestrations. To enable them to interact, it is essential to establish communication protocols to promote a common understanding among the participating services as well as ensuring their interoperability. In this context the service choreography concept appears. Choreography refers to a business contract describing the way business participants with a common goal coordinate their interactions. The overall point of view given by choreographies complements the local point of view given by orchestrations. Our work aims to understand and study the concept of choreography where we consider the intentional level (goals), the organizational level which is often captured by graphical models and the operational level that is focused on technical details. To do so, we propose a continuous improvement approach focusing on the design and diagnosis phases. We rely on models to better understand, build, analyze and manage the complexity of choreographies
APA, Harvard, Vancouver, ISO, and other styles
7

Salvati, Jean. "Les énigmes dans les modèles d'évaluation basés sur la consommation : analyse et solutions." Paris 9, 1995. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1995PA090004.

Full text
Abstract:
Cette thèse s'intéresse à trois énigmes dans l'évaluation des actifs basée sur la consommation : les énigmes de la prime de risque et du taux sans risque de Mehra et Prescott, et l'énigme de la volatilité excessive. Le chapitre 1 présente le modèle de référence avec des marchés complets et des préférences séparables. Le chapitre 2 passe en revue la littérature sur l'inaptitude de ce modèle à expliquer les moments estimés d'ordre un et deux des rentabilités pour une aversion relative au risque raisonnable. Le chapitre 3 étudie l'impact des habitudes de consommation sur les prédictions d'un modèle avec un agent représentatif. Le modèle avec habitudes de consommation peut expliquer les moyennes des rentabilités pour une aversion relative au risque de douze environ, mais il est incapable d'expliquer leurs écarts-types. Le chapitre 4 présente trois modèles avec une incomplétude du système de marché due à des chocs non-diversifiables sur les salaires. Ces modèles n'apportent pas de solution aux énigmes. Le chapitre 5 propose un modèle avec des marchés incomplets, des contraintes d'endettement et une participation incomplète aux transactions sur le marché boursier (qui est justifiée par des coûts fixes d'information et d'éducation). Pour des contraintes d'endettement suffisamment strictes, ce modèle peut expliquer les moyennes et les écarts-types des rentabilités pour un coefficient d'aversion relative au risque égal à 2. 5
This thesis adresses three puzzles in dynamic consumption-based asset pricing theory : mehra and prescott's equity premium and risk-free rate puzzles, and the excess volatility puzzle. Chapter 1 reviews traditional consumption-based asset pricing models with complete markets and time-separable preferences. Chapter 2 reviews the evidence on these models' inability to match the estimated first and second moments of asset returns for a reasonable value of the coefficient of relative risk aversion. Chapter 3 studies the impact of consumption habit persistence on a representative-agent model's predictions. The habit persistence model matches the estimated average asset returns for a coefficient of relative risk aversion close to twelve, but is unable to match the asset returns' standard deviations. Chapter 4 reviews three models with market incompleteness due to uninsurable shocks on labor income. These models fail to provide a solution to the puzzles. Chapter 5 introduces a model with incomplete markets, borrowing constraints, and incomplete participation in the stock market (caused by fixed information education costs). For sufficiently strict borrowing constraints, the model is able to match the estimated first and second moments of asset returns for a coefficient of relative risk aversion equal to 2
APA, Harvard, Vancouver, ISO, and other styles
8

Bénazéra, Emmanuel. "Diagnostic et reconfiguration basés sur des modèles hybrides concurrents : application aux satellites autonomes." Toulouse 3, 2003. http://www.theses.fr/2003TOU30105.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Márquez, Borbόn Raymundo. "Nouveaux schémas de commande et d'observation basés sur les modèles de Takagi-Sugeno." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0040/document.

Full text
Abstract:
Cette thèse aborde l'estimation et la conception de commande de systèmes non linéaires à temps continu. Les méthodologies développées sont basées sur la représentation Takagi-Sugeno (TS) du modèle non linéaire par l'approche du secteur non-linéarité. Toutes les stratégies ont l'intention d'obtenir des conditions plus détendu. Les résultats présentés pour la conception de commande sont divisés en deux parties. La première partie est environ sur les modèles TS standard au titre des schémas de commande basés sur: 1) une fonction de Lyapunov quadratique (QLF); 2) une fonction de Lyapunov floue (FLF); 3) une fonction de Lyapunov intégrale de ligne (LILF); 4) un nouveau fonctionnelle de Lyapunov non-quadratique (NQLF). La deuxième partie concerne des modèles TS descripteurs. Deux stratégies sont proposées: 1) dans le cadre quadratique, des conditions basées sur une loi de commande général et quelques transformations de matrices; 2) une extension de l'approche non quadratique basée sur LILF utilisant un schéma de commande non-PDC et le lemme du Finsler; cette stratégie offre conditions sur la forme d’inégalité matricielles linéaires (LMI) dépendant des paramètres au lieu des contraintes sur la forme d’inégalité matricielles bilinéaires (BMI) pour les systèmes de second ordre. D'autre part, le problème de l'estimation de l'état pour les systèmes non linéaires via modèles TS est également abordé considérant: a) le cas particulier où les vecteurs prémisses sont basées sur les variables mesurées et b) le cas général où les vecteurs prémisse peuvent être basés sur des variables non mesurées. Plusieurs exemples ont été inclus pour illustrer l'applicabilité des résultats obtenus
This thesis addresses the estimation and controller design for continuous-time nonlinear systems. The methodologies developed are based on the Takagi-Sugeno (TS) representation of the nonlinear model via the sector nonlinearity approach. All strategies intend to get more relaxed conditions.The results presented for controller design are split in two parts. The first part is about standard TS models under control schemes based on: 1) a quadratic Lyapunov function (QLF); 2) a fuzzy Lyapunov function (FLF); 3) a line-integral Lyapunov functions (LILF); 4) a novel non-quadratic Lyapunov functional (NQLF). The second part concerns to TS descriptor models. Two strategies are proposed: 1) within the quadratic framework, conditions based on a general control law and some matrix transformations; 2) an extension to the nonquadratic approach based on a line-integral Lyapunov function (LILF) using non-PDC control law schemes and the Finsler’s Lemma; this strategy offers parameter-dependent linear matrix inequality (LMI) conditions instead of bilinear matrix inequality (BMI) constraints for second-order systems. On the other hand, the problem of the state estimation for nonlinear systems via TS models is also addressed considering: a) the particular case where premise vectors are based on measured variables and b) the general case where premise vectors can be based on unmeasured variables. Several examples have been included to illustrate the applicability of the obtained results
APA, Harvard, Vancouver, ISO, and other styles
10

Aguessy, François-Xavier. "Évaluation dynamique de risque et calcul de réponses basés sur des modèles d’attaques bayésiens." Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0016/document.

Full text
Abstract:
Les systèmes d'information sont une cible de plus en plus attractive pour les attaquants. Dans cette thèse de doctorat, nous construisons une méthodologie complète d'analyse statique et dynamique de risque prenant en compte la connaissance à priori d'un système avec les événements dynamiques, afin de proposer des réponses permettant d'empêcher les attaques futures. Tout d'abord, nous étudions comment corriger les attaques potentielles qui peuvent arriver dans un système, en s'appuyant sur les graphes d'attaque logiques. Nous proposons une méthodologie de remédiation corrigeant les chemins d'attaque les plus significatifs. Les remédiations candidates sont classées en fonction de leur coût opérationnel et leur impact sur le système. Les graphes d'attaques ne peuvent pas être directement utilisés pour l'évaluation dynamique de risque. Nous étendons donc ce modèle pour construire des modèles d'analyse dynamique de risque basés sur des réseaux bayésiens. Le modèle hybride d'évaluation de risque se divise en deux modèles complémentaires: (1) Les modèles de corrélation de risque, permettant d'analyser les attaques en cours et fournir les probabilités de compromission des états du système, (2) les modèles d'évaluation du risque futur, permettant évaluer les attaques futures les plus probables. Nous analysons la sensibilité des paramètres probabilistes du modèle et en validons les résultats à partir de graphes d'attaque topologiques
Information systems constitute an increasingly attractive target for attackers. Given the number and complexity of attacks, security teams need to focus their actions, in order to select the most appropriate security controls. Because of the threat posed by advanced multi-step attacks, it is difficult for security operators to fully cover all vulnerabilities when deploying countermeasures. In this PhD thesis, we build a complete framework for static and dynamic risk assessment including prior knowledge on the information system and dynamic events, proposing responses to prevent future attacks. First, we study how to remediate the potential attacks that can happen in a system, using logical attack graphs. We build a remediation methodology to prevent the most relevant attack paths extracted from a logical attack graph. In order to help an operator to choose between several remediation candidates, we rank them according to a cost of remediation combining operational and impact costs. Then, we study the dynamic attacks that can occur in a system. Attack graphs are not directly suited for dynamic risk assessment. Thus, we extend this mode to build dynamic risk assessment models to evaluate the attacks that are the most likely. The hybrid model is subdivided in two complementary models: (1) the first ones analysing ongoing attacks and provide the hosts' compromise probabilities, and (2) the second ones assessing the most likely future attacks. We study the sensitivity of their probabilistic parameters. Finally, we validate the accuracy and usage of both models in the domain of cybersecurity, by building them from a topological attack graph
APA, Harvard, Vancouver, ISO, and other styles
11

Aguessy, François-Xavier. "Évaluation dynamique de risque et calcul de réponses basés sur des modèles d’attaques bayésiens." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0016.

Full text
Abstract:
Les systèmes d'information sont une cible de plus en plus attractive pour les attaquants. Dans cette thèse de doctorat, nous construisons une méthodologie complète d'analyse statique et dynamique de risque prenant en compte la connaissance à priori d'un système avec les événements dynamiques, afin de proposer des réponses permettant d'empêcher les attaques futures. Tout d'abord, nous étudions comment corriger les attaques potentielles qui peuvent arriver dans un système, en s'appuyant sur les graphes d'attaque logiques. Nous proposons une méthodologie de remédiation corrigeant les chemins d'attaque les plus significatifs. Les remédiations candidates sont classées en fonction de leur coût opérationnel et leur impact sur le système. Les graphes d'attaques ne peuvent pas être directement utilisés pour l'évaluation dynamique de risque. Nous étendons donc ce modèle pour construire des modèles d'analyse dynamique de risque basés sur des réseaux bayésiens. Le modèle hybride d'évaluation de risque se divise en deux modèles complémentaires: (1) Les modèles de corrélation de risque, permettant d'analyser les attaques en cours et fournir les probabilités de compromission des états du système, (2) les modèles d'évaluation du risque futur, permettant évaluer les attaques futures les plus probables. Nous analysons la sensibilité des paramètres probabilistes du modèle et en validons les résultats à partir de graphes d'attaque topologiques
Information systems constitute an increasingly attractive target for attackers. Given the number and complexity of attacks, security teams need to focus their actions, in order to select the most appropriate security controls. Because of the threat posed by advanced multi-step attacks, it is difficult for security operators to fully cover all vulnerabilities when deploying countermeasures. In this PhD thesis, we build a complete framework for static and dynamic risk assessment including prior knowledge on the information system and dynamic events, proposing responses to prevent future attacks. First, we study how to remediate the potential attacks that can happen in a system, using logical attack graphs. We build a remediation methodology to prevent the most relevant attack paths extracted from a logical attack graph. In order to help an operator to choose between several remediation candidates, we rank them according to a cost of remediation combining operational and impact costs. Then, we study the dynamic attacks that can occur in a system. Attack graphs are not directly suited for dynamic risk assessment. Thus, we extend this mode to build dynamic risk assessment models to evaluate the attacks that are the most likely. The hybrid model is subdivided in two complementary models: (1) the first ones analysing ongoing attacks and provide the hosts' compromise probabilities, and (2) the second ones assessing the most likely future attacks. We study the sensitivity of their probabilistic parameters. Finally, we validate the accuracy and usage of both models in the domain of cybersecurity, by building them from a topological attack graph
APA, Harvard, Vancouver, ISO, and other styles
12

Placzek, Antoine. "Construction de modèles d'ordre réduit non-linéaires basés sur la décomposition orthogonale propre pour l'aéroélasticité." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2009. http://tel.archives-ouvertes.fr/tel-00461691.

Full text
Abstract:
La prédiction numérique de la réponse de systèmes aéroélastiques devient rapidement très coûteuse dès qu'il s'agit d'effectuer une analyse paramétrique. Le recours à un modèle d'ordre réduit fidèle au système dynamique initial est alors indispensable pour réduire les coûts de calcul. Ainsi, l'utilisation d'une base de vecteurs issus de la décomposition orthogonale propre (POD) combinée ensuite à une projection de Galerkin s'est imposée en mécanique des fluides. La difficulté de la construction d'un tel modèle d'ordre réduit pour les systèmes aéroélastiques est triple : tout d'abord en raison des non-linéarités inhérentes aux équations de Navier-Stokes, ensuite à cause de l'incohérence de la définition des modes POD pour un domaine en mouvement et enfin de par la nécessité d'une stabilisation. Tout d'abord, le modèle d'ordre réduit reposant sur l'utilisation des modes POD est appliqué à un système dynamique linéaire pour lequel plusieurs formulations sont développées pour tenir compte de conditions limites spécifiques. Ensuite, le modèle d'ordre réduit est développé pour les équations de Navier-Stokes d'un fluide compressible au moyen d'un jeu de variables particulier. Ce premier modèle réduit développé pour un domaine de frontières fixes est corrigé puis validé sur l'exemple d'un profil NACA0012 fortement incliné pour provoquer l'apparition d'une allée de vortex. Finalement, le modèle d'ordre réduit est étendu au cas d'un domaine mobile sous l'hypothèse d'un mouvement de corps rigide afin d'éluder le problème de définition des modes POD. Ce modèle est alors employé pour reproduire l'écoulement transsonique autour d'un profil NACA0064 animé d'un mouvement d'oscillation.
APA, Harvard, Vancouver, ISO, and other styles
13

Boubekeur, Fatiha. "Contribution à la définition de modèles de recherche d'information flexibles basés sur les CP-Nets." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00355843.

Full text
Abstract:
Ce travail de thèse adresse deux principaux problèmes en recherche d'information : (1) la formalisation automatique des préférences utilisateur, (ou la pondération automatique de requêtes) et (2) l'indexation sémantique. Dans notre première contribution, nous proposons une approche de recherche d'information (RI) flexible fondée sur l'utilisation des CP-Nets (Conditional Preferences Networks). Le formalisme CP-Net est utilisé d'une part, pour la représentation graphique de requêtes flexibles exprimant des préférences qualitatives et d'autre part pour l'évaluation flexible de la pertinence des documents. Pour l'utilisateur, l'expression de préférences qualitatives est plus simple et plus intuitive que la formulation de poids numériques les quantifiant. Cependant, un système automatisé raisonnerait plus simplement sur des poids ordinaux. Nous proposons alors une approche de pondération automatique des requêtes par quantification des CP-Nets correspondants par des valeurs d'utilité. Cette quantification conduit à un UCP-Net qui correspond à une requête booléenne pondérée. Une utilisation des CP-Nets est également proposée pour la représentation des documents dans la perspective d'une évaluation flexible des requêtes ainsi pondéreés. Dans notre seconde contribution, nous proposons une approche d'indexation conceptuelle basée sur les CP-Nets. Nous proposons d'utiliser le formalisme CP-Net comme langage d'indexation afin de représenter les concepts et les relations conditionnelles entre eux d'une manière relativement compacte. Les noeuds du CP-Net sont les concepts représentatifs du contenu du document et les relations entre ces noeuds expriment les associations conditionnelles qui les lient. Notre contribution porte sur un double aspect : d'une part, nous proposons une approche d'extraction des concepts en utilisant WordNet. Les concepts résultants forment les noeuds du CP-Net. D'autre part, nous proposons d'étendre et d'utiliser la technique de règles d'association afin de découvrir les relations conditionnelles entre les concepts noeuds du CP-Nets. Nous proposons enfin un mécanisme d'évaluation des requêtes basé sur l'appariement de graphes (les CP-Nets document et requête en l'occurrence).
APA, Harvard, Vancouver, ISO, and other styles
14

Boubekeur-Amirouche, Fatiha. "Contribution à la définition de modèles de recherche d'information flexibles basés sur les CP-Nets." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/257/.

Full text
Abstract:
Ce travail de thèse traite deux principaux problèmes en recherche d'information : la pondération des requêtes et l'indexation sémantique des documents. Notre contribution globale consiste en la définition d'un modèle théorique de RI basé sur les CP-Nets. Le formalisme CP-Net est utilisé d'une part, pour la représentation graphique de requêtes flexibles exprimant des préférences qualitatives, et pour la pondération automatique de telles requêtes. D'autre part, le formalisme CP-Net est utilisé comme langage d'indexation graphique pour représenter les concepts descriptifs d'un document et les relations correspondantes, d'une manière relativement compacte. Les concepts sont identifiés par projection du document sur WordNet. Les relations entre concepts sont découvertes au moyen des règles d'association sémantiques. Un mécanisme d'évaluation des requêtes basé sur l'appariement de graphes CP-Nets est aussi proposé.
This thesis addresses two main problems in IR: automatic query weighting and document semantic indexing. Our global contribution consists on the definition of a theoretical flexible information retrieval (IR) model based on CP-Nets. The CP-Net formalism is used for the graphical representation of flexible queries expressing qualitative preferences and for automatic weighting of such queries. Furthermore, the CP-Net formalism is used as an indexing language in order to represent document representative concepts and related relations in a roughly compact way. Concepts are identified by projection on WordNet. Concept relations are discovered by means of semantic association rules. A query evaluation mechanism based on CP-Nets graph similarity is also proposed
APA, Harvard, Vancouver, ISO, and other styles
15

Turchi, Hervé. "Etude de modèles de déformation basés sur l'analyse multirésolution : Application en Téléopération Assistée par Ordinateur." Montpellier 2, 1998. http://www.theses.fr/1998MON20260.

Full text
Abstract:
Cette these propose de nouveaux outils pour la t. A. O. Qui s'integrent dans un nouveau systeme de t. A. O. : un environnement virtuel temps reel. Ces outils servent a une modelisation geometrique de l'environnement operationnel et du systeme robotique, a une animation realiste, a une description et une specification d'un scenario de mission, a une simulation temps reel, et a une transmission bilaterale d'informations. Nous nous sommes particulierement interesses aux methodes de reduction de l'information geometrique d'une scene virtuelle. Nous proposons notamment deux approches de reduction : a) une approche globale basee sur une methode d'elimination de l'information geometrique inutile, par l'utilisation de la notion de couloirs d'evolution ; b) une approche locale qui traite l'information geometrique a l'interieur du champ de vue camera. A cet effet, nous presentons la notion de geometrie multiresolution qui permet de disposer de plusieurs niveaux de representation d'un objet polyedrique. Afin de realiser une animation et une simulation realiste de taches de teleoperation, nous proposons un modele de deformation d'objets polyedriques base sur un element fini de type barre. Nous presentons une etude de l'influence de la geometrie multiresolution sur les performances du modele de deformation. Enfin, nous presentons l'environnement virtuel developpe autour d'une mission de teleoperation (transport d'objets) avec le manipulateur mobile du lirmm.
APA, Harvard, Vancouver, ISO, and other styles
16

KRüGER, Eiko. "Développement d'algorithmes de gestion optimale des systèmes de stockage énergétique basés sur des modèles adaptatifs." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT096/document.

Full text
Abstract:
Les limites des ressources d’énergies fossiles et la perspective imminente du changement climatique ont mené les pays de l’Union Européenne à engager une restructuration du secteur électrique vers un approvisionnement en énergie fiable, économique et durable. Dans cette optique de transition énergétique, les systèmes de stockage d’énergie peuvent faciliter l’intégration des énergies renouvelables dans les réseaux électriques. Ils permettent de stocker l’énergie produite par les sources renouvelables pour décaler sa fourniture aux réseaux électriques et compenser les fluctuations aléatoires de la puissance. Par ce lissage de la production des sources intermittentes, les systèmes de stockage transforment ces dernières en centrales mieux contrôlables et plus prévisibles ce qui leur permet de participer aux marchés d’électricité et aux services systèmes.Afin de garantir le respect des plans de production et des engagements pris envers le gestionnaire du réseau, les centrales de production renouvelables équipées d’un système de stockage ont recours à un système de gestion d’énergie. Alors que le contrôle rapproché assure le respect de la consigne instantanée de production, la gestion d’énergie utilise des méthodes d’optimisation sous contraintes issues de la recherche opérationnelle pour planifier le fonctionnement des systèmes de stockage. Le plus souvent, un arbitrage est nécessaire entre les exigences du fonctionnement et la complexité du modèle utilisé. Les modèles de batterie, qui présentent un comportement non-linéaire, doivent être simplifiés en vue de les intégrer dans les algorithmes d’optimisation les plus courants. De plus, les modèles précis et particulièrement ceux qui sont basés sur une modélisation physico-chimique de la batterie exigent des tests de caractérisation chronophages réalisés dans des conditions contrôlées. Finalement, le comportement électrique de la batterie évolue avec son âge ce qui impose un recalage périodique du modèle en fonction du temps.Cette thèse présente une méthodologie d’identification de modèles de batterie en cours de fonctionnement et d’utilisation de ces modèles adaptatifs dans la gestion optimale d’une centrale de production électrique avec stockage. Après un rappel des modèles de batteries, des méthodes d’identification en temps réel issues de la théorie du contrôle sont développées dans le cas d’un modèle des circuits électriques équivalents. L’extraction d’un modèle simplifié pour la gestion d’énergie est décrite et juxtaposée à une analyse de régression directe des données de fonctionnement. Les méthodes d’identification sont testées pour un système de stockage réel de taille industrielle, associé à une centrale photovoltaïque installée sur l’île de La Réunion. L’identification du modèle dans le cadre d’une étude de vieillissement préalablement effectuée au sein du CEA, met en évidence le suivi de l’état de santé de la batterie.En vue de l’intégration des modèles adaptatifs dans la gestion, la formulation des problèmes d’optimisation rencontrés dans la planification d'une centrale photovoltaïque associée à un système de stockage est développée. Des implémentations en programmation linéaire-mixte et en programmation dynamique sont réalisées dans des cas d’études basés sur la participation aux marchés d’électricité ou dans le cadre d’une tarification réglementée, ainsi que la participation aux services système. Afin d’évaluer les performances de ces solutions, une architecture de contrôle pour la centrale est détaillée, et le fonctionnement de la centrale est simulé. Plusieurs configurations du système de gestion sont testées, y compris l’utilisation de modèles fixes ou variables ainsi que la prise en compte ou non du vieillissement de la batterie. Une analyse statistique des résultats obtenus pour différents cas de production photovoltaïque et d’erreurs de prévision montre que l’utilisation des modèles variables présente des avantages
Limited fossil energy resources and the prospect of impending climate change have led the European Union to engage in a restructuring of the electricity sector towards a sustainable, economical and reliable power supply. Energy storage systems have the potential of an enabling technology for the integration of renewable energy sources, which underlies this transition. They allow the delivery of energy produced by a local source to the electric grid to be shifted in time and can compensate random fluctuations in power output. Through such smoothing and levelling, energy storage systems can make the production of variable renewable sources predictable and amenable to control.In order to observe scheduled production and their commitments toward the grid operator, renewable power plants equipped with storage systems make use of an energy management system. While direct control ensures tracking of the current production setpoint, energy management employs constrained optimization methods from operations research to organize the usage of the storage systems. The complexity of the storage system model used in optimization must frequently be adapted to the specific application. Batteries show non-linear state-dependent behavior. Their model must be simplified for use in the most common optimization algorithms. Moreover, precise battery models based on physical modelling require time-consuming controlled testing for parameterization. Lastly, the electrical behavior of a battery evolves with aging which calls for regular recalibration of the model.This thesis presents a methodology for on-line battery model identification and the use of such adaptive models in optimal management of an electrical plant with energy storage. After a summary of battery models, observer methods for on-line identification based on control theory are developed for the case of an equivalent circuit model. The extraction of a simplified model for energy management is described and compared to direct regression analysis of the operational data. The identification methods are tested for a real industrial-sized storage system operated in a photovoltaic power plant on the island of La Réunion. Model identification applied to data from an earlier battery aging study shows the use of the method for tracking the state-of-health.The formulation of optimization problems encountered in the production scheduling of a photovoltaic power plant with energy storage is developed incorporating the adaptive battery models. Mixed-integer linear programming and dynamic programming implementations are used in case studies based on market integration of the plant or regulated feed-in tariffs. A simulation model based on the outline of the plant control architecture is used to simulate the operation and evaluate the solutions. Different configurations of the management system are tested, including static and variable battery models and the integration of battery aging. A statistical analysis of the results obtained for multiple cases of photovoltaic production and forecast error shows the advantage of using variable battery models in the study case
APA, Harvard, Vancouver, ISO, and other styles
17

Trenquier, Henri. "Analyse et explication par des techniques d'argumentation de modèles d'intelligence artificielle basés sur des données." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30355.

Full text
Abstract:
La classification est une tâche très courante dans le domaine de l'apprentissage automatique et les modèles d'apprentissage automatique créés pour accomplir cette tâche tendent à atteindre une précision comparable à celle des humains, au détriment de leur transparence. L'apparition de ces systèmes intelligents dans le quotidien du public a créée un besoin d'explicabilité. Les explications abductives sont l'un des types d'explications les plus populaires qui sont fournies dans le but d'expliquer le comportement de modèles d'apprentissage complexes, parfois considérés comme des boîtes noires. Elles mettent en évidence les caractéristiques qui sont suffisantes pour que le modèle prédise une certaine classe. Dans la littérature, elles sont générées en explorant l'ensemble de l'espace des caractéristiques, ce qui n'est pas raisonnable en pratique. Cette thèse aborde ce problème en introduisant des fonctions d'explication qui génèrent des explications abductives à partir d'un échantillon arbitraire d'instances. Elle montre que de telles fonctions doivent être définies avec beaucoup de soin car elles ne peuvent pas satisfaire simultanément deux propriétés souhaitables, à savoir l'existence d'explications pour chaque décision individuelle (success) et l'exactitude des explications (coherence). Cette thèse fournit une collection de fonctions d'explication paramétrées basées sur l'argumentation, chacune satisfaisant l'une des ces deux propriétés. De plus, elle étudie leurs propriétés formelles ainsi que leur comportement expérimental sur différents ensembles de données
Classification is a very common task in Machine Learning (ML) and the ML models created to perform this task tend to reach human comparable accuracy, at the cost of transparency. The surge of such AI-based systems in the public's daily life has created a need for explainability. Abductive explanations are one of the most popular types of explanations that are provided for the purpose of explaining the behavior of complex ML models sometimes considered as black-boxes. They highlight feature-values that are sufficient for the model to make a prediction. In the literature, they are generated by exploring the whole feature space, which is unreasonable in practice. This thesis tackles this problem by introducing explanation functions that generate abductive explanations from a sample of instances. It shows that such functions should be defined with great care since they cannot satisfy two desirable properties at the same time, namely existence of explanations for every individual decision (success) and correctness of explanations (coherence). This thesis provides a parameterized family of argumentation-based explanation functions, each of which satisfies one of the two properties. It studies their formal properties and their experimental behaviour on different datasets
APA, Harvard, Vancouver, ISO, and other styles
18

Le, Courtois Olivier. "Impact des évènements informatifs sur l'activité financière des entreprises." Lyon 1, 2003. http://www.theses.fr/2003LYO10197.

Full text
Abstract:
Cette thèse présente une étude de l'impact créé par l'arrivée d'informations sur les politiques de gestion menées par les acteurs de marché et les dirigeants. Dans un premier temps sont exposées les diverses représentations attachées aux cours d'actions et présentant des ruptures ou sauts. Un nouveau modèle est proposé, construit à partir des seuils psychologiques des agents. L'évaluation des produits dérivés dans de tels cadres est alors développée et est une illustration de convergence entre la finance et l'assurance. Les questions de la structure financière et du risque de défaut de la firme sont ensuite abordées de manière innovante en tenant compte des perceptions asymétriques des différents acteurs : dirigeants et investisseurs. L'analyse que nous menons de ces questions est naturellement replacée dans le contexte de la théorie de l'agence. Liée à la problématique du défaut financier est la question de la ruine des compagnies d'assurance que nous traitons sous un angle nouveau.
APA, Harvard, Vancouver, ISO, and other styles
19

Robin, Ludovic. "Vérification formelle de protocoles basés sur de courtes chaines authentifiées." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0019.

Full text
Abstract:
Les protocoles de sécurité modernes peuvent impliquer un participant humain de façon à ce qu'il compare ou copie de courtes chaines de caractères faisant le pont entre différents appareils. C'est par exemple le cas des protocoles basés sur une authentification à facteur multiples comme les protocoles Google 2 factor ou 3D-Secure.Cependant, de telles chaines de caractères peuvent être sujettes à des attaques par force brute. Dans cette thèse nous proposons un modèle symbolique qui inclut les capacités de l'attaquant à deviner des secrets faibles et à produire des collisions avec des fonctions de hachage dont de l'application résulte une courte chaine de caractères. Nous proposons une nouvelle procédure de décision pour analyser un protocole (restreint à un nombre borné de sessions) qui se base sur de courtes chaines de caractères. Cette procédure a été intégré dans l'outil AKISS et testé sur les protocoles du standard ISO/IEC 9798-6:2010
Modern security protocols may involve humans in order to compare or copy short strings betweendifferent devices. Multi-factor authentication protocols, such as Google 2-factor or 3D-Secure are typical examplesof such protocols. However, such short strings may be subject to brute force attacks. In this thesis we propose asymbolic model which includes attacker capabilities for both guessing short strings, and producing collisions whenshort strings result from an application of weak hash functions. We propose a new decision procedure for analyzing(a bounded number of sessions of) protocols that rely on short strings. The procedure has been integrated in theAKISS tool and tested protocols from the ISO/IEC 9798-6:2010 standard
APA, Harvard, Vancouver, ISO, and other styles
20

Zheng, Jun. "Elicitation des Préférences pour des Modèles d'Agrégation basés sur des Points de référence : Algorithmes et Procédures." Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00740655.

Full text
Abstract:
L'Aide Multicritère à la Décision (AMCD) vise à aider un décideur (DM) confronté à un problème de décision impliquant plusieurs objectifs contradictoires. Les préférences du DM jouent un rôle important au sein du processus d'aide à la décision, puisque les recommandations ne sont pertinentes et acceptables que si le système de valeurs du DM est pris en considération. Un outil d'élicitation des préférences est donc nécessaire pour aider l'analyste à intégrer les préférences du DM de façon appropriée dans les modèles de décision. Nous sommes intéressés par le développement d'outils d'élicitation des préférences pour deux modèles d'agrégation basés sur des points de référence à savoir Electre Tri et une méthode de Rangement basé sur des Points de Référence multiples (RPM). Tout d'abord, nous considérons Electre Tri en utilisant la règle d'affectation optimiste. Nous proposons un outil d'élicitation des préférences, qui infère les paramètres de préférence de ce modèle à partir d'exemples d'affectation du DM, et analyse également la robustesse des affectations résultant de la nature imprécise de l'information préférentiel. En second lieu, un outil d'élicitation des préférences est développé pour le problème de sélection de portefeuille formulée comme des problèmes de tri contraint en utilisant Electre Tri. Les préférences du DM à la fois au niveau individuel et au niveau du portefeuille sont considérés pour infère le modèle Electre Tri. Le modèle élicité évalue intrinsèquement les individus et sélectionne simultanément un portefeuille satisfaisant comme un groupe. Troisièmement, nous nous intéressons à l'élicitation des préférences pour le modèle RPM, qui détermine un pré-ordre comparant des alternatives avec des points de référence. Nous proposons un outil qui infère un modèle RPM parcimonieux à partir de comparaisons par paires du DM. Enfin, trois web services implémentent des outils d'élicitation des préférences pour Electre Tri et ont été intégrées au logiciel de Decision Deck. Les outils d'élicitation des préférences proposés consistent en des algorithmes qui résolvent des programmes linéaires en nombres mixtes. Des expériences numériques approfondies ont été réalisées pour étudier la performance et le comportement des outils d'élicitation proposées. Ces expériences éclairent sur l'applicabilité pratique de ces outils. De plus, les outils ont été appliqués avec succès à trois cas.
APA, Harvard, Vancouver, ISO, and other styles
21

Loger, Benoit. "Modèles d’optimisation basés sur les données pour la planification des opérations dans les Supply Chain industrielles." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2023. http://www.theses.fr/2023IMTA0389.

Full text
Abstract:
Face à la complexité croissante des chaînes logistiques, l’utilisation d’outils d’aide à la décision automatisés devient nécessaire pour appréhender les multiples sources d’incertitude susceptibles de les impacter tout en garantissant un niveau de performance élevé. Pour répondre à ces objectif, les managers ont de plus en plus recours à des approches capables d’améliorer la résilience des chaînes logistiques en proposant des solutions robustes face aux aléas, pour garantir à la fois la qualité de service et la maîtrise des coûts liés à la production, au stockage et au transport de biens. Alors que la collecte et l’analyse des données occupe une place croissante dans la stratégie des entreprises, la bonne exploitation de ces informations afin de caractériser plus précisément ces incertitudes et leur impact sur les opérations devient un enjeu majeur pour optimiser les systèmes de production et de distribution modernes. Cette thèse se positionne au cœur de ces nouveaux défis en développant différentes méthodes d’optimisation mathématiques reposant sur l’utilisation de données historiques, dans le but de proposer des solutions robustes à plusieurs problèmes d’approvisionnement et de planification de production. Des expérimentations numériques sur des applications de natures diverses permettent de comparer ces nouvelles techniques à plusieurs autres approches classiques de la littérature pour valider leur pertinence en pratique. Les résultats obtenus démontrent l’intérêt de ces contributions, qui offrent des performances moyennes comparables tout en réduisant leur variabilité en contexte incertain. En particulier, les solutions restent satisfaisantes lorsqu’elles sont confrontées à des scenarios extrêmes, dont la probabilité d’apparition est faible. Enfin, les temps de résolution des procédures développées restent compétitifs et laissent envisager la possibilité d’une mise en œuvre sur des cas d’application à l’échelle industrielle
With the increasing complexity of supply chains, automated decision-support tools become necessary in order to apprehend the multiple sources of uncertainty that may impact them, while maintaining a high level of performance. To meet these objectives, managers rely more and more on approaches capable of improving the resilience of supply chains by proposing robust solutions that remain valid despite uncertainty, to guarantee both a quality of service and a control of the costs induced by the production, storage and transportation of goods. As data collection and analysis become central to define the strategy of companies, a proper usage of this information to characterize more precisely these uncertainties and their impact on operations is becoming a major challenge for optimizing modern production and distribution systems. This thesis addresses these new challenges by developing different mathematical optimization methods based on historical data, with the aim of proposing robust solutions to several supply and production planning problems. To validate the practical relevance of these new techniques, numerical experiments on various applications compare them with several other classical approachesfrom the literature. The results obtained demonstrate the value of these contributions, which offer comparable average performance while reducing their variability in an uncertain context. In particular, the solutions remain satisfactory when confronted with extreme scenarios, whose probability of occurrence is low. Finally, the computational time of the procedures developed remain competitive, making them suitable for industrial-scale applications
APA, Harvard, Vancouver, ISO, and other styles
22

Lequesne, Justine. "Tests statistiques basés sur la théorie de l'information, applications en biologie et en démographie." Caen, 2015. http://www.theses.fr/2015CAEN2007.

Full text
Abstract:
L'entropie et la divergence, concepts fondamentaux de la théorie de l'information, sont utilisées pour construire des tests statistiques dans deux contextes différents, ce qui partage ce mémoire en deux parties. La première partie porte sur des tests d'adéquation à des lois à densité basés sur le principe du maximum d'entropie sous des contraintes de moments généralisés pour l'entropie de Shannon, puis pour des entropies généralisées. Ces tests d'adéquation sont ensuite appliqués en biologie pour une étude portant sur la réplication de l'ADN. La seconde partie porte sur une analyse comparative de tables de contingence par des tests basés sur la divergence de Kullback-Leibler entre la distribution de l'un, aux marges fixées, et celle de l'autre, qui tient lieu de mesure de référence. Une application de cette nouvelle méthode d'analyse à des jeux de données réelles, et surtout aux résultats des enquêtes PISA en démographie montre ses avantages par rapport aux méthodes classiques
Entropy and divergence, basic concepts of information theory, are used to construct statistical tests in two different contexts, which divides this thesis in two parts. The first part deals with goodness-of-fit tests for distributions with densities based on the maximum entropy principle under generalized moment constraints for Shannon entropy, and also for generalized entropies. These tests are then applied in biology for a study of DNA replication. The second part deals with a comparative analysis of contingency tables through tests based on the Kullback-Leibler divergence between a distribution with fixed marginals, and another acting as a reference. Application of this new method to real data sets, and especially to results of PISA surveys in demography, show its advantages as compared to classical methods
APA, Harvard, Vancouver, ISO, and other styles
23

Robin, Ludovic. "Vérification formelle de protocoles basés sur de courtes chaines authentifiées." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0019/document.

Full text
Abstract:
Les protocoles de sécurité modernes peuvent impliquer un participant humain de façon à ce qu'il compare ou copie de courtes chaines de caractères faisant le pont entre différents appareils. C'est par exemple le cas des protocoles basés sur une authentification à facteur multiples comme les protocoles Google 2 factor ou 3D-Secure.Cependant, de telles chaines de caractères peuvent être sujettes à des attaques par force brute. Dans cette thèse nous proposons un modèle symbolique qui inclut les capacités de l'attaquant à deviner des secrets faibles et à produire des collisions avec des fonctions de hachage dont de l'application résulte une courte chaine de caractères. Nous proposons une nouvelle procédure de décision pour analyser un protocole (restreint à un nombre borné de sessions) qui se base sur de courtes chaines de caractères. Cette procédure a été intégré dans l'outil AKISS et testé sur les protocoles du standard ISO/IEC 9798-6:2010
Modern security protocols may involve humans in order to compare or copy short strings betweendifferent devices. Multi-factor authentication protocols, such as Google 2-factor or 3D-Secure are typical examplesof such protocols. However, such short strings may be subject to brute force attacks. In this thesis we propose asymbolic model which includes attacker capabilities for both guessing short strings, and producing collisions whenshort strings result from an application of weak hash functions. We propose a new decision procedure for analyzing(a bounded number of sessions of) protocols that rely on short strings. The procedure has been integrated in theAKISS tool and tested protocols from the ISO/IEC 9798-6:2010 standard
APA, Harvard, Vancouver, ISO, and other styles
24

Engilberge, Sylvain. "Nouveaux développements en biologie structurale basés sur des complexes de lanthanide." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAY094/document.

Full text
Abstract:
Depuis les premières structures de protéines déterminées dans les années 1950, la cristallographie aux rayons X s’est imposée comme une méthode de choix pour l’obtention de données structurales à l’échelle atomique. Malgré les progrès technologiques qui ont révolutionné cette méthode (sources synchrotron, détecteurs pixel, programmes informatiques performants), l’obtention d’une carte de densité électronique permettant de modéliser la structure d’une macromolécule demeure toujours limitée par deux goulots d’étranglement qui sont, l’obtention de cristaux de la macromolécule d’intérêt et la résolution du problème des phases inhérent à l’enregistrement des données de diffraction.Cette thèse présente un nouveau complexe de lanthanide appelé « crystallophore » (Tb-Xo4). Cette molécule a été développé en collaboration avec Olivier Maury et François Riobé du laboratoire de chimie Matériaux Fonctionnels et Photonique (ENS –Lyon). La conception de ce nouveau complexe est basée sur quinze années de développement dans le domaine de la biologie structurale. Cette thèse présente les effets uniques induits par de Tb-Xo4 sur la cristallisation et sur la détermination des structures de macromolécules biologiques. L’ajout de Tb-Xo4 au cours de la cristallisation permet d’induire un nombre important de conditions de cristallisation exploitables dont certaines sont propres à la présence du crystallophore. L’analyse des structures atomiques de différentes protéines co-cristallisées en présence de Tb-Xo4 a permis à la fois de mettre en avant le pouvoir phasant élevé de Tb-Xo4 mais également de décrire finement l’interaction supramoléculaire du complexe avec la surface des macromolécules. Ce travail a conduit à la mise en place de protocoles de cristallisation et de phasage des macromolécules biologique assistés par Tb-Xo4. Sur la base de la compréhension du mode d’interaction de ce nouveau composé, cette thèse aboutit à la proposition d’un modèle expliquant les propriétés uniques de ce nouveau complexe de lanthanide
Since the first protein structure determined in the 1950s, X-ray crystallography emerged as a method of choice to obtain structural data at atomic resolution. Despite technological advances such as new synchrotron sources, hybrid pixel detectors, and high-performance softwares, obtaining an electron density map of a biological macromolecule is always limited by two major bottlenecks namely, producing high quality single crystals and solving the phase problem.This thesis presents a new lanthanide complex called “Crystallophore” (Tb-Xo4). This compound has been developed in collaboration with Olivier Maury and François Riobé of the Laboratoire de chimie Matériaux Fonctionnels et Photonique (ENS –Lyon). The design of this new complex is based on fifteen years of development in the field of structural biology. This thesis highlights the effects of Tb-Xo4 on the crystallisation and the structure determination of biological macromolecules. Indeed, the addition of Tb-Xo4 to a protein solution induces a large number of new and unique crystallization conditions. The analysis of the structures of several proteins co-crystallized with Tb-Xo4 allowed both, to highlight the high phasing power of Tb-Xo4 but also to describe finely the supramolecular interaction of the complex with the macromolecules. This work led to protocols dedicated to crystallization and phasing assisted with Tb-Xo4. Finally, this thesis leads to a model explaining the unique properties of this new lanthanide complex
APA, Harvard, Vancouver, ISO, and other styles
25

Veilleux, Dery. "Modèles de dépendance avec copule Archimédienne : fondements basés sur la construction par mélange, méthodes de calcul et applications." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/33039.

Full text
Abstract:
Le domaine de l’assurance est basé sur la loi des grands nombres, un théorème stipulant que les caractéristiques statistiques d’un échantillon aléatoire suffisamment grand convergent vers les caractéristiques de la population complète. Les compagnies d’assurance se basent sur ce principe afin d’évaluer le risque associé aux évènements assurés. Cependant, l’introduction d’une relation de dépendance entre les éléments de l’échantillon aléatoire peut changer drastiquement le profil de risque d’un échantillon par rapport à la population entière. Il est donc crucial de considérer l’effet de la dépendance lorsqu’on agrège des risques d’assurance, d’où l’intérêt porté à la modélisation de la dépendance en science actuarielle. Dans ce mémoire, on s’intéresse à la modélisation de la dépendance à l’intérieur d’un portefeuille de risques dans le cas où une variable aléatoire (v.a.) mélange introduit de la dépendance entre les différents risques. Après avoir introduit l’utilisation des mélanges exponentiels dans la modélisation du risque en actuariat, on démontre comment cette construction par mélange nous permet de définir les copules Archimédiennes, un outil puissant pour la modélisation de la dépendance. Dans un premier temps, on démontre comment il est possible d’approximer une copule Archimédienne construite par mélange continu par une copule construite par mélange discret. Puis, nous dérivons des expressions explicites pour certaines mesures d’intérêt du risque agrégé. Nous développons une méthode de calcul analytique pour évaluer la distribution d’une somme de risques aléatoires d’un portefeuille sujet à une telle structure de dépendance. On applique enfin ces résultats à des problèmes d’agrégation, d’allocation du capital et de théorie de la ruine. Finalement, une extension est faite aux copules Archimédiennes hiérarchiques, une généralisation de la dépendance par mélange commun où il existe de la dépendance entre les risques à plus d’un niveau.
The law of large numbers, which states that statistical characteristics of a random sample will converge to the characteristics of the whole population, is the foundation of the insurance industry. Insurance companies rely on this principle to evaluate the risk of insured events. However, when we introduce dependencies between each component of the random sample, it may drastically affect the overall risk profile of the sample in comparison to the whole population. This is why it is essential to consider the effect of dependency when aggregating insurance risks from which stems the interest given to dependence modeling in actuarial science. In this thesis, we study dependence modeling in a portfolio of risks for which a mixture random variable (rv) introduces dependency. After introducing the use of exponential mixtures in actuarial risk modeling, we show how this mixture construction can define Archimedean copulas, a powerful tool for dependence modeling. First, we demonstrate how an Archimedean copula constructed via a continuous mixture can be approximated with a copula constructed by discrete mixture. Then, we derive explicit expressions for a few quantities related to the aggregated risk. The common mixture representation of Archimedean copulas is then at the basis of a computational strategy proposed to compute the distribution of the sum of risks in a general setup. Such results are then used to investigate risk models with respect to aggregation, capital allocation and ruin problems. Finally, we discuss an extension to nested Archimedean copulas, a general case of dependency via common mixture including different levels of dependency.
Résumé en espagnol
APA, Harvard, Vancouver, ISO, and other styles
26

Bouhaddou, Imane. "Vers une optimisation de la chaine logistique : proposition de modèles conceptuels basés sur le PLM (Product Lifecycle Management)." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0026/document.

Full text
Abstract:
Consciente que l’unité de compétitivité n’est plus l’entreprise mais toute la chaîne logistique contribuant à la réalisation du produit, les efforts consentis par l’entreprise se matérialisent, d’une part, par la volonté de maîtriser au mieux les activités de conception des produits et d’autre part, par la construction de collaborations entre tous les acteurs de la chaîne logistique participant au cycle de vie du produit. Cela a conduit à l’émergence d’une gestion collaborative du cycle de vie du produit appelée communément PLM. L’objet de cette thèse consiste à définir une démarche méthodologique pour répondre à la problématique suivante : Comment le PLM pourra t-il participer à l’optimisation de la chaîne logistique ? Nous adoptons, dans cette thèse, une approche hybride combinant PLM et modèles mathématiques pour optimiser les décisions de conception simultanée du produit et de sa chaîne logistique. Nous proposons des modèles conceptuels pour résoudre de manière formelle le compromis entre PLM et modèles mathématiques pour une optimisation de la chaîne logistique. Contrairement aux approches classiques centralisées utilisées pour traiter le problème intégré de conception du produit et de sa chaîne logistique et qui engendrent des modèles mathématiques compliqués, nous adoptons une démarche couplant des décisions centralisées quand il s’agit d’intégrer les contraintes des différents maillons de la chaîne logistique et une approche décentralisée quand il s’agit d’optimiser localement chaque maillon de la chaîne. Le mode décentralisé réduit la complexité de résolution des modèles mathématiques et permet à la chaîne logistique de répondre rapidement à l’évolution des conditions locales de chaque maillon. Le PLM joue le rôle d’intégrateur. En effet, le regroupement centralisé des informations par le PLM permet de prendre en considération la dépendance entre les maillons améliorant ainsi les résultats obtenus par optimisation locale
AIt is recognized that competition is shifting from “firm versus firm” perspective to “supply chain versus supply chain” perspective. Therefore, the ability to optimize the supply chain is becoming the critical issue for companies to win the competitive advantage. Furthermore, all members of a given supply chain must work together to respond to the changes of market demand rapidly. In the actual context, enterprises not only must enhance their relationships with each others, but also need to integrate their business processes through product life cycle activities. This has led to the emergence of a collaborative product lifecycle management commonly known as PLM. The objective of this thesis is to define a methodological approach which answers to the following problematic: How can PLM contribute to supply chain optimization ? We adopt, in this thesis, a hybrid approach combining PLM and mathematical models to optimize decisions for simultaneous design of the product and its supply chain. We propose conceptual models to solve formally the compromise between PLM and mathematical models for supply chain optimization. Unlike traditional centralized approaches used to treat the problem of integrated design of the product and its supply chain which generate complex mathematical models, we adopt an approach combining centralized decisions while integrating the constraints of the different supply chain partners during the product design and decentralized decisions when it comes to locally optimize each supply chain partner. The decentralized approach reduces the complexity of solving mathematical models and allows the supply chain to respond quickly to the evolution of local conditions of each partner. PLM will assure the integration of the different supply chain partners. Indeed, the information centralization by the PLM enables to take into consideration the dependence between these partners, improving therefore local optimization results
APA, Harvard, Vancouver, ISO, and other styles
27

Dubois, Anne. "Tests de bioéquivalence basés sur les modèles non linéaires à effets mixtes : application à la pharmacocinétique des médicaments biologiques." Paris 7, 2011. http://www.theses.fr/2011PA077188.

Full text
Abstract:
Cette thèse porte sur les tests de bioéquivalence pour l'analyse d'essais en crossover à partir de modèles non linéaires à effets mixtes (MNLEM). Les applications proposées concernent des médicaments biologiques. Nous avons d'abord comparé les tests de bioéquivalence usuels reposant sur l'estimation des paramètres individuels par approche non compartimentale (NCA) ou reposant sur les estimations bayésiennes empiriques (EBE) obtenues par MNLEM. L'utilisation des tests basés sur les EBE est limitée par l'inflation de leur erreur de type I, liée au phénomène de réduction vers la moyenne. Puis, nous avons étudié le test de Wald et le test du rapport de vraisemblance (LRT) basés sur un MNLEM prenant en compte les effets traitement, période et séquence, en plus de la variabilité inter et intra-sujet. Nous avons proposé une méthode pour effectuer le test de Wald sur un paramètre secondaire du modèle structural. Pour les petits effectifs, l'erreur de type I du test de Wald et du LRT est augmentée. Pour le test de Wald, cette inflation peut être corrigée en utilisant l'erreur standard d'estimation empirique ou une approche basée sur la pondération de la variance d'estimation. Ces résultats ont été appliqués à l'analyse de deux études de bioéquivalence comparant plusieurs formulations de somatropine ou d'érythropoïétine. Enfin, nous avons montré que l'utilisation de la matrice d'information de Fisher permet l'évaluation et l'optimisation de protocoles d'essais de bioéquivalence en crossover qui seront analysés par MNLEM. En conclusion, ce travail met en évidence l'intérêt de l'analyse de bioéquivalence basée sur les MNLEM et appliquée aux essais portant sur des médicaments biologiques
This thesis considers bioequivalence tests to analyse crossover trials using nonlinear mixed effects modelling (NLMEM). AH proposed applications concern biologic drugs. We first compared the usual bioequivalence tests based on the individual parameters estimated by non compartmental analysis (NCA) to those based on the empirical Bayes estimates (EBE) obtained from NLMEM. We observed an inflation of the type I error of the EBE-based tests which is linked to the shrinkage and thus limits the use of such tests. Then, we studied the Wald test and the likelihood ratio test (LRT) based on a NLMEM including the treatment, period, and sequence effects, in top of the between and within-subject variability. We proposed a method to perform the Wald test on a secondary parameter of the structural model. For the small sample size designs, the type I error of the Wald test and LRT is inflated. For the Wald test, this inflation can be corrected using the empirical estimation standard error or an approach based on the weighting of the estimation variance. These results were applied to the analysis of two bioequivalence trials comparing different formulations of somatropin or erythropoietin. Finally, we demonstrated that the use of the Fisher information matrix allows the evaluation and the optimisation of designs of bioequivalence crossover trials which will be analysed by NLMEM. To conclude, this work underlines the interest of the bioequivalence analysis based on NLMEM and applied to clinical trials on biologic drugs
APA, Harvard, Vancouver, ISO, and other styles
28

De, Almeida Pereira Dalay Israel. "Analyse et spécification formelle des systèmes d’enclenchement ferroviaire basés sur les relais." Thesis, Centrale Lille Institut, 2020. http://www.theses.fr/2020CLIL0009.

Full text
Abstract:
Les Systèmes d'Enclenchement Ferroviaire (SEF) basés sur des relais sont des systèmes critiques, ils doivent être spécifiés et leur sécurité doit être prouvée afin de garantir l'absence de dangers lors de leurs exécutions. Toutefois, il s'agit d'une tâche difficile, car les SEF à relais ne sont généralement modélisés que de manière structurelle, de sorte que leur analyse comportementale est effectuée manuellement sur la base des connaissances des experts sur le système. Cependant, l'existence d'une description formelle du comportement des SEF est impérative pour pouvoir effectuer des preuves de sécurité. En outre, comme les SEF informatisés ont tendance à être moins chers, plus faciles à entretenir et à faire évoluer, le secteur ferroviaire a intérêt à ce qu'il existe une méthodologie pour transformer des SEF à relais existants en SEF informatisés.Les méthodologies formelles de spécification sont fondées sur des bases mathématiques solides qui permettent de prouver la sécurité des systèmes. En outre, de nombreux langages de spécification formelle prennent en charge non seulement la vérification, mais aussi la mise en œuvre de ces systèmes par un processus de développement formalisé. Ainsi, les méthodes formelles peuvent être la clé pour prouver la sécurité des SEF et les mettre en œuvre en utilisant des technologies informatiques.Cette thèse aborde deux propositions principales. Premièrement, elle présente une analyse des informations des diagrammes à relais et de la formalisation de la structure et du comportement des SEF basés sur des expressions mathématiques afin de créer un certain niveau de formalisation des systèmes. Le modèle résultant peut être étendu et adapté afin de se conformer à différents contextes ferroviaires et il peut aussi être utilisé afin de soutenir la spécification de ces systèmes dans différents langages de spécification formels. Ensuite, cette thèse présente comment le modèle formel des SEF peut être adapté afin de spécifier formellement ces systèmes selon la méthode B, un langage de spécification formel qui a déjà été utilisé avec succès dans le domaine ferroviaire et qui permet de prouver la sécurité du système et de le mettre en œuvre en tant que système informatique.En définitive, cette thèse présente une méthodologie complète pour la spécification et la vérification des Systèmes d'Enclenchement Ferroviaire basés sur des relais, en fournissant un support pour la preuve des systèmes dans différents contextes et pour leur spécification et leur mise en œuvre dans de nombreux langages formels différents
Relay-based Railway Interlocking Systems (RIS) are critical systems and must be specified and safety proved in order to guarantee the absence of hazards during their execution. However, this is a challenging task, since Relay-based RIS are generally only structurally modelled in a way that their behavioural analysis are made manually based on the experts knowledge about the system. Thus, the existence of a RIS behavioural formal description is imperative in order to be able to perform safety proofs. Furthermore, as Computer-based RIS tend to be less expensive, more maintainable and extendable, the industry has interest in the existence of a methodology for transforming the existing Relay-based RIS into Computer-based RIS.Formal specification methodologies are grounded in strong mathematical foundations that allow the systems safety proof. Besides, many formal specification languages support not only the verification, but also the implementation of these systems through a formal development process. Thus, Formal Methods may be the key in order to prove the RIS safety and implement them with computer-based technologies.This thesis addresses two main propositions. Firstly, it presents an analysis of the relay diagrams information and a formalisation of the Relay-based RIS structure and behaviour based on mathematical expressions as a way to create a certain level of formalisation of the systems. The resulting model can be extended and adapted in order to conform to different railway contexts and it can be used in order to support the specification of these systems in different formal specification languages. Then, this thesis presents how the RIS formal model can be adapted in order to formally specify these systems in B-method, a formal specification language with a successful history in the railway field and which allows the system safety proof and implementation as computer-based systems.As a result, this thesis presents a complete methodology for the specification and verification of Relay-based Railway Interlocking Systems, giving support for the systems safety proof in different contexts and for their specification and implementation in many different formal languages
APA, Harvard, Vancouver, ISO, and other styles
29

De, Almeida Pereira Dalay Israel. "Analyse et spécification formelle des systèmes d’enclenchement ferroviaire basés sur les relais." Thesis, Ecole centrale de Lille, 2020. http://www.theses.fr/2020ECLI0009.

Full text
Abstract:
Les Systèmes d'Enclenchement Ferroviaire (SEF) basés sur des relais sont des systèmes critiques, ils doivent être spécifiés et leur sécurité doit être prouvée afin de garantir l'absence de dangers lors de leurs exécutions. Toutefois, il s'agit d'une tâche difficile, car les SEF à relais ne sont généralement modélisés que de manière structurelle, de sorte que leur analyse comportementale est effectuée manuellement sur la base des connaissances des experts sur le système. Cependant, l'existence d'une description formelle du comportement des SEF est impérative pour pouvoir effectuer des preuves de sécurité. En outre, comme les SEF informatisés ont tendance à être moins chers, plus faciles à entretenir et à faire évoluer, le secteur ferroviaire a intérêt à ce qu'il existe une méthodologie pour transformer des SEF à relais existants en SEF informatisés.Les méthodologies formelles de spécification sont fondées sur des bases mathématiques solides qui permettent de prouver la sécurité des systèmes. En outre, de nombreux langages de spécification formelle prennent en charge non seulement la vérification, mais aussi la mise en œuvre de ces systèmes par un processus de développement formalisé. Ainsi, les méthodes formelles peuvent être la clé pour prouver la sécurité des SEF et les mettre en œuvre en utilisant des technologies informatiques.Cette thèse aborde deux propositions principales. Premièrement, elle présente une analyse des informations des diagrammes à relais et de la formalisation de la structure et du comportement des SEF basés sur des expressions mathématiques afin de créer un certain niveau de formalisation des systèmes. Le modèle résultant peut être étendu et adapté afin de se conformer à différents contextes ferroviaires et il peut aussi être utilisé afin de soutenir la spécification de ces systèmes dans différents langages de spécification formels. Ensuite, cette thèse présente comment le modèle formel des SEF peut être adapté afin de spécifier formellement ces systèmes selon la méthode B, un langage de spécification formel qui a déjà été utilisé avec succès dans le domaine ferroviaire et qui permet de prouver la sécurité du système et de le mettre en œuvre en tant que système informatique.En définitive, cette thèse présente une méthodologie complète pour la spécification et la vérification des Systèmes d'Enclenchement Ferroviaire basés sur des relais, en fournissant un support pour la preuve des systèmes dans différents contextes et pour leur spécification et leur mise en œuvre dans de nombreux langages formels différents
Relay-based Railway Interlocking Systems (RIS) are critical systems and must be specified and safety proved in order to guarantee the absence of hazards during their execution. However, this is a challenging task, since Relay-based RIS are generally only structurally modelled in a way that their behavioural analysis are made manually based on the experts knowledge about the system. Thus, the existence of a RIS behavioural formal description is imperative in order to be able to perform safety proofs. Furthermore, as Computer-based RIS tend to be less expensive, more maintainable and extendable, the industry has interest in the existence of a methodology for transforming the existing Relay-based RIS into Computer-based RIS.Formal specification methodologies are grounded in strong mathematical foundations that allow the systems safety proof. Besides, many formal specification languages support not only the verification, but also the implementation of these systems through a formal development process. Thus, Formal Methods may be the key in order to prove the RIS safety and implement them with computer-based technologies.This thesis addresses two main propositions. Firstly, it presents an analysis of the relay diagrams information and a formalisation of the Relay-based RIS structure and behaviour based on mathematical expressions as a way to create a certain level of formalisation of the systems. The resulting model can be extended and adapted in order to conform to different railway contexts and it can be used in order to support the specification of these systems in different formal specification languages. Then, this thesis presents how the RIS formal model can be adapted in order to formally specify these systems in B-method, a formal specification language with a successful history in the railway field and which allows the system safety proof and implementation as computer-based systems.As a result, this thesis presents a complete methodology for the specification and verification of Relay-based Railway Interlocking Systems, giving support for the systems safety proof in different contexts and for their specification and implementation in many different formal languages
APA, Harvard, Vancouver, ISO, and other styles
30

Thomas, Marie. "Influence de l'activité de l'eau sur les interactions lactose / β-lactoglobuline de poudres laitières modèles lyophilisées." Vandoeuvre-les-Nancy, INPL, 2004. http://docnum.univ-lorraine.fr/public/INPL_T_2004_THOMAS_M.pdf.

Full text
Abstract:
La conservation sous différentes activités de l'eau (aw) de poudres laitières modèles produites par co-lyophilisation de lactose avec des quantités croissantes de β-lactoglobuline a permis de mieux comprendre les interactions pouvant se développer entre les deux composants à l'état déshydraté. La β-lactoglobuline influence l'aw critique d'apparition de dégradations physico-chimiques, telles que le brunissement non-enzymatique, l'agglomération des particules et surtout la cristallisation du lactose. Les courbes isothermes de sorption d'eau, les analyses thermiques différentielles et de diffraction des rayons X montrent que la présence de β-lactoglobuline tend à augmenter le temps de latence avant cristallisation, et surtout à augmenter l'aw de cristallisation des poudres modèles; à. 0,54 pour les poudres avec 10 à 30% de protéine et à 0,59 pour les poudres-en contenant 40% ; sachant que l'aw de cristallisation du lactose pur est de 0,43. Cette amélioration de la stabilitœ des poudres est liée à la proximité des composants, qui développent des interactions. Le brunissement non-enzymatique traduit une lactosylation de la β-lactoglobuline, la spectroscopie infrarouge indique aussi l'établissement de liaisons hydrogène entre les deux composants, probablement dès la lyophilisation. Lorsque la poudre modèle est conservée à une aw immédiatement inférieure à son aw critique, un phénomène d'hydratation préférentielle apparaît: les liaisons hydrogène lactose/β-lactoglobuline diminuent au profit d'autres entre β-lactoglobuline et eau. Cette modification des liaisons hydrogène serait à l'origine de la stabilisation des poudres laitières modèles vis-à-vis de la cristallisation du lactose
Model milk powders were prepared by co-lyophilization of lactose and β-lactoglobulin and stored at various water activities (aw) to better understand interactions between the two components in a dehydrated state. The presence of β-lactoglobulin influenced the critical aw where physico-chemical modifications like non-enzymatic browning, particles caking and particularly lactose crystallization, occurred. Moisture sorption isotherms, differential scanning calorimetry and X-ray diffraction demonstrated that β-lactoglobulin can both delay crystallization and increase crystallization aw to 0. 54 and even 0. 59 in model powders containing 10 to 30%, and 40% β-lactoglobulin respectively, compared to 0. 43 for pure lactose crystallization. This stabilizing effect was due to the development ofboth covalent interactions and hydrogen bonding between lactose and β-lactoglobulin, as shown by non-enzymatic browning and spectroscopic studies. When model powders were stored at the aw just below their critical aw, preferential protein hydration occurred: hydrogen bonding between lactose and β- lactoglobulin decreased, whereas it increased between water and β-lactoglobulin. This change in hydrogen bonding seems to be responsible for the stabilizing effect against crystallization observed in model milk powders
APA, Harvard, Vancouver, ISO, and other styles
31

Bissessur, Yasdeo. "Identification de la non-linéarité d'un système de contrôle de vibration par des modèles basés sur les réseaux de neurones." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ35722.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Bey, Aurélien. "Reconstruction de modèles CAO de scènes complexes à partir de nuages de points basés sur l’utilisation de connaissances a priori." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10103/document.

Full text
Abstract:
Certaines opérations de maintenance sur sites industriels nécessitent une planification à partir de modèles numériques 3D des scènes où se déroulent les interventions. Pour permettre la simulation de ces opérations, les modèles 3D utilisés doivent représenter fidèlement la réalité du terrain. Ces représentations virtuelles sont habituellement construites à partir de nuages de points relevés sur le site, constituant une description métrologique exacte de l’environnement sans toutefois fournir une description géométrique de haut niveau.Il existe une grande quantité de travaux abordant le problème de la reconstruction de modèles 3D à partir de nuages de points, mais peu sont en mesure de fournir des résultats suffisamment fiables dans un contexte industriel et cette tâche nécessite en pratique l’intervention d’opérateurs humains.Les travaux réalisés dans le cadre de cette thèse visent l’automatisation de la reconstruction,avec comme principal objectif la fiabilité des résultats obtenus à l’issu du processus. Au vu de la complexité de ce problème, nous proposons d’exploiter des connaissances et données a priori pour guider la reconstruction. Le premier a priori concerne la compositiondes modèles 3D : en Conception Assistée par Ordinateur (CAO), les scènes industrielles sont couramment décrites comme des assemblages de primitives géométriques simples telles que les plans, sphères, cylindres, cônes, tores, etc. Nous hiérarchisons l’analyse en traitant dans un premier temps les plans et les cylindres, comme un préalable à la détection de stores. On obtient ainsi une description fiable des principaux composants d’intérêt dans les environnements industriels. Nous proposons en outre d’exploiter un certain nombre de règles régissant la manière dont ces primitives s’assemblent en un modèle CAO, basées surdes connaissances ”métier” caractérisant les scènes industrielles que nous traitons. De plus,nous tirons parti d’un modèle CAO existant d´ecrivant une scène similaire à celle que nous souhaitons reconstruire, provenant typiquement de la reconstruction antérieure d’un site semblable au site d’intérêt. Bien que semblables en théorie, ces scènes peuvent présenterdes différences significatives qui s’accentuent au cours de leur exploitation.La méthode que nous développons se fonde sur une formulation Bayésienne du problème de reconstruction : il s’agit de retrouver le modèle CAO le plus probable vis à visdes différentes attentes portées par les données et les a priori sur le modèle à reconstruire. Les diverses sources d’a priori s’expriment naturellement dans cette formulation. Pour permettre la recherche du modèle CAO optimal, nous proposons une approche basée surdes tentatives d’insertion d’objets générés aléatoirement. L’acceptation ou le rejet de ces objets repose ensuite sur l’am´elioration systématique de la solution en cours de construction. Le modèle CAO se construit ainsi progressivement, par ajout et suppression d’objets, jusqu’à obtention d’une solution localement optimale
3D models are often used in order to plan the maintenance of industrial environments.When it comes to the simulation of maintenance interventions, these 3D models have todescribe accurately the actual state of the scenes they stand for. These representationsare usually built from 3D point clouds that are huge set of 3D measurements acquiredin industrial sites, which guarantees the accuracy of the resulting 3D model. Althoughthere exists many works addressing the reconstruction problem, there is no solution toour knowledge which can provide results that are reliable enough to be further used inindustrial applications. Therefore this task is in fact handled by human experts nowadays.This thesis aims at providing a solution automating the reconstruction of industrialsites from 3D point clouds and providing highly reliable results. For that purpose, ourapproach relies on some available a priori knowledge and data about the scene to beprocessed. First, we consider that the 3D models of industrial sites are made of simpleprimitive shapes. Indeed, in the Computer Aided Design (CAD) field, this kind of scenesare described as assemblies of shapes such as planes, spheres, cylinders, cones, tori, . . . Ourown work focuses on planes, cylinders and tori since these three kind of shapes allow thedescription of most of the main components in industrial environment. Furthermore, weset some a priori rules about the way shapes should be assembled in a CAD model standingfor an industrial facility, which are based on expert knowledge about these environments.Eventually, we suppose that a CAD model standing for a scene which is similar to theone to be processed is available. This a priori CAO model typically comes from the priorreconstruction of a scene which looks like the one we are interested in. Despite the factthat they are similar theoretically, there may be significant differences between the sitessince each one has its own life cycle.Our work first states the reconstruction task as a Bayesian problem in which we haveto find the most probable CAD Model with respect to both the point cloud and the a prioriexpectations. In order to reach the CAD model maximizing the target probability, wepropose an iterative approach which improves the solution under construction each time anew randomly generated shape is tried to be inserted in it. Thus, the CAD model is builtstep by step by adding and removing shapes, until the algorithm gets to a local maximumof the target probability
APA, Harvard, Vancouver, ISO, and other styles
33

Izzet, Guillaume. "Modèles supramoléculaires de cupro-enzymes à site mononucléaire : synthèse, caractérisation et réactivité de complexes basés sur des calix[6]arènes." Paris 11, 2004. http://www.theses.fr/2004PA112216.

Full text
Abstract:
L'objectif de cette thèse est de développer un système biomimétique de monoxygénases mononucléaires à cuivre basé sur unestructure de calix[6]arène. Le comportement de complexes cuivriques, issu d'une première génération de ligands, a été étudié en catalyse d’oxydation. Cette étude a montré que les complexes possèdent une activité catalytique. Toutefois, ceux-ci n’ont pas présenté de sélectivité particulière vis-à-vis des substrats testés. Une étude structurale a permis de montrer que ces ligands pouvaient stabiliser des complexes de nucléarités variées en présence de ligands anioniques pontants. L’origine des diversités structurales est due à la forte flexibilité des ligands associée à la répulsion entre les ligands anioniques et le calixarène. Afin de protéger l'ion cuivrique du milieu extérieur, une nouvelle génération de ligands nommés calixcryptands a été développée. Les complexes du cuivre de 3 ligands calixcryptands présentant des propriétés électroniques différentes ont été étudiés. Les complexes cuivriques sont d'excellents récepteurs de molécules neutres. L'ion métallique est maintenu dans des géométries très similaires. Les complexes cuivreux issus de ces ligands ont présenté des comportements tout-à-fait singuliers notamment au niveaude leur affinité pour différentes molécules invitées (nitriles, CO, O2). L'étude de la réaction d'un complexe cuivreux avec le dioxygène s’est révélée tout-à-fait originale. Celle-ci a conduit à la décoordination de l’anion superoxyde et à l'oxydation du ligand. Cette étude préliminaire constitue le premier exemple d’activation de l’oxygène par un unique centre cuivreux
The goal of this thesis is to develop a biomimetic mononuclear system of copper monoxygenases based on a calix[6]arene structure. The behavior of cupric complexes, from a first generation of ligands, has been studied in oxidation catalysis. This study showed thatthese complexes have a catalytical activity. However, they did not present a particular selectivity towards the substrates tested. A structural study showed that these ligands could stabilize complexes of various nuclearities in presence of bridging anionic ligands. The cause of the structural diversity is due to the important flexibility of the ligands associated with the repulsion between the anionic ligands and the calixarene. In order to protect the cupric ion from the external medium, a new generation of ligands named calixcryptands has been developed. The copper complexes of 3 calixcryptand ligands presenting different electronic properties were studied. The cupric complexes are excellent receptors of neutral molecules. The metal ion of each complex is maintained in very similar geometries. The cuprous complexes resulting from these ligands presented very singular behaviors especially concerning their affinity for various guest molecules (nitriles, CO, O2). A cuprous complex had a very inusual reactivity towards dioxygen. This reaction led to the decoordinationof the superoxide and the oxidation of the ligand. This preliminary study constitutes the first example of oxygen activation by a single copper center
APA, Harvard, Vancouver, ISO, and other styles
34

Brigui, Frédéric. "Algorithmes d'imagerie SAR polarimétriques basés sur des modèles à sous-espace : application à la détection de cible sous couvert forestier." Paris 10, 2010. http://www.theses.fr/2010PA100171.

Full text
Abstract:
Cette thèse traite du développement de nouveaux algorithmes de formation d'image SAR dédiés à la détection de cible sous couvert forestier. Pour cette application, l'imagerie SAR classique produit des images fortement bruitées dans lesquelles la cible a une réponse faible et les interférences, principalement les trocs des arbres, provoquent de nombreuses fausses alarmes. Pour pouvoir augmenter la détection de la cible et réduire les interférences, nous reconsidérons le principe de formation d'image SAR en utilisant des modèles qui prennent en compte les priorités de diffusion de la cible et des interférences. Ces modèles sont développés pour des signaux en simple polarisation et en double polarisation (HH et VV) et sont définis par des sous-espaces de rangs faibles générés à partir des réponses d'éléments canoniques. A partir de ces modélisations, nous développons de nouveaux algorithmes d'imagerie SAR. Nous nous concentrons d'abord sur la détection de la cible puis sur la réduction des interférences. Les performances de ces algorithmes en termes de détection et de réductions des fausses alarmes sont évaluées sur des données simulées mais réalistes et nous insistons l'apport de l'information polarimétrique pour l'amélioration de celles-ci. Nous appliquons également nous algorithmes sur des données réelles qui nous permettent d'analyser les images obtenues dans un cadre réel
This thesis deals with the development of new SAR processors for detection of targats under foliage. For this application, classical SAR images are very noisy; the target has a low response and there are a lot of false alarms due to the interferences which are mainly the trunks of the forest. To detect target and reduce interferences, we reconsider the way processing a SAR image by using models which take into account the scattering properties of the target and the interferences. These models are developed for signals in sigle polarisation and in double polarisation (HH and VV) and are defined with low-rank subspaces generated from the responses of canonical elements. From this modeling, we develop new SAR processors. First, we focus on the detection of the target and on the reduction of false alarms. The performances of these processors in terms of detection and false alarms reduction are evaluated with realistic simulated data and we emphasize on the interest of using a polimetric information. We also apply these algorithms to real data that allows us to analyze the images in real-life context
APA, Harvard, Vancouver, ISO, and other styles
35

Charhad, Mbarek. "Modèles de documents vidéos basés sur le formalisme des graphes conceptuels pour l'indexation et la recherche par le contenu sémantique." Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10186.

Full text
Abstract:
Les documents vidéo ont un caractère multimédia qui fait que la recherche par le contenu dans ceux-ci présente un certain nombre de spécificités. Par exemple, un concept donné (personne, objet. . . ) peut être interprété de différentes manières : il peut être vu, il peut être entendu ou il peut être mentionné. Des combinaisons de ces cas peuvent également se produire. Naturellement, ces distinctions sont importantes pour l'utilisateur. Des requêtes impliquant le concept C comme par exemple : " rechercher les segments vidéos montrant une image de C " ou comme : " rechercher les segments vidéos dans lesquels on parle de C " sont susceptibles de produire des réponses tout à fait différentes. Dans le premier cas, on rechercherait C dans le contenu visuel tandis que dans le second, on rechercherait dans le contenu audio un segment dans la transcription duquel C est mentionné. Cette étude s'inscrit dans un contexte de modélisation, indexation et recherche d'information multimédia. Au niveau théorique, notre contribution consiste à la proposition d'un modèle pour la représentation du contenu sémantique des documents vidéo. Ce modèle permet la prise en compte synthétique et intégrée des éléments d'informations issus de chacune des modalités (image, texte, son). L'instanciation de ce modèle est réalisée à l'aide, du formalisme des graphes conceptuels. Le choix de ce formalisme est justifié par son expressivité et son adéquation au contexte d'indexation et de recherche d'information par le contenu. Notre contribution au niveau expérimental consiste à l'implémentation (en partie) du prototype CLOVIS
Ln the case of video, there are a number of specificities due to its multimedia aspect. For instance, a given concept (person, object. . . ) can be present in different ways: it can be seen, it can be heard, it can be talked of, and combinations ofthese representations can also occur. Of course, these distinctions are important for the user. Queries involving a concept C as: "Show me a picture of C" or as "I want to know what C2 has said about C" are likely to give quite different answers. The first one would look for C in the image track while the second would look in the audio track for a segment in which C is the speaker and C is mentioned in the speech. The context of this study is multimedia information modelling, indexing and retrieval. At the theoretical level, our contribution consists in the proposal of a model for the representation of the semantic contents of video documents. This model permits the synthetic and integrated taking into account of, data elements from each media (image, text, audio). The instantiation of this model is implemented using the conceptual graph (CG) formalism. The choice of this formalism is justified by its expressivity and its adequacy with content-based information indexing and retrieval. Our experimental contribution consists in the (partial) implementation of the CLOVIS prototype. We have integrated the proposed model in the video indexing and retrieval system by content in order to evaluate its contributions in terms of effectiveness and precision
APA, Harvard, Vancouver, ISO, and other styles
36

Soulier, Laure. "Définition et évaluation de modèles de recherche d’information collaborative basés sur les compétences de domaine et les rôles des utilisateurs." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2735/.

Full text
Abstract:
Cette thèse traite du domaine particulier de la recherche d'information (RI) appelé RI collaborative (RIC), qui considère un ensemble d'utilisateurs interagissant afin de satisfaire un besoin en information partagé. La collaboration est particulièrement utilisée dans le cas de tâches complexes ou exploratoires pour lesquelles les compétences d'un utilisateur unique peuvent être insuffisantes. La collaboration permet ainsi de rassembler les compétences complémentaires des utilisateurs afin de produire un résultat collectif qui dépasse l'agrégation des résultats individuels. Le contexte multi-utilisateurs ouvre de nombreuses perspectives en termes de support à la collaboration au travers la définition d'interfaces dédiées et de modèles d'ordonnancement basés sur les paradigmes de la collaboration. Ces derniers, dont principalement la division du travail, le partage des connaissances et la conscience de l'environnement collaboratif, doivent être pris en compte afin d'éviter la redondance entre les collaborateurs et de bénéficier de l'effet synergique de la collaboration. Plusieurs approches ont été proposées dans la littérature. En premier lieu, les interfaces de recherche ont été orientées vers des médiations utilisateurs dans le but de proposer un support aux actions des collaborateurs au travers de moyens de communication et de stockage d'information. En deuxième lieu, plus proches de nos travaux, certains auteurs se sont intéressés à la problématique d'accès à l'information en définissant des modèles d'ordonnancement adaptés à l'environnement collaboratif afin de répondre aux enjeux suivants : (1) la personnalisation des ordonnancements aux collaborateurs, (2) l'amélioration du partage des connaissances, (3) la division du travail entre les collaborateurs et/ou (4) la considération des rôles des collaborateurs dans le processus de RI. Dans ce manuscrit, nous nous intéressons particulièrement aux aspects suivants de la collaboration : - L'expertise de domaine des collaborateurs vis-à-vis du sujet du besoin en information partagé en proposant deux modèles d'ordonnancement collaboratifs basés (a) sur une distinction verticale des niveaux d'expertise avec les rôles d'expert et de novice de domaine et (b) une distinction horizontale de l'expertise où un groupe d'experts de sous-domaines collaborent pour répondre à un besoin en information à multiples facettes. Ces deux modèles sont composés de deux étapes principales qui estiment le score de pertinence de chaque document pour chacun des rôles puis alloue le document aux collaborateurs grâce à l'algorithme de la maximisation de l'espérance (EM). L'objectif est d'assigner un document au collaborateur le plus à même de le juger en fonction de son niveau d'expertise. - La complémentarité des utilisateurs lors d'un processus de RIC au travers de méthodes d'apprentissage, en temps réel, des rôles des collaborateurs. Ceci a pour objectif de bénéficier des compétences pour lesquelles ils sont les plus efficaces et d'ordonnancer, ainsi, les documents en fonction des rôles des collaborateurs. Également, deux approches, supervisée et non supervisée, sont proposées permettant respectivement d'apprendre les rôles des collaborateurs en fonction de leurs actions. Ces approches sont basées respectivement sur (a) des rôles prédéfinis dans l'état de l'art et (b) des méta-rôles latents des collaborateurs non prédéfinis
The research topic of this document deals with a particular setting of information retrieval (IR), referred to as collaborative information retrieval (CIR), in which a set of multiple collaborators share the same information need. Collaboration is particularly used in case of complex tasks in which an individual user may have insufficient knowledge and may benefit from the expertise/knowledge or complementarity of other collaborators. This multi-user context rises several challenges in terms of search interfaces as well as ranking models, since new paradigms must be considered, namely division of labor, sharing of knowledge and awareness. These paradigms aim at avoiding redundancy between collaborators in order to reach a synergic effect within the collaboration process. Several approaches have been proposed in the literature. First, search interfaces have been oriented towards a user mediation in order to support collaborators' actions through information storage or communication tools. Second, more close to our contributions, previous work focus on the information access issue by designing ranking models adapted to collaborative environments dealing with the challenges of (1) personalizing result set to collaborators, (2) favoring the sharing of knowledge, (3) dividing the labor among collaborators and/or (4) considering particular roles of collaborators within the information seeking process. In this thesis, we focus, more particularly, on two main aspects of the collaboration: - The expertise of collaborators by proposing retrieval models adapted to the domain expertise level of collaborators. The expertise levels might be vertical, in the case of domain expert and novice, or horizontal when collaborators have different subdomain expertise. We, therefore, propose two CIR models on two steps including a document relevance scoring with respect to each role and a document allocation to user roles through the Expectation-Maximization (EM) learning method applied on the document relevance scoring in order to assign documents to the most likely suited user. - The complementarity of collaborators throughout the information seeking process by mining their roles on the assumptions that collaborators might be different and complementary in some skills. We propose two algorithms based either on predefined roles or latent roles which (1) learns about the roles of the collaborators using various search-related features for each individual involved in the search session, and (2) adapts the document ranking to the mined roles of collaborators
APA, Harvard, Vancouver, ISO, and other styles
37

Gaudreault, Mathieu. "Modèles d’identification de tissu basés sur des images acquises avec un tomodensitomètre à double énergie pour des photons à faible énergie en curiethérapie." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25366.

Full text
Abstract:
Les images acquises avec un tomodensitomètre à double énergie (DECT) fournissent la détermination du numéro atomique effectif et de la densité électronique. L'objectif de ce mémoire est de développer un modèle d'identifiation de tissu applicable en curiethérapie, le modèle de tissu réduit à trois éléments, basé sur ces quantités et de le comparer avec une méthode existante dans la littérature, le calcul de la distance de Mahalanobis. Les deux modèles sont appliqués à des images DECT du fantôme de calibration Gammex RMI 467 et pour un sous-ensemble de tissus. Les distributions de dose sont calculées avec des simulations numériques Monte Carlo avec une source point ayant le spectre d'énergie de l'iode 125. Le modèle de tissu réduit à trois éléments reproduit les distributions de dose de référence et peut être utilisé comme étant une méthode d'identifiation de tissu valide pour effectuer un calcul de dose à partir d'images DECT.
Clinical Dual-Energy Computed Tomography (DECT) images provide the determination of the effective atomic number and the electronic density. The purpose of this study is to develop a new assessment model of tissues, named the reduced three elements tissue model, for dose calculations from DECT images in brachytherapy and compare it to a known identification method, assignment through the Mahalanobis distance. Both models are applied to DECT scans of the Gammex RMI 467 phantom and for a subset of 10 human tissues. Dose distributions are calculated from Monte Carlo simulations with a point source having the energy spectrum of 125I. The reduced three elements tissue model provides dose equivalence to reference tissues and is equivalent to the calculation of the Mahalanobis distance. The model constructed can be used as a scheme to assess tissues from DECT images for dose calculation.
APA, Harvard, Vancouver, ISO, and other styles
38

Rumeau, Pierre. "Etude par l'évaluation et l'analyse de risque des possibilités de mise en production de services basés sur les HIS." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00825349.

Full text
Abstract:
Nous avons déployé en milieu hospitalier des Habitat Intelligent pour la Santé composé d'un réseau de capteur infrarouges passifs et de l'infrastructure informatique permettant une fusion de données d'actimétrie en vue de dépister des variations d'état de santé de patients fragiles. Le choix de service de moyen et de long séjour avait pour objet d'avoir des lieux se rapprochant le plus possible d'un domicile tout en ayant un personnel suffisant comme étalon de l'HIS. Ceci nous a permis de conclure : 1. que l'HIS était acceptable et peu intrusif pour la population bénéficiaire potentielle. 2. que les capacités de détection d'alarme de l'HIS peuvent être modélisées et comparées à d'autres dispositifs mesurant la même grandeur (activité) dans le cadre de tableaux de fragilité ciblés. 3. nous avons vérifié notre modèle sur un exemple de chute chez un patient avec maladie à corps de Lewy. 4. que l'HIS peut répondre à une gestion de risque dans la norme ISOFDIS 14971. 5. qu'en absence de soutien par la solidarité nationale, l'HIS peut être amorti dès la première année dans le cas d'une dame âgée fragile faisant des décompensations cardiaques. Il y a donc une pertinence médico-socio-économique à mettre un dispositif de type HIS sur le marché potentiel que nous avons démontré par notre travail scientifique.
APA, Harvard, Vancouver, ISO, and other styles
39

Delorme-Costil, Alexandra. "Modèles prédictifs et adaptatifs pour la gestion énergétique du bâtiment résidentiel individuel : réseaux de neurones artificiels basés sur les données usuellement disponibles." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2018. http://www.theses.fr/2018EMAC0020.

Full text
Abstract:
L'utilisation de régulation prédictive permet de diminuer la consommation d'énergie des bâtiments résidentiels sans diminuer le confort de l'habitant. C'est dans ce but que la société BoostHeat développe une chaudière thermodynamique à grande efficacité énergétique. La production simultanée de l'eau chaude sanitaire (ECS) et du chauffage permet de nombreuses stratégies de régulation pour en optimiser les performances. L'utilisation de régulations prédictives permet d'anticiper les besoins énergétiques, de prendre en compte l'impact de l'inertie du bâtiment sur la température intérieure et ainsi de faire des choix de gestion de productions minimisant la consommation énergétique. Les modèles utilisés aujourd'hui dans les régulations prédictives sont contraignants. En effet, ces modèles nécessitent de grandes quantités de données, soit sur un échantillon représentatif de bâtiments, soit sur chaque bâtiment modélisé. Ils peuvent également avoir besoin d'études détaillées sur le bâtiment, les occupants et leurs habitudes de consommation. Afin de permettre à la société BoostHeat d'utiliser une régulation prédictive sur sa chaudière sans passer par une étape complexe de modélisation à chaque installation de chaudière, nous proposons des modèles adaptatifs utilisant les informations communément disponibles sur une installation classique. Nous choisissons de développer des réseaux de neurones artificiels pour la prédiction d'une part des consommations d'ECS et d'autre part de la température intérieure du bâtiment. Les réseaux de neurones artificiels sont déjà utilisés pour modéliser les consommations énergétiques d'un bâtiment spécifique, cependant nos modèles sont génériques et s'adaptent automatiquement au bâtiment dans lequel la chaudière est installée. Plusieurs modèles sont développés afin d'étudier l'impact du choix des entrées, des quantités de données d'apprentissage et de l'architecture du réseau de neurones artificiels sur la qualité de la prédiction. Les modèles de prédiction de consommation d'ECS ainsi réalisés sont testés sur trois cas expérimentaux alors que les modèles de prédiction de température intérieure sont testés sur deux cas expérimentaux et cent-vingt cas simulés. Cela permet de tester leur adaptation à l'ensemble du parc immobilier français. Nous montrons, pour la prédiction de consommation d'ECS comme pour la prédiction de température intérieure, que deux semaines de données collectées suffisent à une bonne adaptation des modèles à un cas spécifique. Le modèle le plus performant pour la prédiction de consommation d'eau chaude sanitaire a uniquement besoin des consommations des instants précédents. Le modèle de prédiction de température intérieure a de meilleures performances sur les bâtiments les moins isolés. Les résultats obtenus sont prometteurs pour l'application des régulations prédictives à grande échelle
The use of predictive control permits to reduce the energy consumption of residential buildings without reducing the comfort of the inhabitant. The company BoostHeat develops a thermodynamic furnace with high energy efficiency for this purpose. Simultaneous production of domestic hot water (DHW) and heating allows many control strategies to optimize performance. The use of predictive controls makes it possible to anticipate energy needs, to take into account the impact of building inertia on indoor temperature and thus to make production management choices that minimize energy consumption. The models used today in predictive controls are binding. Indeed, these models require large amounts of data, either on a representative sample of buildings or on each modeled building. They may also need detailed studies of the building, the occupants and their consumption practices. In order to allow BoostHeat to use predictive control without going through a complex modeling step at every furnace installation, we propose adaptive models using information commonly available on a typical installation. We choose to develop artificial neural networks for the prediction on the one hand of the consumptions of DHW and on the other hand of the ambiant temperature of the building. Artificial neural networks are already used to model the energy consumption of a specific building, however our models are generic and automatically adapt to the building in which the furnace is installed. Many models are developed to study the impact of the choice of inputs, amounts of learning data and artificial neural network architecture on the accuracy of prediction. The DHW consumption prediction models are tested on three experimental cases while the indoor temperature prediction models are tested on two experimental cases and one hundred and twenty simulated cases. This makes it possible to test their adaptation to the entire French housing stock. We show, for the prediction of DHW consumption as for the indoor temperature prediction, that two weeks of collected data are sufficient for a good adaptation of the models to a specific case. The most efficient model for the prediction of domestic hot water consumption only needs the consumptions of the previous instants. The indoor temperature prediction model performs better on less isolated buildings. The results obtained are promising for the application of predictive controls on a large scale
APA, Harvard, Vancouver, ISO, and other styles
40

Castonguay-Lebel, Zoé. "La modulation de l'activité transcriptionnelle des enképhalines suivant l'exposition répétée à un agent stresseur." Master's thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/20157.

Full text
Abstract:
L'exposition de rats à des séances de contention provoque la modulation de l'activité transcriptionnelle des enképhalines dans plusieurs structures du cerveau impliquées dans la neurobiologie du stress. Une augmentation significative des niveaux d'ARN hétéronucléaire de l'enképhaline, évalués par hybridation in situ, est observée immédiatement suivant une séance de contention dans le septum latéral et le noyau paraventriculaire de l'hypothalamus, et suite à des séances répétées, dans le noyau central latéral et intercalaire de l'amygdale. Cette activation du système enképhalinergique dans la CEA et FIA, lors d'une exposition chronique, pourrait être impliquée dans l'adaptation de la réponse au stress. Parallèlemnent à ces résultats, les afférences du noyau du lit de la commissure antérieure (BAC) ont été caractérisées par l'injection de traceurs rétrogrades par iontophorèse. Ces afférences, révélées par immunohistochimie, semblent provenir de régions préfrontales, de noyaux amygdaliens, hypothalamiques et de l'hippocampe.
APA, Harvard, Vancouver, ISO, and other styles
41

Lai, Chiara. "Le rapport espace/activité au cœur du processus d'appropriation des nouveaux espaces de travail : du flex office aux environnements de travail basés sur l'activité (activity-based workspaces)." Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAC048.

Full text
Abstract:
Cette thèse Cifre s’ancre dans le cadre d’une recherche-intervention menée au sein d’une entreprise de conseil en immobilier. Elle s’intéresse aux nouveaux espaces de travail dits « flexibles » (flex-office, environnement de travail dynamique etc.), que nous désignons par le terme activity-based workspaces (ABW) ou espaces de travail « basé sur l’activité ». Ces configurations couvrent une même organisation spatiale générique : des postes de travail mutualisés et non attribués, disposés au sein de plateaux ouverts et qui mettent à la disposition des travailleurs et des travailleuses un lot de ressources spatiales mobilisables par les individus et les collectifs pour soutenir leur activité. Ces espaces se basent donc sur la promesse d’une adéquation entre espace et activité, tout en véhiculant une vision prescriptrice du travail et de la manière dont il doit être fait. Dans une perspective historico-culturelle de l’activité, nous mobilisons les approches des théories de l’activité (Clot, 1999 ; Engeström, 2001) et de la cognition située (Lave, 1988) pour appréhender l’appropriation comme un mouvement de (re)construction de l’activité du sujet, ancré dans la situation au sein de laquelle il agit, qui est historiquement constituée par son action. Dans ce cadre, comment le processus d’appropriation de ces nouveaux espaces de travail par leurs utilisateurs se trouve-t-il impacté ? En quoi la mise en tension du rapport entre espace et activité, inhérente aux principes de fonctionnement de ces nouvelles formes de bureaux (Ianeva, et al., 2021) met-elle en forme voire à l’épreuve ce processus d’appropriation ? Comment dès lors concevoir des espaces qui soient des ressources pertinentes pour les sujets et leur activité ?Dans une démarche compréhensive et qualitative, cette thèse s’intéresse dans un premier temps au processus de conception des ABW, et explore la manière dont les concepteurs appréhendent et intègrent le rapport espace/activité dans la construction de la proposition spatiale et de ses principes de fonctionnement (première étude empirique). Ensuite, elle s’intéresse aux utilisateurs des ABW, et à la manière dont (i) ils mobilisent ces solutions spatiales dans le cours de leur activité et dont (ii) ces solutions spatiales redéfinissent les contours de leurs actions par le prisme du modèle de l’acceptation située (Bobillier Chaumon, 2016) (deuxième étude empirique). Enfin, nous présentons le processus de construction d’un outil de conception basé sur la méthode de la simulation (Van Belleghem, 2021). Son objectif est d’interroger les transformations des pratiques et des représentations des concepteurs et utilisateurs en lien avec les ABW, qui permette d’ancrer le discours qui accompagne ces ABW dans le rapport espace/activité (troisième étude empirique).Nos résultats rendent compte de (i) la manière dont les acteurs de la conception de ces nouveaux espaces de travail intègrent le rapport entre espace et activité comme un objet de travail pour penser les futurs espaces ; et (ii) la manière dont ce rapport entre espace et activité est saisi et remodelé par les utilisateurs finaux en situation de travail. L’appropriation de ces espaces se développe donc dans un mouvement dialectique où les actions de transformation de l’espace redéfinissent les contours de la cognition et de l’action. Penser l’appropriation comme un processus de (ré)articulation du rapport entre espace et activité ancré au cœur des situations de travail des sujets peut donc se révéler être un objet opérant pour outiller les psychologues du travail-intervenants dans l’accompagnement des transformations des cadres physiques et temporels du travail des professionnels
This Cifre thesis is part of a research-intervention conducted within a real estate consulting firm. It focuses on new "flexible" workspaces (flex-office, dynamic work environment, etc.), which we refer to as activity-based workspaces (ABW). These configurations cover a single generic spatial organization: shared, unallocated workstations, arranged within open platforms and providing workers with a range of spatial resources that can be mobilized by individuals and collectives to support their activity. These workspaces are thus based on the promise of a fitting relationship between space and activity, while at the same time conveying a prescriptive vision of work and how it should be done.Based on a cultural-historical perspective on activity, we mobilize the approaches of activity theory (Clot, 1999; Engeström, 2001) and situated cognition (Lave, 1988) to approach appropriation as a movement of (re)construction of the subject's activity, anchored in the situation in which he or she acts, which is historically constituted by his or her action. From this perspective, how is the process of appropriation of these new workspaces by their users impacted? How does the tension between space and activity, inherent in the operating principles of these new forms of office (Ianeva, et al., 2021), shape or even challenge this process of appropriation? How, then, can we design spaces that can constitute relevant resources for subjects and their activity?Using a comprehensive, qualitative approach, this thesis first looks at the ABW design process, and explores how designers apprehend and integrate the space/activity relationship in the construction of the spatial proposition and its operating mechanisms (first empirical study). It then focuses on ABW users, and how (i) they mobilize these spatial solutions in the course of their activity, and how (ii) these spatial solutions redefine the contours of their actions through the prism of the situated acceptance model (Bobillier Chaumon, 2016) (second empirical study). Finally, we present the construction process of a design tool based on the simulation method (Van Belleghem, 2021). Its aim is to investigate transformations in the practices and representations of designers and users in relation to ABWs, enabling the discourse that accompanies these ABWs to be anchored in the space/activity relationship (third empirical study).Our results highlight (i) the way in which the designers of these new workspaces integrate the relationship between space and activity as an object of work when thinking about future spaces; and (ii) the way in which this relationship between space and activity is grasped and reshaped by end-users in work situations. The appropriation process of these workspaces is thus to understand within a dialectical movement, in which actions to transform space redefine the contours of cognition and action.Understanding appropriation as a process of (re)articulating the relationship between space and activity, which is anchored at the heart of subjects' work situations, may therefore prove to be an effective and operative tool for work and interveners psychologists involved in supporting transformations of the physical and temporal work settings
APA, Harvard, Vancouver, ISO, and other styles
42

Vollant, Antoine. "Evaluation et développement de modèles sous-maille pour la simulation des grandes échelles du mélange turbulent basés sur l'estimation optimale et l'apprentissage supervisé." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI118/document.

Full text
Abstract:
Dans ce travail, des méthodes de diagnostics et des techniques de développement de modèles sous-maille sont proposées pour la simulation des grandes échelles (SGE) du mélange turbulent. Plusieurs modèles sous-maille issus de ces stratégies sont ainsi présentés pour illustrer ces méthodes.Le principe de la SGE est de résoudre les grandes échelles de l'écoulement responsables des transferts principaux et de modéliser l'action des petites échelles de l'écoulement sur les échelles résolues. Au cours de ce travail, nous nous sommes appuyés sur le classement des modèles sous-maille en deux catégories. Les modèles "fonctionnels" qui s'attachent à reproduire les transferts énergétiques entre les échelles résolues et les échelles modélisées et les modèles "structurels" qui cherchent à bien reproduire le terme sous-maille. Le premier enjeu important a été d'évaluer la performance des modèles sous-maille en prenant en compte leur comportement à la fois fonctionnel (capacité à reproduire les transferts d'énergie) et structurel (capacité à reproduire le terme sous-maille exact). Des diagnosctics des modèles sous-maille ont pu être conduits avec l'utilisation de la notion d'estimateur optimal ce qui permet de connaitre le potentiel d'amélioration structurelle des modèles. Ces principes ont dans un premier temps servi au développement d'une première famille de modèles sous-maille algébrique appelée DRGM pour "Dynamic Regularized Gradient Model". Cette famille de modèles s'appuie sur le diagnostic structurel des termes issus de la régularisation des modèles de la famille du gradient. D'après les tests menés, cette nouvelle famille de modèle structurel a de meilleures performances fonctionnelles et structurelles que les modèles de la famille du gradient. L'amélioration des performances fonctionnelles consiste à supprimer la prédiction excessive de transferts inverses d'énergie (backscatter) observés dans les modèles de la famille du gradient. Cela permet ainsi de supprimer le comportement instable classiquement observé pour cette famille de modèles. La suite de ce travail propose ensuite d'utiliser l'estimateur optimal directement comme modèle sous-maille. Comme l'estimateur optimal fournit le modèle ayant la meilleure performance structurelle pour un jeu de variables donné, nous avons recherché le jeu de variable optimisant cette performance. Puisque ce jeu comporte un nombre élevé de variables, nous avons utilisé les fonctions d'approximation de type réseaux de neurones pour estimer cet estimateur optimal. Ce travail a mené au nouveau modèle substitut ANNM pour "Artificial Neural Network Model". Ces fonctions de substitution se construisent à partir de bases de données servant à émuler les termes exacts nécessaire à la détermination de l'estimateur optimal. Les tests de ce modèle ont montré qu'il avait de très bonnes perfomances pour des configurations de simulation peu éloignées de la base de données servant à son apprentissage, mais qu'il pouvait manquer d'universalité. Pour lever ce dernier verrou, nous avons proposé une utilisation hybride des modèles algébriques et des modèles de substitution à base de réseaux de neurones. La base de cette nouvelle famille de modèles ACM pour "Adaptative Coefficient Model" s'appuie sur les décompositions vectorielles et tensorielles des termes sous-maille exacts. Ces décompositions nécessitent le calcul de coefficients dynamiques qui sont modélisés par les réseaux de neurones. Ces réseaux bénéficient d'une méthode d'apprentissage permettant d'optimiser directement les performances structurelles et fonctionnelles des modèles ACM. Ces modèles hybrides allient l'universalité des modèles algébriques avec la performance élevée mais spécialisée des fonctions de substitution. Le résultat conduit à des modèles plus universels que l'ANNM
This work develops subgrid model techniques and proposes methods of diagnosis for Large Eddy Simulation (LES) of turbulent mixing.Several models from these strategies are thus presented to illustrate these methods.The principle of LES is to solve the largest scales of the turbulent flow responsible for major transfers and to model the action of small scales of flowon the resolved scales. Formally, this operation leads to filter equations describing turbulent mixing. Subgrid terms then appear and must bemodeled to close the equations. In this work, we rely on the classification of subgrid models into two categories. "Functional" models whichreproduces the energy transfers between the resolved scales and modeled scales and "Structural" models that seek to reproduce the exact subgrid termitself. The first major challenge is to evaluate the performance of subgrid models taking into account their functional behavior (ability to reproduce theenergy transfers) and structural behaviour (ability to reproduce the term subgrid exactly). Diagnostics of subgrid models have been enabled with theuse of the optimal estimator theory which allows the potential of structural improvement of the model to be evaluated.These methods were initially involved for the development of a first family of models called algebraic subgrid $DRGM$ for "Dynamic Regularized GradientModel". This family of models is based on the structural diagnostic of terms given by the regularization of the gradient model family.According to the tests performed, this new structural model's family has better functional and structural performance than original model's family of thegradient. The improved functional performance is due to the vanishing of inverse energy transfer (backscatter) observed in models of thegradient family. This allows the removal of the unstable behavior typically observed for this family of models.In this work, we then propose the use of the optimal estimator directly as a subgrid scale model. Since the optimal estimator provides the modelwith the best structural performance for a given set of variables, we looked for the set of variables which optimize that performance. Since this set of variablesis large, we use surrogate functions of artificial neural networks type to estimate the optimal estimator. This leads to the "Artificial Neural Network Model"(ANNM). These alternative functions are built from databases in order to emulate the exact terms needed to determine the optimal estimator. The tests of this modelshow that he it has very good performance for simulation configurations not very far from its database used for learning, so these findings may fail thetest of universality.To overcome this difficulty, we propose a hybrid method using an algebraic model and a surrogate model based on artificial neural networks. Thebasis of this new model family $ACM$ for "Adaptive Coefficient Model" is based on vector and tensor decomposition of the exact subgrid terms. Thesedecompositions require the calculation of dynamic coefficients which are modeled by artificial neural networks. These networks have a learning method designedto directlyoptimize the structural and functional performances of $ACM$. These hybrids models combine the universality of algebraic model with high performance butvery specialized performance of surrogate models. The result give models which are more universal than ANNM
APA, Harvard, Vancouver, ISO, and other styles
43

Sebai, Samia. "L'impact des fluctuations du prix du pétrole sur l'activité économique : application aux pays de la région MENA." Caen, 2016. http://www.theses.fr/2016CAEN0503.

Full text
Abstract:
L’influence des fluctuations des prix du pétrole a fait l’objet de nombreuses études empiriques, pourtant il n’existe pas de consensus sur les mécanismes de transmission dans l’économie. L’objectif de cette thèse est d’identifier l’impact des variations des prix du pétrole sur l’économie réelle et les marchés boursiers des pays de la région MENA. À cette fin, nous mettons en œuvre dans un premier temps des tests de causalité et de cointégration pour analyser les interactions entre les prix de l’énergie et les variables macroéconomiques respectivement sur le court et le long terme. De plus, en dissociant les effets des hausses et des baisses du prix du pétrole, nous testons la présence de transmission asymétrique des chocs sur les variables économiques des pays exportateurs et importateurs de la région. Dans un deuxième temps, nous analysons les interdépendances entre le marché boursier et pétrolier à travers l’estimation d'un modèle VAR(1)-GARCH(1,1) à corrélation conditionnelle constante qui prend en compte les effets de transmission de chocs sur les rendements et les volatilités des deux marchés. Nous menons à la fois une analyse agrégée et sectorielle pour détecter l’impact des variations des prix de l’énergie sur les indices boursiers nationaux et identifier les secteurs économiques les plus vulnérables. Enfin, l’analyse des corrélations entre le marché boursier et pétrolier apporte des informations utiles en matière de diversification de portefeuille en présence du risque lié aux variations des prix du pétrole
The influence of oil price fluctuations has been the subject of several empirical studies, however there is no consensus on the transmission mechanisms in the economy. The objective of this thesis is to identify the impact of oil price changes on the real economy and on the stock markets of the MENA region countries. For this purpose, we firstly implement causality and cointegration tests to analyze the interactions between energy prices and macroeconomic variables respectively on the short and long term. Moreover, by dissociating the effects of increases and decreases in oil prices, we test the potential for asymmetric transmission of shocks on economic variables regarding exporting and importing MENA countries. In a second time, we analyze the interdependencies between the stock market and oil market through a VAR (1)-GARCH (1,1) model estimation with constant conditional correlation which takes into account the impact of shocks transmission on yields and volatilities of both markets. We conduct both an aggregated and sectorial analysis to analyze the impact of changes in energy prices on domestic stock index and identify the most vulnerable economic sectors. Finally, the analysis of correlations between the stock market and oil market provide useful information on portfolio diversification in the presence of the oil price fluctuations’ risk
APA, Harvard, Vancouver, ISO, and other styles
44

Azouaou, Faiçal. "Modèles et outils d'annotations pour une mémoire personnelle de l'enseignant." Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00118602.

Full text
Abstract:
Dans le cadre des recherches sur les environnements informatiques pour l'apprentissage humain, cette thèse vise à définir et proposer à l'enseignant une mémoire informatisée comme outil de gestion de connaissances personnelles. Cette mémoire est construite a partir des annotations de l'enseignant sur les documents pédagogiques. La mémoire résultante étend les capacités cognitives de l'enseignant en l'assistant dans la gestion de ses connaissances personnelles, nécessaires à la réalisation de ses activités de manière non intrusive. La prise en compte des particularités de l'activité d'enseignement (connaissances impliquées, contexte de l'activité. . . ) dans les modèles de la mémoire permet d'obtenir une mémoire qui est en même temps dédiée a l'activité d'enseignement et s'adapte au contexte de cette activité. Deux versions de l'outil sont développées : une version mobile et une version web (implémentée par l'entreprise Pentila) intégrable dans un ENT
Within the technology enhanced learning research area, this thesis aims at defining and proposing to teachers a computerized memory as a personal knowledge management tool. This memory is based on the annotations that he has made on his pedagogical documents. The proposed memory extends the teacher's cognitive capacities by assisting him unobtrusively in the management of his knowledge which is necessary for the realization of his activities. By taking into account the teaching activity specificity (implied knowledge, context of the activity) in the memory models, it enables us to obtain both a teacher's dedicated memory and a teaching context-aware memory. Two versions of the tool were developed: a portable version and a web version (implemented by the company Pentila) which can be integrated into an LCMS
APA, Harvard, Vancouver, ISO, and other styles
45

Ballutaud, Marine. "L'utilisation d'un cadre de travail mécaniste pour améliorer les outils basés sur les isotopes stables en écologie trophique." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILR058.

Full text
Abstract:
L'impact des changements globaux sur les écosystèmes marins est sans précédent. Dans un souci de préservation des écosystèmes, les métriques trophiques servent d'indicateurs de leur fonctionnement. Les interactions trophiques sont aisément déduites des isotopes stables par méthode d'inférence. Cependant, les inférences isotopiques reposent sur l'hypothèse d'équilibre isotopique. Ce travail de thèse vise à mettre en évidence la nécessité de s'affranchir de cette hypothèse en rendant les modèles isotopiques dynamiques, grâce au taux de renouvellement isotopique. La démarche développée estde construire un cadre de travail mécaniste via un modèle dynamique, pour créer une expérience virtuelle qui nous permette de tester les inférences. Tout d'abord, l'élaboration d'un modèle de mélange dynamique a permis d'améliorer les estimations du régime alimentaire à l'échelle individuelle, qui sont biaisées de 50 % avec une approche statique instantanée. Ce biais diminue à 15 % à partir du moment où λ est pris en compte, avec une approche statique intégratrice des valeurs isotopiques. Pour une estimation non biaisée et dynamique, l'application du modèle de mélange dynamique est requise, avec une estimation précise et dynamique de λ. Puis, l'implémentation de la dynamiqueisotopique aux modèles écosystémiques a permis de confirmer à l'échelle de la communauté, que l'azote reflète bien la structure moyenne du réseau trophique dans un cas de prédation opportuniste. Toutefois, la différence d'un niveau trophique a été observée pour certains top-prédateurs, entre les estimations par les matrices de régime alimentaire et celles par l'azote. L'intégration des mécanismes de la dynamique isotopique dans les inférences est une avancée majeure, puisqu'elle modifie notre vision des interactions trophiques dans les écosystèmes marins
The impact of global change on marine ecosystems is unprecedented. In order to preserve ecosystems, trophic metrics are used as indicators of their functioning. Trophic interactions are easily deduced from stable isotopes by inference. However, isotopic inferences are based on the assumption of isotopic equilibrium. This PhD thesis work aims to highlight the need to overcome this assumption by developing dynamic isotope models, thanks to the isotope turnover rate. The approach developed is to build a mechanistic framework via a dynamic model, to create a virtual experiment that allows us to assess the inferences. First, the development of a dynamic mixing model improved the individualdiet estimates, which are biased by 50 % with a static snapshot approach. This bias in diet estimates decreases to 15 % once λ is taken into account, with a static approach integrating isotopic values. For an unbiased and dynamic estimation, the application of the dynamic mixing model is required with an accurate and dynamic estimation of λ. Secondly, the implementation of isotope dynamics to ecosystem models allowed to confirm at the community level, that nitrogen does reflect the average food web structure in a case of opportunistic predation. However, the difference of one trophic level was observed for some top predators, between the estimates by diet matrices and those by nitrogen.The integration of isotope dynamics mechanisms into inferences is a major advance, since it modifies our insight into of trophic interactions in marine ecosystems
APA, Harvard, Vancouver, ISO, and other styles
46

Poirier, Canelle. "Modèles statistiques pour les systèmes d'aide à la décision basés sur la réutilisation des données massives en santé : application à la surveillance syndromique en santé publique." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B019.

Full text
Abstract:
Depuis plusieurs années, la notion de Big Data s'est largement développée. Afin d'analyser et explorer toutes ces données, il a été nécessaire de concevoir de nouvelles méthodes et de nouvelles technologies. Aujourd'hui, le Big Data existe également dans le domaine de la santé. Les hôpitaux en particulier, participent à la production de données grâce à l'adoption du dossier patient électronique. L'objectif de cette thèse a été de développer des méthodes statistiques réutilisant ces données afin de participer à la surveillance syndromique et d'apporter une aide à la décision. Cette étude comporte 4 axes majeurs. Tout d'abord, nous avons montré que les données massives hospitalières étaient très corrélées aux signaux des réseaux de surveillance traditionnels. Dans un second temps, nous avons établi que les données hospitalières permettaient d'obtenir des estimations en temps réel plus précises que les données du web, et que les modèles SVM et Elastic Net avaient des performances comparables. Puis, nous avons appliqué des méthodes développées aux Etats-Unis réutilisant les données hospitalières, les données du web (Google et Twitter) et les données climatiques afin de prévoir à 2 semaines les taux d'incidence grippaux de toutes les régions françaises. Enfin, les méthodes développées ont été appliquées à la prévision à 3 semaines des cas de gastro-entérite au niveau national, régional, et hospitalier
Over the past few years, the Big Data concept has been widely developed. In order to analyse and explore all this data, it was necessary to develop new methods and technologies. Today, Big Data also exists in the health sector. Hospitals in particular are involved in data production through the adoption of electronic health records. The objective of this thesis was to develop statistical methods reusing these data in order to participate in syndromic surveillance and to provide decision-making support. This study has 4 major axes. First, we showed that hospital Big Data were highly correlated with signals from traditional surveillance networks. Secondly, we showed that hospital data allowed to obtain more accurate estimates in real time than web data, and SVM and Elastic Net models had similar performances. Then, we applied methods developed in United States reusing hospital data, web data (Google and Twitter) and climatic data to predict influenza incidence rates for all French regions up to 2 weeks. Finally, methods developed were applied to the 3-week forecast for cases of gastroenteritis at the national, regional and hospital levels
APA, Harvard, Vancouver, ISO, and other styles
47

Gueuder, Maxime. "Quatre essais sur les inégalités et l'instabilité macroéconomique." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0534.

Full text
Abstract:
Cette thèse porte sur l’étude des inégalités dans un cadre macroéconomique, d’un point de vue théorique ainsi qu’empirique. Dans un premier chapitre, j’écris et simule un modèle basé-agents capable de répliquer les distributions fat-tailed des richesses observées empiriquement dans les économies développées. Dans un second chapitre, je prolonge ce modèle théorique pour étudier l’impact économique des discriminations interpersonnelles et institutionnelles. Lorsque les discriminations institutionnelles cessent, l’état final des inégalités dépend de l’économie au moment de la fin de ces discriminations : plus l’économie est organisée, plus le temps nécessaire à une égalisation des revenus et richesses entre ethnies est long, voire infini. Dans un troisième chapitre empirique, j’étudie l’évolution des inégalités de salaire entre Noirs et Blancs aux États-Unis entre 1960 et 2015, en me concentrant sur la période 2000-2015. Je traite les biais de sélection liés à l’asymétrie raciale envers l’emprisonnement, et montre que l’écart - en conditionnant par l'âge et les diplômes - entre salaires médians des Noirs et des Blancs atteint un maximum en 2012. En utilisant la méthode de régression quantiles non-conditionnelles conjointement avec la décomposition de Blinder-Oaxaca, j’établis que la part non-expliquée de cet écart reste stable durant la Grande Récession. Enfin, dans une post-face, en utilisant les métadonnées de RePEC, j’établis que la part des articles scientifiques consacrés à l’étude des crises augmente significativement après 2008 pour 13 des 30 « top journals » en économie
This PhD dissertation focuses on wealth and wage inequality, and the macro-economy. In a first chapter, I write and run a small macro agent-based model (M-ABM) in which I study the resultant distribution of wealth among households. I show that this model generates fat- tailed distributions of wealth in the household sector, as empirically observed in advanced economies. In a second chapter, I extend this model to study the macroeconomics of interpersonal and institutional discriminations against racial minorities. When discrimination is at work, racial disparities in income and wealth arise. The effect of the abolition of institutional discrimination is path-dependant: the more the economy is organized when this institutional change occurs, the more time it takes to get back to the counter-factual situation where no institutional discrimination was set up in the first place. In a third chapter, I study the evolution of the difference of median log-annual earnings between Blacks and Whites in the US between 1960 and 2015, focusing on the 2008 crisis. I control for selection arising from racial differentials in institutionalised population, and find that the unconditional racial wage gap attains a maximum in 2012. Controlling for age and education, I obtain the same result. Using unconditional quantile regressions, I show that the unexplained part of the unconditional racial wage gap has not increased during the crisis. Finally, in an afterword, I use metadata from RePEC to show that the share of economics papers published in the 13 of the 30 "top" journals containing "crisis" in their titles and/or abstracts has significantly increased in 2008
APA, Harvard, Vancouver, ISO, and other styles
48

Métral, Jérôme. "Modélisation et simulation numérique de l'écoulement d'un plasma atmosphérique pour l'étude de l'activité électrique des plasmas sur avion." Châtenay-Malabry, Ecole centrale de Paris, 2002. http://www.theses.fr/2002ECAP0868.

Full text
Abstract:
Un gaz ionisé (ou plasma) présente la propriété d'absorber ou de réfléchir les ondes électromagnétiques radar, si son taux d'ionisation est suffisant. Cette propriété suscite un intérêt particulier pour des applications dans le domaine de l'aéronautique. L'objectif de cette thèse est de pouvoir prédire les caractéristiques (électriques et énergétique) d'un plasma d'air faiblement ionisé dans un écoulement à pression atmosphérique. La description du plasma repose sur un modèle à deux températures, inspiré des modèles hors- équilibre thermique. L'écoulement du plasma est alors décrit par un système d'équations de l'hydrodynamique à deux températures couplé à un modèle collisionnel (description des échanges énergétiques) et à la cinétique chimique (réactions chimiques). Nous avons mis en œuvre un algorithme pour simuler le plasma en écoulement axisymétrique. Il s'agit d'un schéma numérique bidimensionnel de type Lagrange + Projection dont la phase de projection est un schéma d'ordre 2, adapté au transport multi- espèces. Cet algorithme nous permet de simuler des expérimentations sur l'écoulement d'un plasma atmosphérique pour valider les paramètres du modèle. Dans une deuxième partie, nous étudions la méthode des couches absorbantes parfaitement adaptées (PML) qui constitue une condition de bord pour la simulation en milieu ouvert. Son efficacité étant reconnue pour les problèmes de propagation d'onde électromagnétique, nous nous penchons sur un moyen d'adapter cette méthode de l'aéroacoustique (équations d'Euler linéarisées). Pour cela nous présentons deux approches : une méthode simple visant à éviter les oscillations numériques, et une approche plus générale où nous définissons une nouvelle formulation de couches absorbantes qui mène à des problèmes bien posés
A ionized gas (or plasma) has the ability of absorbing or reflecting electromagnetic (radar) waves if its ionization rate is high enough. This is particularly interesting for aeronautics. This study aims at predicting the electric and energetic characteristics of a weakly ionized air plasma in an atmospheric pressure flow. The plasma is described by a two-temperature model, coming from the non-equilibrium description of plasmas. Plasma flow is then described by a two-temperature hydrodynamic system coupled with a collisional model (energy exchanges rates) and a kinetic model (chemical reactions). An algorithm was built to simulate plasma flow in axisymetric geometry. The algorithm is a 2D Lagrange + Projection scheme. The projection step was adapted to multi-components advection, using a second order, non oscillating, and bidimensionnal scheme. This algorithm allows the simulation of experiments concerning atmospheric pressure plasma and then the validation of the model parameters. In a second part, we study the Perfectly Matched Layer (PML) which is a boundary condition to simulate wave propagation in open domains. This method is particularly efficient for electromagnetic problems, and we want to enlarge this approach to aeroacoutics problems (linearized Euler equations). We propose two solutions: a practical approach to avoid numerical oscillations of the solution and a more general approach which consists in a new absorbing layer formulation which leads to well-posed problems
APA, Harvard, Vancouver, ISO, and other styles
49

Rocha, Loures de Freitas Eduardo. "Surveillance et diagnostic des phases transitoires des systèmes hybrides basés sur l'abstraction des dynamiques continues par réseau de Pétri temporel flou." Toulouse 3, 2005. http://www.theses.fr/2006TOU30022.

Full text
Abstract:
Les systèmes de surveillance et de supervision jouent un rôle majeur pour la sécurité des installations industrielles et la disponibilité des équipements. Signaler le plus tôt possible à l'opérateur les écarts détectés par rapport au comportement nominal prévu est fondamental pour la mise en œuvre des actions préventives et correctives sur le procédé. Certains types d'installations tels que les procédés chimiques et de traitement par lots (batch systems) présentent une grande complexité pour la commande/surveillance en raison de leur caractère hybride (aspects continus et discrets étroitement liés), du nombre de variables mis en jeu et de la complexité de leurs relations. Cette complexité est accentuée par la nécessité de nombreux changements de modes opératoires qui conduisent à de nombreuses phases transitoires. La surveillance de ces phases transitoires est délicate. Le nombre élevé de variables à considérer rend difficile l'interprétation du comportement du procédé. En cas de défaut, un diagnostic devient alors une tâche complexe. Les écarts, même marginaux, par rapport au comportement nominal souhaité doivent être surveillés de façon à avertir l'opérateur sur des évolutions non prévues qui peuvent aboutir à une défaillance. Les écarts marginaux peuvent indiquer un dysfonctionnement qui dégénère lentement ou encore une conduite inadéquate de l'opérateur ou du système de pilotage. Pour faire face à la complexité, le système de commande/surveillance est hiérarchisé selon la hiérarchie procédurale proposée par la norme ISA88. Notre démarche de surveillance et diagnostic se situe à deux niveaux hauts de cette hiérarchie procédurale : i) au niveau d'une opération et plus particulièrement lors du transitoire du mode opératoire (MOt) où les relations d'influence entre les variables sont faiblement connues ou non connues, ii) au sein d'une phase où les relations d'influence sont connues dans un intervalle de temps appartenant à l'horizon du mode opératoire. Concernant la complexité des relations des variables mises en jeu, il n'est pas toujours facile et forcément nécessaire une modélisation précise de la dynamique du procédé. Dans ce cas, les approches qualitatives permettent une représentation avec un degré d'abstraction plus en adéquation avec le niveau haut de surveillance considéré. Pour cela, nous proposons une abstraction des dynamiques continues basée sur un raisonnement temporel et événementiel compatibles avec les niveaux de la hiérarchie de surveillance. Cette abstraction est basée sur un partitionnement temporel flou de la dynamique des variables importantes définissant ainsi un ensemble d'états qualitatifs. Des mécanismes de vérification et de rétablissement de cohérence temporelle entre les variables sont proposés de façon à décrire les relations dynamiques locales existantes. Pour son pouvoir de représentation et pour rester cohérent avec une approche hiérarchique basée réseau de Petri, les Réseaux de Petri Temporels Flous ont été choisis
The supervision and monitoring systems have a major role to the security of an industrial plant and the availability of its equipments. Forewarn the operator earliest about the deviations of the process nominal behaviour is fundamental to carry out preventive and corrective actions. Some kind of industrial plants like the chemical process and batch systems set significant complexities to the monitoring and supervision systems because of their hybrid nature (discrete and continuous interactions), the number of active variables and the complexity of theirs behaviour relations. This complexity becomes more pronounced in systems characterized by numerous operating mode changes leading to a numerous transitory phases. The monitoring of these transitory phases is a delicate issue. The large amount of variables to be taken into account leads to a difficult reasoning and interpretation of the process behaviour. In case of fault, the diagnosis becomes then a complex task. The marginal deviations of process behaviour may indicate a dysfunction that degenerates slowly or be caused by operator misbehaviour or piloting system fault. To cope with this complexity we propose a hierarchical monitoring and control system completed by a procedural decomposition proposed by the ISA88 norm, defining from the upper level the recipes, procedures, operations, phases and tasks. Our monitoring and diagnosis approach is located at two high levels of this procedural hierarchy: i) at the operation level, particularly on the transition period of operating modes where the influence relations between the variables are weekly or not known, ii) at the phase level where the influence relations are known in a period of time belonging the transition operating mode horizon. .
APA, Harvard, Vancouver, ISO, and other styles
50

Nicolazzi, Céline. "Vectorisation du ganciclovir par des cyclodextrines : études des complexes supramoléculaires et de l'activité antivirale sur des modèles cellulaires et murin infectés par un cytomegalovirus." Nancy 1, 2000. http://www.theses.fr/2000NAN12015.

Full text
Abstract:
Thèse de doctorat en sciences du médicament. La thérapie chimique antivirale s'est considérablement développée ces dernières années et de nouvelles molécules sont disponibles afin de lutter efficacement contre les maladies virales. Cependant, des problèmes sont encore rencontrés, comme la toxicité du traitement et l'émergence de souches virales résistantes. Ces problèmes sont majorés dans le cas des infections dues au Virus de l'Immunodéficience Humaine et à des herpes virus, dont le cytomegalovirus humain (CMYH), qui requièrent une prise en charge chronique de la maladie. Pour remédier à ces problèmes, nous avons étudié des vecteurs capables de transporter les molécules antivirales et ainsi d'améliorer leurs propriétés pharmacologiques. Les vecteurs utilisés sont les cyclodextrines (Cds) : il s'agit de sucres neutres formant une cage et pouvant encapsuler une grande variété de principes actifs, facilitant ainsi leur absorption et leur efficacité thérapeutique. Nous avons étudié la capacité de trois Cds natives, l'[alpha]-, la [bêta]- et la [gamma]-Cds, à former un complexe d'inclusion avec le ganciclovir (GCV), un agent anti-cytomegalovirus, en Résonance Magnétique Nucléaire et en spectrophotométrie. Nous avons testé l'influence de ces trois Cds sur l'activité antivirale in vitro du GCV contre différentes souches de CMVH. La [bêta]-Cd s'est avérée être la seule capable de former un complexe avec le GCV, et nous avons montré qu'elle pouvait induire une amélioration de l'activité antivirale in vitro du GCV. Afin de tester l'influence de la complexation des molécules anti-CMVH avec des Cds sur leur activité in vivo, nous avons développé un modèle murin d'étude d'infection à cytomegalovirus. Pour cela, nous avons déterminé les conditions expérimentales de l'infection et nous l'avons caractérisée. Sur ce modèle in vivo, nous avons mené des études préliminaires sur l'activité antivirale du GCV complexé qui ont montré une amélioration de son efficacité
The antiviral chemotherapy has strongly grown in the last decades and new drugs are currently available for the treatment of viral diseases. Nevertheless, problems such as toxicity of treatments and emergence of resistant viral strains still occur. In the case of Human Immunoodeficiency Virus and herpes virus, including human cytomegalovirus (HCMV), infections, problems such as chronic treatment add. In arder to limit these drawbacks, we studied vectors able to carry antiviral molecules and thus to improve their pharmacological properties. The vectors used were cyclodextrins (Cds) which are neutral saccharides forming a cage in which a wide range of drugs can be encapsulated and hence have their absorption and therapeutic efficiency improved. We studied through Nuclear Magnetic Resonance and spectrometry the ability of three native Cds, [alpha]-,[beta]- and [gamma]-. Cds, to form inclusion complexes with ganciclovir (GCV), an anti-HCMV agent. We tested the influence of these Cds on the in vitro antiviral activity of GCV against various HCMV strains. Only [beta]-Cd was able to form a complex with GCV and we demonstrated that it could improve the in vitro antiviral activity, of GCV. In order to test the influence of complexation of anti-HCMV molecules on their in vivo antiviral activity, we developed a murine model of cytomegalovirus infection. We then determined the experimental conditions of the infection and evaluatecl the infectiosity of the virus in mouse organs according ta time. In this in vivo model, we carried out preliminary studies on the antiviral activity of complexed GCV with [beta]-Cd, which revealed an improvement of its efficiency
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography