Segui questo link per vedere altri tipi di pubblicazioni sul tema: Corrections basées sur des modèles.

Tesi sul tema "Corrections basées sur des modèles"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-39 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Corrections basées sur des modèles".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Kady, Charbel. "Managing Business Process Continuity and Integrity Using Pattern-Based Corrections". Electronic Thesis or Diss., IMT Mines Alès, 2024. http://www.theses.fr/2024EMAL0014.

Testo completo
Abstract (sommario):
Cette thèse présente une approche pour la gestion des déviations dans les flux de travail utilisant le Business Process Model and Notation (BPMN). La recherche répond au besoin de gestion efficace des déviations en intégrant un cadre complet comprenant la correction des déviations basée sur des modèles et un mécanisme enrichi de State Token. L’approche est testée par une étude de cas dans le domaine de l’apiculture, démontrant l’applicabilité pratique et l’efficacité de la méthode proposée. Les contributions clés incluent le développement d’une bibliothèque de modèles, la caractérisation des éléments BPMN et un mécanisme pour aider à la prise de décision dans la gestion des déviations. Les résultats montrent que l’approche peut corriger efficacement les déviations, assurant la continuité et l’intégrité du flux de travail
This thesis presents an approach to managing deviations in Business Process Model and Notation (BPMN) workflows. The research addresses the critical need for effective deviation management by integrating a comprehensive framework that includes pattern-based deviation correction and an enriched State Token mechanism. The approach is tested through a case study in the apiculture domain, demonstrating the practical applicability and effectiveness of the proposed method. Key contributions include the development of a library of patterns, the characterization of BPMN elements, and a mechanism to help decision-making in addressing deviations. The results show that the approach can efficiently correct deviations, ensuring workflow continuity and integrity
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Peltier, Mikaël. "Techniques de transformation de modèles basées sur la méta-modélisation". Nantes, 2003. http://www.theses.fr/2003NANT2057.

Testo completo
Abstract (sommario):
Dans cette thèse, nous présentons cette problématique de manière concrète et pragmatique. Après avoir étudié les systèmes existants, nous avons développé un langage dédié permettant d'exprimer les transformations de manière formelle, non-ambigue͏̈ et exécutable. Ce langage peut constituer le cœur d'un système unifié de transformation de modèles. Les résultats des travaux de normalisation en cours nous permettent de confirmer les choix proposés et éventuellement de suggérer des extensions ou améliorations
The last modern requirements of software development have caused OMG to define an architecture driven by models that are based on modelling and meta-modelling technologies. This evolution has caused a new problem: the transformation of models. Interest in this activity growing from the industry has ended in the elaboration of a request for proposal in April 2002 whose objective will be to standardise a transformation system. In this document, we are concretely and pragmatically studying the model transformation. After having presented the existing systems, we are orientated towards usage of a domain-specific language to allowing you to express the transformations in a formal, non-ambiguous and executable way. The proposed language can constitute the heart of a unified model transformation system. The results of the normalisation works allow us to confirm the proposed choices and possible suggest extensions or improvements
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Belbachir, Faiza. "Approches basées sur les modèles de langue pour la recherche d'opinions". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2341/.

Testo completo
Abstract (sommario):
Avec l'évolution du Web, de nombreuses formes de contenu ont été générées par les utilisateurs, y compris les pages personnelles, les discussions et les blogs. Ces derniers sont un moyen facile pour l'expression des avis personnels, le partage des sentiments, ou pour commenter différents sujets. La présence d'information de nature subjective (opinion) apparaît de manière très visible dans les blogs. Ces opinions ont une grande importance dans plusieurs domaines (politique, commercial, ou industriel) d'où la nécessité de les détecter automatiquement. Nos travaux de thèse s'inscrivent dans le contexte de la recherche d'information et s'intéressent plus précisément à l'information de type opinion. Le challenge majeur dans ce cadre est d'arriver à sélectionner des documents qui sont à la fois pertinents à un sujet donné et porteurs d'opinions sur ce sujet. Si la recherche d'information thématique, permet de répondre au critère de pertinence, une des problématiques majeure de cette tâche est de répondre au second critère. En effet outre la question relative à l'identification de documents porteurs d'opinions (nous parlons ainsi de documents subjectifs) ; il faudrait que l'opinion exprimée dans le document porte sur le sujet. Ceci n'est évidemment pas certain car un document peut traiter différents sujets. Parmi les différentes approches existantes dans la détection d'opinion, certaines se basent sur des lexiques de termes subjectifs et d'autres sur l'apprentissage automatique. Dans le cadre de cette thèse nous nous sommes intéressés aux deux types d'approches en palliant certaines de leurs limites. Notre contribution porte sur trois principaux volets. En premier lieu nous proposons une approche lexicale pour la détection d'opinion dans les blogs. Pour ce faire, nous exploitons différentes ressources subjectives, ouvertes, disponibles telles que IMDb, ROTTEN, CHESLY et MPQA qui constituent la source d'opinions. Nous supposons que si un document est similaire à cette source, il est vraisemblablement porteur d'opinions. Pour estimer cette vraisemblance, nous proposons de modéliser le document à tester et la source d'opinion par des modèles de langue et de mesurer la similarité des deux modèles. Plus cette similarité est grande et plus le document est vraisemblablement subjectif. Notre deuxième contribution porte sur la proposition d'une approche de détection d'opinion basée sur l'apprentissage automatique. Pour cela, nous proposons différentes caractéristiques pertinentes telles que l'Émotivité, la Subjectivité, L'Adressage, La Réflexivité permettant de répondre à la tâche en question. Notre troisième contribution concerne la polarité de l'opinion qui consiste à déterminer si un document subjectif a une opinion positive ou négative sur le sujet. De ce fait, nous proposons de prendre en compte un aspect du domaine, permettant de montrer que la polarité d'un terme peut dépendre du domaine dans lequel il est utilisé
Evolution of the World Wide Web has brought us various forms of data like factual data, product reviews, arguments, discussions, news data, temporal data, blog data etc. The blogs are considered to be the best way for the expression of the one's opinions about something including from a political subject to a product. These opinions become more important when they influence govt. Policies or companies marketing agendas and much more because of their huge presence on the web. Therefore, it becomes equally important to have such information systems that could process this kind of information on the web. In this thesis, we propose approach (es) that distinguish between factual and opinion documents with the purpose of further processing of opinionated information. Most of the current opinion finding approaches, some base themselves on lexicons of subjective terms while others exploit machine learning techniques. Within the framework of this thesis, we are interested in both types of approaches by mitigating some of their limits. Our contribution revolves around three main aspects of opinion mining. First of all we propose a lexical approach for opinion finding task. We exploit various subjective publicly available resources such as IMDB, ROTTEN, CHESLY and MPQA that are considered to be opinionated data collections. The idea is that if a document is similar to these, it is most likely that it is an opinionated document. We seek support of language modeling techniques for this purpose. We model the test document (i. E. The document whose subjectivity is to be evaluated) the source of opinion by language modeling technique and measure the similarity between both models. The higher the score of similarity is, the more the document subjective. Our second contribution of detection of opinion is based on the machine learning. For that purpose, we propose and evaluate various features such as the emotivity, the subjectivity, the addressing, the reflexivity and report results to compare them with current approaches. Our third contribution concerns the polarity of the opinion which determines if a subjective document has a positive or negative opinion on a given topic. We conclude that the polarity of a term can depend on the domain in which it is being used
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Albarello, Nicolas. "Etudes comparatives basées sur les modèles en phase de conception d'architectures de systèmes". Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00879858.

Testo completo
Abstract (sommario):
La conception d'architectures de systèmes est une tâche complexe qui implique des enjeux majeurs. Au cours de cette activité, les concepteurs du système doivent créer des alternatives de conception et doivent les comparer entre elles afin de sélectionner l'architecture la plus appropriée suivant un ensemble de critères. Dans le but d'étudier différentes alternatives, les concepteurs doivent généralement limiter leur étude comparative à une petite partie de l'espace de conception qui peut être composé d'un nombre immense de solutions. Traditionnellement, le processus de conception d'architecture est principalement dirigé par le jugement et l'expérience des concepteurs, et les alternatives sélectionnées sont des versions adaptées de solutions connues. Le risque est donc de sélectionner une solution pertinente mais sous-optimale. Pour gagner en confiance sur l'optimalité de la solution retenue, la couverture de l'espace de conception doit être augmentée. L'utilisation de méthodes de synthèse calculatoire d'architecture a prouvé qu'elle était un moyen efficace pour supporter les concepteurs dans la conception d'artefacts d'ingénierie (structures, circuits électriques...). Pour assister les concepteurs de systèmes durant le processus de conception d'architecture, une méthode calculatoire pour les systèmes complexes est définie. Cette méthode emploie une approche évolutionnaire (algorithmes génétiques) pour guider le processus d'exploration de l'espace de conception vers les zones optimales. La population initiale de l'algorithme génétique est créée grâce à une technique de synthèse calculatoire d'architecture qui permet de créer différentes architectures physiques et tables d'allocations pour une architecture fonctionnelle donnée. La méthode permet d'obtenir les solutions optimales du problème de conception posé. Ces solutions peuvent être ensuite utilisées par les concepteurs pour des études comparatives plus détaillées ou pour des négociations avec les fournisseurs de systèmes.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Allouche, Benyamine. "Modélisation et commande des robots : nouvelles approches basées sur les modèles Takagi-Sugeno". Thesis, Valenciennes, 2016. http://www.theses.fr/2016VALE0021/document.

Testo completo
Abstract (sommario):
Chaque année, plus de 5 millions de personne à travers le monde deviennent hémiplégiques suite à un accident vasculaire cérébral. Ce soudain déficit neurologique conduit bien souvent à une perte partielle ou totale de la station debout et/ou à la perte de la capacité de déambulation. Dans l’optique de proposer de nouvelles solutions d’assistance situées entre le fauteuil roulant et le déambulateur, cette thèse s’inscrit dans le cadre du projet ANR TECSAN VHIPOD « véhicule individuel de transport en station debout auto-équilibrée pour personnes handicapées avec aide à la verticalisation ». Dans ce contexte, ces travaux de recherche apportent des éléments de réponse à deux problématiques fondamentales du projet : l’assistance au passage assis-debout (PAD) des personnes hémiplégiques et le déplacement à l’aide d’un véhicule auto-équilibré à deux roues. Ces problématiques sont abordées du point de vue de la robotique avec comme question centrale : peut-on utiliser l’approche Takagi-Sugeno (TS) pour la synthèse d’une commande ? Dans un premier temps, la problématique de mobilité des personnes handicapées a été traitée sur la base d’une solution de type gyropode. Des lois de commande basées sur les approches TS standard et descripteur ont été proposées afin d’étudier la stabilisation des gyropodes dans des situations particulières telles que le déplacement sur un terrain en pente ou le franchissement de petites marches. Les résultats obtenus ont non seulement permis d’aboutir à un concept potentiellement capable de franchir des obstacles, mais ils ont également permis de souligner la principale difficulté liée à l’applicabilité de l’approche TS en raison du conservatisme des conditions LMIs (inégalités matricielles linéaires). Dans un second temps, un banc d’assistance au PAD à architecture parallèle a été conçu. Ce type de manipulateur constitué de multiples boucles cinématiques présente un modèle dynamique très complexe (habituellement donné sous forme d’équations différentielles ordinaires). L’application de lois de commande basées sur l’approche TS est souvent vouée à l’échec compte tenu du grand nombre de non-linéarités dans le modèle. Afin de remédier à ce problème, une nouvelle approche de modélisation a été proposée. À partir d’un jeu de coordonnées bien particulier, le principe des puissances virtuelles est utilisé pour générer un modèle dynamique sous forme d’équations algébro-différentielles (DAEs). Cette approche permet d’aboutir à un modèle quasi-LPV où les seuls paramètres variants représentent les multiplicateurs de Lagrange issus de la modélisation DAE. Les résultats obtenus ont été validés en simulation sur un robot parallèle à 2 degrés de liberté (ddl) puis sur un robot parallèle à 3 ddl développé pour l’assistance au PAD
Every year more than 5 million people worldwide become hemiplegic as a direct consequence of stroke. This neurological deficiency, often leads to a partial or a total loss of standing up abilities and /or ambulation skills. In order to propose new supporting solutions lying between the wheelchair and the walker, this thesis comes within the ANR TECSAN project named VHIPOD “self-balanced transporter for disabled persons with sit-to-stand function”. In this context, this research provides some answers for two key issues of the project : the sit-to-stand assistance (STS) of hemiplegic people and their mobility through a two wheeled self-balanced solution. These issues are addressed from a robotic point of view while focusing on a key question : are we able to extend the use of Takagi-Sugeno approach (TS) to the control of complex systems ? Firstly, the issue of mobility of disabled persons was treated on the basis of a self-balanced solution. Control laws based on the standard and descriptor TS approaches have been proposed for the stabilization of gyropod in particular situations such as moving along a slope or crossing small steps. The results have led to the design a two-wheeled transporter which is potentially able to deal with the steps. On the other hand, these results have also highlighted the main challenge related to the use of TS approach such as the conservatisms of the LMIs constraints (Linear Matrix Inequalities). In a second time, a test bench for the STS assistance based on parallel kinematic manipulator (PKM) was designed. This kind of manipulator characterized by several closed kinematic chains often presents a complex dynamical model (given as a set of ordinary differential equations, ODEs). The application of control laws based on the TS approach is often doomed to failure given the large number of non-linear terms in the model. To overcome this problem, a new modeling approach was proposed. From a particular set of coordinates, the principle of virtual power was used to generate a dynamical model based on the differential algebraic equations (DAEs). This approach leads to a quasi-LPV model where the only varying parameters are the Lagrange multipliers derived from the constraint equations of the DAE model. The results were validated on simulation through a 2-DOF (degrees of freedom) parallel robot (Biglide) and a 3-DOF manipulator (Triglide) designed for the STS assistance
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Coq, Guilhem. "Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia". Phd thesis, Université de Poitiers, 2008. http://tel.archives-ouvertes.fr/tel-00367568.

Testo completo
Abstract (sommario):
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l'image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d'une quantité réelle à minimiser appelée critère d'information ou critère entropique pénalisé.

La principale motivation de ce travail de thèse est de justifier l'utilisation d'un tel critère face à un problème de sélection de modèles typiquement issu d'un contexte de traitement du signal. La justification attendue se doit, elle, d'avoir un solide fondement mathématique.

Nous abordons ainsi le problème classique de la détermination de l'ordre d'une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d'un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l'utilisation est justifiée par la minimisation du coût résultant de l'estimation obtenue. Les chaînes de Markov multiples modélisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d'une image. Nous nous intéressons au problème de la détermination de l'ordre d'une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l'estimation d'une densité par un histogramme. Dans ces deux domaines, nous justifions l'utilisation d'un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de Minimum Description Length.

Nous nous efforçons également, à travers ces différents domaines d'application, de présenter des méthodes alternatives d'utilisation des critères d'information. Ces méthodes, dites comparatives, présentent une complexité d'utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Kucerova, Anna. "Identification des paramètres des modèles mécaniques non-linéaires en utilisant des méthodes basées sur intelligence artificielle". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2007. http://tel.archives-ouvertes.fr/tel-00256025.

Testo completo
Abstract (sommario):
Le problème d'identification des paramètres apparaît dans beaucoup de problèmes en génie civil sous formes différentes et il peut être résolu par beaucoup de méthodes distinctes. Cette thèse présente deux philosophies principales d'identification avec orientation vers les méthodes basées sur intelligence artificielle. Les aspects pratiques sont montrés sur plusieurs problèmes d'identification, où les paramètres des modèles mécaniques non linéaires sont à déterminer.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Muroor, Nadumane Ajay Krishna. "Modèles et vérification pour la composition et la reconfiguration d'applications basées sur le web des objets". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM067.

Testo completo
Abstract (sommario):
Les applications de l'Internet des objets (IoT) sont construites en interconnectant les objets du quotidien en réseau. Les objets connectés collaborent ensemble, afin d'observer l'environnement les entourant, et agir sur celui-ci. Pour le grand public, l'un des moyens de créer des applications IoT consiste à combiner différents objets à l'aide de règles d'action conditionnelle (ECA). Ces règles se présentent généralement sous la forme « SI quelque chose se produit, ALORS faire quelque chose ». Le web des objets (Web of Things ou WoT) est un ensemble de normes et de principes qui intègrent les capacités du web et les styles architecturaux à l'IoT. Bien que l'architecture WoT associée aux règles de la ECA simplifie dans une large mesure la construction d'applications IoT, il reste des défis à relever afin que les utilisateurs finaux puissent développer aisément des applications avancées et correctes, en raison de la nature dynamique, réactive et hétérogène des systèmes IoT.L'objectif général de ce travail est de tirer parti des méthodes formelles pour fournir un certain niveau de garantie aux utilisateurs finaux des applications IoT. Cela permet, au moment de la conception, d'assurer que l'application conçue se comportera comme prévu lorsque celle-ci sera déployée. Dans ce contexte, nous proposons un cadre de développement formel basé sur le WoT. Les objets sont décrits à l'aide d'un modèle dérivé de la spécification Thing Description du WoT. Ensuite, les applications sont conçues non seulement en spécifiant les règles individuelles ECA, mais aussi en associant ces règles à l'aide d'un langage de composition. Ce langage permet aux utilisateurs de construire des scénarios d'automatisation plus expressifs. La description des objets et leur composition sont traduites dans une spécification formelle à partir de laquelle le comportement complet de l'application est identifié. Afin de garantir une conception correcte de l'application avant le déploiement, cette thèse propose de valider un ensemble de propriétés génériques et spécifiques sur le comportement complet de l'application. En outre, les applications déployées peuvent être reconfigurées au cours de leur cycle de vie. Le travail supporte la reconfiguration en spécifiant des propriétés de reconfiguration qui permettent de comparer qualitativement le comportement de la nouvelle configuration avec la configuration d'origine. La mise en œuvre de toutes les propositions est réalisée en étendant la plate-forme Mozilla WebThings. Un nouvel ensemble d'interfaces utilisateur est construit pour prendre en charge la composition des règles et la reconfiguration de l’application. Un composant permettant de transformer automatiquement les modèles WoT en modèles formels, pleinement intégré au sein d’une boite à outils de vérification formelle a été développé. Enfin, un moteur de déploiement est construit en étendant les API de WebThings. Il dirige le déploiement des applications et des reconfigurations en respectant la sémantique de leur composition
The Internet of Things (IoT) applications are built by interconnecting everyday objects over a network. These objects or devices sense the environment around them, and their network capabilities allow them to communicate with other objects to perform utilitarian tasks. One of the popular ways to build IoT applications in the consumer domain is by combining different objects using Event-Condition-Action (ECA) rules. These rules are typically in the form of IF something-happens THEN do-something. The Web of Things (WoT) are a set of standards and principles that integrate architectural styles and capabilities of web to the IoT. Even though WoT architecture coupled with ECA rules simplifies the building of IoT applications to a large extent, there are still challenges in making end-users develop advanced applications in a simple yet correct fashion due to dynamic, reactive and heterogeneous nature of IoT systems.The broad objective of this work is to leverage formal methods to provide end-users of IoT applications certain level of guarantee at design time that the designed application will behave as intended upon deployment. In this context, we propose a formal development framework based on the WoT. The objects are described using a behavioural model derived from the Thing Description specification of WoT. Then, the applications are designed not only by specifying individual ECA rules, but also by composing these rules using a composition language. The language enables users to build more expressive automation scenarios. The description of the objects and their composition are encoded in a formal specification from which the complete behaviour of the application is identified. In order to guarantee correct design of the application, this work proposes a set of generic and application-specific properties that can be validated on the complete behaviour before deployment. Further, the deployed applications may be reconfigured during their application lifecycle. The work supports reconfiguration by specifying reconfiguration properties that allow one to qualitatively compare the behaviour of the new configuration with the original configuration. The implementation of all the proposals is achieved by extending Mozilla WebThings platform. A new set of user interfaces are built to support the composition of rules and reconfiguration. A model transformation component which transforms WoT models to formal models and an integration with formal verification toolbox are implemented to enable automation. Finally, a deployment engine is built by extending WebThings APIs. It directs the deployment of applications and reconfigurations respecting their composition semantics
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Ahmad, Alexandre. "Animation de structures déformables et modélisation des interactions avec un fluide basées sur des modèles physiques". Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/4f73d6f8-b8f0-4794-924b-8f827db44689/blobholder:0/2007LIMO4046.pdf.

Testo completo
Abstract (sommario):
Je présente dans cette thèse des travaux concernant la simulation d'interactions entre un fluide et des membranes déformables. Ce sujet ne manque pas d'applications puisque l'interaction d'un fluide avec des feuilles, des tissus ou même des nageoires de poisson est un scénario courant. Pourtant, peu de travaux en synthèse d'images se sont intéressés à reproduire ce phénomène. Pour ce faire, je propose un algorithme de réaction de contacts entre un fluide Lagrangien et une membrane déformable qui est indépendant du pas d'intégration temporelle. Afin de pallier les artefacts visuels dus à des triangles, issus du processus d'extraction de surface du fluide, qui passent au travers de la membrane lors d'interactions, je présente une technique qui projette la portion de volume erronée le long de la membrane. De plus, une paramétrisation intuitive de coefficients hétérogènes de friction sur une surface est exposée. Je présente également deux modèles d'optimisation. Le premier modèle propose de filtrer les vitesses de particules calculées par une méthode explicite afin de réduire la forte contrainte sur le pas d'intégration temporelle. Des analyses fréquentielles permettent de quantifier cette réduction. Le deuxième modèle est une structure de subdivision spatiale dynamique qui détermine efficacement le voisinage d'un point et d'un triangle. Cette structure a pour but de réduire les temps de calculs des processus de détermination du voisinage pour les fluides Lagrangiens, mais aussi ceux de la détection de collisions et enfin ceux de l'extraction de surface
The presented works' main focus is the interaction of liquids and thin shells, such as sheets of paper, fish fins and even clothes. Even though such interactions is an every day scenario, few research work in the computer graphics community have investigated this phenomenon. Thereby, I propose an algorithm which resolves contacts between Lagrangian fluids and deformable thin shells. Visual artefacts may appear during the surface extraction procedure due to the proximity of the fluids and the shells. Thus, to avoid such artefacts, I propose a visibility algorithm which projects the undesired overlapping volume of liquid onto the thin shells' surface. In addition, an intuitive parametrisation model for the definition of heterogeneous friction coefficients on a surface is presented. I also propose two optimisation methods. The first one reduces the well-known dependency of numerical stability and the timestep when using explicit schemes by filtering particles' velocities. This reduction is quantified with the use of frequency analysis. The second optimisation method is a unified dynamic spatial acceleration model, composed of a hierarchical hash table data structure, that speeds up the particle neighbourhood query and the collision broad phase. The proposed unified model is besides used to efficiently prune unnecessary computations during the surface extraction procedure
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Ksontini, Mohamed. "Mise en oeuvre de lois de commande basées sur des multi-modèles continus de type Takagi-Sugeno". Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/010633b8-054b-44a7-a83b-2bf46a1dfd68.

Testo completo
Abstract (sommario):
Dans ce mémoire, l'étude de la stabilisation des approches multi modèles est considérée. Nous avons essayé de faire un lien entre l'approche multi modèles adaptatif et l'approche TS. La proposition d'une nouvelle architecture de commande pour l'approche adaptative a permis de stabiliser la boucle fermée complète. Une comparaison de robustesse sur le classique pendule inversé a montré les caractéristiques de l'approche. Nous avons proposé dans la troisième partie des nouvelles conditions de stabilisation des modèles flous de type TS qui permettent de réduire le nombre de LMI et ou de réduire le conservatisme des conditions déjà proposées. L'intérêt étant double, d'une part obtenir des conditions LMI faciles à mettre en ouvre pour les systèmes ayant un nombre de règles important, d'autre part améliorer les résultats issus de la littérature. L'ensemble des ces résultats est basé principalement sur l'utilisation du lemme d'élimination. Une première illustration de ces conditions est faite sur un système TORA. Enfin l'application des ces résultats sur un système de mélange de liquides qui servira d'étude de dimensionnement pour un projet de prototype a donné des résultats satisfaisants en régulation et poursuite
In this document we dealt with the stabilization of the multi models approaches. We tried to make a link between the adaptive multi models approach and the TS approach. A new control architecture for the adaptive approach has been proposed allowing the stabilisation of the whole closed loop. A comparison about the robustness for the classical inverted pendulum shows the features of this approach. In the second part, we proposed new stabilisation conditions of TS fuzzy models allowing to reduce the number of LMI and or to reduce the conservatism of the conditions. With such conditions, we get some easy LMI conditions for systems having an important number of rules, and we also improve results given in the literature. These results are based mainly on the use of the elimination lemma. A first illustration of these conditions is carried out on a TORA system. Finally the application of these conditions on a mixture liquids system that will be useful in dimensioning a project of prototype has given good results
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Elleuch, Wajdi. "Mobilité des sessions dans les communications multimédias en mode-conférence basées sur le protocole SIP". Thèse, Université de Sherbrooke, 2011. http://hdl.handle.net/11143/5799.

Testo completo
Abstract (sommario):
Ce mémoire traite la problématique de la mobilité des sessions pour le transfert des communications multimédias basées sur le protocole SIP. Plusieurs aspects sont étudiés et des mécanismes proposés afin de permettre la mobilité des sessions avant, durant et après leur établissement. En plus d'une communication impliquant deux intervenants, Il a été possible d'étendre l'utilisation de la mobilité des sessions pour l'appliquer aux scénarios de communications en mode conférence regroupant plusieurs intervenants. Les mécanismes de mobilité de session développés au cours de cette thèse sont par la suite déployés pour (1) permettre des transformations entre différentes topologies de conférences et (2) construire un modèle de conférence adapté pour l'échange de la voix au sein des groupes de communication à large échelle.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Leveau, Valentin. "Représentations d'images basées sur un principe de voisins partagés pour la classification fine". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT257/document.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous sommes intéressés au problème de la classification à « grain fin » qui est une tâche de classification particulière où les classes peuvent être visuellement distinguables seulement à partir de détails subtils et où le contexte agit souvent comme une source de bruit. Ce travail est principalement motivé par le besoin de concevoir des représentations d'images plus « fines » pour adresser de telles tâches de classification qui nécessitent un encodage d’informations discriminantes très fines et localisées. L'originalité principale de notre approche est d’intégrer dans une représentation globale de haute dimension une mesure de consistance géométrique locale entre l’image à représenter et les images d’une base de référence (que nous considérons comme un vocabulaire visuel possiblement constitué d’un grand nombre d’images). Ceci nous permet d’encoder dans une représentation vectorielle des motifs très localisés et géométriquement consistant avec l’image (contrairement aux méthodes de codage traditionnelles comme les Bag-of-Visual-Word, les vecteurs de Fisher ou les vecteurs VLAD). Plus en détails : Nous proposons dans un premier temps une approche de classification d'instances d'entités visuelles basée sur un classificateur par plus proches voisins qui agrège les similarités entre l'image requête et celles de la base d'apprentissage. Les similarités sont calculées avec prise en compte de la consistance géométrique locale entre les descripteurs locaux de la requête et ceux des images de la base d'apprentissage. Cette base pouvant être constituée de nombreux descripteurs locaux, nous proposons de passer notre méthode à l’échelle en utilisant des méthodes de recherche approximatives de plus proches voisins. Par la suite, nous avons mis au point un nouveau noyau de similarité entre des images basé sur les descripteurs locaux qu'elles partagent dans une base de référence. Nous avons nommé ce noyau Shared Nearest Neighbors Kernel (SNN Kernel), qui peut être utilisé comme n'importe quel autre noyau dans les machines à noyau. Nous avons dérivé, à partir de ce dernier, une représentation explicite globale des images à décrire. Cette représentation encode la similarité de l'image considérée avec les différentes régions visuelles des images de la base correspondant au vocabulaire visuel. Nous avons également rendu possible l'intégration de l'information de consistance géométrique dans nos représentations à l'aide de l'algorithme RANSAC amélioré que nous avons proposé dans notre contribution précédente. La classification des images se fait ensuite par un modèle linéaire appris sur ces représentations. Finalement, nous proposons, comme troisième contribution, une stratégie permettant de considérablement réduire, jusqu'à deux ordres de grandeur, la dimension de la représentation d'image sur-complète précédemment présentée tout en conservant une performance de classification compétitive aux méthodes de l’état de l’art. Nous avons validé nos approches en conduisant une série d’expérimentations sur plusieurs tâches de classification impliquant des objets rigides comme FlickrsLogos32 ou Vehicles29, mais aussi sur des tâches impliquant des concepts visuels plus finement discriminables comme la base FGVC-Aircrafts, Oxford-Flower102 ou CUB-Birds200. Nous avons aussi démontré des résultats significatifs sur des tâches de classification audio à grain fin comme la tâche d'identification d'espèce d'oiseau de LifeCLEF2015 en proposant une extension temporelle de notre représentation d'image. Finalement, nous avons montré que notre technique de réduction de dimension permet d’obtenir un vocabulaire visuel très interprétable composé des régions d'image les plus représentatives pour les concepts visuels représentés dans la base d’apprentissage
This thesis focuses on the issue of fine-grained classification which is a particular classification task where classes may be visually distinguishable only from subtle localized details and where background often acts as a source of noise. This work is mainly motivated by the need to devise finer image representations to address such fine-grained classification tasks by encoding enough localized discriminant information such as spatial arrangement of local features.To this aim, the main research line we investigate in this work relies on spatially localized similarities between images computed thanks to efficient approximate nearest neighbor search techniques and localized parametric geometry. The main originality of our approach is to embed such spatially consistent localized similarities into a high-dimensional global image representation that preserves the spatial arrangement of the fine-grained visual patterns (contrary to traditional encoding methods such as BoW, Fisher or VLAD Vectors). In a nutshell, this is done by considering all raw patches of the training set as a large visual vocabulary and by explicitly encoding their similarity to the query image. In more details:The first contribution proposed in this work is a classification scheme based on a spatially consistent k-nn classifier that relies on pooling similarity scores between local features of the query and those of the similar retrieved images in the vocabulary set. As this set can be composed of a lot of local descriptors, we propose to scale up our approach by using approximate k-nearest neighbors search methods. Then, the main contribution of this work is a new aggregation-based explicit embedding derived from a newly introduced match kernel based on shared nearest neighbors of localized feature vectors combined with local geometric constraints. The originality of this new similarity-based representation space is that it directly integrates spatially localized geometric information in the aggregation process.Finally, as a third contribution, we proposed a strategy to drastically reduce, by up to two orders of magnitude, the high-dimensionality of the previously introduced over-complete image representation while still providing competitive image classification performance.We validated our approaches by conducting a series of experiments on several classification tasks involving rigid objects such as FlickrsLogos32 or Vehicles29 but also on tasks involving finer visual knowledge such as FGVC-Aircrafts, Oxford-Flower102 or CUB-Birds200. We also demonstrated significant results on fine-grained audio classification tasks such as the LifeCLEF 2015 bird species identification challenge by proposing a temporal extension of our image representation. Finally, we notably showed that our dimensionality reduction technique used on top of our representation resulted in highly interpretable visual vocabulary composed of the most representative image regions for different visual concepts of the training base
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Cragnolini, Tristan. "Prédire la structure des ARN et la flexibilité des ARN par des simulations basées sur des modèles gros grains". Paris 7, 2014. http://www.theses.fr/2014PA077163.

Testo completo
Abstract (sommario):
JContrairement aux protéines, il y a relativement peu d'études expérimentales et computationelles concernant les ARN. Ceci est sans doute amené à changer, cependant, du fait de la découverte que les molécules d'ARN remplissent une considérable diversité de rôles biologiques, incluant, en dehors des rôles dans la transcription et la translation, des fonctions enzymatiques et régulationelles. Malgré la simplicité de son alphabet de quatre lettres, les ARN peuvent adopter une grande variété de structures tertiaires, dont les ensembles conformationels dynamiques semblent essentiels pour comprendre leur fonction. Malgré des progrès expérimentaux constants, et des développements théoriques, la séparation entre séquence et structures 3D augmente, et notre connaissance de la flexibilité des ARN à une échelle atomique est toujours limitée. Dans cette thèse, je présente des améliorations au modèle HiRE-RNA, et des simulations de repliement réalisées avec celui-ci. Après une présentation des méthodes computationelles utilisées pour échantillonner les surfaces d'énergie des ARN et des méthodes expérimentales fournissant des informations sur la structure des ARN, je présente les topologies d'ARN et les données structurales utilisées pour améliorer le modèle et pour étudier le repliement d'ARN. Les améliorations d'HiRE-RNA dans la version 2 et la version 3 sont décrites, ainsi que les simulations réalisées avec chaque version du modèle
In contrast to proteins, there are relatively few experimental and computational studies on RNAs. This is likely to change, however, due to the discovery that RNA molecules fulfil a considerable diversity of biological tasks, including, aside from its encoding and translational activity, also enzymatic and regulatory functions. Despite the simplicity of its four-letter alphabet, RNAs are able to fold into a wide variety of tertiary structures where dynamic conformational ensembles appear also to be essential for understanding their functions. In spite of constant experimental efforts and theoretical developments, the gap between sequences and 3D structures is increasing, and our lmowledge of RNA flexibility is still limited at an atomic level of detail. In this thesis, I present improvements to the HiRE-RNA model, and folding simulations that were performed with it. After presenting the computational methods used to sample the energy landscapes of RNA and the experimental methods providing information about RNA structures, I present the RNA topologies and the structural data I used to improve the model, and to study RNA folding. The improvements of HiRE-RNA in version 2 and version 3 are then described, as well as the simulations performed with each version of the model
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Alwakil, Ahmed Diaaeldin. "Illusions thermiques basées sur les métamatériaux et les métasurfaces : conduction et rayonnement". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0209/document.

Testo completo
Abstract (sommario):
Les techniques de camouflage, mimétisme ou invisibilité ont récemment connu une forte émergence, qui se poursuit aujourd’hui avec l’apparition des méta-surfaces. C’est dans ce contexte que ce travail de doctorat a été réalisé, notamment avec un premier objectif d’étendre ces outils et concepts aux problèmes inverses du domaine de la diffusion de la chaleur. La suite du travail a concerné le rayonnement thermique, les méta-surfaces et les transformations de champ. Après avoir étendu les techniques de mimétisme au domaine de la conduction, nous avons résolu le problème inverse associé, qui consiste à camoufler des objets imposés en forme ou conductivité. Ce premier travail a permis de mettre en évidence les classes de transformation qui laissent invariantes les paramètres physiques, conférant ainsi plus de pragmatisme au domaine du mimétisme. Nous avons ensuite considéré le cas du rayonnement thermique, et démontré pour la première fois que les illusions par rayonnement étaient envisageables, en appui sur l’invariance du théorème de fluctuation/dissipation. Dans une deuxième étape, nous avons mis au point une nouvelle méthode pour calculer le rayonnement thermique par des objets de forme arbitraire, mettant en jeu des méta-surfaces inhomogènes, anisotropes, chirales et non locales. Nous montrons également comment tirer profit des méta-surfaces pour remplacer les capes volumiques tout en conservant la fonction de camouflage. Cette technique est particulièrement prometteuse pour les applications, même si elle reste intrinsèquement liée à l’éclairement. Des techniques similaires sont développées pour que soit facilité l’utilisation de transformations discontinues de l’espace
Mimetism, camouflage or invisibility have motivated numerous efforts in the last decade, which are now extended with metasurfaces. This PhD work fits this international context and was first focused on inverse problems in heat conduction before we address thermal radiation and metasurfaces, field transformation. After we generalize the mimetism techniques to heat diffusion, we solved the associated inverse problem which consists of the camouflage of given objects, that is, objects with shape or conductivity that are before hand chosen. The results allowed us to emphasize the class of transformations which hold the physical parameters, hence giving more pragmatism to the field of mimetism. Then we addressed the case of thermal radiation and proved for the first time that mimetism effects could also be controlled in this field, on the basis of the fluctuation/dissipation theorem. In a second step, we built an original technique able to predict the thermal radiation from objects of arbitrary shapes. This technique involves inhomogeneous, anisotropic, chiral and nonlocal metasurfaces. We also show how to take more benefits of metasurfaces in order to replace the bulk mimetism cloaks. We believe this technique to give again more push forward to the field, though the mimetism efficiency now relies on the illumination conditions. Similar techniques are further developed to allow a practical use of discontinuous space transformations. Eventually, field transformation is introduced to complete all these results
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Mahboubi, Amal Kheira. "Méthodes d'extraction, de suivi temporel et de caractérisation des objets dans les vidéos basées sur des modèles polygonaux et triangulés". Nantes, 2003. http://www.theses.fr/2003NANT2036.

Testo completo
Abstract (sommario):
La diversification des services multimédias et l'émergence du standatd MPEG4 au milieu des années 1990 a mis en évidence la nécessité de recherches approfondies sur les méthodes d'analyse de la vidéo numérique en vue de la représentation de son contenu. Cette thèse s'inscrit dans ce contexte. Nous cherchons à concevoir un système complet de représentation du contenu vidéo en prenant en compte ses aspects spatial et temporel. A cet effet, dans cette thèse nous présentons plusieurs méthodes pour le suivi des objets contenus dans des séquences vidéo génériques. Chaque objet plan noté 'VOP' (Video Object Plane) est représenté par un maillage triangulaire associé à un modèle polygonal hiérarchique et articulé. La segmentation, fondée sur des régions polygonales, permet de maintenir un découpage cohérent au cours du temps d'un VOP en zones à mouvements homogènes. . .
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Leboucher, Julien. "Développement et évaluation de méthodes d'estimation des masses segmentaires basées sur des données géométriques et sur les forces externes : comparaison de modèles anthropométriques et géométriques". Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/e2504d99-e61b-4455-8bb3-2c47771ac853.

Testo completo
Abstract (sommario):
L’utilisation de paramètres inertiels segmentaires proches de la réalité est primordiale à l’obtention de données cinétiques fiables lors de l’analyse du mouvement humain. Le corps humain est modélisé en un nombre variable de solides, considérés indéformables, dans la grande majorité des études du mouvement. Ce travail de recherche a pour but de mettre en œuvre et de tester deux méthodes d’estimation des masses de ces solides appelés segments. Ces deux méthodes sont basées sur le principe d’équilibre statique d’un ensemble de solides rigides. La première a pour objectif la prédiction des masses des membres en se servant des distances parcourues par le centre de masse du membre et le centre de pression, projection horizontale du centre de gravité du sujet, entre deux positions considérées statiques. Le rapport de ces distances étant le même que celui des masses du membre considéré et du corps entier, la connaissance de cette dernière nous permet d’estimer la masse du membre. La seconde méthode a pour but d’estimer simultanément les masses relatives de tous les segments du modèle par résolution de l’équation d’équilibre statique en faisant l’hypothèse que le centre de pression est le barycentre de l’ensemble et d’après l’estimation des positions des centres de masse segmentaires. La démarche expérimentale innovante présentée dans cette thèse consiste en le transfert des centres de masse segmentaires issus d’une méthode anthropométrique géométrique et en leur utilisation en conjonction avec des méthodes usuelles en analyse du mouvement humain afin d’obtenir les masses segmentaires du sujet. La méthode d’estimation des masses des membres donne de bons résultats en comparaison de ceux obtenus grâce aux modèles issus de la littérature en ce qui concerne la prédiction de la position du centre de pression a posteriori. Une partie des causes de l’échec de la seconde sont évaluées à travers l’étude de l’effet de l’incertitude sur la position du centre de pression
Use of body segment parameters close to reality is of the utmost importance in order to obtain reliable kinetics during human motion analysis. Human body is modeled as a various number of solids in the majority of human movement studies. This research aims at developing and testing two methods for the estimation of these solid masses, also known as segment masses. Both methods are based on the static equilibrium principle for several solids. The first method’s goal is to provide with limb masses using total limb centre of mass and centre of pressure, projection on the horizontal plane of the total subject’s body centre of gravity, displacements. Ratio between these displacement being the same as the ratio of limb and total body masses, the knowledge of the latter allows for the calculation of the former. The second method aims at estimation all segment masses simultaneously by resolving series of static equilibrium equations, making the same assumption that centre of pressure is total body centre of mass projection and using segment centre of mass estimations. Interest of the new methods used in this research is due to the use of individual segment centre of mass estimations using a geometrical model together with material routinely utilized in human motion analysis in order to obtain estimates of body segment masses. Limb mass estimations method performs better predicting a posteriori center of mass displacement when compared to other methods. Some of the potential causes of the second method’s failure have been investigated through the study of centre of pressure location uncertainty
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Sourty, Raphael. "Apprentissage de représentation de graphes de connaissances et enrichissement de modèles de langue pré-entraînés par les graphes de connaissances : approches basées sur les modèles de distillation". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30337.

Testo completo
Abstract (sommario):
Le traitement du langage naturel (NLP) est un domaine en pleine expansion axé sur le développement d'algorithmes et de systèmes permettant de comprendre et de manipuler les données du langage naturel. La capacité à traiter et à analyser efficacement les données du langage naturel est devenue de plus en plus importante ces dernières années, car le volume de données textuelles générées par les individus, les organisations et la société dans son ensemble continue de croître de façon significative. Les graphes de connaissances sont des structures qui encodent des informations sur les entités et les relations entre elles. Ils constituent un outil puissant qui permet de représenter les connaissances de manière structurée et formalisée, et de fournir une compréhension globale des concepts sous-jacents et de leurs relations. La capacité d'apprendre des représentations de graphes de connaissances a le potentiel de transformer le traitement automatique du langage et d'autres domaines qui reposent sur de grandes quantités de données structurées. Les travaux menés dans cette thèse visent à explorer le concept de distillation des connaissances et, plus particulièrement, l'apprentissage mutuel pour l'apprentissage de représentations d'espace distincts et complémentaires. Notre première contribution est de proposer un nouveau cadre pour l'apprentissage d'entités et de relations sur des bases de connaissances multiples appelé KD-MKB. L'objectif clé de l'apprentissage de représentations multigraphes est d'améliorer les modèles d'entités et de relations avec différents contextes de graphes qui peuvent potentiellement faire le lien entre des contextes sémantiques distincts. Notre approche est basée sur le cadre théorique de la distillation des connaissances et de l'apprentissage mutuel. Elle permet un transfert de connaissances efficace entre les KBs tout en préservant la structure relationnelle de chaque graphe de connaissances. Nous formalisons l'inférence d'entités et de relations entre les bases de connaissances comme un objectif de distillation sur les distributions de probabilité postérieures à partir des connaissances alignées. Sur la base de ces résultats, nous proposons et formalisons un cadre de distillation coopératif dans lequel un ensemble de modèles de KB sont appris conjointement en utilisant les connaissances de leur propre contexte et les softs labels fournies par leurs pairs. Notre deuxième contribution est une méthode permettant d'incorporer des informations riches sur les entités provenant de bases de connaissances dans des modèles de langage pré-entraînés (PLM). Nous proposons un cadre original de distillation coopératif des connaissances pour aligner la tâche de pré-entraînement de modèles de langage masqués et l'objectif de prédiction de liens des modèles de représentation de KB. En exploitant les informations encodées dans les bases de connaissances et les modèles de langage pré-entraînés, notre approche offre une nouvelle direction de recherche pour améliorer la capacité à traiter les entités des systèmes de slot filling basés sur les PLMs
Natural language processing (NLP) is a rapidly growing field focusing on developing algorithms and systems to understand and manipulate natural language data. The ability to effectively process and analyze natural language data has become increasingly important in recent years as the volume of textual data generated by individuals, organizations, and society as a whole continues to grow significantly. One of the main challenges in NLP is the ability to represent and process knowledge about the world. Knowledge graphs are structures that encode information about entities and the relationships between them, they are a powerful tool that allows to represent knowledge in a structured and formalized way, and provide a holistic understanding of the underlying concepts and their relationships. The ability to learn knowledge graph representations has the potential to transform NLP and other domains that rely on large amounts of structured data. The work conducted in this thesis aims to explore the concept of knowledge distillation and, more specifically, mutual learning for learning distinct and complementary space representations. Our first contribution is proposing a new framework for learning entities and relations on multiple knowledge bases called KD-MKB. The key objective of multi-graph representation learning is to empower the entity and relation models with different graph contexts that potentially bridge distinct semantic contexts. Our approach is based on the theoretical framework of knowledge distillation and mutual learning. It allows for efficient knowledge transfer between KBs while preserving the relational structure of each knowledge graph. We formalize entity and relation inference between KBs as a distillation loss over posterior probability distributions on aligned knowledge. Grounded on this finding, we propose and formalize a cooperative distillation framework where a set of KB models are jointly learned by using hard labels from their own context and soft labels provided by peers. Our second contribution is a method for incorporating rich entity information from knowledge bases into pre-trained language models (PLM). We propose an original cooperative knowledge distillation framework to align the masked language modeling pre-training task of language models and the link prediction objective of KB embedding models. By leveraging the information encoded in knowledge bases, our proposed approach provides a new direction to improve the ability of PLM-based slot-filling systems to handle entities
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Talhi, Asma. "Proposition d’une modélisation unifiée du Cloud Manufacturing et d’une méthodologie d’implémentation, basées sur les ontologies d’inférence". Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0017/document.

Testo completo
Abstract (sommario):
Dans ces travaux de recherche, nous proposons une méthodologie pour l’élaboration d’une architecture Cloud Manufacturing. Le CM est un paradigme émergeant dans lequel des ressources dynamiques virtualisées et extensibles sont fournies à un utilisateur comme services à travers internet. Notre architecture est utilisée comme une plateforme pour mettre en correspondance des utilisateurs et des fournisseurs de ressources manufacturières pouvant collaborer ensemble tout au long du cycle de vie du produit tout en réduisant les coûts et le temps de développement. Comme certains vendeurs peuvent décrire leurs services de différentes façons, les technologies du web telles que les ontologies sont des outils robustes pour mettre en correspondance les descriptions des vendeurs avec les requêtes des utilisateurs. Nous utilisons les ontologies pour élaborer le modèle de connaissance du domaine du Cloud Manufacturing. L’ontologie définit les étapes du cycle de vie du produit comme des services et prend en compte les caractéristiques du Cloud Computing (stockage, capacité de calcul, etc.). L’ontologie CM contribue à automatiser la découverte des services et est incluse dans la plateforme pour mettre en correspondance des utilisateurs et les fournisseurs. La méthodologie proposée (ASCI-Onto) est inspirée par le cadre méthodologique ASCI qui a déjà été utilisé pour l’étude de systèmes logistiques, hospitaliers et de production. L’objectif de cette nouvelle méthodologie est de développer facilement une librairie de composants pour un système CM. Un exemple d’application avec un modèle de simulation, basé sur le logiciel CloudSim, est présenté. L’objectif est d’aider les industriels à prendre leurs décisions pour concevoir un système CM
In this research, we introduce a methodology to build a CM architecture. Cloud Manufacturing is an emerging paradigm in which dynamically scalable and virtualized resources are provided to the users as services over the Internet. Our architecture serves as a platform for mapping users and manufacturing resources' providers with the aim of enhancing collaboration within Product Lifecycle Management (PLM) by reducing costs and development time. Since some providers may use different descriptions of their services we believe that semantic web technologies like ontologies are robust tools for mapping providers' descriptions and users' requests in order to find the suited service. Then, we use ontology to build the knowledge model of Cloud Manufacturing domain. The ontology defines the steps of the pro- duct lifecycle as services and also takes in account the Cloud Computing features (storage, Computing capacity, etc.). The Cloud Manufacturing ontology contributes to intelligent and automated service discovery and is included in a platform for mapping users and providers. The proposed methodology ASCI-Onto is inspired by ASDI framework (analysis-specification- design-implementation) which has already been used in supply chain, healthcare and manu- facturing domains. The goal of the new methodology consists of designing easily a library of components for a Cloud Manufacturing system. Finally, an example of application of this methodology with a simulation model, based on the CloudSim software, is presented. The goal is to help industrials to make their decisions in order to design Cloud Manufacturing systems
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Khalil, Georges. "Synthèse et modélisation thermodynamique de nouvelles architectures supramoléculaires colorées basées sur des motifs TiO4N2". Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAF065/document.

Testo completo
Abstract (sommario):
Ce travail de thèse s’inscrit dans le domaine de la chimie métallo-supramoléculaire. Plus particulièrement, nous avons développé une chimie d’auto-assemblage afin de créer des architectures à plusieurs composants formés à partir de motifs TiO4N2. D’un point de vue synthétique, l’objectif de ce travail résidait dans l’analyse des conséquences de modifications structurales apportées à l’un des composants, le ligand azoté bidentate, sur la nature des architectures générées. C’est autour du ligand 2,2’-bipyrimidine que ces variations structurales se sont concentrées. En effet, c’est à partir de ce ligand que l’hélicate circulaire [Ti3(L)3(bpym)3], qui nous a servi de composé de référence tout au long de cette thèse, a été créé. Le premier facteur examiné concernait l’introduction de groupements de taille croissante sur le squelette de la 2,2’-bipyrimidine. Puis, la conséquence d’une réduction de la taille d’un des cycles du ligand azoté bidentate a été évaluée. Enfin, la denticité du ligand azoté a été changée. Le deuxième but de cette thèse était d’explorer l’importance relative des facteurs enthalpiques et entropiques dans des réactions d’auto-assemblage à base de métaux de transition. Nous avons pu ainsi proposer une méthodologie générale de modélisation thermodynamique qui ne fait appel qu’au seul logiciel PACHA, moyennant la connaissance des structures tridimensionnelles des produits de départ et d’arrivée
The subject of this thesis belongs to the field of metallosupramolecular chemistry. We have developed a self-assembled chemistry in order to create multicomponent architectures formed around TiO4N2 units. From a synthetic point of view, the major goal of this work was to analyse the consequences of structural variations performed on one component on the resulting self- assembled architectures. These variations involved the 2,2'-bipyrimidine ligand as this ligand was employed to create a circular helicate [Ti3(L)3(bpym)3], which was used as a reference compound throughout this thesis. The first factor considered concerns the introduction of groups of different sizes on the backbone of the 2,2'-bipyrimidine. Then, the consequence of a ring size reduction of the nitrogenous bidentate ligand was evaluated. Finally, the denticity of the nitrogenous ligand was changed. The second aim of this thesis was to model the enthalpy and entropy factors governing these self-assembled reactions driven by titanium (IV) centers. We were able to propose a general thermodynamic modeling methodology by using the PACHA software, through the sole knowledge of crystalline structures of the starting and final products
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Hamouda, Ossama Mohamed Fawzi. "Modélisation et évaluation de la sûreté de fonctionnement d'applications véhiculaires basées sur des réseaux ad-hoc mobiles". Toulouse 3, 2010. http://thesesups.ups-tlse.fr/998/.

Testo completo
Abstract (sommario):
Cette thèse porte sur le développement de méthodes et de modèles permettant de quantifier la sûreté de fonctionnement d'applications embarquées sur des systèmes mobiles. L'objectif est de fournir des indicateurs pour l'analyse et la sélection des architectures les plus adaptées pour satisfaire les exigences de sûreté de fonctionnement. Nous considérons le cas des applications véhiculaires utilisant des communications inter-véhicules basées sur des réseaux ad-hoc et pouvant avoir accès à des services situés sur des infrastructures fixes. Nous proposons une approche combinant: 1) des modèles de sûreté de fonctionnement utilisant des réseaux d'activités stochastiques permettant de décrire les modes défaillances et de restauration des systèmes considérés et 2) des simulations et des modèles analytiques de scénarios de mobilité permettant d'estimer des caractéristiques de connectivité de ces systèmes. Cette approche est illustrée sur trois cas d'études dont un système d'autoroute automatisée, et une boîte noire virtuelle basée sur la réplication et la sauvegarde coopérative des données
This thesis focuses on developing methods and models making it possible to evaluate quantitative measures characterizing the dependability of mobile services as perceived by the users. These models and measures are aimed at providing support to the designers during the selection and analysis of candidate architectures that are well suited to fulfill the dependability requirements. We consider the case of vehicular applications using inter-vehicle communications based on ad-hoc networks and may have access to services located on fixed infrastructure. We propose an approach combining: 1) dependability models based on stochastic activity networks, in order to describe the system failure modes and associated recovery mechanisms, and 2) simulation and analytical models allowing the estimation of connectivity characteristics, taking into account different mobility scenarios and environment. This approach is illustrated on three case studies including a virtual black box based on cooperative data replication and backup, and an automated highway system (Platooning application)
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Djelassi, Abir. "Modélisation et prédiction des franchissements de barrières basées sur l'utilité espérée et le renforcement de l'apprentissage : application à la conduite automobile". Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/0cb14aca-51f3-4cd3-8727-f89febd00519.

Testo completo
Abstract (sommario):
La sûreté de fonctionnement dans les systèmes Homme-machine doit prendre en compte les défaillances des opérateurs humains. Pour limiter l’occurrence et/ou les conséquences des erreurs humaines, les concepteurs prémunissent les systèmes Homme-machine par des barrières qui peuvent être franchies par les opérateurs humains. Afin de mieux concevoir les barrières, il est nécessaire d’intégrer les franchissements de barrière dans la phase de conception des systèmes Homme-machine. Cette intégration nécessite la modélisation et la prédiction des franchissements de barrière. Ce mémoire propose deux modèles linéaires de l’utilité espérée des franchissements de barrière : un modèle générique et un modèle spécifique qui intègrent les critères relatifs à l’activité de l’opérateur humain, les attributs Bénéfices, Coûts et Déficits potentiels qui leurs sont associés, les poids αi, βi et γi associés aux attributs, les erreurs εαi, εβi et εγi sur les poids et le seuil de sensibilité Δu. Le paramétrage des éléments des deux modèles nous permet d’affiner la valeur de l’utilité espérée et donc de prédire les franchissements de barrière. La méthode de prédiction a été appliquée dans le cadre de la conduite automobile et donne de très bons résultats
Risk analysis in Human-machine system (HMS) has to take into account human errors to limit their occurrences or consequences. That’s why, HMS designers define many barriers in the HMS environment. However, these barriers may be removed by human operators. That’s why it’s necessary to integrate the barrier removal in HMS design in order to better their design. The best way that insures this integration is the barrier removal modelling and prediction. This work proposes two linear models of the barrier removal utility: a generic one and a specific one. They integrate the different criteria related to the human operator activity, the Benefits, Costs and potential Deficits associated to these criteria, the weights αi, βi, and γi, the erreors εαi, εβi and εγi and the sensibility threshold Δu. The modification of these two last model’s elements provides an amelioration of the barrier removal utility value and so the barrier removal prediction. This new barrier removal prediction method was applied to the car driving domain. Its results are very interesting
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Macor, Jose Luis. "Développement de techniques de prévision de pluie basées sur les propriétés multi-échelles des données radar et satellites". Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003420.

Testo completo
Abstract (sommario):
Les précipitations, notamment la pluie, constituent un phénomène naturel qui a un très fort impact socio-économique, surtout lorsqu'elles ont un caractère torrentiel. Pour prendre en compte cet aspect, les systèmes hydrologiques d'alerte et de prévision ont besoin d'une information spatio-temporelle plus détaillée et des prévisions fiables de précipitation à très court terme. Ceci a une importance particulière dans de situations d'urgence (crues éclair, gestion de réseaux d'assainissement urbain, des barrages, etc.). Les champs de nuages et de précipitations demeurent les champs les plus difficiles a simuler pour les actuels modèles de prévision météorologiques. En effet, les échelles spatiotemporelles de ces modèles restent largement supérieures a celles qui sont pertinentes pour les précipitations : les mécanismes des précipitations sont essentiellement parametrisés et les pluies ne sont estimées que sur des échelles relativement grossières. De plus, le temps de mise en route de ces modèles est souvent prohibitif pour des prévisions à court terme. Différentes méthodes statistiques de traitement des images satellites et radar ont été développées pour combler ce déficit de prévision. Ces méthodes prennent en compte un grand nombre d'information à petite échelle, mais elles n'ont pas de base physique, en particulier elles ne prennent pas en compte la dynamique fortement non linéaire des cellules orageuses. Une alternative permettant a priori de dépasser, à l'aide des méthodes multi fractales, les limites des précédentes méthodes a été récemment considérée. Elle est fondée sur les modèles de cascade et prend en compte la hiérarchie des structures ainsi que leurs interactions non linéaires sur une grande gamme d'échelle spatio-temporelles, l'anisotropie entre espace et temps, et causalité. Fondamentalement, les processus de cascade développent des gradients de contenu en eau des plus en plus grands sur des fractions de plus en plus petites de l'espace physique. Ce type de modèles a l'avantage d'avoir un nombre limite de paramètres qui ont une signification physique forte et peuvent être évalues soit théoriquement, soit empiriquement. Dans cette thèse on présente la mise en oeuvre d'une procédure correspondant à cette alternative et son application à l'événement du 8-9 septembre 2002 a Nîmes, en utilisant des données radar fourni par la Direction de la Climatologie de Meteo-France, pour déterminer leurs caractéristiques multi fractales. On présente aussi la mise en oeuvre d'une procédure pour la simulation et prévision de champs de pluie multifractale et l'étude de la loi de perte de prédictibilité attendue.
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Testo completo
Abstract (sommario):
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes (composition, taille du génome) en lien avec leur écosystème spécifique : le sol pour les S. coelicolor et le milieu lait pour S. thermophilus
Second-order Hidden Markov Models (HMM2) are stochastic processes with a high efficiency in exploring bacterial genome sequences. Different types of HMM2 (M1M2, M2M2, M2M0) combined to combinatorial methods were developed in a new approach to discriminate genomic regions without a priori knowledge on their genetic content. This approach was applied on two bacterial models in order to validate its achievements: Streptomyces coelicolor and Streptococcus thermophilus. These bacterial species exhibit distinct genomic traits (base composition, global genome size) in relation with their ecological niche: soil for S. coelicolor and dairy products for S. thermophilus. In S. coelicolor, a first HMM2 architecture allowed the detection of short discrete DNA heterogeneities (5-16 nucleotides in size), mostly localized in intergenic regions. The application of the method on a biologically known gene set, the SigR regulon (involved in oxidative stress response), proved the efficiency in identifying bacterial promoters. S. coelicolor shows a complex regulatory network (up to 12% of the genes may be involved in gene regulation) with more than 60 sigma factors, involved in initiation of transcription. A classification method coupled to a searching algorithm (i.e. R’MES) was developed to automatically extract the box1-spacer-box2 composite DNA motifs, structure corresponding to the typical bacterial promoter -35/-10 boxes. Among the 814 DNA motifs described for the whole S. coelicolor genome, those of sigma factors (B, WhiG) could be retrieved from the crude data. We could show that this method could be generalized by applying it successfully in a preliminary attempt to the genome of Bacillus subtilis
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Khalfaoui, Souhaiel. "Production automatique de modèles tridimensionnels par numérisation 3D". Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00841916.

Testo completo
Abstract (sommario):
La numérisation 3D telle que pratiquée aujourd'hui repose essentiellement sur les connaissances de l'opérateur qui la réalise. La qualité des résultats reste très sensible à la procédure utilisée et par conséquent aux compétences de l'opérateur. Ainsi, la numérisation manuelle est très coûteuse en ressources humaines et matérielles et son résultat dépend fortement du niveau de technicité de l'opérateur. Les solutions de numérisation les plus avancées en milieu industriel sont basées sur une approche d'apprentissage nécessitant une adaptation manuelle pour chaque pièce. Ces systèmes sont donc semi-automatiques compte tenu de l'importance de la contribution humaine pour la planification des vues.Mon projet de thèse se focalise sur la définition d'un procédé de numérisation 3D automatique et intelligente. Ce procédé est présenté sous forme d'une séquence de processus qui sont la planification de vues, la planification de trajectoires, l'acquisition et les post-traitements des données acquises. L'originalité de notre démarche de numérisation est qu'elle est générique parce qu'elle n'est pas liée aux outils et méthodes utilisés pour la réalisation des tâches liées à chaque processus. Nous avons également développé trois méthodes de planification de vues pour la numérisation d'objets sans connaissance a priori de leurs formes. Ces méthodes garantissent une indépendance des résultats par rapport au savoir-faire de l'opérateur. L'originalité de ces approches est qu'elles sont applicables à tous types de scanners. Nous avons implanté ces méthodes sur une cellule de numérisation robotisée. Nos approches assurent une reconstruction progressive et intelligente d'un large panel d'objets de différentes classes de complexité en déplaçant efficacement le scanner
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Mercenne, Alexis. "Réactions nucléaires dans le modèle en couches de Gamow et solutions de l’Hamiltonien d’appariemment basées sur le modèle rationnel de Gaudin". Caen, 2016. http://hal.in2p3.fr/tel-01469139.

Testo completo
Abstract (sommario):
Au voisinage de la limite de stabilité, ou à haute énergie d’excitation, l’influence du continuum devient de plus en plus importante, modifiant ainsi la structure des états faiblement liés. Dans cette région, les noyaux sont des systèmes quantiques ouverts qui peuvent être décrits correctement avec le Gamow Shell Model (GSM) offrant une description unifiée des états liés, des résonances et des états de diffusion. La compréhension de propriétés nucléaires induites par certaines symétries du système à plusieurs corps, peut être approfondie en considérant des modèles exactement solubles. Dans la première partie, nous avons généralisé l’Hamiltonien d’appariement basé sur le modèle rationel de Gaudin aux états du continuum, et dérivé la solution algébrique qui généralise la solution exacte de Richardson initialement introduite pour les systèmes liés. Ces équations de Richardson généralisées ont ensuite été appliquées à l’étude des spectres et des énergies de liaison dans une chaîne d’isotopes de carbone. Dans la deuxième partie, nous avons formulé une théorie des réactions basée sur le GSM. Dans ce but, le GSM est formulé dans une base de canaux de réaction pour les projectiles à plusieurs nucléons. Cette théorie des réactions prend en compte l’antisymétrisation des fonctions d’onde de cible et de projectile, ainsi que la fonction d’onde du système composé. Les applications de cette théorie sont présentées pour la réaction 14O(p,p’)14O, où le système composé 15F est un émetteur de proton, et pour la réaction 40Ca(d,d)40Ca
Moving towards drip lines, or higher in excitation energy, the continuum coupling becomes gradually more important, changing the nature of weakly bound states. In this regime, atomic nuclei are open quantum systems which can be conveniently described using the Gamow shell model (GSM) which offers a fully symmetric treatment of bound, resonance and scattering states. The understanding of specific nuclear properties is often improved by considering exactly solvable models, motivated by a symmetry of the many-body system. In the first part , we have generalized the rational Gaudin pairing model to include the continuous part of the single-particle spectrum, and then derived a reliable algebraic solution which generalizes the exact Richardson solution for bound states. These generalized Richardson solutions have been applied for the description of binding energies and spectra in the long chain of carbon isotopes. In the second part, we have formulated the reaction theory rooted in GSM. For that the GSM is expressed in the basis of reaction channels and generalized for multi-nucleon projectiles. This reaction theory respects the antisymmetrization of target and projectile wave functions, as well as the wave function of the combined system. The application of this theory have been presented for the reaction 14O(p,p’)14O, where the combined system 15F is a proton emitter, and for 40Ca(d,d)40Ca
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Belhocine, Latifa. "Nouvelles stratégies de remanufacturing intégrées et multicritères basées sur la performance des produits et les profils des clients". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0057.

Testo completo
Abstract (sommario):
La construction d'une réputation écologique exemplaire est devenue primordiale pour les industries de tous les secteurs. A cet effet, et dans le cadre de la réduction des déchets de la production, de la consommation de ressources, et des émissions de gaz à effet de serre, les industriels se tournent vers l'adoption du concept de l'économie circulaire. Parmi les processus utilisés dans ce contexte, nous retrouvons le remanufacturing qui permet d'étendre le cycle de vie et d'utilisation des produits usagés selon trois étapes principales : la récupération et la collecte de produits usagés, les opérations de remise à neuf et la redistribution des produits remis à neuf. Nous nous intéressons dans cette thèse à une application du processus de remanufacturing à titre préventif. Nous considérons des produits en cours d'utilisation par des clients, sur un horizon fini, et nous procédons à la récupération de ces produits à des instants prédéterminés afin de les remettre à neuf ou améliorer leur état de fonctionnement, puis à les redistribuer pour d'autres utilisations ultérieures. L'objectif global est de développer des stratégies de remanufacturing performantes sur le plan économique et environnemental, intégrant les différentes phases du remanufacturing et tenant en compte les caractéristiques du produit et des conditions de son utilisation. D’abord, nous considérons la prise de deux décisions majeures de l'activité de remanufacturing. La première est liée à la capacité du stock et consiste à sélectionner les produits à récupérer ainsi que leur nombre. Chaque produit étant caractérisé par un grade supposé connu, nous nous intéressons dans la seconde décision à déterminer le niveau de remise à neuf et le grade à atteindre pour chaque produit récupéré. Ensuite, par extension de la première problématique, nous intégrons les caractéristiques des produits et les profils des clients. En effet, nous nous focalisons sur la structure du produit en considérant qu'il présente plusieurs fonctionnalités et qu'il est caractérisé par une performance déterminant son grade et dépendant de la qualité de réalisation (exécution) des fonctionnalités. Nous considérons également le profil du client utilisateur du produit, basé sur la fréquence d'utilisation qui impacte la réalisation des fonctionnalités du produit et par conséquent son grade. Ainsi, une fréquence d'utilisation élevée donnera une qualité d'exécution des fonctionnalités inférieure. Nous développons le modèle mathématique permettant de faire le lien entre la performance d'un produit et la qualité d'exécution de ses fonctionnalités. Nous proposons à ce stade l'optimisation multiobjectif de l'étape de la récupération indépendamment des autres décisions relatives à l'action de remanufacturing. Enfin, nous considérons qu'un produit est constitué de plusieurs composants, chacun intervenant d'une manière spécifique dans l'exécution des fonctionnalités offertes par le produit. En plus, chaque composant est caractérisé par une performance donnée. Dans ce cas, le profil du client, i.e. la fréquence d'utilisation impacte la performance de chaque composant et de ce fait la performance globale du produit. Nous développons le modèle mathématique qui permet de calculer la performance d'un produit en fonction de la performance de ses composants et de leur relation avec ses fonctionnalités. En plus des décisions relatives à la sélection des produits et aux niveaux de remise à neuf, nous intégrons l'optimisation de l'étape de transport et de récupération des produits utilisés. Pour chaque problème étudié, un modèle mathématique multiobjectif est développé, résolu en ayant recours à des métaheuristiques et/ou heuristiques. De plus, une analyse de décision multicritères est réalisée pour aider le décideur à déterminer les meilleures alternatives de remanufacturing à mettre en œuvre. Plusieurs expériences numériques ont été réalisées pour illustrer l'applicabilité des différentes approches proposées
Building an exemplary green reputation has become essential for industries in all sectors. To this end, and with the aim of reducing production waste, resource consumption, and greenhouse gas emissions, manufacturers are turning to the adoption of the circular economy concept. Among the processes used in this context, we find remanufacturing, which extends the life cycle and use of products in three main steps: recovery and collection of used products, remanufacturing operations, and redistribution of remanufactured products.In this thesis, we are interested in an application of the remanufacturing process as a preventive measure. We consider products in use by customers, over a finite horizon, and we proceed to the recovery of these products at predetermined times to refurbish them or improve their working condition, and then to redistribute them for further use. The overall objective is to develop economically and environmentally efficient remanufacturing strategies, integrating the different phases of remanufacturing and considering the characteristics of the product and the conditions of its use.First, we consider two major decisions in the remanufacturing activity. The first one is related to the stock capacity and consists in selecting the products to be recovered and their number. Since each product is characterized by a grade, we are interested in the second decision to determine the level of remanufacturing and the grade to be reached for each recovered product.Second, by extension of the first problem, we integrate the characteristics of the products and the profiles of the customers. We focus on the structure of the product composed of several functionalities and characterized by a performance determining its grade and depending on the quality of execution of the functionalities. We also consider the profile of the product user, based on the frequency of usage impacting the realization of the product functionalities and grade. Thus, a high frequency of usage gives a lower execution quality of the features. We develop the mathematical model to make the link between the performance of a product and the quality of execution of its features. We propose at this stage the multi-objective optimization of the recovery stage independently of the other remanufacturing action decisions.Finally, we consider that a product is made of several components, each of which intervenes in a specific way in the execution of the functionalities offered by the product. Moreover, each component is characterized by a given performance. In this case, the customer profile, i.e., the frequency of use, impacts the performance of each component and thus the overall performance of the product. We develop the mathematical model that allows calculating the performance of a product according to the performance of its components and their relationship with its functionalities. In addition to decisions on product selection and remanufacturing levels, we integrate the optimization of the transportation and recovery stage of used products.For each problem studied, a multi-objective mathematical model is developed, solved using metaheuristics and/or heuristics. In addition, multi-criteria decision analysis is performed to help the decision-maker to determine the best remanufacturing alternatives to implement. Several numerical experiments have been performed to illustrate the applicability of the different approaches proposed
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Semensato, Bárbara Ilze. "Les capacités dynamiques pour l'innovation et les modèles d'internationalisation des entreprises basées sur les nouvelles technologies : une étude de cas multiple avec les PME Brésiliennes". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAG009.

Testo completo
Abstract (sommario):
La mondialisation des marchés et de la compétitivité internationale de plus en plus dans les deux dernières décennies ont fourni à l’entrée des entreprises concurrentes sur le marché, parmi lesquels les petites entreprises. Notamment reconnus pour leur importance sociale et économique, les petites entreprises des secteurs de l’activité de l’industrie, du commerce et des services sont, en termes numériques, la grande majorité des entreprises au Brésil. Compte tenu de l’importance de cet objet de la recherche, cette recherche a comme objectif général d'explorer la relation entre l’orientation à l'innovation et les modèles d'internationalisation des petites et moyennes entreprises (PME). Pour atteindre cet objectif principal, trois objectifs spécifiques sont établis, qui sont l’étude du processus et du modèle d’internationalisation de petites et moyennes entreprises basées sur les nouvelles technologies et l’étude des capacités dynamiques pour l’innovation inhérente au processus et au modèle d’internationalisation des PMEs. Les capacités dynamiques d’innovation dirigent le développement de l’innovation technologique, à savoir, l’innovation des produits, procédés et services, favorisant également le développement d’innovation non technologique, en d’autres termes, de Marketing et de l’organisation. En outre, les capacités dynamiques renforcent positivement sur la compétitivité des petites entreprises dans les marchés intérieurs et internationaux. Le fondement théorique de cette recherche réside dans les théories de l’Internationalisation, de l’École Comportementale et de l’École Économique, de l’Internationalisation des Entreprises, et les théories de l’Innovation, se référant aux Capacités Dynamiques pour l’Innovation. Afin de mieux comprendre l’objet de la recherche, pour chaque sujet il y a une section concernant les PME. La diversité sectorielle des participants les entreprises a contribué à l’ampleur des résultats sur les capacités dynamiques de l’innovation des PME brésiliennes, ainsi que d’identifier leurs modèles d’internationalisation. D’après une étude qualitative, l’analyse montre que les PME brésiliennes cherchent à se différencier par l’innovation dans leurs marchés internationaux d’exploitation. En ce qui concerne les modèles d’internationalisation des PME brésiliennes, ils diffèrent à certains critères que celles figurant dans la littérature. Par conséquent, l’analyse des capacités dynamiques de l’innovation montre que les petites entreprises brésiliennes ont un fort potentiel pour le développement de l’innovation, même avec l’existence de barrières externes. Sur l’internationalisation, les PME de l’étude ont des modèles internationaux spécifiques, exigeant, par conséquent, critères approches par rapport à la littérature. Des contributions académiques, la recherche présente l’analyse des capacités dynamiques d’innovation liées à la configuration d’internationalisation des PME brésiliennes, présentant les variables émergents aux thèmes de recherche. Enfin, comme les contributions managériales, l’analyse des cas permettent de vérifier comment les entreprises cherchent à se positionner de manière concurrentielle sur les marchés internationaux
The globalization of markets and the growing international competitiveness in the last two decades have provided the entry of competing firms in the market, among which are small firms. Notably recognized for their social and economic importance, small enterprises of the industry, trade and services sectors of activity are, in numerical terms, the vast majority of businesses in Brazil. Given the importance of this object of research, this research has as general objective to explore the relationship between the innovation orientation and the internationalization patterns of small and medium enterprises (SMEs). To achieve this general objective, three specific objectives are drawn, which are the study of the internationalization process and patterns of small-and-medium-sized technology based firms and the study of dynamic capabilities for innovation inherent to the distinct internationalization process and patterns of the SMEs. The dynamic capabilities for innovation drive the technological innovation development, namely, innovation in products, processes and services, also fostering the non-technological innovation development, in other words, the Marketing and the organizational. In addition, the dynamic capabilities impact positively on the competitiveness of small businesses in domestic and international markets. The theoretical basis of this research lies in the Internationalization Theories, from the Behavioral School and the Economic School, for Business Internationalization, and the Innovation Theories, referring to the Dynamic Capabilities for Innovation. In order to better understand the object of research, for each topic there is a section concerning to the SMEs. The sectoral diversity of the participants firms contributed to the magnitude of results on the dynamic capabilities for innovation of Brazilian SMEs, as well as to identify their internationalization patterns. From a qualitative study, the analysis show that Brazilian SMEs seek to differentiate through innovation in their international operating markets. Regarding the internationalization patterns of Brazilian SMEs, they differ in some criteria than shown in the literature. Therefore, the analysis of dynamic capabilities for innovation shows that small Brazilian companies have high potential for the innovation development, even with the existence of external barriers. Concerning the internationalization, the SMEs of the study have specific international patterns, requiring, therefore, criteria approaches in relation to literature. As academic contributions, the research presents the analysis of dynamic capabilities for innovation related to the pattern of internationalization of Brazilian SMEs, presenting emerging variables from the research themes. Finally, as managerial contributions, the analysis of the cases enables verifying how firms seek to position themselves competitively in international markets
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Ramdani, Linda. "Stratégies de vaccination basées sur l’exposition de peptides ou de protéines à la surface de particules virales : modèles de l’adénovirus 5 et du bactériophage T5". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS597.

Testo completo
Abstract (sommario):
Les vecteurs viraux capables d’induire l’expression d’un antigène d’intérêt ont montré leur potentiel à induire des réponses immunitaires et à protéger contre différents pathogènes. Au cours de mes travaux, je me suis intéressée à une approche de vaccination basée sur l’exposition d’antigènes (épitopes ou protéines) à la surface de particules virales et plus particulièrement à la surface de l’adénovirus de type 5 et du bactériophage T5.Dans 1ère partie de ma thèse, j’ai évalué la capacité d’adénovirus porteurs d’épitopes à induire des réponses immunitaires cellulaires chez la souris. Différents vecteurs adénoviraux à capside modifiée par insertion d’un épitope T dérivé de l’antigène modèle ovalbumine ont été produits et j’ai montré que ces vecteurs étaient capables d’induire des réponses cellulaires CD8+. De plus, j’ai observé que cette stratégie d’epitope display était plus efficace pour induire des réponses cellulaires quand l’épitope était inséré dans l’hexon et ce, quel que soit le statut de l’hôte vis-à-vis de l’Ad. Ces observations m’ont amenée, dans la 2ème partie de ma thèse, à évaluer la capacité de l’epitope display à induire des réponses cellulaires contre une cible d’intérêt thérapeutique, le papillomavirus humain. J’ai construit et caractérisé différents vecteurs porteurs d’épitopes T dérivés des protéines E6 et E7 d’HPV16 ou d’HPV18. Puis, j’ai analysé leur capacité à induire des réponses cellulaires anti-HPV chez la souris. Parmi les différents vecteurs produits, un vecteur Ad porteur d’un épitope T dérivé de la protéine E7 d’HPV16 a permis d’induire des réponses lymphocytaires CD8+ contre la protéine E7 chez la souris. Enfin, dans la dernière partie de ma thèse, j’ai évalué la capacité de capsides du bactériophage T5 exposant à leur surface une protéine fusion avec l’antigène ovalbumine à induire des réponses immunitaires humorales et cellulaires contre cet antigène. J’ai montré que ces capsides recouvertes d’ovalbumine généraient des fortes réponses humorales et cellulaires.Les résultats obtenus ont permis de préciser les bases moléculaires de l’efficacité de la vaccination par exposition d’épitopes (epitope display) à la surface de vecteurs adénoviraux ou exposition de protéines (protein display) à la surface de capsides du phage T5
Viral vectors capable of inducing the expression of an antigen of interest and VLP composed by proteins that can self-assemble into a non-infectious but immunogenic viruslike particles have shown their potential to induce immune responses and protect against different pathogens. During my work, I became interested in two vaccination approaches based on the exposure of antigens, epitopes or proteins, on the surface of viral particles. In the first part of my thesis, I evaluated the ability of epitope-displaying adenoviruses to induce cellular immune responses in mice. Different adenoviral vectors with capsid modified by insertion of a T epitope derived from the ovalbumin model antigen have been produced and I have shown that these vectors are capable of inducing CD8+ cellular responses. In addition, I observed that this epitope display strategy was more effective in inducing cellular responses when the epitope was inserted into the hexon, regardless of the host's status towards Ad. These observations led me, in the 2nd part of my thesis, to evaluate the ability of the epitope display to induce cellular responses against a therapeutic target, the human papillomavirus. I have constructed and characterized different vectors displaying T epitopes derived from the E6 and E7 proteins of HPV16 or HPV18. Then, I analyzed their ability to induce anti-HPV cellular responses in mice. Among the different vectors produced, one Ad vector displaying a T epitope derived from HPV16 E7 protein induced CD8+ LT responses against E7 protein in mice. Finally, in the last part of my thesis, I evaluated the ability of T5 bacteriophage capsids exposing a protein fused with the ovalbumin antigen on their surface to induce humoral and cellular immune responses against this antigen. I have shown that these ovalbuminexposed capsids generate strong humoral and cellular responses. The results obtained allowed to precise the molecular bases of the effectiveness of vaccination by exposure of epitopes (epitope display) to the surface of adenoviral vectors or exposure of proteins (protein display) to the surface of capsids of the T5 phage
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Aubert, Brice. "Détection des courts-circuits inter-spires dans les Générateurs Synchrones à Aimants Permanents : Méthodes basées modèles et filtre de Kalman étendu". Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/11902/1/Aubert.pdf.

Testo completo
Abstract (sommario):
La mise en place d’un nouveau canal d’alimentation électrique incorporant un générateur à aimants permanents PMG (Permanent Magnet Generator) en remplacement de l’actuel canal de génération hydraulique est l’un des sujets de recherche en cours dans le secteur aéronautique. Le choix de cette solution est motivé par de nombreux avantages : réduction de masse, meilleure disponibilité du réseau hydraulique et maintenance plus aisée. Cependant, l’utilisation d’un PMG en tant que générateur électrique au sein d’un avion implique de nouvelles problématiques, notamment en ce qui concerne la sûreté de fonctionnement lors de défaillances internes au PMG. En effet, tant que le rotor est en rotation, la présence d’une excitation permanente due aux aimants entretient la présence du défaut même si le stator n’est plus alimenté, ce qui complexifie la mise en sécurité du PMG. Il est ainsi nécessaire de connaître précisément l’état de santé du PMG afin d’assurer une bonne continuité de service en évitant d’ordonner la mise en sécurité du PMG sur des défaillances externes au générateur. C’est pourquoi les travaux de cette thèse portent sur la détection des courts-circuits inter-spires dans les PMG, ces défauts ayant été identifiés comme les plus critiques pour ce type de machine. Compte tenu du contexte aéronautique, il a été choisi de travailler sur les méthodes de détection basées sur l’estimation de paramètres via un modèle mathématique de la machine en utilisant le Filtre de Kalman Etendu (FKE). En effet, s’il est correctement paramétré, le FKE permet d’obtenir une bonne dynamique de détection et s’avère être très robuste aux variations du réseau électrique (vitesse, déséquilibre, …), critère important pour garantir un canal de génération fiable. Deux types de modèle mathématique sont présentés pour la construction d’un indicateur de défaut utilisant les estimations fournies par le FKE. Le premier est basé sur une représentation saine du PMG où l’indicateur de défaut est construit à partir de l’estimation de certains paramètres de la machine (résistance, inductance, constante de fem ou pulsation électrique). Le second modèle utilise une formulation d’un PMG défaillant qui permet d’estimer le pourcentage de spires en court-circuit. Après avoir comparé et validé expérimentalement le comportement des différents indicateurs sur un banc de test à puissance réduite, la mise en place d’un indicateur de court-circuit inter-spires au sein d’un réseau électrique aéronautique et son interaction avec les protections existantes sur avion sont étudiées dans la dernière partie de ce mémoire.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Hoareau, Violette. "Etudes des mécanismes de maintien en mémoire de travail chez les personnes jeunes et âgées : approches computationnelle et comportementale basées sur les modèles TBRS* et SOB-CS". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS050/document.

Testo completo
Abstract (sommario):
La mémoire de travail est un système cognitif essentiel à notre vie quotidienne. Elle nous permet de conserver momentanément des informations dans le but de réaliser une tâche cognitive. Une des caractéristiques principales de ce type de mémoire est d’être limitée en capacité. Les raisons de cette limitation sont largement débattues dans la littérature. Certains modèles considèrent qu'une cause principale de l'oubli en mémoire de travail est l'existence d'un déclin temporel passif de l'activation des représentations mnésiques alors que d'autres modèles supposent que les interférences entre les informations suffisent à expliquer la capacité limitée de cette mémoire. Deux modèles computationnels ont été proposés récemment (TBRS* et SOB-CS) et illustrent parfaitement ce débat. En effet, ils décrivent de manière très différente ce qui se passe au cours d’une tâche de mémoire de travail impliquant à la fois la mémorisation et le traitement d’informations. En plus de s'opposer sur les causes de l’oubli, ils proposent des processus de maintien en mémoire de travail distincts : le rafraîchissement des informations pertinentes selon TBRS* versus la suppression des informations non pertinentes selon SOB-CS. Les travaux de cette thèse se sont organisés autour de deux objectifs principaux. Premièrement, cette thèse a porté sur l’étude de ces deux modèles et leur mécanisme de maintien. Pour cela, nous avons réalisé des expériences comportementales utilisant la tâche d’empan complexe afin de tester des hypothèses précises de ces modèles. Deuxièmement, nous avons étudié, à l'aide des modèles computationnels, les causes des déficits de mémoire de travail observés chez les personnes âgées, dans le but, à long terme, de créer ou d'améliorer les outils de remédiation. Concernant le premier objectif, les différents résultats d’études ont montré une discordance entre le comportement humain et les simulations. En effet, TBRS* et SOB-CS ne permettent pas de reproduire un effet positif du nombre de distracteurs contrairement à ce qui a été observé expérimentalement. Nous proposons que cet effet positif, non prédit par les modèles, est relié à la mémorisation à long terme non prise en compte dans ces deux modèles. Concernant le deuxième objectif, les résultats comportementaux suggèrent que les personnes âgées auraient principalement des difficultés à rafraîchir les traces mnésiques et à stabiliser les informations à long terme au cours d’une tâche d’empan complexe. Dans l’ensemble, les résultats de cette thèse suggèrent d'approfondir les recherches concernant les liens entre les mécanismes de maintien en mémoire de travail et la mémorisation à long terme, par exemple en proposant un nouveau modèle computationnel permettant de rendre compte de nos résultats. Au-delà des avancées concernant la compréhension du fonctionnement de la mémoire de travail, cette thèse montre également que l’utilisation de modèles computationnels revêt un caractère particulièrement pertinent pour l'étude d'une théorie ainsi que pour la comparaison de différentes populations
Working memory is a cognitive system essential to our daily life. It allows us to temporarily store information in order to perform a cognitive task. One of the main features of this type of memory is to be limited in capacity. The reasons for this limitation are widely debated in the literature. Some models consider that a main cause of forgetting in working memory is the existence of a passive temporal decay in the activation of memory representations whereas other models assume that interference between information are sufficient to explain the limited capacity of this memory. Two computational models have recently been proposed (TBRS* and SOB-CS) and they perfectly illustrate this debate. Indeed, they both describe differently what happens during a working memory task involving both storage and information processing. In addition to opposing the causes of forgetting, they propose separate maintenance processes: refreshing relevant information according to TBRS* versus removing irrelevant information according to SOB-CS. This thesis was organized around two main objectives. First, we focused on the study of these two models and their maintenance mechanisms. To do so, we performed behavioral experiments using the complex span task to test specific hypotheses of these models. Second, using computational models, we investigated the causes of working memory deficits observed in the elderly, with the aim, in the long term, of creating or improving remediation tools. Regarding the first objective, results showed a discrepancy between human behavior and simulations. Indeed, TBRS* and SOB-CS did not reproduce a positive effect of the number of distractors contrary to what has been observed experimentally. We propose that this positive effect, not predicted by the models, is related to the long-term storage not taken into account in these two models. Regarding the second objective, the behavioral results suggest that older people would have difficulty mainly in refreshing memory traces and in stabilizing information in the long term during a complex task. Overall, the results of this thesis suggest to deepen the research on the links between the maintenance mechanisms and the long-term storage, for example by proposing a new computational model accounting for our results. Beyond advances in understanding the functioning of working memory, this thesis also shows that the use of computational models is of particular relevance for the study of a theory as well as for the comparison of different populations
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Hamouda, Ossama. "Dependability modelling and evaluation of vehicular applications based on mobile ad-hoc networks. Modélisation et évaluation de la sûreté de fonctionnement d'applications véhiculaires basées sur des réseaux ad-hoc mobiles". Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00546260.

Testo completo
Abstract (sommario):
Cette thèse porte sur le développement de méthodes et de modèles permettant de quantifier la sûreté de fonctionnement d'applications embarquées sur des systèmes mobiles. L'objectif est de fournir des indicateurs pour l'analyse et la sélection des architectures les plus adaptées pour satisfaire les exigences de sûreté de fonctionnement. Nous considérons le cas des applications véhiculaires utilisant des communications inter-véhicules basées sur des réseaux ad-hoc et pouvant avoir accès à des services situés sur des infrastructures fixes. Nous proposons une approche combinant: 1) des modèles de sûreté de fonctionnement utilisant des réseaux d'activités stochastiques permettant de décrire les modes défaillances et de restauration des systèmes considérés et 2) des simulations et des modèles analytiques de scénarios de mobilité permettant d'estimer des caractéristiques de connectivité de ces systèmes. Cette approche est illustrée sur trois cas d'études dont un système d'autoroute automatisée, et une boîte noire virtuelle basée sur la réplication et la sauvegarde coopérative des données.
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Botta, Laura. "Impact de la correction du risque supplémentaire de décès non lié au cancer sur l'estimation des indicateurs de survie nette et de guérison". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCI023.

Testo completo
Abstract (sommario):
Dans le cadre de la survie relative (SR), les survivants du cancer sont généralement supposés avoir le même risque de mortalité que les individus de la population générale de mêmes caractéristiques, en plus du risque spécifique dû au cancer. Cette hypothèse est utilisée dans le modèle conventionnel de guérison de mélange pour estimer la proportion de patients guéris (CF), ie qui ne mourront pas du cancer. Cependant, cette hypothèse ne se vérifie pas toujours.Mon hypothèse est que les survivants, même si leur cancer a été définitivement guéri, peuvent présenter un risque supplémentaire de mortalité non cancéreuse par rapport à la population générale. Cela pourrait être dû aux effets secondaires à long terme des traitements, à un second cancer ou à l'exposition à des facteurs de risque liés au mode de vie ou à l'environnement. Une analyse antérieure des données de la population des États-Unis a montré l'existence d’un surrisque de décès par autre cause par rapport à la population générale.Ignorer le surrisque de mortalité non cancéreuse auquel sont exposés les survivants du cancer peut conduire à des estimations biaisées de la CF, c'est-à-dire de la proportion de patients qui ne mourront pas de leur cancer, et d'autres indicateurs de survie pertinents, par exemple la survie nette. Les recherches sur les méthodes permettant d'estimer avec précision la mortalité par autres causes des survivants du cancer se multiplient.Cette travail vise à tester la fiabilité et la robustesse du nouveau modèle de guérison de mélange qui tient compte de ce risque dans différents contextes à l'aide d'une étude de simulation. Sur la base de ces résultats, la méthode a été appliquée à des données réelles, afin d'estimer le surrisque de mortalité non cancéreuse pour les patients atteints de cancer et la CF corrigée, en se concentrant sur certains cancers de l'adulte et sur les enfants ainsi que les adolescents et jeunes adultes (AJAs). Les AJAs sont définis comme les personnes diagnostiquées entre 15 et 39 ans, conformément à la définition internationale proposée par le Réseau européen pour le cancer de l'enfant et de l'adolescent (ENCCA).Des études antérieures ont montré que les survivants d'un cancer de l'enfant ou de l'adolescent présentent un risque de mortalité accru par rapport à la population générale. Les décès chez ces survivants sont principalement dus au cancer initial, suivi de néoplasmes malins secondaires et d'effets secondaires du traitement.L'objectif de cette partie du projet est d'appliquer le nouveau modèle de guérison de mélange à de petites populations telles que les AJAs et à une population présentant un risque de décès réduit dans la population générale, c'est-à-dire les enfants. À notre connaissance, la littérature sur l'utilisation des modèles de guérison de mélange pour les AJA et les enfants atteints de cancer est rare.Pour l'application du modèle à des données réelles, la base de données EUROCARE 6 sera utilisée pour illustrer le surrisque de décès non cancéreux et son impact sur la survie nette et les estimations de la CF.EUROpean CAncer REgistry based study on survival and care of cancer patients (EUROCARE)est une initiative de recherche collaborative axée sur la survie au cancer au sein de la population en Europe. L'équipe de recherche d'EUROCARE est basée à l'Istituto Nazionale Tumori di Milano (INT) et à l'Istituto Superiore di Sanità à Rome, et je suis membre du comité des chercheurs d'EUROCARE 6.Ces résultats contribueront, je l'espère, au débat sur la définition du « droit à l'oubli pour les patients atteints de cancer » et à la gestion des effets secondaires tardifs, qui est rarement abordée dans les études épidémiologiques. Le travail sera effectué en collaboration avec la Fondazione IRCCS Istituto Tumori di Milano
In the relative survival (RS) framework, cancer survivors are typically assumed to have, in addition to the specific risk due to cancer, the same mortality risk as individuals from the general population with the same demographic characteristics. This assumption is used in the conventional mixture cure model to estimate the proportion of patients that will not die of the cancer ie the statistical cure fraction (CF). However, this assumption does not always hold.My hypothesis is that survivors, even if their cancer has been permanently cured, may have an additional non-cancer mortality risk compared to the general population. This could be due to long-term side effects of treatments, second cancers, or exposure to lifestyle or environmental risk factors. A previous analysis of United States population data showed the presence of relative risks of non-cancer deaths compared to the general population higher than 1.Ignoring the extra non-cancer mortality risk to which cancer survivors are exposed can lead to biased estimates of CF and other relevant survival indicators, e.g. net survival. Research on methods for accurately estimating the background mortality of cancer survivors is increasing .This research aims at testing the reliability and robustness of the new mixture cure model that accounts for this risk in different settings using a simulations study. Building on these results, the method will be applied to real data, estimating the extra non-cancer mortality risk for cancer patients and the corrected CF, focusing on some adult cancers and also on children and adolescents and young adults (AYAs). AYAs are defined as those diagnosed at ages 15-39, in line with the international definition proposed by the European Network for Cancer in Children and Adolescents (ENCCA).Previous studies have shown that survivors of childhood and adolescent cancer have increased mortality risks compared to the general population. Deaths in these survivors are mainly due to the original cancer, followed by second malignant neoplasms and side effects of treatment.The aim of this part of the project is to apply the new mixture cure model to small populations such as AYAs and to a population with a reduced risk of death in the baseline population, i.e. children. To our knowledge, the literature on the use of mixture cure models for AYAs and childhood cancer patients is scarce.For the application of the model to real data, the EUROCARE 6 database was used to illustrate the extra risk of non-cancer death and its impact on net survival and CF estimates. The EUROpean CAncer REgistry based study on survival and care of cancer patients (EUROCARE) is a collaborative research initiative focused on population-based cancer survival in Europe. The EUROCARE research team is based at the Istituto Nazionale Tumori di Milano (INT) and the Istituto Superiore di Sanità in Rome, and I am a member of the EUROCARE 6 Researchers Committee.These results will hopefully help in the discussion for the definition of the “Right to be forgotten for cancer patients” and address the management of late side effects, which is rarely addressed in epidemiological studies. The work will be carried out in collaboration with Fondazione IRCCS Istituto Tumori di Milano
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Berriri, Asma. "Model based testing techniques for software defined networks". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL017/document.

Testo completo
Abstract (sommario):
Les réseaux logiciels (connus sous l'éppellation: Software Defined Networking, SDN), qui s'appuient sur le paradigme de séparation du plan de contrôle et du plan d'acheminement, ont fortement progressé ces dernières années pour permettre la programmabilité des réseaux et faciliter leur gestion. Reconnu aujourd'hui comme des architectures logicielles pilotées par des applications, offrant plus de programmabilité, de flexibilité et de simplification des infrastructures, les réseaux logiciels sont de plus en plus largement adoptés et graduellement déployés par l'ensemble des fournisseurs. Néanmoins, l'émergence de ce type d'architectures pose un ensemble de questions fondamentales sur la manière de garantir leur correct fonctionnement. L'architecture logicielle SDN est elle-même un système complexe à plusieurs composants vulnérable aux erreurs. Il est essentiel d'en assurer le bon fonctionnement avant déploiement et intégration dans les infrastructures.Dans la littérature, la manière de réaliser cette tâche n'a été étudiée de manière approfondie qu'à l'aide de vérification formelle. Les méthodes de tests s'appuyant sur des modèles n'ont guère retenu l'attention de la communauté scientifique bien que leur pertinence et l'efficacité des tests associés ont été largement demontrés dans le domaine du développement logiciel. La création d'approches de test efficaces et réutilisables basées sur des modèles nous semble une approche appropriée avant tout déploiement de réseaux virtuels et de leurs composants. Le problème abordé dans cette thèse concerne l'utilisation de modèles formels pour garantir un comportement fonctionnel correct des architectures SDN ainsi que de leurs composants. Des approches formelles, structurées et efficaces de génération de tests sont les principale contributions de la thèse. En outre, l'automatisation du processus de test est mis en relief car elle peut en réduire considérablement les efforts et le coût.La première contribution consiste en une méthode reposant sur l'énumération de graphes et qui vise le test fonctionnel des architectures SDN. En second lieu, une méthode basée sur un circuit logique est développée pour tester la fonctionnalité de transmission d'un commutateur SDN. Plus loin, cette dernière méthode est étendue pour tester une application d'un contrôleur SDN. De plus, une technique basée sur une machine à états finis étendus est introduite pour tester la communication commutateur-contrôleur.Comme la qualité d'une suite de tests est généralement mesurée par sa couverture de fautes, les méthodes de test proposées introduisent différents modèles de fautes et génèrent des suites de tests avec une couverture de fautes guarantie
Having gained momentum from its concept of decoupling the traffic control from the underlying traffic transmission, Software Defined Networking (SDN) is a new networking paradigm that is progressing rapidly addressing some of the long-standing challenges in computer networks. Since they are valuable and crucial for networking, SDN architectures are subject to be widely deployed and are expected to have the greatest impact in the near future. The emergence of SDN architectures raises a set of fundamental questions about how to guarantee their correctness. Although their goal is to simplify the management of networks, the challenge is that the SDN software architecture itself is a complex and multi-component system which is failure-prone. Therefore, assuring the correct functional behaviour of such architectures and related SDN components is a task of paramount importance, yet, decidedly challenging.How to achieve this task, however, has only been intensively investigated using formal verification, with little attention paid to model based testing methods. Furthermore, the relevance of models and the efficiency of model based testing have been demonstrated for software engineering and particularly for network protocols. Thus, the creation of efficient and reusable model based testing approaches becomes an important stage before the deployment of virtual networks and related components. The problem addressed in this thesis relates to the use of formal models for guaranteeing the correct functional behaviour of SDN architectures and their corresponding components. Formal, and effective test generation approaches are in the primary focus of the thesis. In addition, automation of the test process is targeted as it can considerably cut the efforts and cost of testing.The main contributions of the thesis relate to model based techniques for deriving high quality test suites. Firstly, a method relying on graph enumeration is proposed for the functional testing of SDN architectures. Secondly, a method based on logic circuit is developed for testing the forwarding functionality of an SDN switch. Further on, the latter method is extended to test an application of an SDN controller. Additionally, a technique based on an extended finite state machine is introduced for testing the switch-to-controller communication. As the quality of a test suite is usually measured by its fault coverage, the proposed testing methods introduce different fault models and seek for test suites with guaranteed fault coverage that can be stated as sufficient conditions for a test suite completeness / exhaustiveness
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Berriri, Asma. "Model based testing techniques for software defined networks". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL017.

Testo completo
Abstract (sommario):
Les réseaux logiciels (connus sous l'éppellation: Software Defined Networking, SDN), qui s'appuient sur le paradigme de séparation du plan de contrôle et du plan d'acheminement, ont fortement progressé ces dernières années pour permettre la programmabilité des réseaux et faciliter leur gestion. Reconnu aujourd'hui comme des architectures logicielles pilotées par des applications, offrant plus de programmabilité, de flexibilité et de simplification des infrastructures, les réseaux logiciels sont de plus en plus largement adoptés et graduellement déployés par l'ensemble des fournisseurs. Néanmoins, l'émergence de ce type d'architectures pose un ensemble de questions fondamentales sur la manière de garantir leur correct fonctionnement. L'architecture logicielle SDN est elle-même un système complexe à plusieurs composants vulnérable aux erreurs. Il est essentiel d'en assurer le bon fonctionnement avant déploiement et intégration dans les infrastructures.Dans la littérature, la manière de réaliser cette tâche n'a été étudiée de manière approfondie qu'à l'aide de vérification formelle. Les méthodes de tests s'appuyant sur des modèles n'ont guère retenu l'attention de la communauté scientifique bien que leur pertinence et l'efficacité des tests associés ont été largement demontrés dans le domaine du développement logiciel. La création d'approches de test efficaces et réutilisables basées sur des modèles nous semble une approche appropriée avant tout déploiement de réseaux virtuels et de leurs composants. Le problème abordé dans cette thèse concerne l'utilisation de modèles formels pour garantir un comportement fonctionnel correct des architectures SDN ainsi que de leurs composants. Des approches formelles, structurées et efficaces de génération de tests sont les principale contributions de la thèse. En outre, l'automatisation du processus de test est mis en relief car elle peut en réduire considérablement les efforts et le coût.La première contribution consiste en une méthode reposant sur l'énumération de graphes et qui vise le test fonctionnel des architectures SDN. En second lieu, une méthode basée sur un circuit logique est développée pour tester la fonctionnalité de transmission d'un commutateur SDN. Plus loin, cette dernière méthode est étendue pour tester une application d'un contrôleur SDN. De plus, une technique basée sur une machine à états finis étendus est introduite pour tester la communication commutateur-contrôleur.Comme la qualité d'une suite de tests est généralement mesurée par sa couverture de fautes, les méthodes de test proposées introduisent différents modèles de fautes et génèrent des suites de tests avec une couverture de fautes guarantie
Having gained momentum from its concept of decoupling the traffic control from the underlying traffic transmission, Software Defined Networking (SDN) is a new networking paradigm that is progressing rapidly addressing some of the long-standing challenges in computer networks. Since they are valuable and crucial for networking, SDN architectures are subject to be widely deployed and are expected to have the greatest impact in the near future. The emergence of SDN architectures raises a set of fundamental questions about how to guarantee their correctness. Although their goal is to simplify the management of networks, the challenge is that the SDN software architecture itself is a complex and multi-component system which is failure-prone. Therefore, assuring the correct functional behaviour of such architectures and related SDN components is a task of paramount importance, yet, decidedly challenging.How to achieve this task, however, has only been intensively investigated using formal verification, with little attention paid to model based testing methods. Furthermore, the relevance of models and the efficiency of model based testing have been demonstrated for software engineering and particularly for network protocols. Thus, the creation of efficient and reusable model based testing approaches becomes an important stage before the deployment of virtual networks and related components. The problem addressed in this thesis relates to the use of formal models for guaranteeing the correct functional behaviour of SDN architectures and their corresponding components. Formal, and effective test generation approaches are in the primary focus of the thesis. In addition, automation of the test process is targeted as it can considerably cut the efforts and cost of testing.The main contributions of the thesis relate to model based techniques for deriving high quality test suites. Firstly, a method relying on graph enumeration is proposed for the functional testing of SDN architectures. Secondly, a method based on logic circuit is developed for testing the forwarding functionality of an SDN switch. Further on, the latter method is extended to test an application of an SDN controller. Additionally, a technique based on an extended finite state machine is introduced for testing the switch-to-controller communication. As the quality of a test suite is usually measured by its fault coverage, the proposed testing methods introduce different fault models and seek for test suites with guaranteed fault coverage that can be stated as sufficient conditions for a test suite completeness / exhaustiveness
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Mahmoudysepehr, Mehdi. "Modélisation du comportement du tunnelier et impact sur son environnement". Thesis, Centrale Lille Institut, 2020. http://www.theses.fr/2020CLIL0028.

Testo completo
Abstract (sommario):
Ce travail de recherche de thèse de doctorat consiste à comprendre le comportement du tunnelier en fonction de l’environnement rencontré afin de proposer des solutions sûres, durables et de quqlité pour le creusement du tunnel.Le principal objectif de ce travail de thèse de doctorat est de mieux comprendre le comportement du tunnelier en fonction de son environnement. Ainsi, on explorera comment le tunnelier réagit en fonction des différents types de terrain et comment il agit sur les différents éléments de structure du tunnel (voussoirs). Cela permettra de proposer un dimensionnement intelligent et optimal des voussoirs et des consignes de pilotages adaptées
This PhD thesis research work consists in understanding the behavior of the TBM according to the environment encountered in order to propose safe, durable and quality solutions for the digging of the tunnel.The main objective of this doctoral thesis work is to better understand the behavior of the TBM according to its environment. Thus, we will explore how the TBM reacts according to the different types of terrain and how it acts on the various elements of tunnel structure (voussoirs). This will make it possible to propose an intelligent and optimal dimensioning of the voussoirs and instructions of adapted piloting
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Araldi, Alessandro. "Distribution des commerces et forme urbaine : Modèles orientés-rue pour la Côte d'Azur". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR2018.

Testo completo
Abstract (sommario):
Cette thèse de doctorat analyse et discute la relation entre la distribution spatiale des activités commerciales et la forme urbaine. Plus précisément, dans ce travail, nous nous intéressons aux relations statistiques spatiales entre la localisation des activités commerciales de petite et moyenne taille et les propriétés physiques de la forme urbaine dans la région métropolitaine de la Côte d'Azur. L'hypothèse sous-jacente de cette recherche est que les caractéristiques physiques du paysage bâti pourraient influer la façon dont les humains perçoivent et utilisent l'espace urbain et, en définitive, sur la répartition et l'organisation des activités commerciales dans les villes. Au cours des deux dernières décennies, les spécialistes ont étudié de plus en plus cette relation. Néanmoins, les caractéristiques du tissu commercial et du tissu urbain sont souvent réduites aux notions simples de, densité de magasin et de configuration de réseau de rue. Plusieurs aspects, tels que la typologie d'agglomération morpho-fonctionnelle du commerce de détail, les caractéristiques géométriques du paysage à l'échelle de la rue et l'influence contextuelle du tissu urbain sont traditionnellement exclus de ces analyses. Ces aspects devraient être encore plus importants lorsque l'on étudie des zones métropolitaines très hétérogènes comme la Côte d'Azur, où l’on retrouve une combinaison de villes de tailles différentes et de régions morphologiques paradigmatiques : centres médiévaux, zones planifiées modernes et contemporaines et étalement suburbain. Pour surmonter ces limitations, des protocoles basés sur la théorie et assistés par ordinateur sont sélectionnés et développés dans cette thèse permettant l'extraction de mesures quantitatives de forme commerciale et urbaine. En particulier, partant des théories traditionnelles de la géographie du commerce et de la morphologie urbaine, deux procédures sont proposées et mises en œuvre, fournissant une description détaillée des tissus urbains et commerciaux à l’échelle de la rue. Ces méthodologies se basent sur des combinaisons innovantes de protocoles de géo-traitement et sur des approches d’IA (Réseaux Bayésiens). Les relations statistiques entre les descripteurs morphologiques urbains et de distribution commerciale sont étudiées à travers la mise en œuvre de plusieurs modèles de régression statistique. La décomposition de la zone d'étude dans les sous-régions morphologiques à la fois à l'échelle méso et macro, ainsi que la mise en œuvre de procédures de régression pénalisées, permettent d'identifier des combinaisons spécifiques de caractéristiques morphologiques urbaines avec les caractéristiques de distribution spatiales du commerce. Dans le cas de la Côte d'Azur, les résultats de ces modèles confirment la relation statistique entre les propriétés de configuration du réseau de rues et de la distribution spatiale du commerce. Néanmoins, il a été également démontré que le rôle de certaines variables morphométriques de paysage à l'échelle de la rue constitue également un aspect pertinent de la forme urbaine lors de l’enquête sur la distribution du commerce. Enfin, il a été démontré que le contexte morphologique à la fois à moyenne et à grande échelle est un facteur clé pour expliquer la répartition des petites et moyennes activités commerciales dans une grande région métropolitaine
This doctoral dissertation analyses and discusses the relationship between the spatial distribution of retail and urban form. More precisely, in this work, we focus on the spatial statistical relationships which occur between the localisation of small and average-sized stores and the physical properties of the urban form in the metropolitan area of the French Riviera. The underlying hypothesis of this research is that the physical characteristics of the built-up landscape might influence how humans perceive and use urban space, and, ultimately, how stores are distributed and organised within cities. In the last two decades, scholars have been increasingly investigating this relationship. Nonetheless, both retail and urban form characteristics are often reduced to the simple notions of store density and street-network configuration respectively. Several aspects, such as the retail morpho-functional agglomeration typology, the geometrical characteristics of the streetscape and the contextual influence of the urban fabric are traditionally excluded from these analyses. These aspects should be even more important when studying highly heterogeneous metropolitan areas like the French Riviera, a combination of differently-sized cities and paradigmatic morphological regions: medieval centres, modern and contemporary planned areas, and suburban sprawl. To overcome these limitations, computer-aided, theory-based protocols are accurately selected and developed in this dissertation, allowing for the extraction of quantitative measures of retail and urban form. In particular, starting from traditional theories of retail geography and urban morphology, two location-based network-constrained procedures are proposed and implemented, providing a fine-grained description of the urban and retail fabrics at the street-level. These methodologies are based on innovative combinations of geoprocessing and AI-based protocols (Bayesian Networks). The statistical relationship between retail and urban morphological descriptors isinvestigated through the implementation of several statistical regression models. The decomposition of the study area in morphological subregions both at the meso- and macroscale, combined with the implementation of penalised regression procedures, enables the identification of specific combinations of urban morphological characteristics and retail patterns. In the case of the French Riviera, the outcomes of these models confirm the statistical significance of the relationship between street-network configurational properties and retail distribution. Nevertheless, the role of specific streetscape morphometric variables is demonstrated to be also a relevant aspect of the urban form when investigating the retail distribution. Finally, the morphological context both at the meso- and macro- scale is demonstrated to be a key factor in explaining the distribution of retail within a large urban area
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Amroun, Hamdi. "Modèles statistiques avancés pour la reconnaissance de l’activité physique dans un environnement non contrôlé en utilisant un réseau d’objets connectés". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS406/document.

Testo completo
Abstract (sommario):
Avec l’arrivée des objets connectés, la reconnaissance de l’activité physique connait une nouvelle ère. De nouvelles considérations sont à prendre en compte afin d’aboutir à un meilleur processus de traitement. Dans cette thèse, nous avons exploré le processus de traitement pour la reconnaissance de l’activité physique dans un environnement non contrôlé. Les activités physiques reconnues, avec seulement une centrale inertielle (accéléromètre, gyroscope et magnétomètre), sont dites élémentaires. Les autres types d’activités dépendantes d’un contexte sont dites « basés sur le contexte ». Nous avons extrait la transformée en cosinus discrète (DCT) comme principal descripteur pour la reconnaissance des activités élémentaires. Afin de reconnaitre les activités physiques basées sur le contexte, nous avons défini trois niveaux de granularité : un premier niveau dépendant des objets connectés embarqués (smartphone, smartwatch et samrt TV). Un deuxième niveau concerne l’étude des comportements des participants en interaction avec l’écran de la smart TV. Le troisième niveau concerne l’étude de l’attention des participants envers la TV. Nous avons pris en considération l’aspect imperfection des données en fusionnant les données multi capteurs avec le modèle de Dempster-Shafer. A ce titre, nous avons proposé différentes approches pour calculer et approximer les fonctions de masse. Afin d’éviter de calculer et sélectionner les différents descripteurs, nous avons proposé une approche basée sur l’utilisation d’algorithmes d’apprentissage en profondeur (DNN). Nous avons proposé deux modèles : un premier modèle consiste à reconnaitre les activités élémentaires en sélectionnant la DCT comme principal descripteur (DNN-DCT). Le deuxième modèle consiste à apprendre les données brutes des activités basées sur le contexte (CNN-brutes). L’inconvénient du modèle DNN-DCT est qu’il est rapide mais moins précis, alors que le modèle CNN-brutes est plus précis mais très lent. Nous avons proposé une étude empirique permettant de comparer les différentes méthodes pouvant accélérer l’apprentissage tout en gardant un niveau élevé de précision. Nous avons ainsi exploré la méthode d’optimisation par essaim particulaires (PSO). Les résultats sont très satisfaisants (97%) par rapport à l’apprentissage d’un réseau de neurones profond avec les méthodes d’optimisation classiques telles que la descente de Gradient Stochastique et l’optimisation par Gradient accéléré de Nesterov. Les résultats de nos travaux suggèrent le recours à de bons descripteurs dans le cas où le contexte n’importe peu, la prise en compte de l’imperfection des données capteurs quand le domaine sous-jacent l’exige, l’utilisation de l’apprentissage profond avec un optimiseur permettant d’avoir des modèles très précis et plus rapides
With the arrival of connected objects, the recognition of physical activity is experiencing a new era. New considerations need to be taken into account in order to achieve a better treatment process. In this thesis, we explored the treatment process for recognizing physical activity in an uncontrolled environment. The recognized physical activities, with only one inertial unit (accelerometer, gyroscope and magnetometer), are called elementary. Other types of context-dependent activities are called "context-based". We extracted the DCT as the main descriptor for the recognition of elementary activities. In order to recognize the physical activities based on the context, we defined three levels of granularity: a first level depending on embedded connected objects (smartphone, smartwatch and samrt TV . A second level concerns the study of participants' behaviors interacting with the smart TV screen. The third level concerns the study of participants' attention to TV. We took into consideration the imperfection aspect of the data by merging the multi sensor data with the Dempster-Shafer model. As such, we have proposed different approaches for calculating and approximating mass functions. In order to avoid calculating and selecting the different descriptors, we proposed an approach based on the use of deep learning algorithms (DNN). We proposed two models: a first model consisting of recognizing the elementary activities by selecting the DCT as the main descriptor (DNN-DCT). The second model is to learn raw data from context-based activities (CNN-raw). The disadvantage of the DNN-DCT model is that it is fast but less accurate, while the CNN-raw model is more accurate but very slow. We have proposed an empirical study to compare different methods that can accelerate learning while maintaining a high level of accuracy. We thus explored the method of optimization by particle swarm (PSO). The results are very satisfactory (97%) compared to deep neural network with stochastic gradients descent and Nesterov accelerated Gradient optimization. The results of our work suggest the use of good descriptors in the case where the context matters little, the taking into account of the imperfection of the sensor data requires that it be used and faster models
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Braun, Mathias. "Reduced Order Modelling and Uncertainty Propagation Applied to Water Distribution Networks". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0050/document.

Testo completo
Abstract (sommario):
Les réseaux de distribution d’eau consistent en de grandes infrastructures réparties dans l’espace qui assurent la distribution d’eau potable en quantité et en qualité suffisantes. Les modèles mathématiques de ces systèmes sont caractérisés par un grand nombre de variables d’état et de paramètres dont la plupart sont incertains. Les temps de calcul peuvent s’avérer conséquents pour les réseaux de taille importante et la propagation d’incertitude par des méthodes de Monte Carlo. Par conséquent, les deux principaux objectifs de cette thèse sont l’étude des techniques de modélisation à ordre réduit par projection ainsi que la propagation spectrale des incertitudes des paramètres. La thèse donne tout d’abord un aperçu des méthodes mathématiques utilisées. Ensuite, les équations permanentes des réseaux hydrauliques sont présentées et une nouvelle méthode de calcul des sensibilités est dérivée sur la base de la méthode adjointe. Les objectifs spécifiques du développement de modèles d’ordre réduit sont l’application de méthodes basées sur la projection, le développement de stratégies d’échantillonnage adaptatives plus efficaces et l’utilisation de méthodes d’hyper-réduction pour l’évaluation rapide des termes résiduels non linéaires. Pour la propagation des incertitudes, des méthodes spectrales sont introduites dans le modèle hydraulique et un modèle hydraulique intrusif est formulé. Dans le but d’une analyse plus efficace des incertitudes des paramètres, la propagation spectrale est ensuite évaluée sur la base du modèle réduit. Les résultats montrent que les modèles d’ordre réduit basés sur des projections offrent un avantage considérable par rapport à l’effort de calcul. Bien que l’utilisation de l’échantillonnage adaptatif permette une utilisation plus efficace des états système pré-calculés, l’utilisation de méthodes d’hyper-réduction n’a pas permis d’améliorer la charge de calcul. La propagation des incertitudes des paramètres sur la base des méthodes spectrales est comparable aux simulations de Monte Carlo en termes de précision, tout en réduisant considérablement l’effort de calcul
Water distribution systems are large, spatially distributed infrastructures that ensure the distribution of potable water of sufficient quantity and quality. Mathematical models of these systems are characterized by a large number of state variables and parameter. Two major challenges are given by the time constraints for the solution and the uncertain character of the model parameters. The main objectives of this thesis are thus the investigation of projection based reduced order modelling techniques for the time efficient solution of the hydraulic system as well as the spectral propagation of parameter uncertainties for the improved quantification of uncertainties. The thesis gives an overview of the mathematical methods that are being used. This is followed by the definition and discussion of the hydraulic network model, for which a new method for the derivation of the sensitivities is presented based on the adjoint method. The specific objectives for the development of reduced order models are the application of projection based methods, the development of more efficient adaptive sampling strategies and the use of hyper-reduction methods for the fast evaluation of non-linear residual terms. For the propagation of uncertainties spectral methods are introduced to the hydraulic model and an intrusive hydraulic model is formulated. With the objective of a more efficient analysis of the parameter uncertainties, the spectral propagation is then evaluated on the basis of the reduced model. The results show that projection based reduced order models give a considerable benefit with respect to the computational effort. While the use of adaptive sampling resulted in a more efficient use of pre-calculated system states, the use of hyper-reduction methods could not improve the computational burden and has to be explored further. The propagation of the parameter uncertainties on the basis of the spectral methods is shown to be comparable to Monte Carlo simulations in accuracy, while significantly reducing the computational effort
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Delotterie, David. "Translational potential of the touchscreen-based methodology to assess cognitive abilities in mice". Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAJ048/document.

Testo completo
Abstract (sommario):
Ce travail visait à évaluer le potentiel d’une méthodologie innovante récemment adaptée à la Souris sur la base de tests neuropsychologiques utilisés en clinique humaine. Après optimisation de 3 tâches (PAL, VMCL, PVD) ciblant différentes fonctions cognitives chez l’animal, nos études ont établi : (1) l’existence possible d’interférences proactives lors d’apprentissages consécutifs ; (2) l’absence de déficit d’acquisition chez les souris de la lignée Tg2576 (modèle transgénique de la maladie d’Alzheimer), quelle que soit l’étendue de la charge amyloïde ; (3) l’implication spécifique du striatum dorsal lors de l’acquisition des tâches de VMCL et PAL, et celle de l’hippocampe lors du rappel de cette dernière tâche. Ces derniers résultats suggèrent qu’en dépit des efforts déployés pour s’assurer du caractère translationnel d’une tâche cognitive dans le paradigme du touchscreen, certaines adaptations inhérentes à chaque espèce influencent profondément les bases neurobiologiques associées
This thesis work aimed to specify the potential of an innovative methodology latterly adapted in mice from neuropsychological tasks used in Humans. After the optimization of 3 assays (PAL, VMCL, PVD) taxing various cognitive functions in animals, different behavioral studies have gradually revealed: (1) the putative existence of proactive interferences over consecutive learnings in touchscreen tasks; (2) no acquisition deficit in Tg2576 mice (a transgenic model of Alzheimer’s Disease) in these paradigms, whatever the amyloid load considered; (3) the specific involvement of the dorsal striatum during the acquisition of VMCL and PAL tasks and the key role of the hippocampus during the recall of the latter task. As exemplified by the PAL task, our results suggest that despite momentous efforts in order to ensure the translational feature of touchscreen cognitive tasks, certain adaptations inherent to each species deeply influence the nature of underlying neurobiological substrates
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia