To see the other types of publications on this topic, follow the link: Approche adaptative.

Dissertations / Theses on the topic 'Approche adaptative'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Approche adaptative.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pruski, Cédric. "Une approche adaptative pour la recherche d'information sur le Web." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00433071.

Full text
Abstract:
Depuis son avènement au début des années 1990, le Web a profondément bouleversé la société contemporaine et ce à plusieurs niveaux. Ce nouvel outil est rapidement devenu incontournable et s'est affirmé comme la plus grande base de données du monde. La popularité sans cesse croissante du Web a généré une dynamique très importante principalement au niveau des données qu'il renferme. En effet, en vertu de l'évolution des connaissances du monde réel, de nouvelles informations sont rajoutées, d'autres retirées et certaines sont modifiées sans cesse sur le Web posant ainsi des problèmes pour retrouver l'information pertinente. Les moteurs de recherche existants ne sont pas capables d'une part de prendre en compte l'évolution des connaissances du Web lorsqu'un utilisateur pose une requête et d'autre part, de comprendre les besoins en information de l'utilisateur pour lui retourner les pages Web répondant à ces besoins. L'apparition du paradigme du Web Sémantique, visant à donner un sens aux données du Web pour les rendre compréhensibles par les machines grâce à l'utilisation d'ontologies, contribue à l'amélioration de la recherche documentaire sur le Web. Cependant, les problèmes posés par l'évolution restent peu pris en compte. Dans ces travaux, nous nous sommes intéressés à la prise en compte de l'évolution des données du Web dans le but d'améliorer, en terme de pertinence des résultats, la recherche documentaire sur le Web. La solution que nous proposons est basée sur les ontologies, fondement du Web Sémantique, pour représenter les connaissances du domaine de recherche visé par des requêtes ainsi que les vues des utilisateurs sur ce domaine. Dans la solution que nous préconisons, les ontologies sont vues comme des connaissances qui évoluent au cours du temps. Cette solution nous a obligé à considérer l'évolution des ontologies sous deux aspects différents : de manière générale par rapport au domaine visé par la requête et de manière plus particulière par rapport aux points de vue des utilisateurs. En premier lieu, nous proposons un modèle d'ontologies adaptatives ainsi qu'un processus d'adaptation permettant aux ontologies de s'adapter aux évolutions des connaissances d'un domaine. Le modèle ainsi défini s'appuie sur des idées émises dans les domaines de la psychologie et des sciences naturelles. Ensuite, nous proposons une exploitation de ce type d'ontologie pour améliorer la recherche documentaire sur le Web. Nous introduisons tout d'abord, des structures de données (les WPGraphs et W3Graphs) pour la représentation des données du Web, puis le langage de requête ASK adapté à ces structures pour l'extraction des données pertinentes. Nous proposons également un ensemble de règles d'enrichissement des requêtes ASK basé sur les relations ontologiques et les éléments propres aux ontologies adaptatives des ontologies représentant le domaine visé par la requête et celle représentant les vues des utilisateurs sur le domaine. Pour finir nous proposons un outil pour la gestion des ontologies adaptatives et la recherche d'information sur le Web ainsi qu'une validation expérimentale des concepts introduits. Cette dernière est basée sur un cas d'étude réaliste pour la recherche d'articles scientifiques publiés à la conférence internationale World Wide Web.
APA, Harvard, Vancouver, ISO, and other styles
2

VIVIAN, ROBIN Gardan Yvon. "UNE APPROCHE ADAPTATIVE : UNE APPLICATION A LA VISUALISATION EN C.A.O /." [S.l.] : [s.n.], 1993. ftp://ftp.scd.univ-metz.fr/pub/Theses/1993/Vivian.Robin.SMZ932.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Herpson, Cédric. "Approche multi-agents pour la supervision adaptative des systèmes distribués." Paris 6, 2012. http://www.theses.fr/2012PA066509.

Full text
Abstract:
La supervision d'un système consiste en la détection, l'isolation, l'identification et la réparation des fautes survenant en son sein. Avec l'avènement de systèmes distribués et asynchrones, l'approche traditionnelle de la supervision, centralisée, est aujourd'hui remise en question. En effet, lorsque les communications sont perturbées l'information met un temps indéfini à atteindre sa destination, ce qui augmente le temps de dysfonctionnement du système supervisé. Le travail présenté dans ce manuscrit a donc pour objectif l'étude de l'obtention d'un système de supervision à même de superviser efficacement et continuellement un système distribué en présence de communications non fiables. La nature du problème nous a conduit à l'élaboration d'un système de supervision distribué reposant sur une architecture de supervision multi-agents où chaque agent est doté d'une vision locale et de capacités de diagnostic et de réparation. Ce choix nous a conduit à aborder le problème de la supervision comme un problème de prise de décision distribuée par des agents agissant sous incertitude. Nous proposons dans ce manuscrit un modèle décisionnel d’agent, un mécanisme de coordination et de resynchronisation de l'état du système et un algorithme entrelaçant les phases de diagnostic et de réparation permettant d’adapter automatiquement et dynamiquement le comportement du système de supervision à l’état des communications. Cette thèse ayant été effectuée dans le cadre d'un partenaria industriel au sein du projet Dem@t-Factory, nous procédons à l'évaluation de l'approche proposée à partir de données réelles
Supervising a system consists in the detection, isolation,identification and then repair of any fault that may occur in it. Nowadays, supervised systems are often distributedand communications are asynchronous. When communica-tions are disrupted, information takes an indefinite time toreach its destination, which slows down or stops the su-pervision process. The question is thus how to efficiently supervise a distributed system with unreliable communica-tions ? We claim that the answer to this question requiresa distributed supervision system. In this document, we presentADS2, a multi-agent supervision architecture that is robustin a context of unreliable communications. ADS2 has fourmain characteristics : (1) Each agent can perform both di-agnosis and repair, (2) Each agent can find a balance be-tween a quick local diagnosis and repair, and a delayed, sys-temic one, based on the respective costs of misdiagnosis andcommunication, (3) Agents may form a coalition to restorea consistent view of the system state in case some had toact locally with incomplete information at an earlier stage. (4) Each agent is able to untertwine the diangostis and repair steps in order to reduce the size of the diagnosis search space and thus the time of malfunction. The document develops our proposal along these four charac-teristics, and evaluates AD2 using an industrial case-study
APA, Harvard, Vancouver, ISO, and other styles
4

Vivian, Robin. "Définition d'une approche adaptative : une application à la visualisation en CAO." Metz, 1993. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/Vivian.Robin.SMZ932.pdf.

Full text
Abstract:
Le tracé de rayons est une des techniques de synthèse d'images permettant de simuler des effets optiques complexes comme la refraction et la réflexion. Malheureusement, cet algorithme reste très coûteux en temps de calcul. Afin de diminuer ces temps de traitements, nous proposons une optimisation basée sur une décompostion adaptative de l'espace de travail et une rationalisation des techniques d'optimisation. Une analyse du contenu de la scène et une localisation de l'information permettent une application sélective de l'algorithme de rendu. La méthode consiste en une analyse de la position et de la répartition des objets afin de déterminer des possibilités d'intersection. Une décomposition récursive et adaptative guidée par une étude du contenu permet de diminuer localement la complexité de la scène ce qui favorise une diminution des temps de traitement. Une propagation des résultats obtenus sur les rayons primaires et les rayons d'ombrage vers les rayons secondaires (réfléchis et réfractés) permet, sous certaines conditions, d'apporter une solution efficace au traitement des objets réfléchissants et transparents
Ray tracing is an image synthesis technique which allows the simulation of complex optic effects like refraction and reflection. Unfortunately this algorithm remains very expensive in computation. In order to minimize the processing times we propose an optimisation based on an adaptative décomposition of the working space and the rationalization of the optimization techniques. An analysis of the content and the localization of the information allow a selective application of the ray tracing. The method consists in an analysis of the position and of the repartition of the objects in order to determine the intersection possibilities. An recursive and adaptative decomposition, directed by a study of the content, reduces localy the complexity of the scene which helps for a reduction of the processing times. A propagation of the results which have been obtained with the primary rays and shade rays, to secondary rays (reflected and bend rays) allows under particular conditions to give an efficient solution to the processing of reflected and transparent objects
APA, Harvard, Vancouver, ISO, and other styles
5

Lattaud, Claude. "Approche adaptative de systèmes multi-agents dans un contexte vie artificielle." Paris 5, 1998. http://www.theses.fr/1998PA05S021.

Full text
Abstract:
La vie artificielle est un des domaines émergents lies à l'intelligence artificielle. Son objectif principal est la synthèse d'artefacts afin de reproduire certaines fonctions et certains comportements appartenant à des êtres vivants. Ces créatures artificielles, nommées agents dans les systèmes multi-agents, sont construites à partir de modèles de la génétique moderne. Ainsi, ces agents sont munis de lois d'évolution, calquées sur la théorie néo-darwinienne de l'évolution, permettant d'adapter leurs comportements en fonction des modifications de leur environnement. L'objectif principal de cette thèse concerne l'étude de l'adaptation, comportementale et morphologique, de ces agents dans des environnements dynamiques. Plus précisément, l'évolution de ces populations d'entités artificielles est abordée au travers des questions fondamentales suivantes : par quels moyens ces entités agissent-elles sur leur environnement et interagissent-elles entre elles ? Sont-elles dotées de capacités de mémoire et de raisonnement ? La première étape pour construire les entités artificielles étudiées dans cette thèse consiste en l'élaboration d'un modèle de classes. Chacune de ces classes représente un outil, une fonction, accessible à ces entités. La seconde étape définit les méthodes utilisées pour leur évolution. Le concept de macro-évolution est alors introduit afin de permettre aux entités de subir une évolution en profondeur de leurs classes. Ce processus leur offre la possibilité d'évoluer progressivement du simple vers le complexe. Cette notion de macro-évolution, découpée en une classification et un opérateur de macro-mutation, est évaluée par le biais de deux applications : optimisation de l'acquisition de ressources d'une part et survie en environnement dynamique d'autre part. Un ensemble de simulations apporte de nombreux résultats significatifs quant à l'intérêt de la macro-évolution dans les processus d'adaptation. L'émergence de comportements singuliers est mise en évidence tant du point de vue individuel que du point de vue collectif. Ainsi, la plupart des agents, initialement très simples, acquièrent finalement des facultés de communication lors de cette macro-évolution.
APA, Harvard, Vancouver, ISO, and other styles
6

Errera, Marie-Hélène. "Etude des mécanismes immunitaires des uvéites idiopathiques par une approche biologique et l'optique adaptative." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066714/document.

Full text
Abstract:
La majorité des modèles d’uvéites expérimentales sont médiées par les sous-types lymphocytaires CD4+ T-Helper 1 (Th1) et Th17. Le but de cette thèse est d’étudier les mécanismes immunitaires mis en jeu lors d’une uvéite idiopathique (sans étiologie) chez l’humain. La première partie de cette étude est donc consacrée à l’étude du profil biologique de 30 cytokines/chimiokines/ facteurs de croissance intraoculaires (AqH) et sériques obtenues au laboratoire (technologie Luminex®). Ces médiateurs sont dosés dans le sérum et l’AqH de patients atteints d’uvéites intermédiaires et postérieures activesidiopathiques. Ces résultats sont comparés à une cohorte de patients non inflammatoires et à des groupes de patients atteints d’uvéites de diverses étiologies. Nous avons trouvé que le profil des médiateurs diffère nettement en fonction de la cause de l’inflammation intraoculaire. Une réponse pro-inflammatoire large est observée avec des concentrations accrues des cytokines de type Th1 (IFNγ, IL-12), Th17 (IL-17), TNF-α, IL-6, MIP-1α, MIP-1β, MCP-1, G-CSF et IP-10 dans les uvéites idiopathiques. Les concentrations sériques différent de celles des contrôles par les taux d’IL-17 et IP-10 augmentés. La deuxième partie concerne l’étude des mécanismes immunitaires des uvéites par l’analyse des vascularites en imagerie adaptative (FIOA) et particulièrement l’observation anatomique des modifications liées aux inflammations oculaires. Nous ne trouvons pas de corrélation entre l’aspect de cellularité périvasculaire en FIOA et les cytokines retrouvées dans l’AqH des yeux avec uvéite. Pouvoir déterminer quels médiateurs de l’inflammation interviennent dans les pathologies inflammatoires permettrait de les cibler avec des thérapies adaptées
Most of experimental models of uveitis are mediated by lymphocytic subtypes CD4+ T-Helper 1 (Th1) et Th17. The aim of this thesis is to study the immune mechanisms in idiopathic uveitis (i.e. unknown etiology) in humans. First, we will determine the biological spectrum of 30 cytokines/ chemokines/ growth factors in aqueous humour and sera by Luminex® technology. Those mediators will be measured in the serum and aqueous humour of patients with active intermediate and posterior uveitis classified as idiopathic. Those results will be compared to a cohort of patients with no inflammation and to patients with uveitis of various causes. We found that the profile of mediators changes regarding to the cause of the intraocular inflammation. The proinflammatory process is related to increased levels of cytokines Th1 (IFNγ, IL-12), Th17 (IL-17), TNF-α, IL-6, MIP-1α, MIP-1β, MCP-1, G-CSF and IP-10 idiopathic uveitis. The sera of the patients with idiopathic uveitis have increased levels IL-17 and IP-10. Secondly, the immune mechanisms of uveitis were studied by adaptive optics imaging (FIOA) and particularly the observation of anatomic changes related to ocular inflammations. We ruled out any correlation betweeen the perivascular cellular opacification in FIOA and the cytokines/ chemokines found in the eyes with uveitis. An understanding of the profile of mediators in inflammation and their determination could help to target idiopathic uveitis with correct therapies
APA, Harvard, Vancouver, ISO, and other styles
7

El, Guedria Sgaier Zina. "Assistance à la recherche documentaire par une approche adaptative à base d’agents et d’artefacts." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR24/document.

Full text
Abstract:
Le développement et la multiplication des systèmes et plateformes informatiques pour accéder à de l'information ne fait que s'accentuer depuis une trentaine d'années. Le grand volume d'information disponible a soulevé de nombreux défis scientifiques dans des domaines tel que la recherche d'information. Pour accéder à des documents regroupés dans un corpus numérique, il faut être en mesure d'exprimer son besoin en information, souvent sous la forme d'une requête, d'y associer les documents pertinents et de les présenter de la meilleure manière possible aux utilisateurs. La recherche documentaire dans un corpus documentaire thématique présentant un haut niveau de technicité dans la discipline concernée s'apparente à un processus de navigation guidé par un besoin d'information d'un utilisateur. Cette navigation nécessite l'usage d'outils classiques de recherche d'information pour sélectionner des documents pertinents en fonction d'une requête, mais ils doivent être complétés par des mécanismes de personnalisation et d'adaptation capable de faire évoluer la représentation du besoin en fonction des spécificités d'un utilisateur, de sa navigation en cours ou du corpus considéré. En effet, l'accès aux documents d'un corpus numérique soulève des problèmes liés à la recherche d'information, à la visualisation des résultats d'une requête et à la navigation entre les documents. Le processus de recherche d'information nécessite des améliorations et surtout l'intégration de l'utilisateur comme facteur principal à prendre en compte dans la recherche de satisfaction de son besoin informationnel. Nous considérons plusieurs approches pour aider un utilisateur dans sa recherche de documents. Une première assistance porte sur la reformulation de requêtes en visant un public d'utilisateurs peu familier avec les termes techniques du domaine et en difficulté pour exprimer sous la forme d'une requête leur besoin. La deuxième approche que nous proposons consiste à ne pas considérer l'utilisateur isolément mais à le rapprocher de ceux ayant exprimé des recherches similaires pour retrouver les documents qu'ils avaient jugés pertinents. Enfin, nous incluons des travaux issus du domaine de la recommandation afin de mieux cerner le besoin informationnel de l'utilisateur et l'aider à trouver plus facilement ce qu'il cherche en lui recommandant des ressources documentaires. Nous proposons dans cette thèse de traiter cette diversité d'influence par un système multi-agent interagissant par un environnement partagé représentant la navigation des utilisateurs, de manière à pouvoir adapter le système en utilisant l'une ou l'autre des techniques d'assistance proposées en fonction de l'expertise de l'utilisateur. Ce travail a été appliqué à une recherche documentaire dans un corpus numérique de documents juridiques
The development and multiplication of information systems and platforms for information access has been accentuated over the past thirty years. The large volume of information available has raised many scientific challenges in different areas such as information retrieval. To access documents grouped in a digital corpus, one must be able to express his/her information need, often in the form of a query, to associate the relevant documents and present them in the best possible way to users. Document research in a thematic digital corpus presenting a high level of technicality in the concerned discipline can be considered as a browsing process driven by some information needs. Such browses requires the use of traditional information retrieval tools to select relevant documents based on a query But they can be improved by the use of customization and adaptation mechanisms in order to refine the representation of information needs according to the specificities of a user, his current browsing or the corpus considered. Indeed, access to digital documents raises problems related to the search for information, the visualization of the results of a query and the browsing between the documents. The process of information retrieval requires to be improved and especially by the integration of the user as a main factor to take into account in the search for satisfaction of his/her information needs. We consider several approaches to help users in their search for documents. A first assistance concerns the reformulation of queries by targeting an audience of users unfamiliar with the technical terms of the field and struggling to express in the form of a query their need. The second approach that we propose is not to consider the user in isolation but to bring it closer to those who have expressed similar research to find the documents they considered relevant. Finally, we include works from the field of the recommendation to better understand the informational needs of the user and help them find what they are looking for by recommending documentary resources. In this thesis, we propose to treat this diversity of influence by a multi-agent system interacting with a shared environment representing the users browsing so that the system may be adapted to use either assistance facilities according to the user's expertise. We applied our work for document research in a digital corpus of legal documents
APA, Harvard, Vancouver, ISO, and other styles
8

Voisine, Nicolas. "Approche adaptative de coopération hiérarchique de méthodes de segmentation : application aux images multicomposantes." Rennes 1, 2002. http://www.theses.fr/2002REN10128.

Full text
Abstract:
Afin de gérer intelligemment les méthodes de segmentation utilisées et de fusionner au mieux l'information extraite par chacune, nous proposons une approche adaptative de coopération hiérarchique de méthodes de segmentation. Cette approche est fondée sur des opérateurs d'évaluation et de validation qui extraient l'information valide d'un résultat. Nous avons développé deux systèmes de coopération : Un système de coopération séquentiel met en compétition d'accès les méthodes de segmentation. Après une phase de pré-hiérarchisation relative à un objectif, chaque méthode se voit attribuer un ordre de passage lui donnant priorité de segmenter les régions de l'image qui n'ont pas été détectées et validées par d'autres méthodes avant elle. Nous montrons une généralisation de cette approche aux images multi-composante. Un autre système de coopération parallèle met en compétition de compétence les méthodes de segmentation. Il retire (selon un opérateur d'évaluation) le meilleur résultat. Nous montrons l'efficience des systèmes sur la banque d'images GDR-PRC ISIS.
APA, Harvard, Vancouver, ISO, and other styles
9

Darmet, Ludovic. "Vers une approche basée modèle-image flexible et adaptative en criminalistique des images." Thesis, Université Grenoble Alpes, 2020. https://tel.archives-ouvertes.fr/tel-03086427.

Full text
Abstract:
Les images numériques sont devenues un moyen de communication standard et universel. Elles prennent place dans notre vie de tous les jours, ce qui entraîne directement des inquiétudes quant à leur intégrité. Nos travaux de recherche étudient différentes méthodes pour examiner l’authenticité d’une image numérique. Nous nous plaçons dans un contexte réaliste où les images sont en grandes quantités et avec une large diversité de manipulations et falsifications ainsi que de sources. Cela nous a poussé à développer des méthodes flexibles et adaptative face à cette diversité.Nous nous sommes en premier lieu intéressés à la détection de manipulations à l’aide de la modélisation statistiques des images. Les manipulations sont des opérations élémentaires telles qu’un flou, l’ajout de bruit ou une compression. Dans ce cadre, nous nous sommes plus particulièrement focalisés sur les effets d’un pré-traitement. A cause de limitations de stockage et autres, une image peut être re-dimensionnée ou re-compressée juste après sa capture. L’ajout d’une manipulation se fait donc ensuite sur une image déjà pré-traitée. Nous montrons qu’un pré-redimensionnement pour les images de test induit une chute de performance pour des détecteurs entraînés avec des images en pleine taille. Partant de ce constat, nous introduisons deux nouvelles méthodes pour mitiger cette chute de performance pour des détecteurs basés sur l’utilisation de mixtures de gaussiennes. Ces détecteurs modélisent les statistiques locales, sur des tuiles (patches), d’images naturelles. Cela nous permet de proposer une adaptation de modèle guidée par les changements dans les statistiques locales de l’image. Notre première méthode est une adaptation entièrement non-supervisée, alors que la seconde requière l’accès à quelques labels, faiblement supervisé, pour les images pré-resizées.Ensuite, nous nous sommes tournés vers la détection de falsifications et plus spécifiquement l’identification de copier-coller. Le copier-coller est l’une des falsification les plus populaires. Une zone source est copiée vers une zone cible de la même image. La grande majorité des détecteurs existants identifient indifféremment les deux zones (source et cible). Dans un scénario opérationnel, seulement la zone cible est intéressante car uniquement elle représente une zone de falsification. Ainsi, nous proposons une méthode pour discerner les deux zones. Notre méthode utilise également la modélisation locale des statistiques de l’image à l’aide de mixtures de gaussiennes. La procédure est spécifique à chaque image et ainsi évite la nécessité d’avoir recours à de larges bases d’entraînement et permet une plus grande flexibilité.Des résultats expérimentaux pour toutes les méthodes précédemment décrites sont présentés sur des benchmarks classiques de la littérature et comparés aux méthodes de l’état de l’art. Nous montrons que le détecteur classique de détection de manipulations basé sur les mixtures de gaussiennes, associé à nos nouvelles méthodes d’adaptation de modèle peut surpasser les résultats de récentes méthodes deep-learning. Notre méthode de discernement entre source/cible pour copier-coller égale ou même surpasse les performances des dernières méthodes d’apprentissage profond. Nous expliquons ces bons résultats des méthodes classiques face aux méthodes d’apprentissage profond par la flexibilité et l’adaptabilité supplémentaire dont elles font preuve.Pour finir, cette thèse s’est déroulée dans le contexte très spécial d’un concours organisé conjointement par l’Agence National de la Recherche et la Direction Général de l’Armement. Nous décrivons dans un appendice, les différents tours de ce concours et les méthodes que nous avons développé. Nous dressons également un bilan des enseignements de cette expérience qui avait pour but de passer de benchmarks publics à une détection de falsifications d’images très réalistes
Images are nowadays a standard and mature medium of communication.They appear in our day to day life and therefore they are subject to concernsabout security. In this work, we study different methods to assess theintegrity of images. Because of a context of high volume and versatilityof tampering techniques and image sources, our work is driven by the necessity to developflexible methods to adapt the diversity of images.We first focus on manipulations detection through statistical modeling ofthe images. Manipulations are elementary operations such as blurring,noise addition, or compression. In this context, we are more preciselyinterested in the effects of pre-processing. Because of storagelimitation or other reasons, images can be resized or compressed justafter their capture. Addition of a manipulation would then be applied on analready pre-processed image. We show that a pre-resizing of test datainduces a drop of performance for detectors trained on full-sized images.Based on these observations, we introduce two methods to counterbalancethis performance loss for a pipeline of classification based onGaussian Mixture Models. This pipeline models the local statistics, onpatches, of natural images. It allows us to propose adaptation of themodels driven by the changes in local statistics. Our first method ofadaptation is fully unsupervised while the second one, only requiring a fewlabels, is weakly supervised. Thus, our methods are flexible to adaptversatility of source of images.Then we move to falsification detection and more precisely to copy-moveidentification. Copy-move is one of the most common image tampering technique. Asource area is copied into a target area within the same image. The vastmajority of existing detectors identify indifferently the two zones(source and target). In an operational scenario, only the target arearepresents a tampering area and is thus an area of interest. Accordingly, wepropose a method to disentangle the two zones. Our method takesadvantage of local modeling of statistics in natural images withGaussian Mixture Model. The procedure is specific for each image toavoid the necessity of using a large training dataset and to increase flexibility.Results for all the techniques described above are illustrated on publicbenchmarks and compared to state of the art methods. We show that theclassical pipeline for manipulations detection with Gaussian MixtureModel and adaptation procedure can surpass results of fine-tuned andrecent deep-learning methods. Our method for source/target disentanglingin copy-move also matches or even surpasses performances of the latestdeep-learning methods. We explain the good results of these classicalmethods against deep-learning by their additional flexibility andadaptation abilities.Finally, this thesis has occurred in the special context of a contestjointly organized by the French National Research Agency and theGeneral Directorate of Armament. We describe in the Appendix thedifferent stages of the contest and the methods we have developed, as well asthe lessons we have learned from this experience to move the image forensics domain into the wild
APA, Harvard, Vancouver, ISO, and other styles
10

Rousseau, Kami. "Restauration adaptative des contours par une approche inspirée de la prédiction des performances." Thèse, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/2788.

Full text
Abstract:
En télédétection, les cartes de contours peuvent servir, entre autres choses, à la restitution géométrique, à la recherche d'éléments linéaires, ainsi qu'à la segmentation. La création de ces cartes est faite relativement tôt dans la chaîne de traitements d'une image. Pour assurer la qualité des opérations subséquentes, il faut veiller à obtenir une carte de contours précise. Notre problématique est de savoir s'il est possible de diminuer la perte de temps liée au choix d'algorithme et de paramètre en corrigeant automatiquement la carte de contours. Nous concentrerons donc nos efforts sur le développement d'une méthode de détection/restauration de contours adaptative. Notre méthode s'inspire d'une technique de prédiction des performances d'algorithmes de bas niveau. Elle consiste à intégrer un traitement par réseau de neurones à une méthode"classique" de détection de contours. Plus précisément, nous proposons de combiner la carte de performances avec la carte de gradient pour permettre des décisions plus exactes. La présente étude a permis de développer un logiciel comprenant un réseau de neurones entraîné pour prédire la présence de contours. Ce réseau de neurones permet d'améliorer les décisions de détecteurs de contours, en réduisant le nombre de pixels de fausses alarmes et de contours manqués. La première étape de ce travail consiste en une méthode d'évaluation de performance pour les cartes de contours. Une fois ce choix effectué, il devient possible de comparer les cartes entre elles. Il est donc plus aisé de déterminer, pour chaque image, la meilleure détection de contours. La revue de la littérature réalisée simultanément a permis de faire un choix d'un groupe d'indicateurs prometteurs pour la restauration de contours. Ces derniers ont servi à la calibration et à l'entrainement d'un réseau de neurones pour modéliser les contours. Par la suite, l'information fournie par ce réseau a été combinée par multiplication arithmétique avec les cartes d'amplitudes de détecteurs"classiques" afin de fournir de nouvelles cartes d'amplitude du gradient. Le seuillage de ces contours donne des cartes de contours"optimisées". Sur les images aéroportées du jeu de données South Florida, la médiane des mesures-F de la pour l'algorithme de Sobel passe de 51,3 % avant la fusion à 56,4 % après. La médiane des mesures-F pour l'algorithme de Kirsch amélioré est de 56,3 % et celle de Frei-Chen amélioré est de 56,3 %. Pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F médiane est de 52,3 % avant fusion et de 57,2 % après fusion.En guise de comparaison, la mesure-F médiane pour le détecteur de Moon, mathématiquement optimal pour contours de type"rampe", est de 53,3 % et celle de l'algorithme de Canny, est de 61,1 %. L'applicabilité de notre algorithme se limite aux images qui, après filtrage, ont un rapport signal sur bruit supérieur ou égal à 20. Sur les photos au sol du jeu de données de South Florida, les résultats sont comparables à ceux obtenus sur les images aéroportées. Par contre, sur le jeu de données de Berkeley, les résultats n'ont pas été concluants. Sur une imagette IKONOS du campus de l'Université de Sherbrooke, pour l'algorithme de Sobel, la mesure-F est de 45,7 % «0,9 % avant la fusion et de 50,8 % après. Sur une imagette IKONOS de l'Agence Spatiale Canadienne, pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F est de 35,4 % «0,9 % avant la fusion et de 42,2 % après. Sur cette même image, l'algorithme de Argyle (Canny sans post-traitement) a une mesure-F de 35,1 % «0,9 % avant fusion et de 39,5 % après. Nos travaux ont permis d'améliorer la banque d'indicateurs de Chalmond, rendant possible le prétraitement avant le seuillage de la carte de gradient. À chaque étape, nous proposons un choix de paramètres permettant d'utiliser efficacement la méthode proposée. Les contours corrigés sont plus fins, plus complets et mieux localisés que les contours originaux. Une étude de sensibilité a été effectuée et permet de mieux comprendre la contribution de chaque indicateur. L'efficacité de l'outil développé est comparable à celle d'autres méthodes de détection de contours et en fait un choix intéressant pour la détection de contours. Les différences de qualité observées entre notre méthode et celle de Canny semble être dues à l'utilisation, ou non, de post-traitements. Grâce au logiciel développé, il est possible de réutiliser la méthodologie; cette dernière a permis d'opérationnaliser la méthode proposée. La possibilité de réutiliser le filtre, sans réentrainement est intéressante. La simplicité du paramétrage lors de l'utilisation est aussi un avantage. Ces deux facteurs répondent à un besoin de réduire le temps d'utilisation du logiciel.
APA, Harvard, Vancouver, ISO, and other styles
11

Amy, Matthieu. "Systèmes résilients pour l'automobile : d'une approche à composants à une approche à objets de la tolérance aux fautes adaptative sur ROS." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0014.

Full text
Abstract:
A l’instar du téléphone mobile évoluant en smartphone, la voiture s’est transformée petit à petit en smartcar. Les aides à la conduite, l’infotainment ou encore la personnalisation du véhicule sont les points clefs de l’attractivité auprès des consommateurs. L’apparition des véhicules automobiles connectés a permis aux constructeurs de mettre à jour à distance les logiciels embarqués, favorisant leur maintenabilité et l’ajout a posteriori de fonctionnalités. Dans ce contexte, le consortium AUTOSAR, un regroupement de constructeurs automobiles majeurs, a conçu une nouvelle plate-forme logicielle facilitant la mise à jour à distance et la modification en ligne de ces systèmes embarqués. Cependant, avec de plus en plus de complexité dans ces logiciels, il est devenu essentiel de pouvoir assurer un service sûr de fonctionnement malgré des changements imprévus. Ainsi, les mécanismes de sûreté de fonctionnement doivent eux aussi s’adapter et être mis à jour pour assurer la résilience du système, à savoir, la persistance de la sûreté de fonctionnement face à des changements. Les mécanismes de tolérance aux fautes (Fault Tolerance Mechanisms - FTM) assurant un service nominal ou dégradé en présence de fautes doivent également s’adapter face à un changement de contexte applicatif (changement du modèle de faute, des caractéristiques de l’application ou des ressources disponibles). Cette capacité à adapter les FTM est appelée Tolérance aux Fautes Adaptative (Adaptive Fault Tolerance – AFT). C’est dans ce contexte d’évolution et d’adaptativité que s’inscrivent nos travaux de thèse. Dans cette thèse, nous présentons des approches pour développer des systèmes sûrs de fonctionnement dont les FTM peuvent s’adapter à l’exécution par des modifications plus ou moins à grain fin pour minimiser l’impact sur l’exécution de l’application. Nous proposons une première solution basée sur une approche par composants substituables, nous décomposons nos FTM selon un schéma de conception Before-Proceed-After regroupant respectivement les actions de sûreté de fonctionnement s’exécutant avant une action l’application, la communication avec l’application et celles s’exécutant après une action de l’application. Nous implémentons cette approche sur ROS (Robot Operating System), un intergiciel pour la robotique permettant de créer des applications sous forme de graphe de composants. Nous proposons ensuite une seconde solution dans laquelle nous affinons la granularité des composants de nos FTM et nous catégorisons, dans un premier temps, les actions de sûreté de fonctionnement qu’ils contiennent. Cela permet non plus de substituer un composant mais une action élémentaire. Ainsi, nous pallions à un problème de ressource apparu dans l’approche par composants substituables. Un composant étant projeté sur un processus, nos FTM utilisent inutilement des ressources déjà limitées sur les plate-formes embarqués. Pour ce faire, nous proposons une solution basé sur une approche par objets ordonnançables. Les FTM passent d’une conception par graphe de composants à une conception par graphe d’objets. Les actions de sûreté de fonctionnement sont projetés sur des objets qui sont ordonnancés à l’intérieur du FTM. Cette seconde solution est aussi mise en oeuvre sur ROS. Enfin, nous faisons une analyse critique des deux supports d’exécution logiciel pour l’automobile, à savoir, AUTOSAR Classic Plateform, et AUTOSAR Adaptive Platform, qui est en cours de développement encore actuellement. Nous examinons, dans une dernière étape la compatibilité entre ces deux supports et nos approches pour concevoir des systèmes résilients embarqués basés sur de la tolérance aux fautes adaptative
Like the mobile phone evolved as smartphone, cars have gradually turned into smartcars. Advanced Driver Assistance Systems (ADAS), infotainment or personalization of the vehicle are clearly today key aspects of attractiveness for customers. Connected vehicles led manufacturers to remotely update embedded software, promoting their maintainability and the subsequent addition of features later in the lifetime of a car. In this context, the AUTOSAR consortium, a group of major car manufacturers, has designed a new software platform to facilitate remote updates and online modification of such embedded systems. However, with the increasing complexity of embedded software systems, it becomes mandatory to maintain dependability in operation despite unforeseen changes. Thus, the dependability mechanisms must also be adapted and updated to ensure the resilience of the system, namely, the persistence of dependability when facing changes. Fault Tolerance Mechanisms (FTM) which are means ensuring a nominal or an (acceptable) degraded service in the presence of faults must also adapt to a change in the application operational context (fault model changes, characteristics of the application or available resources). This ability to adapt FTMs is called Adaptive Fault Tolerance (AFT). The contributions of this thesis are performed in this context of evolution and adaptivity of critical embedded software. In this work, we propose approaches to develop safe embedded systems whose FTMs can adapt to the operational context in different ways, coarse-grain or fine-grain modifications of their implementation at runtime, to minimize the impact on the application. We propose a first solution based on a substitutable component approach: we break down FTMs according to a Before-Proceed-After design scheme grouping respectively fault tolerance actions performed before a functional action of the application, the interaction with the application and fault tolerance actions required after the action performed by the application. We implement this approach on ROS (Robot Operating System), a middleware for robotics that enables an application to be implemented as a component graph. We then propose a second solution in which we refine the granularity of the FTM components by first categorizing the individual dependability actions they contain. This enables an elementary action to be substituted instead of a component as a whole. Thus, we solved a resource problem that appeared in the substitutable component approach. Since a component is mapped to a process, the FTMs overuse more resources that are obviously limited in embedded systems. To this aims, we design a solution based on an object-based scheduling approach. FTMs are designed in this case as an object graph. The fault tolerance basic actions are mapped to objects that are scheduled within the FTM component. This second approach was also implemented on ROS. Finally, we make a comparative analysis of the two software execution platforms of the automotive industry, namely the AUTOSAR Classic Platform and the AUTOSAR Adaptive Platform, which is still under development today. As a final step, we examine the compatibility between these two runtime supports and our approaches to design resilient systems based on adaptive fault tolerance
APA, Harvard, Vancouver, ISO, and other styles
12

Boudoin, Pierre. "L'interaction 3D adaptative : une approche basée sur les méthodes de traitement de données multi-capteurs." Phd thesis, Université d'Evry-Val d'Essonne, 2010. http://tel.archives-ouvertes.fr/tel-00553369.

Full text
Abstract:
La réalité virtuelle est un domaine touchant à plusieurs disciplines. Par le biais de l'interaction 3D l'Homme peut accomplir des tâches dans un environnement virtuel en utilisant des techniques d'interaction 3D. Ces techniques sont souvent mono-tâches et s'appuient sur l'utilisation de matériel de réalité virtuelle bien spécifique. Le passage d'une tâche de l'interaction 3D à une autre est le plus souvent à la charge de l'utilisateur, ou bien du programmeur. Cependant de nombreux problèmes sont présents dans ces systèmes, dits de réalité virtuelle. En effet, des problèmes matériels le plus souvent dû aux technologies utilisées sont présents et peuvent induire un comportement erratique du système. De plus, il peut arriver que les techniques d'interaction 3D ne soient pas adaptées à l'application de réalité virtuelle, ou que celles-ci soient trop complexes à utiliser pour le novice. Tous ces problèmes nuisent à l'immersion de l'être humain dans l'environnement virtuel ainsi qu'aux performances de l'interaction 3D et donc à l'accomplissement de la tâche dans l'application de réalité virtuelle. L'objectif de ce travail est de proposer un système d'interaction 3D adaptative. Par interaction 3D adaptative, on cherche à définir une interaction 3D qui soit continue tant au niveau des données qu'au basculement d'une tâche à l'autre. Nous avons donc modélisé et conçu un ensemble de composants pour accomplir cet objectif. Nous avons modélisé une technique d'interaction 3D pouvant être utilisé de manière continue même lors du basculement d'une tâche. Nous avons également conçu un système qui permet d'automatiser le basculement d'une tâche de l'interaction 3D vers une autre en estimant la tâche que souhaite accomplir l'utilisateur. Enfin, un dernier composant a pour rôle d'améliorer la précision et de garantir la continuité du tracking.
APA, Harvard, Vancouver, ISO, and other styles
13

Abdeldjelil, Hanane. "Une approche adaptative basée sur la diversité pour la gestion des fautes dans les services Web." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10212/document.

Full text
Abstract:
Les services Web tolérants aux fautes sont des composants avec une grande résilience aux défaillances qui résultent de différentes fautes imprévues, par exemple des bugs logiciels ou crash de machine. Comme il est impossible de prévoir l'apparition d'éventuelles fautes, de nombreuses stratégies consistent à dupliquer, d'une manière passive ou active, les composants critiques (eg. services Web) qui interagissent durant une exécution d'application distribuée (eg. composition). La capacité d'une application à continuer l exécution en présence de défaillances de composants référé a la Tolérance aux Fautes (TF). La duplication est la solution largement utilisée pour rendre les composants tolérants aux fautes. La TF peut être assurée à travers la réplication ou la diversité. Nous nous intéressons particulièrement dans cette thèse à la diversité, et nous montrons comment un ensemble de services Web sémantiquement équivalents qui fournissent la même fonctionnalité (eg. prévisions météo), mais qui l'implémentent différemment, collaborent pour rendre un service Web TF. Nous illustrons les limites de la réplication (présence de fautes répliquées), et proposons la diversité comme une solution alternative. En effet, la littérature a révélé un intérêt limité dans l'utilisation de la diversité pour rendre les services Web tolérants aux fautes
Fault Tolerant Web services are components with higher resilience to failures that result out of various unexpected faults for instance software bugs and machine crashes. Since it is impractical to predict the potential occurrence of a fault, a widely used strategy consists of duplicating, in a passive or active way, critical components (e.g., Web services) that interact during a distributed application execution (e.g., composition). The ability of this application to continue operation despite component failures is referred to as Fault Tolerance (FT). Duplication is usually put forward as a solution to make these components fault tolerant. It is achieved through either replication or diversity. In this thesis, we are particularly interested in diversity, and we show how semantically similar Web services, i.e., offer same functionality (e.g., Weather Forecast) but implement this functionality differently in terms of business logic and technical resources, collaborate together to make web services fault tolerant. We illustrate the limitations of replication (e.g., presence of replicated faults) and suggests diversity as an alternative solution. Our literature review revealed a limited interest in diversity for FT Web services
APA, Harvard, Vancouver, ISO, and other styles
14

LAVAL, LAURENT. "Modelisation et commande robuste en force d'un actionneur hydraulique confronte d'un environnement incertain : approche h et commande adaptative." Paris 6, 1997. http://www.theses.fr/1997PA066417.

Full text
Abstract:
Ce memoire porte essentiellement sur la problematique de commande en force d'un actionneur hydraulique en presence de dynamiques negligees, de perturbations et de variations comportementales de l'environnement. Apres une breve description du dispositif experimental, une modelisation non lineaire de la servovalve, de l'actionneur et de son environnement est etablie en fonction de phenomenes observes experimentalement. Les parametres de ce modele non lineaire sont ensuite quantifies a partir de procedures definies dans leurs details (notamment un algorithme d'estimation des parametres du modele de tustin relatif a la force de frottement). La validite de la modelisation est alors evaluee au travers de comparaisons de plusieurs comportements experimentaux et simules du systeme. Suite a cette validation, des modeles lineaires de plusieurs ordres pour la commande sont proposes et leur realisme est evalue d'un point de vue frequentiel (notamment, par comparaison avec un modele armax identifie experimentalement). Deux strategies de commande en effort de l'actionneur sont ensuite etudiees et mises en oeuvre. La premiere est fondee sur la synthese de commandes lineaires a parametres fixes suivant l'approche h du probleme de stabilisation robuste (approche h frequentielle puis approche h dans l'espace d'etat - probleme a sensibilite mixte). La seconde est fondee sur la commande adaptative directe avec modele de reference et algorithmes d'adaptation robustes. Derivee de cette derniere etude, deux schemas de commandes adaptatives directes, permettant d'ameliorer le comportement du systeme lors de la phase transitoire d'adaptation des parametres, sont alors proposes et mises en oeuvres. Le premier schema est fonde sur l'introduction de contraintes sur l'evolution de la commande, definies par rapport au comportement de certains parametres estimes. Le second schema est fonde, quant a lui, sur la combinaison d'une commande adaptative avec une commande h a parametres fixes, stigmatisee par une boucle auxiliaire de commande reactive a l'erreur de sortie. In fine, ce memoire comporte l'expression de nos conclusions et de prolongations potentielles de nos travaux.
APA, Harvard, Vancouver, ISO, and other styles
15

Lachaud, Jacques-Olivier. "Extraction de surfaces à partir d'images tridimensionnelles : approche discrète et approche par modèle déformable." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004892.

Full text
Abstract:
Cette thèse porte sur l'extraction de représentations géométriques à partir d'images tridimensionnelles. Ces représentations ont d'importantes applications dans les domaines médicaux (examen non invasif et simulation, détection de pathologies, chirurgie assistée par ordinateur, fabrication de prothèses, etc) et biologiques (analyse des structures microscopiques et de leur fonctionnement). Deux approches peuvent être suivies~ : - Les méthodes de reconstruction discrète fournissent rapidement une représentation géométrique de ces données, mais laissent de côté l'aspect segmentation de l'image en ses constituants. Parmi ces méthodes, les plus utilisées sont~ : le marching-cubes, qui construit une surface triangulée, et le suivi de surface, qui délimite une surface digitale. En introduisant des considérations de topologie digitale, nous montrons l'équivalence de ces deux représentations. De cette manière, leurs propriétés respectives peuvent être combinées efficacement. - Les méthodes basées sur les modèles déformables réunissent les opérations de segmentation et de reconstruction en un seul processus~ : le modèle recherche les constituants de l'image en se déformant sous l'action de contraintes externes, issues de l'image, et internes, dérivées de sa structure géométrique. Les modèles existants sont souvent limités à l'extraction de formes simples. Nous proposons un modèle déformable générique, basé sur une triangulation de surface, et capable d'adapter automatiquement la topologie de sa maille aux déformations imposées à sa géométrie. Cette capacité permet au modèle d'appréhender les formes arbitrairement complexes de l'image et de les extraire de l'esquisse aux détails par une approche multi-résolution. Enfin, nous présentons l'application de ce modèle à des données biomédicales de modalités variées. Les résultats sont comparés à ceux obtenus par reconstruction discrète, puis combinés afin de tirer parti des avantages spécifiques des deux approches.
APA, Harvard, Vancouver, ISO, and other styles
16

Barolle, Victor. "Approche matricielle de la tomographie à cohérence optique." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLET012.

Full text
Abstract:
Les techniques de microscopie interférométrique présentent une sensibilité aux aberrations qui limite leurs pouvoirs de résolution et de pénétration. Initialement développées en astronomie, des méthodes d'optique adaptative ont été transposées en microscopie afin de compenser les effets dues aux aberrations. Celles-ci reposent principalement sur la mesure du front d'onde et sur la correction en boucle fermée des aberrations à l'aide de dispositifs de contrôle du front d'onde. Ces méthodes sont toutefois limitées par les cadences de mesure et de correction, et ne peuvent compenser que des aberrations d'ordres peu élevés.L'objectif de cette thèse est de proposer une approche matricielle innovante reposant sur l'étude d'un nouvel opérateur, la matrice distorsion, permettant de quantifier localement les paramètres liés aux aberrations et à la diffusion, et de corriger les aberrations sur l'ensemble du champs de vision. En parallèle, nous présentons un formalisme mathématique permettant d'expliquer la manifestation des aberrations en OCT plein champ et étendons le champ d'application de la méthode matricielle à de vastes champs de vision au moyen d'un dispositif expérimental de mesure de la matrice de réflexion inspiré de cette technique d'imagerie
Interferometric techniques of microscopy display sensitivity to aberrations affecting both resolution and depth of imaging. Formerly introduced in astronomy, different methods of adaptive optics have been applied to microscopy in order to compensate for these effects. Most of them rely on the measurement of the wave front and on a close-loop correction of the aberrations using wave-front control devices. These methods are nevertheless limited by the rates of measurement and correction and can only compensate for low-order aberrations.The purpose of this thesis is to present an innovative matrix approach relying on the analysis of a new operator, the distorsion matrix, allowing to locally quantify the scattering and aberration parameters, and to compensate for the aberrations over the whole field of view. Besides, we introduce a mathematical formalism in order to describe the effects of aberrations in full-field OCT and we extend the scope of the matrix approach to very large fields of view thanks to an experimental setup of reflection matrix measurement inspired by this technique of imaging
APA, Harvard, Vancouver, ISO, and other styles
17

Boucher, Alain. "Une approche décentralisée et adaptative de la gestion d'informations en vision ; application à l'interprétation d'images de cellules en mouvement." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004805.

Full text
Abstract:
Cette thèse propose une nouvelle approche de la vision par ordinateur, insistant sur le rôle joué par les différentes informations et connaissances présentes dans un système intégré de vision. Ces connaissances peuvent être vues comme un but à atteindre dans la chaine de traitement ou comme un instrument pour guider ces différents traitement. Ce double rôle est mis en évidence en insistant sur la gestion des informations disponibles à tout moment pour effectuer la tâche de reconnaissance. Une approche distribuée est proposée, sous la forme d'un système multi-agents, où chaque agent est spécialisé pour la reconnaissance d'un concept de l'image. Le modèle générique d'agent est composé de quatre comportements de base : perception (croissance de région, suivi de contour), interaction (fusion de primitives), différenciation (interprétation de primitive) et reproduction (stratégie de focalisation des agents). Ces comportements prennent des décisions à l'aide d'évaluations multi-critères, faisant référence à plusieurs critères spécialisés. Des capacités d'adaptation et de coopération sont nécessaires aux agents pour mener à bien leurs tâches, et ce tant au niveau local qu'au niveau des groupes d'agents (travaillant sur un même groupement perceptuel). Ce système est appliqué pour la reconnaissance des cellules en mouvement. Chaque cellule est divisée en plusieurs composantes (noyau, pseudopode, cytoplasme, ...) qui servent de concepts de base pour la spécialisation des agents.
APA, Harvard, Vancouver, ISO, and other styles
18

Moyne, Oriane. "Approche métabolomique pour l'étude de l'évolution adaptative de Pseudomonas aeruginosa au cours des infections pulmonaires chroniques dans la mucoviscidose." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAS003/document.

Full text
Abstract:
L’infection pulmonaire chronique à Pseudomonas aeruginosa (P. a.) est considérée comme la principalecause de morbidité et de mortalité liée à la mucoviscidose. Au cours de cette infection persistante, labactérie s'adapte à l’environnement pulmonaire caractéristique de ces patients et évolue avec son hôtependant des décennies. Cette évolution adaptative est portée par les phénotypes, avec notamment unediminution de la virulence et une augmentation de la résistance aux antibiotiques au cours du temps. Bienque plusieurs études aient tenté d’évaluer les mécanismes génétiques de cette évolution, il demeureaujourd’hui difficile d’expliquer les relations entre les mutations accumulées dans le génome bactérien etl’expression de phénotypes cliniquement pertinents, ou encore de corréler ces mutations avec l’état desanté du patient.Nous proposons dans ce travail d’étudier les mécanismes sous-tendant cette évolution adaptative à unniveau d’observation post-génomique : la métabolomique. Dernière-née des disciplines –omiques, lamétabolomique permet la prise de vue instantanée du métabolisme, et offre une vision au plus proche duphénotype. Pour cela, nous avons constitué une banque de lignées clonales évolutives de P. a. prélevéesau cours de l’infection pulmonaire chronique chez des patients atteints de mucoviscidose. Cette banque aensuite été caractérisée aux plans clinique, phénotypique et métabolomique. L’intégration de ces différentsniveaux d’information par des méthodes statistiques multi-tableaux nous a permis de mettre en évidencedes voies métaboliques impliquées dans la patho-adaptation de P. a. à son hôte.Nos résultats permettent de faire émerger de nouvelles hypothèses pour le développement d’outilsthérapeutiques et diagnostiques visant à améliorer la prise en charge de ces infections particulièrementrésistantes aux antibiotiques. De plus, nos travaux démontrent l’intérêt de la métabolomique pour l’étudede l’évolution adaptative bactérienne en conditions naturelles
Chronic lung infection with Pseudomonas aeruginosa (P. a.) is considered as the leading cause of cysticfibrosis (CF) morbidity and mortality. During this persistent infection, the bacterium adapts to the typical lungenvironment of these patients and evolves within its host for decades. This adaptive evolution is driven byphenotypes, including a decrease in virulence and an increase in antibiotic resistance over time. Althoughseveral studies have attempted to elucidate the genetic mechanisms of this evolution, it remains difficulttoday to explain the relationships between the accumulated genomic mutations and the expression ofclinically relevant phenotypes, or to correlate these mutations with the patient’s health status.In this work, we propose to study the mechanisms underlying this adaptive evolution at a post-genomicobservation level: metabolomics. Metabolomics, the newest of the -omics disciplines, provides an instantview of the metabolic activities, and furnishes a vision as close as possible to the phenotype. To this end,we constructed a bank of evolutive clonal P. a. lineages sampled during chronic lung infection in patientswith CF. This bank was then clinically, phenotypically and metabolomically characterized. Integration ofthese different levels of information by multi-block statistical methods has allowed us to highlight metabolicpathways involved in within-host patho-adaptation of P. a. .Our results rise new hypotheses for the development of therapeutic and diagnostic tools with the aim ofimproving the management of these infections particularly resistant to antibiotics. In addition, our workdemonstrates the interest of metabolomics to study bacterial adaptive evolution under natural conditions
APA, Harvard, Vancouver, ISO, and other styles
19

Teixeira, Joël. "Nouvelle approche de mesure de front d'onde sans analyseur pour la microscopie à deux photons : application à l'imagerie in vivo de l'hippocampe." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEO017/document.

Full text
Abstract:
L’imagerie en profondeur in vivo à deux photons est sévèrement limitée par les aberrations optiques. L'optique adaptative est maintenant une technique largement utilisée pour résoudre ce problème. Elle repose sur une des nombreuses techniques possibles de mesure de front d'onde. L'estimation du front d'onde indirecte ou sensorless présente l'avantage d'être facile à mettre en œuvre sur les systèmes existants.L'approche modale sensorless, développée initialement pour l’imagerie à deux photons par Débarre et al., est devenue une technique standard fondée sur la maximisation d'une métrique de qualité d'image telle que l'intensité moyenne de l'image.Cependant, le front d'onde indirectement inféré est influencé par l'échantillon, qui peut induire un biais fort dans l'estimation. Cet effet est connu sous le nom de dépendance en l'échantillon.Ce travail de doctorat vise à développer une approche modale sensorless améliorée qui n'est pas affectée par la dépendance en l'échantillon. J'ai d'abord étudié l'impact des aberrations et de la structure de l'échantillon sur l'intensité moyenne de l'image.Je donne une nouvelle expression analytique de l'intensité moyenne de l'image est donnée qui rend explicite l'interaction entre la forme de la PSF 3D et la distribution spatiale de l'échantillon. À partir de simulations numériques, je montre que la sensibilité de la métrique aux aberrations est préservée pour des échantillons beaucoup plus grands que la résolution spatiale. Deuxièmement, j'étudie l'approche Standard Modal Sensorless (SMS) pour différents types d'échantillons.Je caractérise le problème de la dépendance en l'échantillon induit par des structures très fluorescentes situées hors de la profondeur de focalisation.Ensuite, je montre que la technique displacement-free n’élimine pas complètement la dépendance en l'échantillon.Cette analyse aboutit au développement de notre approche nommée Axially-Locked Modal Sensorless (ALMS). Cette nouvelle approche résout la dépendance en l'échantillon par un réglage automatique et contrôlé de la profondeur de focalisation afin de verrouiller la focalisation sur des motifs brillants de l'échantillon. En outre, l'approche ALMS se fonde également sur une métrique de qualité d'image spécialement conçue pour ce verrouillage. La performance de cette approche est numériquement comparée aux approches SMS et displacement-free. Enfin, ALMS est validée par des tests expérimentaux ex vivo et in vivo
Deep in vivo two-photon microscopy is severely limited by optical aberrations. Adaptive optics is now a widely used technique to overcome this issue. It relies on one of several possible wavefront sensing techniques. Indirect or sensorless wavefront estimation has the advantage of being easy-to-implement on existing systems. Modal sensorless approach, initially developed for two photon imaging by Débarre et al., has become a standard technique based on the maximization of an image quality metric such as the mean image intensity.However, the indirectly inferred wavefront is influenced by the sample, which may induce a strong bias in the estimation, the so-called sample dependence. This PhD work aims at developing an improved modal sensorless approach that is not affected by sample dependence.I first study the impact of aberrations and of the sample structure on the mean image intensity.A new analytical expression of the mean image intensity is given and makes explicit the interplay between the shape of the 3D PSF and the sample spatial distribution. Through numerical simulations I show that the metric sensitivity to aberrations is preserved for samples much larger than the spatial resolution.Secondly, I study the Standard Modal Sensorless (SMS) approach for different sample scenarios. I characterize the sample dependence issue induced by strong fluorescent structures located out-of-focus. Then, I show that the displacement-free technique fails at fully removing the sample dependence. This analysis leads to the development of our Axially-Locked Modal Sensorless approach (ALMS). This new approach solves the sample dependence by an automatic and controlled adjustment of the focusing depth so as to lock on bright sample features. Furthermore, the ALMS approach is based on a specifically designed image quality metric.The performance of this approach is numerically compared with the SMS and the displacement-free approaches. Finally, ALMS is demonstrated through ex vivo and in vivo experimental tests
APA, Harvard, Vancouver, ISO, and other styles
20

Duchesnay, Edouard. "Agents situés dans l'image et organisés en pyramide irrégulière : contribution à la segmentation par une approche d'agrégation coopérative et adaptative." Phd thesis, Université Rennes 1, 2001. http://tel.archives-ouvertes.fr/tel-00944164.

Full text
Abstract:
Les agents situés dans l'image fournissent un cadre privilégié pour la mise en oeuvre de stratégies coopératives et localement adaptées en segmentation d'image. Ils facilitent l'intégration des connaissances a priori, expressions d'un modèle, permettant ainsi de dégager de nouvelles contraintes indispensables à toutes les étapes de la vision par ordinateur (de la segmentation à l'interprétation). Nous proposons un cadre conceptuel pour l'architecture logicielle d'un système de vision bas-niveau basée sur des agents situés dans l'image. Une telle architecture est articulée en trois niveaux d'analyse et de description : 1. Description globale et structurelle de l'organisation regroupant les agents. Cette étape de description s'attache à établir les liens entre agents. Nous proposons comme élément organisationnel la pyramide irrégulière qui impose sa structure à la population d'agents, afin de garantir un comportement globalement contrôlable et convergent de ces derniers. 2. Description locale, fonctionnelle et comportementale des agents composant le système. Nous proposons une mise en oeuvre particulière de l'architecture logicielle de vision bas-niveau. Dans cette dernière, deux familles d'agents, qui traduisent des primitives région et contour, interagissent localement au sein de la pyramide. Notre objectif est de montrer comment cette méthodologie permet une implémentation riche, flexible et distribuée des aspects précédemment identifiés; à savoir : l'adaptation locale, l'intégration et l'expression d'incertitudes dans l'information a priori et des traitements coopératifs région/région et région/contour. 3. Finalement, une analyse globale, comparative et fonctionnelle vérifie que l'ensemble des interactions locales produit une bonne segmentation des images. Nous comparons notre approche avec d'autres méthodes de segmentation sur des images médicales et des images de synthèse.
APA, Harvard, Vancouver, ISO, and other styles
21

Gadenne, Hélène. "Les effets des changements climatiques et des changements d’usages sur les oiseaux d’eau migrateurs : une approche mécaniste chez un oiseau emblématique, la Cigogne blanche." Thesis, Poitiers, 2012. http://www.theses.fr/2012POIT2278/document.

Full text
Abstract:
Comprendre les adaptations qui permettent aux espèces de vivre dans des environnements variables, temporellement et spatialement, est essentiel pour prédire la façon dont elles peuvent répondre aux changements globaux actuels et futurs. De nombreuses études à long terme ont montré que les fluctuations climatiques affectaient la dynamique des populations, mais l'influence relative des processus de sélection d'habitat et de densité-dépendance sur la sélection d'habitat est encore mal connue et expliquée. L'objectif de cette thèse est donc d'étudier, d'une part, par une approche corrélative, la sélection d'habitat densité-dépendante à quatre échelles spatiales différentes, chez une population de cigognes blanches (Ciconia ciconia) en augmentation; et d'autre part, par une approche mécaniste, d'étudier les effets relatifs du climat, de l'habitat et de l'expérience des reproducteurs en termes de fitness (nombre de jeunes produits, condition corporelle des jeunes et sexe-ratio) chez cet oiseau, suivi depuis 30 ans dans un milieu sensible, les zones humides de l'ouest de la France, en Charente-Maritime. Ce travail a contribué à identifier des mécanismes qui conduisent aux décisions de sélection d'habitat de nidification qui restaient encore mal compris, et appuie les travaux qui montrent que la dégradation des habitats par les activités humaines peut influer sur les décisions de sélection d'habitat. De plus, ces résultats apportent des informations essentielles à la compréhension des adaptations de cette population dans un environnement variable, ce qui permet de prédire plus efficacement le devenir de la population face aux changements environnementaux futurs
Understanding adaptations that allow species to live in temporally and spatially variable environments is crucial to predict how species may respond to current and future global changes. Long-term studies have shown that climatic variations affect the dynamic of populations. However, the relative influence of habitat selection and density-dependence processes is still poorly understood and explained. The aim of this thesis is, firstly by a correlative approach, to investigate the density-dependent habitat selection at varying spatial scales in an increasing white stork (Ciconia ciconia) population. Secondly, by a mechanistic approach, we studied the relative effects of climate, habitat and breeder experience in terms of reproductive fitness (fledging success, body condition and sex ratio) in this population monitored for 30 years in a sensitive wetland in Charente-Maritime, western France. This work helped identifying the mechanisms that lead to nesting habitat selection. This work supports research showing that habitat degradation by human activities may affect habitat selection decisions. In addition, these results provide crucial information to understand the adaptations of this population in a changing environment, which allows predicting more efficiently the response of the population to future environmental changes
APA, Harvard, Vancouver, ISO, and other styles
22

Cherkashyn, Valeriy. "Représentation adaptative d'images de télédétection à très haute résolution spatiale une nouvelle approche hybride (la décomposition pyramidale avec des réseaux de neurones)." Thèse, Université de Sherbrooke, 2011. http://hdl.handle.net/11143/5831.

Full text
Abstract:
Résumé: De nos jours l’observation de la terre à l’aide d’images satellitaires de très haute résolution spatiale (Ikonos, Quickbird, World View-2) donne de nombreuses possibilités pour gérer de l’information à l’échelle mondiale. Les technologies actuelles d’acquisition d’information sont à l’origine de l’augmentation importante du volume des données. L’objectif général de cette thèse consiste à développer une nouvelle méthode hybride de représentation d’image numérique de très haute résolution spatiale qui améliore la qualité visuelle d’images compressée avec un haut niveau de compression (100 fois et plus). La nouvelle méthode hybride exploite la transformation pyramidale inverse d’image numérique en utilisant des réseaux de neurones artificiels. Elle combine le traitement spatial et la transformation abstraite de l’image. L’emploi de l’approche de la transformation pyramidale inverse a démontré l’efficacité du traitement de l’information à une ou à des échelles spécifiques, sans interférer ou ajouter un temps de calcul inutile. Cette approche est essentielle pour réaliser une transformation progressive d’image. Les résultats montrent une amélioration du rapport signal pur bruit de 4 dB pour chaque couche additionnelle de la transformation progressive. Nous avons réussi à garder une qualité visuelle d’images compressées comparable, jusqu’au niveau de la compression de 107 fois. De plus, pour le niveau de la compression de 274 fois, nous avons obtenu une amélioration de la qualité visuelle en comparaison des méthodes de compression courantes (JPEG, JPEG2000). Les résultats du travail confirment l’hypothèse que les images de télédétection possèdent un haut degré de redondance et que l’utilisation d’un réseau de neurones est un bon moyen pour trouver l’opérateur efficace du regroupement de pixels. Cette nouvelle méthode de représentation d’images à très haute résolution spatiale permet de réduire le volume des données sans détérioration majeure de la qualité visuelle, comparé aux méthodes existantes. Enfin, nous recommandons de poursuivre l’exploration du domaine des calculs distribués tels que les réseaux des neurones artificiels, considérant l’augmentation de la performance des outils informatiques (nanotechnologies et calculs parallèles). || Abstract: Earth observations using very high-resolution satellite imagery, such as from Ikonos, QuickBird or WorldView-2, provide many possibilities for addressing issues on a global scale. However, the acquisition of high-resolution imagery using these technologies also significantly increases the volume of data that must be managed. With the passing of each day, the number of collected satellite images continues to increase. The overall objective of this work is to develop new hybrid methods for numerical data representation that improve the visual quality of compressed satellite visible imagery for compression levels of 100 times and more. Our new method exploits the inverse pyramid transform using artificial neural networks, and thus addresses the trend in the field of remote sensing and image compression towards combining the spatial processing and abstract transformation of an image. Our implementation of the pyramidal inverse transformation demonstrates the effectiveness of information processing for specific levels, without interfering or adding unnecessary computation time. This approach is essential in order to achieve a gradual transformation of an image. The results showed an improvement in the signal to noise ratio of 4dB for each additional layer in the pyramidal image transformation. We managed to keep a similar level of visual quality for the compressed images up to a compression level of 107 times. In addition, for a compression level of 274, we improved the visual quality as compared to standard compression methods (JPEG, JPEG2000). The results of this study confirm the hypothesis that remote sensing images have a high degree of redundancy and that the use of neural networks is a good way to find the effective operator of the pixel combination. This new method for image representation reduces the volume of data without major deterioration in the visual quality of the compressed images, as compared to existing methods. Finally, we recommend further exploration in the field of distributed computing, such as artificial neural networks, considering the rapidly increasing performance of computers in the near future (parallel computing technology and nanotechnology).
APA, Harvard, Vancouver, ISO, and other styles
23

Gadenne, Hélène. "Les effets des changements climatiques et des changements d'usages sur les oiseaux d'eau migrateurs : une approche mécaniste chez un oiseau emblématique, la Cigogne blanche." Phd thesis, Université de Poitiers, 2012. http://tel.archives-ouvertes.fr/tel-00748802.

Full text
Abstract:
Comprendre les adaptations qui permettent aux espèces de vivre dans des environnements variables, temporellement et spatialement, est essentiel pour prédire la façon dont elles peuvent répondre aux changements globaux actuels et futurs. De nombreuses études à long terme ont montré que les fluctuations climatiques affectaient la dynamique des populations, mais l'influence relative des processus de sélection d'habitat et de densité-dépendance sur la sélection d'habitat est encore mal connue et expliquée. L'objectif de cette thèse est donc d'étudier, d'une part, par une approche corrélative, la sélection d'habitat densité-dépendante à quatre échelles spatiales différentes, chez une population de cigognes blanches (Ciconia ciconia) en augmentation; et d'autre part, par une approche mécaniste, d'étudier les effets relatifs du climat, de l'habitat et de l'expérience des reproducteurs en termes de fitness (nombre de jeunes produits, condition corporelle des jeunes et sexe-ratio) chez cet oiseau, suivi depuis 30 ans dans un milieu sensible, les zones humides de l'ouest de la France, en Charente-Maritime. Ce travail a contribué à identifier des mécanismes qui conduisent aux décisions de sélection d'habitat de nidification qui restaient encore mal compris, et appuie les travaux qui montrent que la dégradation des habitats par les activités humaines peut influer sur les décisions de sélection d'habitat. De plus, ces résultats apportent des informations essentielles à la compréhension des adaptations de cette population dans un environnement variable, ce qui permet de prédire plus efficacement le devenir de la population face aux changements environnementaux futurs.
APA, Harvard, Vancouver, ISO, and other styles
24

Bakhouya, Mohamed. "Approche auto-adaptative à base d'agents mobiles et inspirée du système immunitaire de l'Homme pour la découverte de services dans les réseaux à grande échelle." Besançon, 2005. http://www.theses.fr/2005BESA2018.

Full text
Abstract:
Dans ce travail, une approche auto-adaptative, basée sur les agents mobiles et inspirée du système immunitaire de l'Homme, pour la découverte de services dans un réseau à grande échelle est présentée. Le système immunitaire possède un ensemble de principes de fonctionnement tels que l'auto-régulation et l'auto-organisation qui lui permettent de s'adapter à un environnement dont l'évolution est dynamique et aléatoire. L'utilisation de ces principes permet, d'une part, de réguler dynamiquement et d'une manière distribuée la taille d'une population d'agents mobiles et d'autre part, d'organiser les serveurs en communautés par la création de réseaux d'affinités pour représenter les services dans le réseau. L'établissement des liens affinités entre les serveurs permet de résoudre, par collaboration, les requêtes des utilisateurs. Un mécanisme d'apprentissage par renforcement des valeurs des liens d'affinités entre les serveurs est présenté. Ce mécanisme d'apprentissage permet au système de découverte de s'adapter d'une manière dynamique à la disponibilité des services et aux requêtes des utilisateurs
In this work, a self-adaptive approach based on mobile agent paradigm and inspired by the human immune system for dynamic service discovery in large scale network is presented. The immune system has a set of organizing principles such as self-organization and self-regulation that enable it to be adapted to dynamic environment. These principles are used, in one hand, to dynamically regulate the population size of mobile agents and, in the other hand, to organize servers into communities by the creation of affinity relationships in order to represent services in the network. The establishment of relationship affinities between servers allows to solve, by collaboration, the user requests. A reinforcement learning mechanism by dynamic adjustment of relationship affinity values is presented. This reinforcement mechanism permits to the to cope with dynamic changes in the network, the services availability and the user requests
APA, Harvard, Vancouver, ISO, and other styles
25

Llau, Antoine. "Méthodes de simulation du comportement mécanique non linéaire des grandes structures en béton armé et précontraint : condensation adaptative en contexte aléatoire et représentation des hétérogénéités." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI029/document.

Full text
Abstract:
Les structures en béton et béton armé de grandes dimensions, en particulier les enceintes de confinement, peuvent être sujettes à de la fissuration localisée suite à leur vieillissement ou dans le cas d’une forte sollicitation (APRP, par exemple). Afin d’optimiser les actions de maintenance, il est nécessaire de disposer d’un modèle prédictif de l’endommagement du béton. Ce phénomène se produit à une échelle matériau relativement petite et un modèle prédictif nécessite un maillage fin et une loi de comportement non linéaire. Hors ce type de modélisation ne peut être directement appliquée sur une structure de génie civil de grande échelle, le calcul étant trop lourd pour les machines actuelles.Une méthode de calcul est proposée, qui concentre l’effort de calcul sur les zones d’intérêt (parties endommagées) de la structure en éliminant les zones non endommagées. L’objectif est ainsi d’utiliser la puissance de calcul disponible pour la caractérisation des propriétés des fissures notamment. Cette approche utilise la méthode de condensation statique de Guyan pour ramener les zones élastiques à un ensemble de conditions aux limites appliquées aux bornes des zones d’intérêt. Lorsque le système évolue, un système de critères permet de promouvoir à la volée des zones élastiques en zones d’intérêt si de l’endommagement y apparaît. Cette méthode de condensation adaptative permet de réduire la dimension du problème non linéaire sans altérer la qualité des résultats par rapport à un calcul complet de référence. Cependant, une modélisation classique ne permet pas de prendre en compte les divers aléas impactant le comportement de la structure : propriétés mécaniques, géométrie, chargement… Afin de mieux caractériser ce comportement en tenant compte des incertitudes, la méthode de condensation adaptative proposée est couplée avec une approche de collocation stochastique. Chaque calcul déterministe nécessaire pour caractériser les incertitudes sur les grandeurs d’intérêt de la structure est ainsi réduit et les étapes de prétraitement nécessaires à la condensation sont elles-mêmes mutualisées via une deuxième collocation. L’approche proposée permet ainsi de produire pour un coût de calcul limité des densités de probabilités des grandeurs d’intérêt d’une grande structure. Les stratégies de résolution proposées rendent accessibles à l’échelle locale une modélisation plus fine que celle qui pourrait s’appliquer sur l’ensemble de la structure. Afin de bénéficier d’une meilleure représentativité à cette échelle, il est nécessaire de représenter les effets tridimensionnels des hétérogénéités. Dans le domaine du génie civil et nucléaire, cela concerne au premier chef les câbles de précontrainte, traditionnellement représentés en unidimensionnel. Une approche est donc proposée, qui s’appuie sur un maillage et une modélisation 1D pour reconstruire un volume équivalent au câble et retransmettre les efforts et rigidités dans le volume de béton. Elle combine la représentativité d’un modèle 3D complet et conforme des câbles lorsque le maillage s’affine et la facilité d’utilisation et paramétrage d’un modèle 1D. L’applicabilité des méthodes proposées à une structure de génie civil de grande échelle est évaluée sur un modèle numérique d’une maquette à l’échelle 1/3 de l’enceinte de confinement interne d’un réacteur de type REP 1300 MWe à double paroi
Large-scale concrete and reinforced concrete structures, and in particular containment buildings, may undergo localized cracking when they age or endure strong loadings (LOCA for instance). In order to optimize the maintenance actions, a predictive model of concrete damage is required. This phenomenon takes place at a rather small material scale and a predictive model requires a refined mesh and a nonlinear constitutive law. This type of modelling cannot be applied directly on a large-scale civil engineering structure, as the computational load would be too heavy for the existing machines.A simulation method is proposed to focus the computational effort on the areas of interest (damaged parts) of the structure while eliminating the undamaged areas. It aims at using the available computing power for the characterization of crack properties in particular. This approach uses Guyan’s static condensation technique to reduce the elastic areas to a set of boundary conditions applied to the areas of interest. When the system evolves, a set of criteria allows to promote on the fly the elastic areas to areas of interest if damage appears. This adaptive condensation technique allows to reduce the dimension of a nonlinear problem without degrading the quality of the results when compared to a full reference simulation.However, a classical modelling does not allow to take into account the various unknowns which will impact the structural behaviour: mechanical properties, geometry, loading… In order to better characterize this behaviour while taking into account the various uncertainties, the proposed adaptive condensation method is coupled with a stochastic collocation approach. Each deterministic simulation required for the characterization of the uncertainties on the structural quantities of interest is therefore reduced and the pre-processing steps necessary to the condensation technique are also reduced using a second collocation. The proposed approach allows to produce for a reduced computational cost the probability density functions of the quantities of interest of a large structure.The proposed calculation strategies give access at the local scale to a modelling finer than what would be applicable to the full structure. In order to improve the representativeness at this scale, the tridimensional effects of the heterogeneities must be taken into account. In the civil and nuclear engineering field, one of the main issues is the modelling of prestressing tendons, usually modelled in one dimension. A new approach is proposed, which uses a 1D mesh and model to build a volume equivalent to the tendon and redistribute the forces and stiffnesses in the concrete. It combines the representativeness of a full conform 3D modelling of the tendon when the mesh is refined and the ease of use of the 1D approaches.The applicability of the proposed methodologies to a large-scale civil engineering structure is evaluated using a numerical model of a 1/3 mock-up of a double-wall containment building of a PWR 1300 MWe nuclear reactor
APA, Harvard, Vancouver, ISO, and other styles
26

Fassinut-Mombot, Bienvenu. "Contribution à la fusion d'information par une approche entropique : algorithme et architecture dans un contexte de perception multi-sources." Littoral, 2002. http://www.theses.fr/2002DUNK0074.

Full text
Abstract:
Le travail présenté dans ce mémoire concerne l'étude et la mise en œuvre d'un algorithme et son architecture distribuée pour la fusion d'informations multi-sources. L'algorithme d'Agrégation Adaptative Entropique (A2E) développé, repose sur l'utilisation de critères entropiques pour combiner l'ensemble des informations et pour décider sur le comportement éventuel du système de perception. Le Modèle de Fusion Entropique (MFE) vise à réduire l'espace de combinaison du système de perception en exploitant explicitement la dualité redondance-complémentarité des sources d'information. Un exemple applicatif est donné pour valider les performances du Modèle de Fusion Entropique. Nous montrons à travers une implantation parallèle ou distribuée de l'algorithme A2E sur une grappe de stations fonctionnant en mode MIMD-NORMA avec une communication par passage de messages, que l'utilisation de l'environnement SynDEx pour l'écriture et l'implantation du code exécutable permet d'obtenir d'excellentes performances par rapport à PVM. Cependant, bien que la progression des performances de SynDEx soit linéaire, le surcoût introduit par les primitives de communication de PVM diminue fortement avec l'augmentation de la taille des messages
The aim of this thesis is the study and the implementation of an algorithm and its distributed architecture for multi-source information fusion. The Entropy Adaptative Aggregation (EA2) algorithm developed, is based on the use of entropy criteria to combine the set of information and to decide on the possible behavior of the perception system. The aim of Entropy Fusion Model (EFM) is to reduce the combination space of the perception system using an explicit representation of the redundancy-complementarity duality of the information sources. An applicative example is given to validate the performance of Entropy Fusion Model. We show with the implementation of the EA2 algorithm on a cluster of hosts running in mode MIMD-NORMA and communicating by message passing, that the use of SynDEx for writing and implementing of the executable code provides high performance computing compared to PVM. However, although the progression of the SynDEx performances is linear, the overhead introduced by the PVM libraries communication strongly decreases with the increase of message size
APA, Harvard, Vancouver, ISO, and other styles
27

Audibert, Jean-Yves. "Théorie statistique de l'apprentissage : une approche PAC-Bayésienne." Paris 6, 2004. http://www.theses.fr/2004PA066003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Magassa, Modibo. "Gestion adaptative des zones humides : une approche de réduction de la vulnérabilité des populations riveraines face aux effets des changements climatiques : exemple du lac Wégnia dans la région de Koulikoro, au Mali." Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/68749.

Full text
Abstract:
Dans un contexte d'incertitude écologique en lien avec la variabilité et les changements climatiques, comment assurer la durabilité des ressources de la zone humide du lac Wégnia dans la région de Koulikoro au Mali, tout en permettant aux communautés riveraines d'en tirer profit ? Telle est la question centrale autour de laquelle s'articule la présente thèse. Pour l'aborder, l'approche de la « gestion adaptative », s'appuyant sur la participation effective des acteurs locaux et la prise en compte de leur savoir écologique traditionnel dans le processus de gestion de ce lac, a été privilégiée. L'approche repose également sur une méthodologie utilisant divers outils complémentaires pour collecter, traiter, et analyser les données. Les enquêtes de terrain et l'analyse des images satellites ont montré la vulnérabilité des ressources naturelles de la zone d'études (en particulier le lac Wégnia) face aux effets des changements climatiques et des activités humaines. Or, les communautés locales concernées tirent directement leur subsistance de ces ressources naturelles. De ce fait, la vulnérabilité des ressources naturelles entraine conséquemment celle des moyens de subsistance de ces communautés. Afin de réduire la vulnérabilité des dites communautés, certaines actions ont été entreprises: l'analyse de la situation du bassin du lac Wégnia ; l'identification des principales menaces et des stratégies locales d'adaptation ; l'élaboration d'un plan d'action amélioré et d'un plan de surveillance ainsi que leur mise en œuvre. Le plan d'action renfermait des activités comme le reboisement autour des lacs Wégnia et Kononi, la construction des cordons pierreux perpendiculairement aux ravins qui débouchent sur le lac Wégnia, la pisciculture en étang, et la mise en place d'un comité de suivi pour la surveillance des réalisations. Enfin, les activités mises en œuvre ont été évaluées après une période d'observation (dont la durée varie en fonction de l'activité) pour tirer des enseignements sur la base des résultats obtenus. De ces enseignements, des recommandations ont été formulées dans la perspective de la conception d'un potentiel futur plan d'action.
In a context of ecological uncertainty linked to climate variability and change, how can the sustainability of the resources of the wetland of Lake Wégnia in the Koulikoro region in Mali be ensured, while allowing neighboring communities to benefit from them? This is the central question around which this thesis revolves. To approach it, the "adaptive management" approach, relying on the effective participation of local actors and the taking into account of their traditional ecological knowledge in the management process of this lake, was favored. The approach is also based on a methodology using various complementary tools to collect, process, and analyze data. Field surveys and analysis of satellite images have shown the vulnerability of natural resources in the study area (particularly Lake Wégnia) to the combined effects of climate change and human activities. However, local communities derive their livelihood directly from these natural resources. As a result, the vulnerability of natural resources consequently leads to the vulnerability of the livelihoods of these communities. In order to reduce the vulnerability of the communities concerned, certain actions were undertaken: the analysis of the situation of the Lake Wégnia basin; identification of the main threats and local adaptation strategies; the development of an improved action plan and a monitoring plan and their implementation. The action plan included activities such as reforestation around lakes Wégnia and Kononi, the construction of stone bunds perpendicular to the ravines that lead to these lakes, fish farming in ponds, and the establishment of a monitoring committee for the monitoring of achievements. Finally, the activities implemented were evaluated after an observation period (the duration of which varied depending on the activity) to draw lessons on the basis of the results obtained. From these lessons, recommendations were made with a view to designing a potential future action plan.
APA, Harvard, Vancouver, ISO, and other styles
29

Nguyen, Ngac-Ky. "Approche neuromimétique pour l'identification et la commande des systèmes électriques : application au filtrage actif et aux actionneurs synchrones." Phd thesis, Université de Haute Alsace - Mulhouse, 2010. http://tel.archives-ouvertes.fr/tel-00605221.

Full text
Abstract:
Cette thèse propose des approches neuromimétiques d'identification et de commande avec des applications directes au Filtre Actif Parallèle (FAP) et au Moteur Synchrone à Aiment Permanent (MSAP). Une structure neuronale complète a été développée pour réaliser toutes les fonctionnalités d'un FAP pour compenser des harmoniques de courant. La phase instantanée et les composantes symétriques d'un système triphasé de tensions ou de courants ont été estimées avec une boucle à verrouillage de phase neuronale. L'identification des harmoniques de courant a été réalisée avec des réseaux de neurones de type Adaline opérant dans les différents repères. Plusieurs schémas de commande ont été développés pour réinjecter les courants de compensation à l'aide d'un onduleur. Ils sont basés sur des techniques neuromimétiques, sur la logique floue, ou sur leur association. Une approche neuronale a été développée pour commander une MSAP à distribution quelconque avec des contraintes prédéterminées réduisant les ondulations du couple. Elle consiste en des schémas de commande directe en couple ou en vitesse pour obtenir les courants statoriques optimaux qui donnent exactement le couple électromagnétique (ou la vitesse) désiré et qui réduisent au maximum les pertes par effet Joule. Ces commandes intègrent deux blocs neuronaux, l'un dédié au calcul des courants optimaux et l'autre pour assurer leur génération à travers un onduleur de tension. Toutes les approches neuromimétiques ont été validées par des tests de simulation et des essais expérimentaux. Des comparaisons avec les méthodes de commande classique démontrent des caractéristiques supérieures en termes de performance et de robustesse.
APA, Harvard, Vancouver, ISO, and other styles
30

Contrada, Francesca. "L’apport de la Constructibilité au pré-design.Évaluation et support au choix des solutions techniques." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1006.

Full text
Abstract:
La conception de bâtiments performants demande la résolution d’un processus complexe, qui voit la participation conjointe de plusieurs acteurs tout au long du cycle de vie du bâtiment. Les standards, de plus en plus nombreux, fournissent des démarches d’accompagnement et d’évaluation permettant de considérer la performance énergétique et d’autres aspects, comme le confort des usagers, les impacts environnementaux et le management du projet. Dans ce cadre, le début de la conception (pré-design) représente une étape prépondérante: les choix opérés à ce moment correspondent à une stratégie qui influence la suite de la conception, la réalisation et l’exploitation. L’anticipation des risques, menaçant la performance du bâtiment et la bonne réussite du processus, demeure à la base de la discipline de la constructibilité. Par contre, en France cette discipline n’est pas vraiment intégrée de façon structurée dans le processus. Ce travail de thèse a le double objectif de faciliter l’introduction de la constructibilité en amont de la phase de conception et de permettre une évaluation des choix techniques en pré-design. Le résultat consiste en une méthode proposant d’accompagner l’assistant à la maîtrise d’ouvrage, ou le concepteur même, dans une démarche d’évaluation et de vérification de la pertinence du pré-design vis-à-vis des spécifications programmatiques et de la constructibilité technique de l’ouvrage. Pour ce faire, l’analyse du projet tient sur sept critères de constructibilité, concernant les enjeux relatifs à la gestion de la performance tout au long du cycle de vie du bâtiment. La démarche s’appuie sur les concepts propres de la constructibilité et sur les outils d’évaluation de la performance. La méthode est mise en situation pour l’évaluation de la constructibilité globale de deux opérations immobilières, ainsi que comme outil de support au choix de diverses solutions d’enveloppe intégrants composants traditionnels ou adaptatifs
Design for efficient buildings is a complex process because of interaction between several stakeholders throughout life cycle phases. Today, many standards allow design to be assist taking in account energy performance and other performance aspects, such as indoor comfort, carbon footprint or project management. In this context, early-design stage plays a key role: early-design choices define design strategies that can influence the following phases (developed design, construction and operational). In order to optimize the whole construction process, constructability sets some principles based on the anticipation of risks about performance variations. Even if some tools and methods exist, in France constructability still needs to be formally integrated in design process. This thesis has two main goals: it aims to introduce the discipline of constructability in early-design stage and, on the other hand, it provides a performance assessment for conceptual design choices. The result consists in an assessment method able to support programme managers and designers to verify early-design relevance concerning constructability and performance aspects. The evaluation is based on seven criteria established by constructability concepts and performance-based tools. The method is applied to three case studies in order to show its applicability for both an early-design holistic assessment and a decision support approach concerning traditional or adaptive envelope components
APA, Harvard, Vancouver, ISO, and other styles
31

Sassi, Ahlem. "Observateurs adaptatifs pour les systèmes à retards." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0178/document.

Full text
Abstract:
En automatique, un observateur joue un rôle primordial dans la commande et la supervision des processus ou encore la détection de défauts, vu sa capacité à fournir des informations sur les valeurs des états non mesurés ou non disponibles. Dans ce contexte, cette thèse porte sur l'estimation non pas uniquement de l'état, mais aussi des paramètres inconnus affectant la dynamique du système de façon simultanée. Ce problème est traité pour des classes de systèmes non linéaires soumis à des retards constants et inconnus. Il représente un enjeu double, tant sur l'estimation conjointe de l'état et des paramètres inconnus, que dans la présence des retards qui affectent la dynamique des systèmes. Dans un premier temps, des observateurs fonctionnels robustes ont été développés pour des systèmes faisant intervenir des non linéarités état-commande et soumis à des retards. Le problème de la robustesse a été considérée, dans un premier temps, pour prendre en compte la présence de perturbations à énergie finie en faisant appel à la théorie Hinfini, et dans un second temps vis-à-vis d'incertitudes paramétriques affectant les paramètres du modèle du système à observer. Des conditions nécessaires et suffisantes pour l'existence des observateurs ont été données à travers la résolution d'équations de Sylvester. Cette résolution a permis de simplifier le problème avec le paramétrage des gains de l'observateur via un seul gain à déterminer. Comme l'étude de la convergence de l'observateur revient à étudier la stabilité de l'erreur d'estimation, la théorie de Lyapunov-Krasovskii dédiée à la stabilité des systèmes à retards a été utilisée en se basant sur une approche de type descripteur. Cette étude a permis d'aboutir à des conditions suffisantes de convergence asymptotique, exprimées sous forme de LMI. Tout au long du mémoire, la synthèse des observateurs a été considérée pour l'ordre plein et l'ordre réduit. Puis, les développements ont été étendus, au cas où on souhaite estimer l'état du système considéré simultanément avec certains paramètres inconnus affectant ce dernier. Deux pistes ont été étudiées à travers ce mémoire : lorsque le vecteur des paramètres inconnus agit linéairement par rapport à la dynamique du système et lorsque les paramètres inconnus agissent non linéairement par rapport à la dynamique du système. L'approche développée a permis d'étudier simultanément la convergence de l'état et des paramètres inconnus, ce qui a permis de relaxer certaines contraintes imposées lors de la synthèse des observateurs adaptatifs dans la littérature, notamment la contrainte d'excitation persistante considérée au niveau de la deuxième piste de recherche. Pour finir, les résultats obtenus ont été étendus à une classe de systèmes singuliers non linéaires, qui, outre les relations dynamiques, fait intervenir des relations algébriques
In automatic control reaserch fields, an observer plays a key role in the control and supervision of processes or the detection of faults, given its ability to provide information on the values of unmeasured or unavailable states. In this context, this thesis deals with the estimation not only of the state but also of the estimation of the unknown parameters affecting the dynamics of the system simultaneously with the state vector. In particular, the problem is addressed for classes of nonlinear systems subject to constant and unknown delays. This problem represents a dual challenge, both on joint estimation of unknown state and parameters, as well as the presence of delays that affect the system dynamics. First, functional observers were developed for systems subject to time delays and involving state-input nonlinearities. The problem of robustness was studied, initially, when some finite energy perturbations occured in the system dynamics, which required the H∞ theory in order to attenuate its effects. In a second time, it is treated when parametric uncertainties affect the model parameters. Necessary and sufficient conditions for the existence of observers have been given through the resolution of Sylvester's equations. This resolution made it possible to simplify the problem by setting the observer gains via a single gain to be determined. As the study of the observer's convergence returns to studying the stability of the estimation error, Lyapunov-Krasovskii theory dedicated to the stability of the delay systems was used based on the descriptor transformations. This study lead to sufficient conditions of a symptotic convergence, expressed in terms of LMI. Throughout the dissertation, the synthesis of observers was considered in full and reduced order cases. The developments were then extended to estimate the system states simultaneously with unknown parameters affecting its dynamics. Two approaches have been investigated through this memory: when the vector of the unknown parameters acts linearly with respect to the dynamics of the system and when the unknown parameters act nonlinearly with respect to this dynamics. The approach proposed in this work make it possible to simultaneously estimate the convergence of the state and unknown parameters, which made it possible to relax some constraints considered in the synthesis of adaptive observers in the literature. It concerns particularly the persistent excitation constraint considered in the second approach. Finally, the results obtained have been extended to the class of singular systems, which, in addition to the dynamic relations, involves algebraic relations in their description
APA, Harvard, Vancouver, ISO, and other styles
32

Vendelin, Inga Peperkamp Sharon. "Adaptation des emprunts une approche psycholinguistique /." Saint-Denis : Université de Paris 8, 2008. http://www.bu.univ-paris8.fr/web/collections/theses/VendelinThese.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Vendelin, Inga. "Adaptation des emprunts : une approche psycholinguistique." Paris 8, 2007. http://octaviana.fr/document/124494331#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
L’hypothèse testée dans la présente thèse postule que les adaptations des emprunts résultent d’un calcul de la distance acoustique entre les structures non-natives et les structures natives phonotactiquement légales, c. A. D. Du processus d’assimilation perceptive. Deux aspects de ce processus ont été démontrés : (a) la sensibilité des adaptations immédiates au détail phonétique fin de la langue source, démontrée dans des tests de perception de pseudo-mots français et anglais chez les locuteurs japonais ; (b) la sensibilité des adaptations immédiates au mode de présentation (auditif versus visuel) de mots non-natifs, démontrée sur la base des adaptations de voyelles anglaises par les locuteurs français. De plus, le lien entre la présence des non-adaptations et une bonne discrimination de contrastes concernés par les locuteurs de la langue cible a été mis en évidence. Un modèle d’adaptation perceptive des structures non-natives est proposé
In this thesis I test the hypothesis as to which loanword adaptations result from an evaluation of acoustic distance between non-native structures and phonotactically legal native structures, i. E. From a process of perceptual assimilation. Two aspects of this process have been demonstrated: (a) the sensibility of online adaptations to the fine-grained phonetic detail of the source language, which was shown by testing the perception of French and English /n/-final words by Japanese speakers; (b) the sensibility of online adaptations to the presentation mode (auditif vs visual) of new non-native words, which was shown on the basis of online adaptations of English vowels by French speakers. Moreover, I have found evidence for a link between the presence of non-adaptations in the target language and the capacity of its speakers to correctly discriminate related contrasts in the source language. Finally, a model of perceptual adaptation of non-native structures is proposed
APA, Harvard, Vancouver, ISO, and other styles
34

Souza, Bernardo Severo de. "An adaptative approach for ontology alignment visualization." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2017. http://tede2.pucrs.br/tede2/handle/tede/7471.

Full text
Abstract:
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-06-30T17:33:51Z No. of bitstreams: 1 TES_BERNARDO_SEVERO_DE_SOUZA_COMPLETO.pdf: 5113763 bytes, checksum: a24628d427a0a60b3a6ea0c5200d5dfd (MD5)
Made available in DSpace on 2017-06-30T17:33:51Z (GMT). No. of bitstreams: 1 TES_BERNARDO_SEVERO_DE_SOUZA_COMPLETO.pdf: 5113763 bytes, checksum: a24628d427a0a60b3a6ea0c5200d5dfd (MD5) Previous issue date: 2017-02-20
O aumento do volume de dados n?o estruturados na Web nas ?ltimas d?cadas tem sido impulsionado pelo surgimento de novos meios de comunica??o, dispositivos e tecnologias. Neste contexto se desenvolve a Web Sem?ntica, cujo objetivo ? o de atribuir uma camada de representa??o de conhecimento a esses dados, facilitando o tratamento por processos automatizados. Ontologias s?o elementos chave da Web Sem?ntica, oferecendo uma descri??o dos conceitos e dos relacionamentos entre os mesmos para um dom?nio espec?fico. Entretanto, ontologias de um mesmo dom?nio podem divergir em sua estrutura, granularidade ou terminologia, necessitando que um processo de mapeamento entre as mesmas seja realizado, produzindo um conjunto de correspond?ncias entre entidades semanticamente relacionadas (alinhamento). Um n?mero crescente de abordagens de mapeamento tem surgido na literatura e a necessidade de avaliar e comparar qualitativamente os alinhamentos produzidos se faz presente. Tarefas que fazem uso de alinhamentos passaram a demandar melhores representa??es gr?ficas dos mesmos. Neste contexto, foi realizada uma pesquisa com especialistas em alinhamentos para identificar os aspectos mais importantes em uma visualiza??o de alinhamentos. Este trabalho apresenta ent?o uma abordagem adaptativa de visualiza??o para alinhamentos, que permite ao usu?rio escolher como e o que visualizar, de acordo com prefer?ncias pr?prias ou para uma atividade sendo realizada no momento (cria??o, manipula??o, avalia??o, etc.). Por fim, um prot?tipo foi constru?do com o intuito de validar a solu??o. Os resultados obtidos da avalia??o dos usu?rios com o prot?tipo mostram que a abordagem lida com os problemas que se prop?e a resolver, com uma margem para trabalhos futuros em formas de visualiza??o de alinhamentos.
The increase in the volume of unstructured web data in recent decades has been driven by the arising of new media, devices and technologies. In this context, the Semantic Web was developed, whose objective is to provide a layer of knowledge representation to that data, facilitating the treatment by automated processes. Ontologies are key elements of the Semantic Web, providing a description of the concepts and relationships between them, for a specific domain. However, ontologies of the same domain may differ in structure, granularity or terminology, requiring a process of matching between them to be performed, producing a set of correspondences between semantically related entities (alignment). A growing number of matching approaches have emerged in the literature, and the need to evaluate and qualitatively compare the produced alignments is presented. Tasks that make use of alignments started to demand better graphical representations for it. In this context, a survey was conducted with alignment specialists to identify the most important aspects in an alignment visualization. This work presents an adaptative approach for alignment visualization, that allows users to choose how and what to visualize, according to their own preferences or the task being performed at that moment (creation, manipulation, evaluation, etc.). Finally, a prototype was built with the purpose of validating the solution. The results obtained from the prototype validation with users show that the approach handles the problems it proposes to solve, with a margin for future work on alignment visualization.
APA, Harvard, Vancouver, ISO, and other styles
35

Gonçalves, Eduardo José dos Foros Santos. "Adaptive lighting design as a holistic approach to public lighting." Doctoral thesis, Universidade de Lisboa. Faculdade de Arquitetura, 2016. http://hdl.handle.net/10400.5/12387.

Full text
Abstract:
Tese de Doutoramento para obtenção do grau de Doutor em Design, apresentada na Universidade de Lisboa - Faculdade de Arquitetura.
A iluminação pública alterou profundamente a nossa percepção e uso do espaço urbano nocturno. Compreendida muitas vezes apenas como uma questão técnica em vez de humana, é baseada principalmente no desempenho fotométrico da visão, deixando de fora outras dimensões humanas, como a psicologia da percepção. Actualmente, a iluminação pública está particularmente direccionada para a redução do consumo energético através do uso de novas tecnologias, tal como iluminação adaptativa e fontes de luz LED e o uso de soluções de iluminação standardizados. Neste contexto surge a oportunidade para o desenvolvimento de novas abordagens à iluminação que tirem partido da flexibilidade inerente destes sistemas, melhorando a relação entre o bem-estar do utilizador e o consumo de energia, contribuindo assim para uma prática de design mais sustentável. Com base numa abordagem research through design, foi utilizada uma metodologia mista, de natureza não intervencionista e intervencionista. A partir de uma inicial revisão bibliográfica e da experiência profissional do investigador, considerou-se que adaptabilidade é um importante factor técnico e de design para a melhoria da iluminação pública. Propondo o desenvolvimento de um método orientado para o utilizador, que determine os cenários de iluminação adaptativa para a condição mais adequado e mínima aceitável, considerando uma relação utilizador-espaço específica, com base na percepção de bem-estar do utilizador e a avaliação da qualidade dos cenários configurados. Para apoiar a implementação do método foi desenvolvido um quadro de referência - Continuidade de Luminância Percepcionada como forma de descrever o comportamento da iluminação adaptativa. A informação reunida - objectiva e subjectiva - fornece uma base empírica para que profissionais da iluminação possam criar soluções personalizadas para um contexto físico e humano. Foi formulada a hipótese de investigação que o método proposto, potencia a criação de soluções de iluminação mais ajustadas e flexíveis. Permitindo a adequação de normas suportada em dados objectivos para uma relação utilizador-espaço específica. Dando uma resposta efectiva ao nível do bem-estar do utilizador e da gestão energética, promovendo uma prática de design mais sustentável e melhorando a experiência nocturna. Para testar a hipótese foi executada uma experiência em espaço real como um primeiro caso de estudo na vila de Arraiolos, Portugal. Uma segunda experiência foi realizada com o objectivo de testar a consistência dos dados prévios e confirmar a hipótese primária. Após a análise e validação estatística dos dados recolhidos, foi possível afirmar que a tendência de escolha em ambas as experiências foi muito semelhante, significando que os cenários de iluminação inicialmente considerados como adequados eram reais e significativs, proporcinando elevado nível de apreciação da qualidade da luz. Significa igualmente que existe uma relação entre a configuração da iluminação, distância de visibilidade e a ilusão perceptiva de que um espaço está totalmente iluminado. Mostrou-se ainda que a maioria dos participantes aceitaria iluminação pública adaptativa como prática comum dentro do quadro de referência da Continuidade de Luminância Percepcionada. Com base nos resultados, concluiu-se que o método proposto é uma ferramenta de design válida na concepção de soluções de iluminação pública adaptáveis, confirmando a hipótese primária e secundárias, demonstrando a sua relevância para uma prática de design de iluminação mais sustentável e a melhoria da sustentabilidade do espaço urbano nocturno.
ABSTRACT: Public lighting altered profoundly the way we perceive and use nighttime urban space. It often is understood only as a technical issue rather than a human one, mostly based on photometric visual performance, leaving mostly out other human dimensions such as the psychological perception of light. Currently, public lighting is predominately directed to reducing energy consumption by means of the use of new technologies, such as adaptive lighting and LED light sources and the use of standardized lighting schemes. In this context, there is an opportunity to develop new lighting approaches that take advantage of the inherent flexibility of these systems to improve the relationship between user's well-being and energy management, contributing to a more sustainable design practice. Based on a research-through-design approach, a mixed methodology was used with a non-interventionist and interventionist nature. From literature review and professional experience, we considered that adaptability was an important technological and design factor to improve public lighting. Proposing the development of a user-oriented method that determines adaptive lighting scenarios for the most adequate and minimum acceptable lighting condition, for a specific user-space relationship, based on the user’s perception of well-being and the assessment of the perceived lighting quality of the scenarios. To support the implementation of the method, the Perceived Luminance Continuity framework was developed as a way to describe the adaptive lighting behaviour pattern. The gathered data - objective and subjective - provide an empirical basis for lighting professionals to design customized solutions. We hypothesized that the proposed method, would allow the design of more tailored and flexible lighting solutions. Allowing the adjustment of standards based on objective data for a specific user-space relationship. Promoting a more sustainable design practice that give an effective response to the user’s well-being and energy management, improving the nighttime experience. To test the hypothesis, an outdoor field experiment was conducted as a first case study, in the Village of Arraiolos, Portugal. A second experiment was carried out, aiming to test the consistency of the previous data and confirmation of the primary hypothesis. After analysis and statistical validation of the collected data, we can say that the tendency of choices in both experiments was very similar, meaning that the initial lighting scenarios considered as adequate were real and meaningful, with a high appraisal of lighting quality. It also showed that there was a relationship between the lighting configuration, visibility distance and the perceptual illusion of a fully lit space. Moreover, it shows that the majority of participants would accept adaptive public lighting, as common practice within the Perceived Luminance Continuity framework. Based on the results, we concluded that the proposed method is a valid tool for the design of adaptive public lighting solutions. Confirming the primary and secondary hypothesis, showing its relevance in the development of a more sustainable lighting design practice and improving the sustainability of the urban nighttime space.
APA, Harvard, Vancouver, ISO, and other styles
36

Gros, Pierre-Alexis. "Potentiel adaptatif d'Escherichia coli : approche théorique et expérimentale." Paris 7, 2010. http://www.theses.fr/2010PA077094.

Full text
Abstract:
Les microorganismes sont capables de s'adapter rapidement face à de nouvelles pressions de sélection comme en témoignent l'émergence puis la diffusion de résistances aux antibiotiques. Les mutations, notamment chez les organismes asexués, constituent l'un des principaux moteurs de l'évolution et leur taux d'apparition et leur effet sélectif sont parmi les observables majeures qui déterminent le futur évolutif d'une espèce. Dans ce travail, nous avons voulu déterminer l'effet des nouvelles mutations sur la valeur sélective en utilisant des approches théoriques et expérimentales. Appliquant la théorie de la génétique des populations et le modèle géométrique de Fisher, nous avons montré que la robustesse génétique est favorisée dans les situations où l'efficacité de la sélection naturelle est réduite par une dérive génétique forte et ce quelque soit l'importance de la pression mutationnelle. Cette dérive est particulièrement forte chez les organismes complexes et lorsque les mutations délétères se renforcent mutuellement (épistasie synergique). Nous avons également montré que les mêmes conditions favorisent l'émergence d'épistasie antagoniste. De plus, nous avons mis en évidence un antagonisme entre les effets à long terme et à court terme de la robustesse et de l'épistasie. Enfin, nous avons mis au point un protocole de mesure de valeur sélective utilisant courbes de croissance et compétitions avec une souche &Escherichia coli fluorescente. Nous avons appliqué ce protocole à l'étude de la distribution des effets des mutations sur la valeur sélective chez des lignées d'accumulation de mutations ainsi que pour des mutations touchant un seul gène du chromosome
Microorganisms are capable of large and rapid adaptations when faced with new selective pressures as illustrated by the fast emergence and diffusion of antibiotic resistance. Mutations are the ultimate fuel of evolution especially in asexual organisms. Their rate and their effect are among the most important parameters that determine the evolutionary fate of an organism and estimates of both are sorely needed if we want to understand any aspect of evolution and especially if we want to be able to predict it. In this study using theory and experiments, we try to determine the effects of new mutations. Using the population genetics framework applied to Fisher's geometric model, we show that robustness to mutations can be selected for when the removal of deleterious mutations in an asexual population is limited by genetic drift, regardless of the intensity of the mutational pressure, which can be arbitrarily small. Such drift is found to be more pronounced in complex organisms and when deleterious mutations are mutually reinforcing (synergistic epistasis). We also show that the same conditions can lead to the selection for antagonistic epistasis. In addition, we highlight some possible antagonisms on fitness between the short term and the long term effects of mutational robustness and epistasis. We also developed some fitness assays by means of growth curves and competitions with a fluorescent Escherichia coli strain. We applied these procedures to study the distribution of fitness effects in lineages resulting from a mutation accumulation experiment and from the mutagenesis of a single chromosomal gene
APA, Harvard, Vancouver, ISO, and other styles
37

ACOCELLA, EMILIO CARLOS. "MATHEMATICAL AND EXPERIMENTAL APPROACHES IN SHAPE-ADAPTATIVE VIDEO CODING." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2000. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=7568@1.

Full text
Abstract:
CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO
Esta tese aborda teórica e experimentalmente diversos tópicos de Codificação Adaptativa à Forma de objetos de forma arbitrária. Aspectos associados à representação e à codificação eficiente da intensidade e do contorno de objetos são analisados e são propostas soluções para os problemas identificados. Os métodos introduzidos são testados valendo-se de seqüências de imagens empregadas em trabalhos congêneres. Inicialmente é desenvolvida uma formulação matemática das transformadas adaptativas à forma utilizando operadores lineares e, com base nela, é obtida uma métrica que possibilita a avaliação teórica do desempenho dessas transformadas. A comparação das grandezas obtidas com resultados de experimentos mostram a validade dessa métrica para a finalidade visada. Em seguida é analisada a questão do melhor alinhamento dos coeficientes das transformadas unidimensionais de duas colunas com dimensões distintas e é proposto um método de alinhamento pela fase. Esse método caracteriza-se pela baixa complexidade e os resultados experimentais demonstram o seu desempenho superior ao de outros encontrados na literatura. Problemas específicos da codificação adaptativa à forma referentes à quantização dos coeficientes da transformada empregada são abordados matematicamente para diversas e freqüentes versões de sua implementação. Apresenta-se um método para solucionar simultaneamente os problemas da distorção do valor médio e da correlação do erro do sinal introduzido pela quantização. Constata-se experimentalmente sua maior eficiência de codificação em relação à de outros métodos propostos em trabalhos recentes. Um grande número de possíveis modificações de um codificador de cadeia diferencial, método bastante empregado para a codificação de contorno sem perda, é identificado e avaliado, concluindo-se com a implementação de um método que introduz aquelas mudanças que resultaram em aumento significativo da eficiência de codificação da forma de objetos. Por fim, propõe-se um esquema genérico de decomposição em subbandas através de uma transformada wavelet discreta adaptativa à forma. Os resultados dos experimentos realizados permitem concluir que o esquema oferece perspectivas de obtenção de eficiência de codificação superior à da transformada cosseno discreta adaptativa à forma, sobreturde em baixas taxas de bits por pixel.
This thesis investigates shape adaptative coding of arbitrarily shaped segments. The texture and contour coding efficiency is discussed and solutions to tackle the associated problems are proposed. The presented methods are evaluated using standard image sequences. A mathematical approach for shape-adaptative transforms using linear operators is developed, followed by a metric that theoretically evaluates the transform performances. Experimental results show that the proposed metric is an efficient tool for such purposes. The proper way for grouping the 1-D transform coefficients of two image segments of different sizes is analyzed. Based on this analysis, a new low complexity method for grouping the coefficients is proposed. A better performance than other reported methods in the literature is attested by the experimental results. A mathematical analysis of the performance limitations of shape-adaptative transforms due to coefficients quantization is presented. The drawbacks discussed are the mean weighting distortion and the signal error correlation produced by the quantization process. An efficient method to simultaneously overcome both problems is proposed. The differential chain coder is an efficient and frequently employed structure for lossless encoding of object boundaries. Many modifications in the differential chain coders are investigated and evaluated, resulting in a method that reduces the bit rate to encode the object shape. Finally, a generic scheme for sub-band decomposition using shape-adaptative discrete wavelet transform is proposed. The experimental results show that such a scheme is able to provide a performance gain over the shape-adptative discrete cosine transform at low bit rates. The preliminary results suggest that this scheme could be a promising new approach for shape adaptative video coding.
APA, Harvard, Vancouver, ISO, and other styles
38

Ruzmetov, Azizbek. "Approches distribuées et adaptatives pour la gestion de l'énergie." Thesis, Belfort-Montbéliard, 2015. http://www.theses.fr/2015BELF0271/document.

Full text
Abstract:
Au cours des dernières décennies, de grands efforts en recherche et développement ont été faits pour développer et promouvoir les véhicules électriques (VEs). La plupart de ces recherches portent essentiellement sur le développement des moteurs électriques de ces véhicules et des technologies de batteries de recharge. Cependant, un des obstacles majeurs pour le déploiement des VEs à grande échelle réside dans l'incertitude d’assister et de guider les conducteurs de ce type de véhicule d’une façon appropriée pour atteindre les stations de recharge tout en satisfaisant leurs souhaits (points de recharge disponibles, moins d’attente possible, proposition d’autres points d’intérêts : restaurant, shopping, etc.). Afin de remédier à ce manque, nous proposons dans ce travail de thèse une approche distribuée et adaptative orientée modèles pour la gestion de l'énergie pour la recharge des VEs. Pour ce faire, nous nous somme focalisés sur la modélisation des processus de recharge en utilisant une approche formelle basée sur des outils de systèmes à événements discrets, à savoir l'algèbre (max, +) et les réseaux de Petri. Les modèles développés ont permis d’étudier, d’analyser et d’évaluer le comportement du système de recharge. De plus, une approche d'optimisation basée sur la programmation linéaire est proposée afin d’affecter et d’orienter d'une façon optimale les VEs vers les stations de recharge appropriées et ordonnancer leurs opérations de recharge. Afin de prédire le taux et la durée de recharge moyens des VEs compte tenu des dates d’arrivée des demandes de recharge et l'état de recharge de chaque véhicule, une approche dédiée basée sur une fonction prédictive est proposée. En utilisant cette approche, les opérations de recharge pourraient être planifiées en minimisant les temps d'attente des VEs au sein des stations de recharge et en assurant un taux de recharge acceptable pour chaque demande. Les résultats d’analyse et de simulations obtenus ont montré que les approches de modélisation, d’optimisation et de prédiction proposées permettent d’affecter de façon adéquate et optimale les VEs aux stations de recharge tout en satisfaisant toutes les contraintes du processus de recharge
In the last decades, very great research and development efforts have been made to develop and promote electric vehicles (EVs). Most efforts have been made to further develop the power engine of these vehicles and batteries technologies. However, one of the major obstacles to the large deployment of EVs is the uncertainty of drivers to get a suitable and vacant place at a charging station (CS). In this manuscript, we focus on the charging process modelling using formal approaches based on discrete event system tools namely (max,+) algebra and Petri nets. In addition, an optimization approach based on linear programming is proposed to optimally assign and reroute EVs to the suitable CSs and schedule their charging operations. In order to predict, manage and handle charging needs of EVs, a dedicated model based on a predictive function is introduced. The aim is to predict the average charging rate and time while considering the inter-arrival of charging requests and the state of charging of EVs. Using this approach, charging operations could be planned while minimizing waiting times of EVs and avoiding queuing situations within CSs. Simulation results showed that the proposed approaches allow assigning adequately and optimally EVs to CSs while satisfying all process constraints
APA, Harvard, Vancouver, ISO, and other styles
39

Loulou, Hassan. "Verifying Design Properties at Runtime Using an MDE-Based Approach Models @Run.Time Verification-Application to Autonomous Connected Vehicles." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS405.

Full text
Abstract:
Un véhicule autonome et connecté (ACV – pour Autonomous Connected Vehicle ) est un système cyber-physique où le monde réel et l’espace numérique virtuel se fusionnent. Ce type de véhicule requiert un processus de validation rigoureuse commençant à la phase de conception et se poursuivant même après le déploiement du logiciel. Un nouveau paradigme est apparu pour le monitorat continu des exécutions des logiciels afin d'autoriser des adaptations automatiquement en temps réel, systématiquement lors d’une détection de changement dans l'environnement d'exécution, d’une panne ou d’un bug. Ce paradigme s’intitule : « Models@Run.time ». Cette thèse s’inscrit dans le cadre des ACVs et plus particulièrement dans le contexte des véhicules qui collaborent et qui partagent leurs données d’une manière sécurisée. Plusieurs approches de modélisation sont déjà utilisées pour exprimer les exigences relatives au contrôle d'accès afin d’imposer des politiques de sécurité. Toutefois, leurs outils de validation ne tiennent pas compte les impacts de l'interaction entre les exigences fonctionnelles et les exigences de sécurité. Cette interaction peut conduire à des violations de sécurité inattendues lors de l'exécution du système ou lors des éventuelles adaptations à l’exécution. En outre, l’estimation en temps réel de l’état de trafic utilisant des données de type crowdsourcing pourrait être utilisée pour les adaptations aux modèles de coopération des AVCs. Cette approche n'a pas encore été suffisamment étudiée dans la littérature. Pour pallier à ces limitations, de nombreuses questions doivent être abordées:• L'évolution des exigences fonctionnelles du système doit être prise en compte lors de la validation des politiques de sécurité ainsi que les scénarios d'attaque doivent être générés automatiquement.• Une approche pour concevoir et détecter automatiquement les anti-patrons (antipatterns) de sécurité doit être développée. En outre, de nouvelles reconfigurations pour les politiques de contrôle d'accès doivent également être identifiées, validées et déployées efficacement à l'exécution.• Les ACVs doivent observer et analyser leur environnement, qui contient plusieurs flux de données dite massives (Big Data) pour proposer de nouveaux modèles de coopération, en temps réel.Dans cette thèse, une approche pour la surveillance de l'environnement des ACVs est proposée. L’approche permet de valider les politiques de contrôle d'accès et de les reconfigurer en toute sécurité. La contribution de cette thèse consiste à:• Guider les Model Checkers de sécurité pour trouver automatiquement les scénarios d'attaque dès la phase de conception.• Concevoir des anti-patterns pour guider le processus de validation, et développer un algorithme pour les détecter automatiquement lors des reconfigurations des modèles.• Construire une approche pour surveiller en temps réel les flux de données dynamiques afin de proposer des adaptations de la politique d'accès lors de l'exécution.L’approche proposée a été validée en utilisant plusieurs exemples liés aux ACVs, et les résultats des expérimentations prouvent la faisabilité de cette approche
Autonomous Connected Vehicles (ACVs) are Cyber-physical systems (CPS) where the computationalworld and the real one meet. These systems require a rigorous validation processthat starts at design phase and continues after the software deployment. Models@Runtimehas appeared as a new paradigm for continuously monitoring software systems execution inorder to enable adaptations whenever a change, a failure or a bug is introduced in the executionenvironment. In this thesis, we are going to tackle ACVs environment where vehicles tries tocollaborate and share their data in a secure manner.Different modeling approaches are already used for expressing access control requirementsin order to impose security policies. However, their validation tools do not consider the impactsof the interaction between the functional and the security requirements. This interaction canlead to unexpected security breaches during the system execution and its potential runtimeadaptations. Also, the real-time prediction of traffic states using crowd sourcing data could beuseful for proposition adaptations to AVCs cooperation models. Nevertheless, it has not beensufficiently studied yet. To overcome these limitations, many issues should be addressed:• The evolution of the system functional part must be considered during the validation ofthe security policy and attack scenarios must be generated automatically.• An approach for designing and automatically detecting security anti-patterns might bedeveloped. Furthermore, new reconfigurations for access control policies also must befound, validated and deployed efficiently at runtime.• ACVs need to observe and analyze their complex environment, containing big-datastreams to recommend new cooperation models, in near real-time.In this thesis, we build an approach for sensing the ACVs environment, validating its accesscontrol models and securely reconfiguring it on the fly. We cover three aspects:• We propose an approach for guiding security models checkers to find the attack scenariosat design time automatically.• We design anti-patterns to guide the validation process. Then, we develop an algorithmto detect them automatically during models reconfigurations. Also, we design a mechanismfor reconfiguring the access control model and we develop a lightweight modularframework for an efficient deployment of new reconfigurations.• We build an approach for the real-time monitoring of dynamic data streams to proposeadaptations for the access policy at runtime.Our proposed approach was validated using several examples related o ACVs. the results ofour experimentations prove the feasibility of this approach
APA, Harvard, Vancouver, ISO, and other styles
40

La, Delfa Salvatore. "SECAAC : Système d'Eco-Conduite Auto-Adaptatif au Conducteur." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Pethe, Rohit. "Variational h-adaptation for strongly coupled problems in thermo-mechanics." Thesis, Ecole centrale de Nantes, 2017. http://www.theses.fr/2017ECDN0046.

Full text
Abstract:
Une approche d'adaptation en mesh pour des problèmes fortement couplés est proposée, selon un principe variationnel. La technique d'adaptation repose sur une erreur indiquée par un potentiel énergétique et est donc exempte d'estimations d'erreur. Selon la nature du point de chevauchement de ce principe variationnel, une solution de solution décalée apparaît plus naturelle et conduit à une adaptation de maille distincte pour les champs mécaniques et thermiques. En utilisant différents maillons pour différents phénomènes, des solutions précises pour différents domaines à l'étude sont obtenues. Les variables internes sont considérées comme constantes par rapport aux cellules de Voronoi, de sorte qu'aucune procédure de remappage complexe n'est nécessaire pour transférer des variables internes. Étant donné que l'algorithme est basé sur un ensemble de paramètres de tolérance, des analyses paramétriques et une étude de leur influence respective sur l'adaptation de maille sont réalisées. Cette analyse détaillée est effectuée sur des problèmes unidimensionnels. La méthode proposée se révèle être rentable qu'un maillage uniforme, certaines applications de l'approche proposée pour différents exemples 2D, y compris les bandes de cisaillement et le soudage par friction, sont présentées
A mesh adaption approach for strongly coupled problems is proposed, based on a variational principle. The adaption technique relies on error indicated by an energy-like potential and is hence free from error estimates. According to the saddle point nature of this variational principle, a staggered solution approach appears more natural and leads to separate mesh adaption for mechanical and thermal fields. Using different meshes for different phenomena, precise solutions for various fields under consideration are obtained. Internal variables are considered constant over Voronoi cells, so no complex remapping procedures are necessary to transfer internal variables. Since the algorithm is based on a set of tolerance parameters, parametric analyses and a study of their respective influence on the mesh adaption is carried out. This detailed analysis is performed on uni-dimensional problems. The proposed method is shown to be cost effective than uniform meshing, some applications of the proposed approach to various 2D examples including shear bands and friction welding are presented
APA, Harvard, Vancouver, ISO, and other styles
42

Schmid, Quentin. "Modélisation du rayonnement thermique en immersion de volume." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM086/document.

Full text
Abstract:
Dans le cadre des procédés de chauffage et de trempe réalisés lors d’opération de mise en forme des matériaux, le rayonnement thermique joue un rôle prépondérant. Lors de l’élaboration de modèles numériques permettant la simulation de ces procédés, il est donc nécessaire de disposer d’outils performants pour simuler ce phénomène.La simulation numérique de tels procédés soulèvent de nombreuses problématiques, comme la représentation d’un environnement complexe impliquant plusieurs composants (pièces, bruleurs, buses d’injection, parois), la gestion des divers phénomènes physiques couplés (écoulement, transfert thermiques, ébullition, rayonnement). Dans cette perspective, les méthodes dites « d’immersion », permettant un traitement généraliste de ces divers problèmes, rencontrent depuis quelques années un intérêt grandissant dans la communauté scientifique.C’est dans ce contexte que s’inscrit le projet Thost, au sein duquel est réalisée cette thèse. L’objectif est donc de développer des outils pour la modélisation du rayonnement dans le contexte d’immersion de volume propre au logiciel Thost. Deux approches sont développées : l’une consistant en l’adaptation d’une méthode existante au contexte de l’immersion de volume, l’autre explorant l’élaboration d’une formulation pour un modèle particulier de rayonnement. Les outils développés sont ensuite mis à l’épreuve sur des simulations de cas industriels fournis par nos partenaires
For heating and quenching operations occurring during material forming processes, thermal radiation is the the predominant physical phenomenon. Hence, when one tries to simulate such processes, it is important to have at disposal powerful tools for the numerical modelling of thermal radiation.The numerical simulation of these processes often rises numerous problems and questions, as the representation of a complex environment, involving several components ( ingots, burners, nozzles, walls), to deal with different coupled physical phenomena ( flow, heat transfer, boiling, thermal radiation). In this regard, some “immersed” numerical methods, allows a generalist treatment of these different problems, have gained popularity and drag interest of the scientific community in the recent years.The Thost project, aiming to produce a software for heat transfer during material forming processes, fits in the framework, and this PhD is part of this project. The goal is therefore to design tools for numerical modelling of thermal radiation within the immersed volume method of the Thost software. Two approaches are presented: one consisting in the adaptation of an existing method to the context of the immersed volume method, another concerning the development of a formulation for a specific model of radiation. These methods are then tested on industrial applications provided by our partners
APA, Harvard, Vancouver, ISO, and other styles
43

Turki, Marwa. "Synthèse de contrôleurs prédictifs auto-adaptatifs pour l'optimisation des performances des systèmes." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR064.

Full text
Abstract:
Bien que la commande prédictive fasse appel à des paramètres ayant une signification concrète, la valeur de ces derniers impacte fortement les performances obtenues du système à contrôler. Leur réglage n’étant pas trivial, la littérature fait état d’un nombre conséquent de méthodes de réglage. Celles-ci ne garantissent cependant pas des valeurs optimales. L’objectif de cette thèse est de proposer une approche analytique et originale de réglage de ces paramètres. Initialement applicable aux systèmes MIMO linéaires, l’approche proposée a été étendue aux systèmes non linéaires avec ou sans contraintes et pour lesquels il existe un modèle Takagi-Sugeno (T-S). La classe des systemès non linéaires considérés ici est écrite sous la forme quasi-linéaire paramétrique (quasi-LPV). Sous l’hypothese que le système soit commandable et observable, la méthode proposée garantit la stabilité optimale de ce système en boucle fermée. Pour ce faire, elle s’appuie, d’une part, sur une technique d’amélioration du conditionnement de la matrice hessienne et, d’autre part, sur le concept de rang effectif. Elle présente également l’avantage de requérir une charge calculatoire moindre que celle des approches identifiées dans la littérature. L’intérêt de l’approche proposée est montré à travers l’application en simulation à différents systèmes de complexité croissante. Les travaux menés ont permis d’aboutir à une stratégie de commande prédictive auto-adaptative dénommée "ATSMPC" (Adaptive Takagi-Sugeno Model-based Predictive Control)
Even though predictive control uses concrete parameters, the value of these latter has a strong impact on the obtained performances from the system to be controlled. Their tuning is not trivial. That is why the literature reports a number of adjustment methods. However, these ones do not always guarantee optimal values. The goal of this thesis is to propose an analytical and original tuning tuning approach of these parameters. Initially applicable to linear MIMO systems, the proposed approach has been extended to non-linear systems with or without constraints and for which a Takagi-Sugeno (T-S) model exists. The class of nonlinear systems considered here is written in quasi-linear parametric form (quasi-LPV). Assuming that the system is controllable and observable, the proposed method guarantees the optimal stability of this closed-loop system. To do this, it relies, on the one hand, on a conditioning improving technique of the Hessian matrix and, on the other hand, on the concept of effective rank. It also has the advantage of requiring a lower computational load than the approaches identified in the literature. The interest of the proposed approach is shown through the simulation on different systems of increasingcomplexity. The work carried out has led to a self-adaptive predictive control strategy called "ATSMPC" (Adaptive Takagi-Sugeno Model-based Predictive Control)
APA, Harvard, Vancouver, ISO, and other styles
44

Chachoua, Soraya. "Contribution à l'évaluation de l'apprenant et l'adaptation pédagogique dans les plateformes d'apprentissage : une approche fondée sur les traces." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS003/document.

Full text
Abstract:
L’adoption des Nouvelles Technologies de l’Information et de la Communication (NTIC) a permis la modernisation des méthodes d’enseignement dans les systèmes d’apprentissage en ligne comme l’e-Learning, les systèmes tutoriels intelligents, etc. Ces derniers assurent une formation à distance qui répond aux besoins des apprenants. Un aspect très important à prendre en considération dans ces systèmes est l’évaluation précoce de l’apprenant en termes d’acquisition des connaissances. En général, trois types d’évaluation et leurs relations sont nécessaires durant le processus d’apprentissage, à savoir : (i) diagnostic qui est exécuté avant l’apprentissage pour estimer le niveau des élèves, (ii) évaluation formative qui est appliquée lors de l’apprentissage pour tester l’évolution des connaissances et (iii) évaluation sommative qui est considérée après l’apprentissage pour évaluer l’acquisition des connaissances. Ces méthodes peuvent être intégrées d’une manière semi-automatique, automatique ou adaptée aux différents contextes de formation, par exemple dans le domaine d’apprentissage des langues (français, anglais, etc.), des sciences fondamentales (mathématiques, physique, chimie, etc.) et langages de programmation (java, python, sql, etc.) Cependant, les méthodes d’évaluation usuelles sont statiques et se basent sur des fonctions linéaires qui ne prennent en considération que la réponse de l’apprenant. Elles ignorent, en effet, d’autres paramètres de son modèle de connaissances qui peuvent divulguer d’autres indicateurs de performance. Par exemple, le temps de résolution d’un problème, le nombre de tentatives, la qualité de la réponse, etc. Ces éléments servent à détecter les traits du profil, le comportement ainsi que les troubles d’apprentissage de l’apprenant. Ces paramètres additionnels sont vus dans nos travaux de recherche comme des traces d’apprentissage produites par l’apprenant durant une situation ou un contexte pédagogique donné. Dans ce cadre, nous proposons dans cette thèse une approche d’évaluation de l’apprenant à base des traces d’apprentissage qui peut être exploitée dans un système d’adaptation de la ressource et/ou de la situation pédagogique. Pour l’évaluation de l’apprenant, nous avons proposé trois modèles génériques d’évaluation qui prennent en considération la trace temporelle, le nombre de tentatives et leurs combinaisons. Ces modèles ont servi, par la suite, comme métrique de base à notre modèle d’adaptation de la ressource et/ou de la situation d’apprentissage. Le modèle d’adaptation est également fondé sur les trois traces susmentionnées et sur nos modèles d’évaluation. Notre modèle d’adaptation génère automatiquement des trajectoires d’apprentissage adaptées en utilisant un modèle d’état-transition. Les états présentent des situations d’apprentissage qui consomment des ressources et les transitions entre situations expriment les conditions nécessaires à remplir pour passer d’une situation à une autre. Ces concepts sont aussi implémentés dans une ontologie du domaine et un algorithme d’adaptation a été également proposé. L’algorithme assure deux types d’adaptation : (i) Adaptation de la situation et (ii) Adaptation des ressources dans une situation. Afin de collecter les traces d’apprentissage pour la mise en œuvre de notre approche d’évaluation de l’apprenant et d’adaptation de ressources et de situations d’apprentissage, nous avons effectué des expérimentations sur deux groupes d’étudiants en Licence Informatique (L2). Un groupe en apprentissage classique et un groupe en apprentissage adapté. Sur la base des traces obtenues des sessions de travail des étudiants, nous avons utilisé nos modèles d’évaluation dont les résultats ont été utilisés pour mettre en œuvre l’adaptation. Après comparaison des résultats de l’apprentissage adapté à ceux obtenus de l’apprentissage classique, nous avons constaté une amélioration des résultats en termes de moyenne générale et d’écart-type des moyennes des apprenants
The adoption of new Information and Communication Technologies (ICT) has enabled the modernization of teaching methods in online learning systems such as e-Learning, intelligent tutorial systems (ITS), etc. These systems provide a remote training that which meets the learner needs. A very important aspect to consider in these systems is the early assessment of the learner in terms of knowledge acquisition. In general, three types of assessment and their relationships are needed during the learning process, namely : (i) diagnostic which is performed before learning to estimate the level of students, (ii) formative evaluation which is applied during learning to test the knowledge evolution and (iii) summative evaluation which is considered after learning to evaluate learner’s knowledge acquisition. These methods can be integrated into a semi-automatic, automatic or adapted way in different contexts of formation, for example in the field of languages literary learning such as French, English, etc., hard sciences (mathematics, physics, chemistry, etc.) and programming languages (java, python, sql, etc.). However, the usual evaluation methods are static and are based on linear functions that only take into account the learner’s response. They ignore other parameters of their knowledge model that may disclose other performance indicators. For example, the time to solve a problem, the number of attempts, the quality of the response, etc. These elements are used to detect the profile characteristics, behavior and learning disabilitiesof the learner. These additional parameters are seen in our research as learning traces produced by the learner during a given situation or pedagogical context. In this context, we propose in this thesis a learner evaluation approach based on learning traces that can be exploited in an adaptation system of the resource and/or the pedagogic situation. For the learner assessment, we have proposed three generic evaluation models that take into consideration the temporal trace, number of attempts and their combinations. These models are later used as a base metric for our resource adaptation model and/or learning situation. The adaptation model is also based on the three traces mentioned above and on our evaluation models. Our adaptation model automatically generates adapted paths using a state-transition model. The states represent learning situations that consume resources and the transitions between situations express the necessary conditions to pass from one situation to another. These concepts are implemented in a domain ontology and an algorithm that we have developed. The algorithm ensures two types of adaptation : (i) Adaptation of the situation and (ii) Adaptation of resources within a situation. In order to collect traces of training for the implementation of our approaches of learner evaluation and adaptation of resources and learning situations, we conducted experiments on two groups of students in Computer Science (L2). One group in classical training and the other group in adapted training. Based on the obtained traces from the students’ training sessions, we assessed merners based on our evaluation models. The results are then used to implement the adaptation in a domain ontology. The latter is implemented within oracle 11g which allows a rule-based semantic reasoning. After comparing the results of the adapted training with those obtained from the classical one, we found an improvement in the results in terms of general average and standard deviation of the learner averages
APA, Harvard, Vancouver, ISO, and other styles
45

Salma, Najar. "Adaptation des services sensibles au contexte selon une approche intentionnelle." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2014. http://tel.archives-ouvertes.fr/tel-00989775.

Full text
Abstract:
L'émergence des nouvelles technologies a fait évoluer l'usage de ces technologies dans la perspective d'accéder aux différents systèmes qui prennent place dans notre vie quotidienne à n'importe quel endroit et à tout moment. En effet, la démocratisation des dispositifs et l'évolution des technologies mobiles ont bouleversé la manière dont on utilise ces systèmes dans un environnement pervasif. Dans le cadre de l'entreprise, ces nouvelles technologies ont élargi les frontières des Systèmes d'Information (SI) bien au-delà des frontières physiques de l'organisation. Les directeurs des Systèmes d'Information (DSI) sont ainsi confrontés à de nouveaux modes d'interaction entre le SI et son environnement. Les Systèmes d'Information sont ainsi confrontés à un environnement pour lequel ils n'ont pas été particulièrement conçus. Ces systèmes doivent maintenant faire face à un environnement pervasif, et à l'avenir, intégrer des éléments physiques ainsi que logiques et organisationnels. Nous assistons donc aujourd'hui à l'émergence d'une nouvelle génération de Systèmes d'Information: les " Systèmes d'Information Pervasifs " (SIP). Les Systèmes d'Information Pervasifs se veulent alors une réponse à cette importante évolution des SI. Par contre, ils se doivent de gérer l'hétérogénéité et le dynamisme de l'environnement de manière transparente afin de satisfaire au mieux les besoins des utilisateurs. Nous ainsi sommes face à un problème de conception et de réalisation d'un SIP répondant à tous les besoins de transparence, d'adaptation à l'environnement et d'adaptation à l'utilisateur d'un SIP. Or les SIP constituent aujourd'hui une nouvelle génération des SI qui est difficile à conceptualiser, avec peu de méthodes et de modèles disponibles. Ainsi, il devient essentiel de mettre en place un cadre plus formel permettant d'aider les concepteurs à mieux comprendre les SIP et surtout à mieux les maîtriser, tout en assurant la transparence nécessaire à ces systèmes. Dans ce travail de thèse, nous proposons une nouvelle vision intentionnelle et contextuelle des SIP. Cette nouvelle vision représente une vision centrée utilisateur d'un SIP transparent, non intrusif et compréhensible à l'utilisateur. Elle se base sur l'orientation service, la sensibilité au contexte et sur une approche intentionnelle afin de résoudre les problèmes de transparence, d'adaptation à l'environnement et d'adaptation aux utilisateurs. Par la suite, nous proposons une solution plus globale pour concrétiser cette vision intentionnelle et contextuelle des SIP. Nous proposons un cadre conceptuel des SIP décrivant et formalisant l'ensemble de ses éléments afin d'aider la DSI dans sa conception du système. Nous proposons ensuite des mécanismes de découverte et de prédiction de services qui sont intégrés dans une architecture de gestionnaire de SIP qui est conforme à ce cadre conceptuel. Finalement, nous proposons une démarche méthodologique de conception et de réalisation d'un SIP qui supporte le passage entre le cadre conceptuel et l'implémentation de l'architecture proposée.
APA, Harvard, Vancouver, ISO, and other styles
46

Quéré, Nolwenn. "Approche moléculaire de l’adaptation différentielle d'un poisson laguno-marin (Dicentrarchus labrax L.) en populations naturelles et d'élevage." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20039.

Full text
Abstract:
L'identification de marqueurs génétiques liés à des gènes permet une exploration des éventuelles corrélations existant entre leur variabilité génétique et des pressions sélectives portant sur les gènes, aussi bien dans un contexte de populations expérimentales que naturelles. Chez le loup de mer (Dicentrarchus labrax), douze locus associés à des gènes - dont quatre associés aux gènes de l'hormone de croissance (GH), la somatolactine (SL) ou l'IGF-1- et huit locus anonymes ont servi à mener une étude multi-échelle de la différenciation génétique. La structure en trois bassins connue chez cette espèce a été confirmée mais les locus liés aux gènes ont montré une différenciation significativement plus forte que les locus anonymes et impliquant des barrières aux flux géniques nucléaires supérieures à celles admises jusqu'alors. A l'échelle mer-lagune, aucune image cohérente de différenciation génétique n'a pu être obtenue. Parallèlement, une expérience d'acclimatation à l'eau douce a été réalisée. Si les individus soumis à la désalure ont subi une mortalité importante, aucune différence génétique significative n'est observée entre les individus ayant survécu au traitement et ceux restés en eau de mer, excepté pour un locus EIF3E. Ces résultats ont révélé une composante familiale liée à l'expérimentation, mais les déterminismes génétiques sous-jacents restent obscurs. L'utilisation de marqueurs liés à des gènes a permis de révéler l'implication au moins indirecte de certains de ces gènes dans la mise en place d'une structuration génétique de l'espèce, mais également dans la réponse physiologique des individus à un stress environnemental pouvant être rencontré en conditions naturelles
The identification of gene-linked genetic markers allows the exploration of potential correlations between their genetic variability and selective pressures acting on the genes in both natural and experimental populations. In Sea Bass (Dicentrarchus labrax), twelve gene-associated loci – four of them linked to Growth Hormone gene (GH), Somatolactin (SL) or IGF-1- and height anonymous loci were used in a multi-scale study of the genetic differentiation. The structure in three basins know in this species is well confirmed with gene-linked markers bearing a significantly higher differentiation than anonymous loci implying some stronger barriers to nuclear gene flow than admitted so far. At the open sea-lagoon scale, no coherent picture can be drawn from the different tests performed. A fresh water acclimation experiment was carried out in parallel. If numerous fishes in low-salt conditions died, the survivors are not genetically different from that maintained in salted water except for one locus EIF3E. These results can be partially explained by a family component but the genetic determinism is not elucidated yet. The use of gene-linked markers succeeded in revealing the involvement, at least indirect, of some of the genes in the edification of a genetic structure inside the species but also in the physiological response of the fishes to an environmental stress that can be encountered in natural conditions
APA, Harvard, Vancouver, ISO, and other styles
47

Tran, Trung Hau. "Approches évolutionnaires pour le comportement adaptatif d'entités autonomes." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/92/.

Full text
Abstract:
La simulation comportementale des entités virtuelles devient un problème très complexe lorsque ces entités sont plongées dans des environnements virtuels dynamiques et inconnus. Les agents procéduraux ne peuvent répondre à des situations imprévues. Les agents réactifs agissent en temps réel mais ils s'adaptent difficilement à des environnements dynamiques. Les travaux de recherche de cette thèse se concentrent sur une étude des mécanismes issus de la vie artificielle offrant des caractéristiques de réactivité, d'adaptation et d'évolution. Nous étudions une architecture couplant différents mécanismes afin d'augmenter les capacités de raisonnement des entités virtuelles. Nous avons défini une architecture comportementale pour des entités autonomes. Cette architecture se compose de deux modèles dont le premier leur permet d'agir de façon réactive en réponse à leur perception. Ce modèle est basé sur l'approche des champs de potentiels qui a déjà montré son efficacité à résoudre des problèmes de navigation d'entités autonomes. Cependant, cette solution est très coûteuse. Le programmeur doit en effet définir les paramètres des champs de potentiel de façon manuelle pour chaque environnement. Pour pallier ce problème, nous avons défini un modèle supplémentaire permettant aux entités autonomes d'obtenir des comportements adaptatifs dans les environnements dynamiques. Notre nouvelle approche se base sur les systèmes de classeurs du type XCS de Wilson dont le rôle est d'apprendre et d'évaluer des actions discrètes correspondant aux paramètres mentionnés. Nous avons validé notre architecture comportementale à travers une simulation d'un problème proie-prédateur. La performance du système comportemental dépend alors entièrement des systèmes de classeurs. Les actions possibles restent toujours discrètes et prédéfinies. Or, l'augmentation des actions possibles implique l'augmentation des ressources nécessaires pour le stockage des classeurs et du temps de convergence du système. .
The behavioral simulation of virtual entities in dynamic and unknown environments becomes a complex problem. Deliberative agents cannot handle unforeseen situations. Reactive agents interact with the environment in real time, but they do not easily adapt their behaviors to dynamic environments. The research of this thesis focuses on mechanisms inspired from Artificial Life, offering characteristics of reactivity, adaptation and evolution. We propose an architecture mixing different mechanisms in order to increase the reasoning capacity of virtual entities. This behavioral architecture consists of two models. The first one allows the autonomous entities to act quickly on the environment. This model is based on the potential fields' method which has already proved its efficiency in navigation problems for autonomous entities. However, this solution is expensive because the designer has to define manually the potential fields' parameters for each environment. To solve this problem, we have developed an additional model allowing the autonomous entities to obtain adaptive behaviors in dynamic environments. The second model is an extension of the classifier system XCS, whose role is to evolve discrete actions corresponding to the potential fields' parameters. We have validated our behavioral architecture in a predator-prey problem. The performance of our architecture entirely depends on classifier systems. The possible actions remain discrete and predefined. .
APA, Harvard, Vancouver, ISO, and other styles
48

Magoariec, Hélène. "Adaptation élastoplastique et homogénéisation périodique." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2003. http://tel.archives-ouvertes.fr/tel-00007063.

Full text
Abstract:
Ce travail est une contribution à l'analyse de la tenue mécanique de milieux hétérogènes soumis à des chargements variables et bornés. On propose une méthode numérique permettant d'étudier, par une approche directe essentiellement basée sur le théorème statique de Melan, l'adaptation de matériaux élastoplastiques parfaits à microstructure hétérogène, périodique et tridimensionnelle. L'objectif est de coupler la théorie de l'adaptation élastoplastique, permettant d'étudier le comportement de milieux soumis à des chargements variables, avec la théorie de l'homogénéisation périodique, permettant de prendre finement en compte l'influence du comportement microscopique de milieux hétérogènes sur leur comportement macroscopique. La méthode consiste à résoudre le problème d'adaptation sur une cellule de base 3D -considérée comme une microstructure représentative des hétérogénéités- et à exprimer les résultats, par l'intermédiaire de relations de moyenne, en termes de domaines admissibles de chargements extérieurs : les déformations et contraintes macroscopiques. Numériquement, ceci se traduit par le couplage entre un code éléments finis, permettant de prendre en compte l'aspect homogénéisation du problème en formulant rigoureusement les relations de périodicité et de moyenne, et un logiciel d'optimisation non linéaire sous contraintes, permettant d'expliciter le problème d'adaptation. La méthode est appliquée à des milieux 3D classiques ainsi qu'à des structures de type plaque mince périodique. Au terme de ce travail, on dispose d'un outil numérique général, en ce sens qu'il permet d'étudier comment éviter la rupture, par dissipation plastique illimitée, de milieux périodiquement hétérogènes, et ce, quelle que soit la cellule de base 3D considérée.
APA, Harvard, Vancouver, ISO, and other styles
49

Devarenne, Isabelle. "Etudes en recherche locale adaptative pour l'optimisation combinatoire." Besançon, 2007. http://www.theses.fr/2007BESA2012.

Full text
Abstract:
Toutes les méthodes d'optimisation ont des paramètres internes qui prennent une part prépondérante dans leurs performances. La difficulté pour les utilisateurs est de trouver un bon réglage pour chaque problème. Depuis quelques années une part importante de la recherche en optimisation combinatoire porte sur la conception de méthodes adaptives. L'objectif de cette démarche est de définir les procédés qui tentent d'adapter dynamiquement le paramétrage des méthodes en fonction du problème. Dans ce contexte, cette thèse porte sur les mécanismes de mémoire et d'adaptation dans le but de mettre au point une méthode de Recherche Locale Adapative (RLA) combinant des mécanismes d'extension et de restriction du voisinage. L'extension du voisinage est définie par une procédure de détection de blocage de la recherche en étudiant l'historique des choix effectués par la méthode afin d'intervenir sur son comportement. Le mécanisme de restriction quant à lui est basé sur l'utilisation d'une liste Tabou à paramétrage adaptatif pour gérer l'accès aux variables. La méthode ainsi obtenue a été appliquée à deux problèmes : un problème académique, la k-coloration de graphes, et un problème réel, l'affectation de fréquences en réseaux de radiocommunications. Plusieurs variantes de RLA ont élé développées et comparées à des résultats publics sur les deux problèmes
All optimization methods have internal parameters that influenced their performance. The challenge for users is to find a good adjustment for each problem. In recent years an important part of research in combinatorial optimization focuses on the conception of adaptive methods. The objective of the approach is to define processes that attempt to adapt dynamically parameters of methods according to each problem. In this context, this thesis focuses on the mechanisms of memory and adaptation in order to develop an Adaptative Local Search (ALS) method combining mechanisms of extension and restriction of the neighborhood. The neighborhood extension is defined as a procedure which detect blockage during the search by studying the historic of the choices made by the method in order to intervene on his behavior. The restriction mechanism is based on the use of an adaptative tabu list to manage access to the variables. The resulting method has been applied to two problems: an academic problem, graph k-coloring problem, and a real problem, the frequency allocation in radio networks. Several variants of ALS were developed and compared to public results on the two issues
APA, Harvard, Vancouver, ISO, and other styles
50

Carnero-Montoro, Elena 1985. "Genomic and functional approaches to genetic adaptation." Doctoral thesis, Universitat Pompeu Fabra, 2013. http://hdl.handle.net/10803/291115.

Full text
Abstract:
The genetic basis of phenotypes that have contributed to the adaptation of species and organisms to new environments is a central question in evolutionary genetics. The recent accumulation of genetic variability data has allowed a genome-wide search for different signatures of positive selection which has led to the discovery of hundreds of putative candidate genes that may have played a role in adaptation. However, such hypothesis-free approaches do not reveal either causal variants or the actual biological mechanisms that have made each adaptation possible. Furthermore, the detection of molecular signatures is limited both by the complex architecture of the genome and by the possible polygenic nature of the selected trait. In this thesis, through different evolutionary and functional approaches, we have disentangled the adaptive role of two non-synonymous variants in two different candidate genes encoding for a lymphocyte receptor and a zinc transporter, respectively. In past human adaptation, they were most likely selected as more effective means to fight pathogens. We have also revealed differences in the action of natural selection between different pathways and different coding and non-coding genomic elements in the chimpanzee lineage by analyzing polymorphisms and divergence data together. Thus, the results of this PhD thesis have contributed to detect new instances of genetic adaptation and provide biological explanation to them.
La base genética de los carácteres que han contribuido a la adaptación de los organismos y las especies ha sido siempre una pregunta central en biología evolutiva. Gracias a la acumulación masiva de datos de variabilidad genética, en los últimos años se ha podido detectar en el genoma diferentes señales de selección positiva y también localizar cientos de genes candidatos que han podido tener un papel en la adaptación de las poblaciones a diferentes ambientes. Sin embargo en estos estudios, donde no hay una hipótesis a priori, se desconoce qué variantes dentro de estos genes fueron realmente las que proporcionaron una ventaja selectiva y por qué. Además, la compleja arquitectura del genoma y la naturaleza poligénica de muchos carácteres hace que sea difícil detectar casos más complejos de adaptación. En esta tesis se intenta resolver algunos de estos problemas. En primer lugar, mediante un enfoque evolutivo y funcional, hemos descifrado el rol adaptativo de dos variantes genéticas, una en un receptor linfocitario y la otra en un transportador de zinc, que probablemente fueron seleccionadas por conferir resistencia a patógenos. En segundo lugar, mediante el análisis de datos de polimorfismo y divergencia conjuntamente, también hemos detectado distintos mecanismos de acción de la selección natural en distintos pathways y entre elementos codificantes y elementos no codificantes reguladores en chimpancé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography