Segui questo link per vedere altri tipi di pubblicazioni sul tema: Méthodes d’apprentissage en ligne.

Tesi sul tema "Méthodes d’apprentissage en ligne"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Méthodes d’apprentissage en ligne".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Contal, Emile. "Méthodes d’apprentissage statistique pour l’optimisation globale". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN038/document.

Testo completo
Abstract (sommario):
Cette thèse se consacre à une analyse rigoureuse des algorithmes d'optimisation globale équentielle. On se place dans un modèle de bandits stochastiques où un agent vise à déterminer l'entrée d'un système optimisant un critère. Cette fonction cible n'est pas connue et l'agent effectue séquentiellement des requêtes pour évaluer sa valeur aux entrées qu'il choisit. Cette fonction peut ne pas être convexe et contenir un grand nombre d'optima locaux. Nous abordons le cas difficile où les évaluations sont coûteuses, ce qui exige de concevoir une sélection rigoureuse des requêtes. Nous considérons deux objectifs, d'une part l'optimisation de la somme des valeurs reçues à chaque itération, d'autre part l'optimisation de la meilleure valeur trouvée jusqu'à présent. Cette thèse s'inscrit dans le cadre de l'optimisation bayésienne lorsque la fonction est une réalisation d'un processus stochastique connu, et introduit également une nouvelle approche d'optimisation par ordonnancement où l'on effectue seulement des comparaisons des valeurs de la fonction. Nous proposons des algorithmes nouveaux et apportons des concepts théoriques pour obtenir des garanties de performance. Nous donnons une stratégie d'optimisation qui s'adapte à des observations reçues par batch et non individuellement. Une étude générique des supremums locaux de processus stochastiques nous permet d'analyser l'optimisation bayésienne sur des espaces de recherche nonparamétriques. Nous montrons également que notre approche s'étend à des processus naturels non gaussiens. Nous établissons des liens entre l'apprentissage actif et l'apprentissage statistique d'ordonnancements et déduisons un algorithme d'optimisation de fonctions potentiellement discontinue
This dissertation is dedicated to a rigorous analysis of sequential global optimization algorithms. We consider the stochastic bandit model where an agent aim at finding the input of a given system optimizing the output. The function which links the input to the output is not explicit, the agent requests sequentially an oracle to evaluate the output for any input. This function is not supposed to be convex and may display many local optima. In this work we tackle the challenging case where the evaluations are expensive, which requires to design a careful selection of the input to evaluate. We study two different goals, either to maximize the sum of the rewards received at each iteration, or to maximize the best reward found so far. The present thesis comprises the field of global optimization where the function is a realization from a known stochastic process, and the novel field of optimization by ranking where we only perform function value comparisons. We propose novel algorithms and provide theoretical concepts leading to performance guarantees. We first introduce an optimization strategy for observations received by batch instead of individually. A generic study of local supremum of stochastic processes allows to analyze Bayesian optimization on nonparametric search spaces. In addition, we show that our approach extends to natural non-Gaussian processes. We build connections between active learning and ranking and deduce an optimization algorithm of potentially discontinuous functions
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Collet, Timothé. "Méthodes optimistes d’apprentissage actif pour la classification". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0084/document.

Testo completo
Abstract (sommario):
La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement
A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Collet, Timothé. "Méthodes optimistes d’apprentissage actif pour la classification". Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0084.

Testo completo
Abstract (sommario):
La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement
A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Colin, Igor. "Adaptation des méthodes d’apprentissage aux U-statistiques". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0070/document.

Testo completo
Abstract (sommario):
L’explosion récente des volumes de données disponibles a fait de la complexité algorithmique un élément central des méthodes d’apprentissage automatique. Les algorithmes d’optimisation stochastique ainsi que les méthodes distribuées et décentralisées ont été largement développés durant les dix dernières années. Ces méthodes ont permis de faciliter le passage à l’échelle pour optimiser des risques empiriques dont la formulation est séparable en les observations associées. Pourtant, dans de nombreux problèmes d’apprentissage statistique, l’estimation précise du risque s’effectue à l’aide de U-statistiques, des fonctions des données prenant la forme de moyennes sur des d-uplets. Nous nous intéressons tout d’abord au problème de l’échantillonnage pour la minimisation du risque empirique. Nous montrons que le risque peut être remplacé par un estimateur de Monte-Carlo, intitulé U-statistique incomplète, basé sur seulement O(n) termes et permettant de conserver un taux d’apprentissage du même ordre. Nous établissons des bornes sur l’erreur d’approximation du U-processus et les simulations numériques mettent en évidence l’avantage d’une telle technique d’échantillonnage. Nous portons par la suite notre attention sur l’estimation décentralisée, où les observations sont désormais distribuées sur un réseau connexe. Nous élaborons des algorithmes dits gossip, dans des cadres synchrones et asynchrones, qui diffusent les observations tout en maintenant des estimateurs locaux de la U-statistique à estimer. Nous démontrons la convergence de ces algorithmes avec des dépendances explicites en les données et la topologie du réseau. Enfin, nous traitons de l’optimisation décentralisée de fonctions dépendant de paires d’observations. De même que pour l’estimation, nos méthodes sont basées sur la concomitance de la propagation des observations et l’optimisation local du risque. Notre analyse théorique souligne que ces méthodes conservent une vitesse de convergence du même ordre que dans le cas centralisé. Les expériences numériques confirment l’intérêt pratique de notre approche
With the increasing availability of large amounts of data, computational complexity has become a keystone of many machine learning algorithms. Stochastic optimization algorithms and distributed/decentralized methods have been widely studied over the last decade and provide increased scalability for optimizing an empirical risk that is separable in the data sample. Yet, in a wide range of statistical learning problems, the risk is accurately estimated by U-statistics, i.e., functionals of the training data with low variance that take the form of averages over d-tuples. We first tackle the problem of sampling for the empirical risk minimization problem. We show that empirical risks can be replaced by drastically computationally simpler Monte-Carlo estimates based on O(n) terms only, usually referred to as incomplete U-statistics, without damaging the learning rate. We establish uniform deviation results and numerical examples show that such approach surpasses more naive subsampling techniques. We then focus on the decentralized estimation topic, where the data sample is distributed over a connected network. We introduce new synchronous and asynchronous randomized gossip algorithms which simultaneously propagate data across the network and maintain local estimates of the U-statistic of interest. We establish convergence rate bounds with explicit data and network dependent terms. Finally, we deal with the decentralized optimization of functions that depend on pairs of observations. Similarly to the estimation case, we introduce a method based on concurrent local updates and data propagation. Our theoretical analysis reveals that the proposed algorithms preserve the convergence rate of centralized dual averaging up to an additive bias term. Our simulations illustrate the practical interest of our approach
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Colin, Igor. "Adaptation des méthodes d’apprentissage aux U-statistiques". Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0070.

Testo completo
Abstract (sommario):
L’explosion récente des volumes de données disponibles a fait de la complexité algorithmique un élément central des méthodes d’apprentissage automatique. Les algorithmes d’optimisation stochastique ainsi que les méthodes distribuées et décentralisées ont été largement développés durant les dix dernières années. Ces méthodes ont permis de faciliter le passage à l’échelle pour optimiser des risques empiriques dont la formulation est séparable en les observations associées. Pourtant, dans de nombreux problèmes d’apprentissage statistique, l’estimation précise du risque s’effectue à l’aide de U-statistiques, des fonctions des données prenant la forme de moyennes sur des d-uplets. Nous nous intéressons tout d’abord au problème de l’échantillonnage pour la minimisation du risque empirique. Nous montrons que le risque peut être remplacé par un estimateur de Monte-Carlo, intitulé U-statistique incomplète, basé sur seulement O(n) termes et permettant de conserver un taux d’apprentissage du même ordre. Nous établissons des bornes sur l’erreur d’approximation du U-processus et les simulations numériques mettent en évidence l’avantage d’une telle technique d’échantillonnage. Nous portons par la suite notre attention sur l’estimation décentralisée, où les observations sont désormais distribuées sur un réseau connexe. Nous élaborons des algorithmes dits gossip, dans des cadres synchrones et asynchrones, qui diffusent les observations tout en maintenant des estimateurs locaux de la U-statistique à estimer. Nous démontrons la convergence de ces algorithmes avec des dépendances explicites en les données et la topologie du réseau. Enfin, nous traitons de l’optimisation décentralisée de fonctions dépendant de paires d’observations. De même que pour l’estimation, nos méthodes sont basées sur la concomitance de la propagation des observations et l’optimisation local du risque. Notre analyse théorique souligne que ces méthodes conservent une vitesse de convergence du même ordre que dans le cas centralisé. Les expériences numériques confirment l’intérêt pratique de notre approche
With the increasing availability of large amounts of data, computational complexity has become a keystone of many machine learning algorithms. Stochastic optimization algorithms and distributed/decentralized methods have been widely studied over the last decade and provide increased scalability for optimizing an empirical risk that is separable in the data sample. Yet, in a wide range of statistical learning problems, the risk is accurately estimated by U-statistics, i.e., functionals of the training data with low variance that take the form of averages over d-tuples. We first tackle the problem of sampling for the empirical risk minimization problem. We show that empirical risks can be replaced by drastically computationally simpler Monte-Carlo estimates based on O(n) terms only, usually referred to as incomplete U-statistics, without damaging the learning rate. We establish uniform deviation results and numerical examples show that such approach surpasses more naive subsampling techniques. We then focus on the decentralized estimation topic, where the data sample is distributed over a connected network. We introduce new synchronous and asynchronous randomized gossip algorithms which simultaneously propagate data across the network and maintain local estimates of the U-statistic of interest. We establish convergence rate bounds with explicit data and network dependent terms. Finally, we deal with the decentralized optimization of functions that depend on pairs of observations. Similarly to the estimation case, we introduce a method based on concurrent local updates and data propagation. Our theoretical analysis reveals that the proposed algorithms preserve the convergence rate of centralized dual averaging up to an additive bias term. Our simulations illustrate the practical interest of our approach
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Tempier, Charlotte. "L'Autorégulation dans un dispositif en ligne d’apprentissage : Signes d’un apprenant opportuniste". Paris 10, 2011. http://www.theses.fr/2011PA100004.

Testo completo
Abstract (sommario):
L’objet de cette recherche est décrite et de comprendre les comportements autorégulés de l’adulte apprenant dans un dispositif d’apprentissage en ligne. Le public de l’étude est constitué de 60 militants syndicaux en postes dans des entreprises privées et des institutions publiques. L’apprentissage en ligne est envisagé comme un processus où se déroule une autorégulation contextuelle. Nous faisons l’hypothèse que l’adoption d’un comportement autorégulé spécifique, issu d’une habilité opportuniste, favorise l’apprentissage. L’apprenant en responsabilité de sa formation est un sujet auteur, qui adopte une conduite vigilante dans les situations susceptibles de lui offrir des opportunités d’apprendre. Une approche socio-cognitiviste permet d’appréhender la nature du processus dynamique de l’apprentissage par l’étude des processus autorégulés de contrôle. Notre enquête (au travers d’un journal de bord, d’un guide d’entretien et d’un questionnaire sur l’autorégulation), révèle l’exercice de nouveaux modes d’autorégulation. L’apprenant, en saisissant les opportunités du temps et du lieu de l’apprentissage et en utilisant les ressources proposées, se prépare à penser en situation d’acte. Le comportement opportuniste (qui manifeste l’habileté et contrôle autorégulé pour approbation des ressources) serait alors une disposition, une attitude de l’apprenance, nourrie du sentiment d’auto-efficacité et de croyances qui permettent d’agir.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Bouaziz, Ameni. "Méthodes d’apprentissage interactif pour la classification des messages courts". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4039/document.

Testo completo
Abstract (sommario):
La classification automatique des messages courts est de plus en plus employée de nos jours dans diverses applications telles que l'analyse des sentiments ou la détection des « spams ». Par rapport aux textes traditionnels, les messages courts, comme les tweets et les SMS, posent de nouveaux défis à cause de leur courte taille, leur parcimonie et leur manque de contexte, ce qui rend leur classification plus difficile. Nous présentons dans cette thèse deux nouvelles approches visant à améliorer la classification de ce type de message. Notre première approche est nommée « forêts sémantiques ». Dans le but d'améliorer la qualité des messages, cette approche les enrichit à partir d'une source externe construite au préalable. Puis, pour apprendre un modèle de classification, contrairement à ce qui est traditionnellement utilisé, nous proposons un nouvel algorithme d'apprentissage qui tient compte de la sémantique dans le processus d'induction des forêts aléatoires. Notre deuxième contribution est nommée « IGLM » (Interactive Generic Learning Method). C'est une méthode interactive qui met récursivement à jour les forêts en tenant compte des nouvelles données arrivant au cours du temps, et de l'expertise de l'utilisateur qui corrige les erreurs de classification. L'ensemble de ce mécanisme est renforcé par l'utilisation d'une méthode d'abstraction permettant d'améliorer la qualité des messages. Les différentes expérimentations menées en utilisant ces deux méthodes ont permis de montrer leur efficacité. Enfin, la dernière partie de la thèse est consacrée à une étude complète et argumentée de ces deux prenant en compte des critères variés tels que l'accuracy, la rapidité, etc
Automatic short text classification is more and more used nowadays in various applications like sentiment analysis or spam detection. Short texts like tweets or SMS are more challenging than traditional texts. Therefore, their classification is more difficult owing to their shortness, sparsity and lack of contextual information. We present two new approaches to improve short text classification. Our first approach is "Semantic Forest". The first step of this approach proposes a new enrichment method that uses an external source of enrichment built in advance. The idea is to transform a short text from few words to a larger text containing more information in order to improve its quality before building the classification model. Contrarily to the methods proposed in the literature, the second step of our approach does not use traditional learning algorithm but proposes a new one based on the semantic links among words in the Random Forest classifier. Our second contribution is "IGLM" (Interactive Generic Learning Method). It is a new interactive approach that recursively updates the classification model by considering the new data arriving over time and by leveraging the user intervention to correct misclassified data. An abstraction method is then combined with the update mechanism to improve short text quality. The experiments performed on these two methods show their efficiency and how they outperform traditional algorithms in short text classification. Finally, the last part of the thesis concerns a complete and argued comparative study of the two proposed methods taking into account various criteria such as accuracy, speed, etc
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Renaudie, David. "Méthodes d’apprentissage automatique pour la modélisation de l’élève en algèbre". Grenoble INPG, 2005. http://www.theses.fr/2005INPG0008.

Testo completo
Abstract (sommario):
La conception d’EIAH (Environnements Informatiques d’Apprentissage Humain) s’adaptant aux difficultés des élèves, nécessite le développement de mécanismes automatiques capables de diagnostiquer leurs connaissances à partir de l’observation de leur activité. Dans cette thèse, une base de données a été constituée, à partir de traces de comportements d’élèves résolvant des exercices d’algèbre dans le micromonde Aplusix. Notre travail consiste à extraire automatiquement des régularités comportementales de cette base, dans le but d’aider à la conception d’un tuteur artificiel. Pour cela, nous utilisons des méthodes d’apprentissage machine permettant de détecter des similarités dans les données, et proposons deux approches de modélisation complémentaires. D’une part, nous identifions des groupes d’élèves ayant des comportements homogènes pour un exercice donné, à l’aide d’un algorithme de classification non supervisée. D’autre part, en se plaçant dans un cadre théorique de représentation des connaissances, nous mettons en évidence des régularités d’actions dans l’ensemble de la production de chaque élève. Cette caractérisation individuelle obtenue à l’aide d’un algorithme de généralisation symbolique peut servir de support à une remédiation adaptée
Building an Intelligent Tutoring System which adapts to student difficulties, needs to develop automatic tools that diagnose their knowledge level. This work is based on a database containing behaviours of students, who are learning algebra with the Aplusix software. We aim at automatically extracting behavioural regularities from this database, in order to support the developpement of an intelligent tutor. To achieve this goal, we apply machine learning methods that detect similarities in datasets, and we propose two distinct approaches to student modelling issues. One one hand, we identify clusters of students that share behavioural similarities on a given exercise, with an unsupervised clustering algorithm. On the other hand, an analysis of procedural regularities in the production of each student, inspired from a theoretical framework of knowledge representation and based on a symbolic learning algorithm, leads to individual models that could be used for adapted remediation
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Achoch, Mounia. "Méthodes d’apprentissage et approches expérimentales appliqués aux réseaux d’interfaces protéiques". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA022/document.

Testo completo
Abstract (sommario):
Cette étude s’inscrit dans le cadre d’un problème biologique et son objectif est de comprendre les mécanismes d’assemblage des protéines. L’assemblage d’une protéine en oligomère est particulièrement important car il est impliqué dans de nombreuses pathologies allant de l’infection bactérienne aux maladies de type Alzheimer ou même des cancers. L’assemblage protéique est un mécanisme de combinaison de deux ou plusieurs chaînes protéiques, il est aussi par ailleurs souvent utilisé par les organismes vivants pour déclencher une activité biologique. La sous unité B de la toxine du choléra(CtxB5), qui appartient à la famille des toxines AB5, est étudiée comme modèle principal de l’assemblage. Des résultats expérimentaux ont fourni des informations sur l’assemblage de la toxine mettant en avant l’implication de certains acides aminés. La première question que j’ai abordée pendant ma thèse était de comprendre leur rôle et de voir si les approches réseaux étaient pertinentes pour y répondre. J’ai pu montrer en utilisant des mutations d’acides aminés que ces derniers s’influençaient entre eux suivant des mécanismes en cascade ou de « Peer to Peer » afin de coordonner les étapes de l’assemblage (les chapitres 4, 5 et 6). La structure et la fonction des protéines sont définies par des séquences d’acides aminés qui varient naturellement en raison de mutation génétique. J’ai donc décidé d’élargir ce champ d’investigation pour voir si le mécanisme en cascade était généralisable comme moyen de perturber une structure de protéine par le biais d’une mutation. Ici il s’agit de comprendre les changements de structure liés à des mutations et pouvant menés à des maladies. J’ai tout d’abord étudié des jeux de données pour connaître les caractéristiques réseaux de protéines saines (chapitre 7, 8 et 9), avant de regarder l’effet de la mutation systématique de chacun des acides aminés de CtxB5 sur sa structure globale (chapitre 10 et 11). Les mutations peuvent engendrer des changements de structure modérés ou très grand autour de l’acide aminé muté ou à des distances très éloignées. Ces résultats sont consistants avec tous les effets connus de mutation : robustesse (maintien de la fonction), évolution ou adaptation (émergence d’une nouvelle fonction) et fragilité (pathologies). Les résultats montrent aussi une faible corrélation entre le nombre de contacts d’un acide aminé et la quantité de changement structuraux induit par sa mutation. Il n’est donc pas simple d’anticiper l’effet d’une mutation : Le dernier chapitre de ma thèse aborde ce problème (chapitre 12)
The aim of this study is to understand protein assembly mechanisms. The assembly of a protein in an oligomer is particularly important because it is involved in many pathologies going from bacterial infection, Alzheimer like diseases or even some cancers. Protein assembly is the combination of two or more protein chains to induce a biological activity. The B subunit of the cholera toxin pentamer (CtxB5), which belongs to the family of AB5 toxins, is studied as the main model of assembly. Experimental results have provided information on the assembly of the toxin highlighting the involvement of certain amino acids. The first problem addressed in my thesis is to understand their role and see if network approaches are relevant to such investigation. I was able to show using amino acid mutations, that amino acids influence each other by cascade or "peer to peer" mechanisms in order to coordinate the various steps of the assembly (Chapters 4, 5 and 6). The structure and function of the proteins are defined by amino acid sequences which naturally vary due to genetic mutation. So I decided to expand this field of investigation to see if the cascade mechanism was generalized as a mean of disrupting a protein structure. Here it is to understand how a protein loses its function by way of a significant change of structure upon mutation. First, I studied dataset to know the characteristics of healthy protein networks (Chapter 7, 8 and 9), and after I looked at the effects of the systematic mutation of each amino acid of CtxB5 on its overall structure (Chapter 10 and 11). Mutations led from moderate to very large structural changes around the mutated amino acid or at long distances. These results are consistent with known effects of mutation: robustness (maintenance function), evolution or adaptation (emergence of a new feature) and fragility (pathologies). The results also show a weak correlation between the number of amino acid contacts of the mutated amino acid and the amount of structural change induced by its mutation. It is therefore not easy to anticipate the effect of a mutation: The last chapter of my thesis addresses this problem (Chapter 12)
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Szilagyi, Ioan. "Technologies sémantiques pour un système actif d’apprentissage". Thesis, Besançon, 2014. http://www.theses.fr/2014BESA1008/document.

Testo completo
Abstract (sommario):
Les méthodes d’apprentissage évoluent et aux modèles classiques d’enseignement viennent s’ajouter de nouveaux paradigmes, dont les systèmes d’information et de communication, notamment le Web, sont une partie essentielle. Afin améliorer la capacité de traitement de l’information de ces systèmes, le Web sémantique définit un modèle de description de ressources (Resource Description Framework – RDF), ainsi qu’un langage pour la définition d’ontologies (Web Ontology Language – OWL). Partant des concepts, des méthodes, des théories d’apprentissage, en suivant une approche systémique, nous avons utilisé les technologies du Web sémantique pour réaliser une plateforme d’apprentissage capable d’enrichir et de personnaliser l’expérience de l’apprenant. Les résultats de nos travaux sont concrétisés dans la proposition d’un prototype pour un Système Actif et Sémantique d’Apprentissage (SASA). Suite à l’identification et la modélisation des entités participant à l’apprentissage, nous avons construit six ontologies, englobant les caractéristiques de ces entités. Elles sont les suivantes : (1) ontologie de l’apprenant, (2) ontologie de l’objet pédagogique, (3) ontologie de l’objectif d’apprentissage, (4) ontologie de l’objet d’évaluation, (5) ontologie de l’objet d’annotation et (6) ontologie du cadre d’enseignement. L’intégration des règles au niveau des ontologies déclarées, cumulée avec les capacités de raisonnement des moteurs d’inférences incorporés au niveau du noyau sémantique du SASA, permettent l’adaptation du contenu d’apprentissage aux particularités des apprenants. L’utilisation des technologies sémantiques facilite l’identification des ressources d’apprentissage existant sur le Web ainsi que l’interprétation et l’agrégation de ces ressources dans le cadre du SASA
Learning methods keep evolving and new paradigms are added to traditional teaching models where the information and communication systems, particularly the Web, are an essential part. In order to improve the processing capacity of information systems, the Semantic Web defines a model for describing resources (Resource Description Framework - RDF), and a language for defining ontologies (Web Ontology Language – OWL). Based on concepts, methods, learning theories, and following a systemic approach, we have used Semantic Web technologies in order to provide a learning system that is able to enrich and personalize the experience of the learner. As a result of our work we are proposing a prototype for an Active Semantic Learning System (SASA). Following the identification and modeling of entities involved in the learning process, we created the following six ontologies that summarize the characteristics of these entities: (1) learner ontology, (2) learning object ontology, (3) learning objective ontology, (4) evaluation object ontology, (5) annotation object ontology and (6) learning framework ontology. Integrating certain rules in the declared ontologies combined with reasoning capacities of the inference engines embedded in the kernel of the SASA, allow the adaptation of learning content to the characteristics of learners. The use of semantic technologies facilitates the identification of existing learning resources on the web as well as the interpretation and aggregation of these resources within the context of SASA
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Bar, Romain. "Développement de méthodes d'analyse de données en ligne". Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00943148.

Testo completo
Abstract (sommario):
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance θn du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Zn_tilde = Zn − θn et on suppose que les vecteurs Zn_tilde forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire Z_tilde. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de Z_tilde. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Bar, Romain. "Développement de méthodes d'analyse de données en ligne". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0216.

Testo completo
Abstract (sommario):
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance En du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Rn = Zn - En et on suppose que les vecteurs Rn forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire R. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de R. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5
High dimensional data are supposed to be independent on-line observations of a random vector. In the second chapter, the latter is denoted by Z and sliced into two random vectors R et S and data are supposed to be identically distributed. A recursive method of sequential estimation of the factors of the projected PCA of R with respect to S is defined. Next, some particular cases are investigated : canonical correlation analysis, canonical discriminant analysis and canonical correspondence analysis ; in each case, several specific methods for the estimation of the factors are proposed. In the third chapter, data are observations of the random vector Zn whose expectation En varies with time. Let Rn = Zn - En be and suppose that the vectors Rn form an independent and identically distributed sample of a random vector R. Stochastic approximation processes are used to estimate on-line direction vectors of the principal axes of a partial principal components analysis (PCA) of ~Z. This is applied next to the particular case of a partial generalized canonical correlation analysis (gCCA) after defining a stochastic approximation process of the Robbins-Monro type to estimate recursively the inverse of a covariance matrix. In the fourth chapter, the case when both expectation and covariance matrix of Zn vary with time n is considered. Finally, simulation results are given in chapter 5
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Vervier, Kevin. "Méthodes d’apprentissage structuré pour la microbiologie : spectrométrie de masse et séquençage haut-débit". Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0081/document.

Testo completo
Abstract (sommario):
L'utilisation des technologies haut débit est en train de changer aussi bien les pratiques que le paysage scientifique en microbiologie. D'une part la spectrométrie de masse a d'ores et déjà fait son entrée avec succès dans les laboratoires de microbiologie clinique. D'autre part, l'avancée spectaculaire des technologies de séquençage au cours des dix dernières années permet désormais à moindre coût et dans un temps raisonnable de caractériser la diversité microbienne au sein d'échantillons cliniques complexes. Aussi ces deux technologies sont pressenties comme les piliers de futures solutions de diagnostic. L'objectif de cette thèse est de développer des méthodes d'apprentissage statistique innovantes et versatiles pour exploiter les données fournies par ces technologies haut-débit dans le domaine du diagnostic in vitro en microbiologie. Le domaine de l'apprentissage statistique fait partie intégrante des problématiques mentionnées ci-dessus, au travers notamment des questions de classification d'un spectre de masse ou d'un “read” de séquençage haut-débit dans une taxonomie bactérienne.Sur le plan méthodologique, ces données nécessitent des développements spécifiques afin de tirer au mieux avantage de leur structuration inhérente: une structuration en “entrée” lorsque l'on réalise une prédiction à partir d'un “read” de séquençage caractérisé par sa composition en nucléotides, et un structuration en “sortie” lorsque l'on veut associer un spectre de masse ou d'un “read” de séquençage à une structure hiérarchique de taxonomie bactérienne
Using high-throughput technologies is changing scientific practices and landscape in microbiology. On one hand, mass spectrometry is already used in clinical microbiology laboratories. On the other hand, the last ten years dramatic progress in sequencing technologies allows cheap and fast characterization of microbial diversity in complex clinical samples. Consequently, the two technologies are approached in future diagnostics solutions. This thesis aims to play a part in new in vitro diagnostics (IVD) systems based on high-throughput technologies, like mass spectrometry or next generation sequencing, and their applications in microbiology.Because of the volume of data generated by these new technologies and the complexity of measured parameters, we develop innovative and versatile statistical learning methods for applications in IVD and microbiology. Statistical learning field is well-suited for tasks relying on high-dimensional raw data that can hardly be used by medical experts, like mass-spectrum classification or affecting a sequencing read to the right organism. Here, we propose to use additional known structures in order to improve quality of the answer. For instance, we convert a sequencing read (raw data) into a vector in a nucleotide composition space and use it as a structuredinput for machine learning approaches. We also add prior information related to the hierarchical structure that organizes the reachable micro-organisms (structured output)
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Sokol, Marina. "Méthodes d’apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4018/document.

Testo completo
Abstract (sommario):
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l’échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau
Semi-supervised learning methods constitute a category of machine learning methods which use labelled points together with unlabeled data to tune the classifier. The main idea of the semi-supervised methods is based on an assumption that the classification function should change smoothly over a similarity graph. In the first part of the thesis, we propose a generalized optimization approach for the graph-based semi-supervised learning which implies as particular cases the Standard Laplacian, Normalized Laplacian and PageRank based methods. Using random walk theory, we provide insights about the differences among the graph-based semi-supervised learning methods and give recommendations for the choice of the kernel parameters and labelled points. We have illustrated all theoretical results with the help of synthetic and real data. As one example of real data we consider classification of content and users in P2P systems. This application demonstrates that the proposed family of methods scales very well with the volume of data. The second part of the thesis is devoted to quick detection of network central nodes. The algorithms developed in the second part of the thesis can be applied for the selections of quality labelled data but also have other applications in information retrieval. Specifically, we propose random walk based algorithms for quick detection of large degree nodes and nodes with large values of Personalized PageRank. Finally, in the end of the thesis we suggest new centrality measure, which generalizes both the current flow betweenness centrality and PageRank. This new measure is particularly well suited for detection of network vulnerability
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Boussetat, Mbaye Sana. "Analyse et critique des méthodes d'une encyclopédie en ligne : Wikipédia". Thesis, Cergy-Pontoise, 2016. http://www.theses.fr/2016CERG0798.

Testo completo
Abstract (sommario):
En se basant sur une observation participante et la collecte de données recueillies par d'autres techniques d'observation (statistiques, observation directe), nous avons exploré en profondeur le fonctionnement d'une encyclopédie : l'encyclopédie en ligne libre et ouverte Wikipédia1. Cette observation participante a consisté à contribuer activement au projet open source, à nous impliquer dans son fonctionnement, au point même de tenter d'agir sur certains aspects organisationnels (prises de décision, publication d’articles), tout ceci dans le but d’analyser les méthodes employées. Cependant, rectifions d'emblée, il ne s'agit pas seulement d'un projet open source au sens strict du terme, mais d'un concept très particulier dont l'étendue, le public, les pratiques, la nature juridique, font qu'il se trouve à la croisée de divers milieux : monde scientifique, culture libre, population étudiante, public des forums et du Web 2.0.Au niveau théorique, cette observation présente plusieurs intérêts. Elle permet tout d'abord de démontrer que Wikipédia ne se limite pas à une activité informatique immatérielle. Wikipédia pénètre aujourd'hui toutes les activités culturelles, scientifiques voire juridiques.On peut aussi à travers cette étude tirer des enseignements sur la dynamique, le fonctionnement et le crédit à accorder à une telle entreprise. L'immersion dans le projet nous a, en effet, permis de mieux comprendre les logiques et les dynamiques de Wikipédia. Cette étude peut également servir de référent ou d'élément comparatif dans l'observation et l'analyse d'autres projets similaires ou sous forme papier dont les méthodes de réalisation sont différentes (Encyclopædia Universalis, encyclopédie Larousse en ligne, Encarta...). Et enfin, en phase avec l’ère du numérique, elle offre la perspective de nouvelles voies de régulation et des pistes pour exploiter ces nouveaux outils cognitifs
Based on participant observation and collection of data gathered by other observation techniques (statistics, direct observation), we explored in depth the operation of an encyclopedia: the free and open online encyclopedia Wikipedia. The participant observation consists in actively contributing to the open source project, in getting involved in its operation, even to the point of trying to act on some organizational aspects (decision-making, publication of articles), all this in order to analyze the methods used. However, let’s immediately rectify, this is not only an open source project in the strict sense of the term, but a very particular concept of which extent, public, practices, legal nature, make so that it is located at the crossroads of various backgrounds: scientific world, free culture, students, forums’ public and Web 2.0.On the theoretical level, this observation presents several interests. It first allows to show that Wikipedia is not limited to an immaterial computer activity. Wikipedia now penetrates all cultural, scientific and even legal activities.Through this study, we can also learn on the dynamic, the functioning and the credit to grant to such an undertaking. The immersion in the project has indeed helped us to better understand the logics and dynamics of Wikipedia. This study can also serve as reference or comparative element in the observation and analysis of similar projects or in paper form of which construction methods are different (Encyclopædia Universalis, Larousse online encyclopedia, Encarta ...). And finally, in step with the digital age, it offers the prospect of new regulatory pathways and trails to exploit these new cognitive tools
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Montalibet, Virginie. "Amélioration du suivi clinique de tumeurs intracrâniennes à l’aide d’équations différentielles et de méthodes d’apprentissage". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0174.

Testo completo
Abstract (sommario):
Les méningiomes font partie des tumeurs bénignes les plus courantes du système nerveux central. Moins dangereuses pour la santé que les tumeurs malignes, les cliniciens optent généralement pour un suivi clinique régulier plutôt que pour la mise en place d’un traitement ou d’une chirurgie pouvant s’avérer plus dangereux que la présence du méningiome. Dans ces travaux en collaboration forte avec la clinique, nous souhaitons étudier chaque étape du suivi du patient afin d’aider les chirurgiens dans leur prise de décision. La première phase, indispensable aux suivantes, implique l’acquisition d’images par IRM pour identifier et segmenter les tumeurs. Nous envisageons alors ici l’application d’algorithmes d’apprentissage profond pour automatiser cette segmentation, aujourd’hui faite par les cliniciens. Une cohorte de 319 patients, ainsi que leurs images et leurs masques de segmentation, sera utilisée à cet effet. Une première analyse révèlera des résultats prometteurs pour l’identification et la segmentation des méningiomes au sein de la cohorte. Nous comparerons l’architecture utilisée avec d’autres modèles et les travaux antérieurs dans la littérature. Une fois la tumeur segmentée et diagnostiquée, le patient est donc généralement suivi de manière régulière. à chaque consultation, le médecin réalise de nouvelles images permettant de suivre l’évolution de la tumeur dans le temps et la constitution d’une cohorte composée de données longitudinales. Le clinicien doit alors répondre entre autres à la question suivante : faut-il envisager une chirurgie ou bien continuer le suivi ? Une meilleure connaissance de la croissance des méningiomes permettrait d’orienter le chirurgien dans sa prise de décision. A cette fin, nous étudierons et comparerons différents modèles mathématiques basés sur des équations différentielles ordinaires (EDO), capables de modéliser la croissance tumorale. Diverses stratégies d’estimation paramétrique seront également évaluées principalement selon leur robustesse. Ce sont finalement les effets mixtes et le modèle de Gompertz qui se démarquent en fournissant de meilleurs résultats. Représenté par une forme de sigmoïde et caractérisé par une décroissance de son taux de croissance initial, le modèle de Gompertz apporte alors une information supplémentaire. A partir de celle-ci et afin d’essayer de fournir un suivi clinique propre à chaque patient, nous essaierons d’identifier les différentes phases de cette croissance mais aussi de prédire l’évolution des méningiomes. Des modélisations mécanistiques (EDO) ainsi que des méthodes d’apprentissage statistique et profond seront utilisées dans ce travail. Enfin, l’ensemble de cette approche sera testée sur d’autres types de tumeurs telles que les schwannomes, ou des méningiomes induits par la prise de traitements hormonaux
Meningiomas are among the most common benign tumors of the central nervous system. Less dangerous than malignant tumors, clinicians generally opt for a regular clinical follow-up rather than treatment or surgery that may be more dangerous than the presence of the meningioma. In this work, in close collaboration with the clinic, we aim to study each stage of patient follow-up to assist surgeons in their decision-making. The first phase, which is necessary to the subsequent ones, involves acquiring MRI images to identify and segment tumors. Here, we consider the application of deep learning algorithms to automate this segmentation, which is currently performed by clinicians. A cohort of 319 patients, along with their images and segmentation masks, will be used for this purpose. An initial analysis will reveal promising results for the identification and segmentation of meningiomas within the cohort. We will compare the architecture used with other models and previous work in the literature. Once the tumor has been segmented and diagnosed, the patient is generally followed up regularly. At each consultation, the doctor takes new images to monitor the tumor’s evolution over time and to build up a cohort of longitudinal data. The clinician must then answer questions such as : should surgery be considered, or should follow-up continue ? A better understanding of meningioma growth would help guide the surgeon’s decision. To this end, we will study and compare different mathematical models based on ordinary differential equations (ODE), able to modeling tumor growth. Various parametric estimation strategies will also be evaluated, primarily in terms of their robustness. In the end, mixed effects and the Gompertz model stand out as providing the best results. Represented by a sigmoid curve and characterized by the decrease of its initial growth rate, the Gompertz model provides additional information. Based on this, and in an attempt to provide patient-specific clinical follow-up, we will try to identify the different phases of this growth, as well as predict the evolution of meningiomas. Mechanistic modeling (ODE) as well as statistical and deep learning methods will be used in this work. Finally, the whole approach will be tested on other tumor types such as schwannomas, or meningiomas induced by hormonal treatments
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Vestberg, Francine. "L’interaction comme méthode d’apprentissage du Français langue étrangère (FLE) en Suède". Thesis, Högskolan Dalarna, Franska, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:du-23450.

Testo completo
Abstract (sommario):
Mon travail s’inspire de l’idée de la Direction nationale de l’enseignement scolaire suédoise (Skolverket, 2011) qui suggère que « les élèves doivent avoir la possibilité de développer une capacité de communication et de compréhension de la langue ». Mon mémoire commence par une introduction générale, continue avec une analyse des manuels utilisés dans l’apprentissage du FLE et des activités favorisant l’interaction - échange réciproque verbale ou non verbale, pour terminer par une conclusion générale. Comme il n’existe pas d’enseignement sans méthodes appropriées, il existe des manuels qu’on peut utiliser afin de faciliter l’apprentissage par l’interaction de la langue cible. Les activités de communication orale et écrite d’ordre pédagogique sont indispensables. Tout comme l’écrit Revue française de pédagogie (1994 :133) « La classe est un système social complexe dont les parties sont en interaction dynamique, acteurs (enseignant et élève[s]), situation, matière selon des statuts sociaux. ». Pour effectuer mes recherches, j’ai porté mon attention sur l’analyse des manuels scolaires qu’il m’a été permis de consulter. Il s’agit des manuels d’entraide comme : Mais oui 3 et Escalade littéraire. Concernant l’analyse du matériel didactique favorisant l’interaction, ces deux manuels proposent des exercices de réflexion selon le niveau de l’apprenant. Dans mon travail, je m’intéresse à l’aspect didactique et linguistique de ces deux manuels scolaires.
My work is inspired by the idea of the Swedish National Agency for Education (Skolverket, 2011) which suggests that "students should have the opportunity to develop the ability of communication skills and comprehension of the language". My thesis begins with a general introduction, continues with an analysis of the educational materials used in the learning of FLE (Français Langue Etrangère) and activities promoting the interaction – reciprocal exchange which can be verbal or nonverbal, to finally ending with a general conclusion. As there is no teaching without appropriate methods, there are textbooks that can be used to facilitate learning through the interaction of the target language. The activities of oral and written communication of a pedagogic nature are essential. Just like it is written in Revue française de pédagogie (1994:133) "The classroom is a complex social system whose parts are in dynamic interaction, actors (teacher and student[s]), situation, material according to social status." In order for me to do my research, I had to focus my attention on the didactic analysis of the textbooks that I have been enabled to consult. It is two supporting textbooks: Mais oui 3 and Escalade Littéraire. Regarding the analysis of educational materials which encourage to interact, these two textbooks offer exercises of reflection depending on the level of the learner. In my work, I focus on the didactical and the linguistic skills of these two textbooks.
Gli stili APA, Harvard, Vancouver, ISO e altri
18

D'Attoma, Amélie. "Développement de méthodes bidimensionnelles en ligne LCxLC-MS pour l'analyse de composés chargés". Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-01056279.

Testo completo
Abstract (sommario):
Ce manuscrit expose le développement de méthodes bidimensionnelles en ligne pour l'analyse de composés chargés en couplage avec la spectrométrie de masse. Le contexte de l'étude et les principes théoriques de la chromatographie en phase liquide unidimensionnelle et bidimensionnelle sont tout d'abord présentés. Les conditions expérimentales telles que l'instrumentation, les colonnes, les composés étudiés sont détaillés. Des études unidimensionnelles ont été effectuées afin de connaître le comportement cinétique des petites molécules ionisables et des peptides selon la phase mobile et la température. L'orthogonalité de systèmes chromatographiques et les capacités de pics générées ont ensuite été étudiés afin de connaître les conditions expérimentales les plus intéressantes pour l'analyse des composés chargés. Les comparaisons de systèmes ont été effectuées avec de nouveaux descripteurs d'orthogonalité et de capacité de pic effective qui ont été établit. Les systèmes bidimensionnels LCxLC ont ensuite été mis en place. L'utilité d'un split pour réduire le volume injecté en seconde dimension est envisagée. Des limites en termes de volume injecté dans la seconde dimension ont été définies en RPLC et en HILIC. Des mélanges de peptides ont été séparés par RPLCxRPLC(-MS), RPLCxHILIC(-MS) et HILICxRPLC. Le couplage avec la spectrométrie de masse est optimisé. L'intérêt des séparations bidimensionnelles est mis en évidence par rapport à des séparations LC-MS classiques
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Osman, Ousama. "Méthodes de diagnostic en ligne, embarqué et distribué dans les réseaux filaires complexes". Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC038.

Testo completo
Abstract (sommario):
Les recherches menées dans cette thèse portent sur le diagnostic de réseaux filaires complexes à l’aide de la réflectométrie distribuée. L’objectif est de développer de nouvelles technologies de diagnostic en ligne, distribuées des réseaux complexes permettant la fusion de données ainsi que la communication entre les réflectomètres pour détecter, localiser et caractériser les défauts électriques (francs et non francs). Cette collaboration entre les réflectomètres permet de résoudre le problème d’ambiguïté de localisation des défauts et d’améliorer la qualité du diagnostic. La première contribution concerne la proposition d’une méthode basée sur la théorie des graphes permettant la combinaison de données entre les réflectomètres distribués afin de faciliter la localisation d’un défaut. L’amplitude du signal réfléchi est ensuite utilisée pour identifier le type du défaut et estimer son impédance. Cette estimation est basée sur la régénération du signal en compensant la dégradation subie par le signal de diagnostic au cours de sa propagation à travers le réseau. La deuxième contribution permet la fusion des données de réflectomètres distribués dans des réseaux complexes affectés par de multiples défauts. Pour atteindre cet objectif, deux méthodes ont été proposées et développées : la première est basée sur les algorithmes génétiques (AG) et la deuxième est basée sur les réseaux de neurones (RN). Ces outils combinés avec la réflectométrie distribuée permettent la détection automatique, la localisation et la caractérisation de plusieurs défauts dans différents types et topologies des réseaux filaires. La troisième contribution propose d’intégrer la communication entre les réflectomètres via le signal de diagnostic porteur d’informations. Elle utilise adéquatement les phases du signal multiporteuses MCTDR pour transmettre des données. Cette communication assure l’échange d’informations utiles entre les réflectomètres sur l’état des câbles, permettant ainsi la fusion de données et la localisation des défauts sans ambiguïtés. Les problèmes d’interférence entre les réflectomètres sont également abordés lorsqu’ils injectent simultanément leurs signaux de test dans le réseau. Ces travaux de thèse ont montré l’efficacité des méthodes proposées pour améliorer les performances des systèmes de diagnostic filaire actuels en termes de diagnostic de certains défauts encore difficiles à détecter aujourd’hui, et d’assurer la sécurité de fonctionnement des systèmes électriques
The research conducted in this thesis focuses on the diagnosis of complex wired networks using distributed reflectometry. It aims to develop new distributed diagnostic techniques for complex networks that allow data fusion as well as communication between reflectometers to detect, locate and characterize electrical faults (soft and hard faults). This collaboration between reflectometers solves the problem of fault location ambiguity and improves the quality of diagnosis. The first contribution is the development of a graph theory-based method for combining data between distributed reflectometers, thus facilitating the location of the fault. Then, the amplitude of the reflected signal is used to identify the type of fault and estimate its impedance. The latter is based on the regeneration of the signal by compensating for the degradation suffered by the diagnosis signal during its propagation through the network. The second contribution enables data fusion between distributed reflectometers in complex networks affected by multiple faults. To achieve this objective, two methods have been proposed and developed: the first is based on genetic algorithms (GA) and the second is based on neural networks (RN). These tools combined with distributed reflectometryallow automatic detection, location, and characterization of several faults in different types and topologies of wired networks. The third contribution proposes the use of information-carrying diagnosis signal to integrate communication between distributed reflectometers. It properly uses the phases of the MCTDR multi-carrier signal to transmit data. This communication ensures the exchange of useful information (such as fault location and amplitude) between reflectometers on the state of the cables, thus enabling data fusion and unambiguous fault location. Interference problems between the reflectometers are also addressed when they simultaneously inject their test signals into the network. These studies illustrate the efficiency and applicability of the proposed methods. They also demonstrate their potential to improve the performance of the current wired diagnosis systems to meet the need and the problem of detecting and locating faults that manufacturers and users face today in electrical systems to improve their operational safety
Gli stili APA, Harvard, Vancouver, ISO e altri
20

D'Attoma, Amélie. "Développement de méthodes bidimensionnelles en ligne LCxLC-MS pour l’analyse de composés chargés". Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10214/document.

Testo completo
Abstract (sommario):
Ce manuscrit expose le développement de méthodes bidimensionnelles en ligne pour l'analyse de composés chargés en couplage avec la spectrométrie de masse. Le contexte de l'étude et les principes théoriques de la chromatographie en phase liquide unidimensionnelle et bidimensionnelle sont tout d'abord présentés. Les conditions expérimentales telles que l'instrumentation, les colonnes, les composés étudiés sont détaillés. Des études unidimensionnelles ont été effectuées afin de connaître le comportement cinétique des petites molécules ionisables et des peptides selon la phase mobile et la température. L'orthogonalité de systèmes chromatographiques et les capacités de pics générées ont ensuite été étudiés afin de connaître les conditions expérimentales les plus intéressantes pour l'analyse des composés chargés. Les comparaisons de systèmes ont été effectuées avec de nouveaux descripteurs d'orthogonalité et de capacité de pic effective qui ont été établit. Les systèmes bidimensionnels LCxLC ont ensuite été mis en place. L'utilité d'un split pour réduire le volume injecté en seconde dimension est envisagée. Des limites en termes de volume injecté dans la seconde dimension ont été définies en RPLC et en HILIC. Des mélanges de peptides ont été séparés par RPLCxRPLC(-MS), RPLCxHILIC(-MS) et HILICxRPLC. Le couplage avec la spectrométrie de masse est optimisé. L'intérêt des séparations bidimensionnelles est mis en évidence par rapport à des séparations LC-MS classiques
This manuscript is dedicated to the development of on-line two-dimensional liquid chromatography for the analysis of charged compounds with mass spectrometry coupling. The context of the study and the theoretical principles of liquid chromatography in one or two dimensions are presented. Experimental conditions such as instrumentation, columns, studied compounds are detailed. Some one-dimensional studies have been experimented to know the kinetic behaviour of small ionisables molecules and peptides depending on conditions. The orthogonality of chromatographic system and generated peak capacity have then been studied in order to know which experimental conditions are the most interesting for the analysis of charged compounds. The comparisons of systems have been done with new descriptor for orthogonality and effective peak capacity. Two-dimensional systems were then set up. Some limits in term of injected volume in the second dimension have been established in RPLC and in HILIC. The usefulness of a split to reduce the injected volume in second dimension has been studied. Some peptides mixtures have been separated by RPLCxRPLC(-MS), RPLCxHILIC(-MS) and HILICxRPLC. The MS coupling has been optimized. The interest of two dimensional separations is underlined compared to classical LC-MS separations
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Inghilterra, Xavier. "L’apprenance collective entre pairs à l’aune du modèle transmissif : Impact des dispositifs de partage social sur les communautés d’apprentissage en ligne". Thesis, Toulon, 2016. http://www.theses.fr/2016TOUL0002/document.

Testo completo
Abstract (sommario):
Cette recherche s’intéresse aux effets induits par les dispositifs numériques de partage social sur les pratiques de collaboration, de communication et de médiation d’étudiants, dans un contexte situé de formation à distance. L’objectif est d’appréhender le processus de collaboration à l’origine de l’apprenance collective qui s’illustre dans les communautés d’apprentissage, constituées en marge de l’institution académique. Notre approche empirique par systématique hypothético-déductive est une observation netnographique menée auprès d’individus inscrits en Bachelor et Mastère dans un centre de formation privé. Notre corpus est composé de 1405 messages recueillis sur les forums de la plateforme institutionnelle et sur Facebook ou Google+ pour les groupes communautaires à l’initiative des étudiants. Nous recourons à une catégorisation de l’activité d’apprentissage suivant quatre dimensions intrinsèques à l’intervention des usagers sur les forums. Les phénomènes observés sont analysés suivant trois variables dépendantes : la temporalité, la reconnaissance sociale et le pouvoir hiérarchique. Notre ancrage est la théorie critique des médias de l’école de Francfort. Nous faisons l’hypothèse que les dispositifs sociotechniques d’information et de communication participent de l’horizontalisation des usages estudiantins. Nos observations de terrain révèlent en effet que les apprenants préfèrent s’en remettre à leurs pairs plutôt que solliciter l’institution ou les tuteurs en ligne. S’ils privilégient leur disponibilité indéfectible, ils accordent une plus grande importance à leur réactivité. Nous pensons que le clivage qui oppose l’environnement académique à la sphère estudiantine est pour partie le fait de deux temporalités distinctes. L’une verticale, celle de l’environnement numérique de travail (ENT), l’autre plus horizontale, caractérisée par les échanges entre pairs au sein de l’environnement personnel d’apprentissage (EPA). L’asynchronisme qui résulte de ces deux dispositifs engendre des effets de détournement d’usage par lesquels les étudiants exportent les ressources institutionnelles vers leur communauté. Mais l’analyse des praxis communautaires révèle d’autres artefacts induits par les technologies numériques. Qu’il s’agisse de désintermédiation ou d’accélération temporelle, ces usagers attirés par le modèle a hiérarchique, se retrouvent à leur insu dans un processus de domination sociale. Nous soulignons les effets pernicieux liés à l’accélération temporelle particulièrement prégnante dans la génération d’étudiants observée
This research is interested in the effects led by the digital devices plans of social sharing on the pratices of collaboration, communication and mediation of students in context of distance learning. The goal is the understand the origin of the collaborative process of collective apprenance which is illustrated in the communities of apprenticeship outside the academic institution. A netnographic observation is conducted whith Bachelor and Master's degree in a private training center ; our corpus is made of 1405 messages taken in the forums of the institutional platform and on Facebook or Google +. We assume the information and communication sociotechnical devices participate in the horizontalisation of student's practices. We highlight the paradox of these learning communities which are, unwittingly, in a process of social domination by having choosing a priori a decentralized structure
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Inghilterra, Xavier. "L’apprenance collective entre pairs à l’aune du modèle transmissif : Impact des dispositifs de partage social sur les communautés d’apprentissage en ligne". Electronic Thesis or Diss., Toulon, 2016. http://www.theses.fr/2016TOUL0002.

Testo completo
Abstract (sommario):
Cette recherche s’intéresse aux effets induits par les dispositifs numériques de partage social sur les pratiques de collaboration, de communication et de médiation d’étudiants, dans un contexte situé de formation à distance. L’objectif est d’appréhender le processus de collaboration à l’origine de l’apprenance collective qui s’illustre dans les communautés d’apprentissage, constituées en marge de l’institution académique. Notre approche empirique par systématique hypothético-déductive est une observation netnographique menée auprès d’individus inscrits en Bachelor et Mastère dans un centre de formation privé. Notre corpus est composé de 1405 messages recueillis sur les forums de la plateforme institutionnelle et sur Facebook ou Google+ pour les groupes communautaires à l’initiative des étudiants. Nous recourons à une catégorisation de l’activité d’apprentissage suivant quatre dimensions intrinsèques à l’intervention des usagers sur les forums. Les phénomènes observés sont analysés suivant trois variables dépendantes : la temporalité, la reconnaissance sociale et le pouvoir hiérarchique. Notre ancrage est la théorie critique des médias de l’école de Francfort. Nous faisons l’hypothèse que les dispositifs sociotechniques d’information et de communication participent de l’horizontalisation des usages estudiantins. Nos observations de terrain révèlent en effet que les apprenants préfèrent s’en remettre à leurs pairs plutôt que solliciter l’institution ou les tuteurs en ligne. S’ils privilégient leur disponibilité indéfectible, ils accordent une plus grande importance à leur réactivité. Nous pensons que le clivage qui oppose l’environnement académique à la sphère estudiantine est pour partie le fait de deux temporalités distinctes. L’une verticale, celle de l’environnement numérique de travail (ENT), l’autre plus horizontale, caractérisée par les échanges entre pairs au sein de l’environnement personnel d’apprentissage (EPA). L’asynchronisme qui résulte de ces deux dispositifs engendre des effets de détournement d’usage par lesquels les étudiants exportent les ressources institutionnelles vers leur communauté. Mais l’analyse des praxis communautaires révèle d’autres artefacts induits par les technologies numériques. Qu’il s’agisse de désintermédiation ou d’accélération temporelle, ces usagers attirés par le modèle a hiérarchique, se retrouvent à leur insu dans un processus de domination sociale. Nous soulignons les effets pernicieux liés à l’accélération temporelle particulièrement prégnante dans la génération d’étudiants observée
This research is interested in the effects led by the digital devices plans of social sharing on the pratices of collaboration, communication and mediation of students in context of distance learning. The goal is the understand the origin of the collaborative process of collective apprenance which is illustrated in the communities of apprenticeship outside the academic institution. A netnographic observation is conducted whith Bachelor and Master's degree in a private training center ; our corpus is made of 1405 messages taken in the forums of the institutional platform and on Facebook or Google +. We assume the information and communication sociotechnical devices participate in the horizontalisation of student's practices. We highlight the paradox of these learning communities which are, unwittingly, in a process of social domination by having choosing a priori a decentralized structure
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Carbonnel, Sabine. "Intégration et modélisation de connaissances linguistiques pour la reconnaissance d'écriture manuscrite en-ligne". Rennes, INSA, 2005. http://www.theses.fr/2005ISAR0022.

Testo completo
Abstract (sommario):
La reconnaissance d'ecriture manuscrite est un probleme difficile qui ne peut se reduire a la reconnaissance de formes graphiques : il est primordial d'integrer des connaissances linguistiques pour guider la reconnaissance. Les objectifs de nos travaux sont d'integrer des connaissances lexicales pour ameliorer un systeme de reconnaissance de mots manuscrits en-ligne tout en tenant compte de contraintes (temps de calcul et encombrement memoire) en vue du portage du systeme sur des materiels a capacites reduites. Nous proposons un traitement lexical base sur un modele de langage de n-grammes de caracteres, une modelisation pour reduire l'espace des recherches dans un lexique ainsi qu'une modelisation automatique d'une distance d'edition specifique a l'ecriture. Ces modelisations ameliorent le systeme de reconnaissance sur lequel se basent nos travaux, limitent la duree du traitement lexical et sont de plus facilement adaptables aux evolutions du systeme et au contexte d'utilisation.
Handwriting recognition is a difficult problem which cannot be reduced to graphic shapes recognition: it is important to integrate linguistic knowledge to guide the recognition. The objectives of our work are to integrate lexical knowledge to improve a recognition system of on-line handwritten words, taking into account constraints of computing time and memory requirement with the intention of integrate the system on devices with limited capacities. We propose a lexical processing based on a language model of characters n-grams, a modeling to reduce the research space in a lexicon as well as an automatic modeling of an edit distance specific to handwriting. These modelings improve the recognition system on which our work is based, limit the duration of the lexical processing and moreover are easily adaptable to the system evolutions and the context of use
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Toure, Adja Adama. "Mise au point de méthodes de mesures rhéologiques en ligne : Application aux mousses liquides". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALI059.

Testo completo
Abstract (sommario):
L'application des mousses liquides dans les secteurs de l'agroalimentaire, de la cosmétique, de Ia pharmacie entre autres prennent de plus en plus d'importance. Du fait de leurs performances dont leur faible densité et leur texture, elles sont devenues des matériaux intéressants. Les mousses liquides formulées en continue dans des mélangeurs statiques sont des fluides complexes constitués de dispersion de bulles d'air dans une solution de tensioactifs. Elles sont rhéologiquement difficiles à caractériser à l'issue de leur fabrication du fait des différents phénomènes physiques tendant à leur évolution structurale. La mesure en ligne de leurs caractéristiques rhéologiques permettrait de palier cette difficulté. Pour arriver à cet objectif une stratégie par étape a été adoptée. Tout d'abord, la vérification et la calibration de l'hydrodynamique des mélangeurs statiques a été effectuée. Pour cela, les mélangeurs statiques ont été modélisés comme un milieu poreux du fait de leur composition géométrique constitué en un réseau de barres croisées qui forment des sortes de canaux semblables à des pores. Au moyen de fluides Newtoniens et non-Newtoniens viscoélastiques avec ou sans seuil d'écoulement, une acquisition de données de pertes de charge en fonction du débit a été faite en régime laminaire et les paramètres géométriques caractéristiques du mélangeur statique ont été mesurés pour développer une loi permettant la mesure de la viscosité des fluides qui s'y écoulent. Nous avons proposé un modèle quantitatif à partir des paramètres géométriques reliant les données du procédé (perte de charge et débit volumique) aux données rhéométriques (premières différences de contraintes normales, contraintes et taux de cisaillement).Nous avons montré que la structure de ces mousses est pilotée par la rhéologie de cisaillement que nous avons caractérisé indépendamment. Des tests de simulation numérique effectué grâce à des fluides Newtoniens de viscosité connue sont venus appuyer les résultats de la rhéologie systémique. Pour conforter les résultats de l'approche du milieu poreux obtenus avec le mélangeur statique, nous avons mis au point un rhéomètre rotationnel de laboratoire en sortie du mélangeur statique qui permet de mesurer la relation contrainte-cisaillement à partir des données de couple et vitesse de rotation d'échantillons de mousses s'écoulant entre deux cylindres coaxiaux. Les résultats obtenus n'ont pas permis d'estimer la viscosité des mousses à cause des limites caractéristiques de l'appareil utilisé mais aussi de l'effet du débit de mousse arrivant dans le dispositif rotationnel.Mots-clés : Mousses liquides. Rhéologie, viscoélasticité. Mélangeurs statiques. Milieu poreux, Ecoulement de Couette
The application of liquid foams in the agri-food, cosmetics, pharmaceutical and other sectors is becoming increasingly important. Because of their performance, including their low density and texture, they have become interesting materials. Liquid foams continuously formulated in static mixers are complex fluids made up of the dispersion of air bubbles in a solution of surfactants. They are rheologically difficult to characterize at the end of the manufacturing process, due to the various physical phenomena that influence their structural evolution. On-line measurement of their rheological characteristics would make it possible to overcome this difficulty. To achieve this objective, a step-by-step strategy was adopted. First, the hydrodynamics of the static mixers were verified and calibrated. To this end, the static mixers were modeled as a porous medium, due to their geometric composition consisting of a network of intersecting bars forming pore-like channels. Using Newtonian and non-Newtonian viscoelastic fluids, with or without a flow threshold, we acquired data on head loss as a function of flow rate under laminar flow conditions, and measured the characteristic geometric parameters of the static mixer to develop a law for measuring the viscosity of the fluids flowing through it. We proposed a quantitative model based on geometric parameters linking process data (pressure drop and volume flow rate) to rheometric data (first differences in normal stress, stress and shear rate).We have shown that the structure of these foams is driven by shear rheology, which we have characterized independently. Numerical simulation tests with Newtonian fluids of known viscosity supported the systemic rheology results. To support the results of the porous medium approach obtained with the static mixer, we developed a laboratory rotational rheometer at the output of the static mixer, enabling us to measure the stress-shear relationship from torque and rotational speed data of foam samples flowing between two coaxial cylinders. The results obtained did not allow us to estimate the viscosity of the foams, due to the characteristic limits of the device used, but also to the effect of the flow rate of foam arriving in the rotational device.Key words: Liquid foams. Rheology, viscoelasticity. Static mixers. Porous media, Couette flow
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Mescco, Amilcar. "Etude des émissions électromagnétiques CPL large-bande : caractérisation, modélisation et méthodes de mitigation". Télécom Bretagne, 2013. http://www.telecom-bretagne.eu/publications/publication.php?idpublication=14211.

Testo completo
Abstract (sommario):
Avec la demande croissante pour les applications à haut débit et pour des liaisons fiables pour les systèmes de commande et de contrôle, la technologie CPL prend une place de plus en plus importante dans les systèmes innovants tels que les réseaux de communication et les réseaux de distribution intelligents. Le principal avantage de cette technologie est sa capacité à bénéficier de l'infrastructure du réseau électrique existant pour la transmission de signaux électromagnétiques. Les systèmes à large bande actuellement utilisés en intérieur opèrent principalement dans la gamme de fréquence de 2 MHz à 30 MHz. Cependant, dans l'environnement intérieur de type habitation ou bureau, les fils électriques des réseaux basse tension n'ont pas été initialement conçus pour propager des signaux de communication à des hautes fréquences. Cette thèse met l'accent sur l'une des principales limitations liées à la technologie CPL indoor, à savoir le rayonnement non intentionnel de signaux électromagnétiques. D'une part, nous nous sommes attachés à caractériser le niveau de rayonnement d'un système CPL typique, afin de vérifier s'il permet la cohabitation avec d'autres systèmes dans un même environnement. D'autre part, nous avons étudié et proposé des méthodes de réduction du niveau de rayonnement indésirable
With the growing demand for broadband applications and reliable connections for command and control systems, PLC technology is playing an increasingly important role in innovative systems such as communication networks and smart grids. The main advantage of this technology is its ability to benefit from the infrastructure of the existing power grid for transmission of electromagnetic signals. Currently, broadband systems mainly operate in the frequency range from 2 MHz to 30 MHz. However, in indoor environment of home or office the power supply electrical wires were not originally designed to convey communication signals at high frequencies. This thesis focuses on one of the main limitations to the indoor PLC technology, namely, unintentional radiation of electromagnetic signals. The first objective is to characterize the radiation level of a typical PLC system to check if it allows coexistence with other systems in the same environment. Then, the thesis evaluates and proposes methods to reduce the level of unwanted radiation
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Ben, Soussia Amal. "Analyse prédictive des données d’apprentissage, en situation d’enseignement à distance". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0216.

Testo completo
Abstract (sommario):
Pendant les dernières décennies, l'adoption de l'apprentissage en ligne a rapidement évolué et son utilisation a été encore plus poussée avec la pandémie de la COVID-19. L'objectif de ce mode d'enseignement est de garantir la continuité du processus d'apprentissage. Cependant, ce mode d'apprentissage connaît plusieurs défis, dont le plus répandu est les taux élevés d'échec. Ce problème est dû à de nombreuses raisons comme l'hétérogénéité des apprenants et la diversité de leurs comportements d'apprentissage, leur totale autonomie, le manque et/ou l'inefficacité du suivi pédagogique fourni. Par conséquent, les enseignants ont besoin d'un système basée sur des méthodes analytiques et intelligentes leur permettant une prédiction précise et au plus tôt des apprenants à risque d'échec. Cette solution est communément adaptée dans l'état de l'art. Cependant, les travaux réalisés ne répondent pas à certaines particularités de l'apprentissage (la continuité et l'évolution de l'apprentissage, la diversité des apprenants et leur totale autonomie) et certaines attentes des enseignants comme la génération d'alerte. Cette thèse s'inscrit dans le domaine de l'analyse de l'apprentissage et exploite les traces numériques des apprenants en ligne pour concevoir un système prédictif (Early Warning Systems (EWS)) dédié aux enseignants des établissements en ligne. L'objectif de ce EWS est d'identifier au plus tôt les apprenants à risque pour alerter les enseignants de ces derniers. Afin d'atteindre cet objectif, nous avons traité plusieurs sous-problématiques qui ont permis l'élaboration de quatre contributions scientifiques. Nous commençons par proposer une méthodologie en profondeur qui repose sur les étapes de l'apprentissage automatique (ML) et qui permet l'identification de quatre indicateurs d'apprentissage parmi : la performance, l'engagement, la réactivité et la régularité. Cette méthodologie met aussi en valeur l'importance des données temporelles pour l'amélioration des performances de prédiction. De plus, cette méthodologie a permis de définir le modèle avec la meilleure capacité à identifier les apprenants à risque. La 2ème contribution consiste à proposer une évaluation temporelle des EWS à l'aide des métriques temporelles qui mesurent la précocité des prédictions et la stabilité des systèmes. À partir de ces deux métriques, nous étudions les compromis qui existent entre les métriques de précision de ML et les métriques temporelles. Les apprenants en ligne se caractérisent par la diversité de comportements d'apprentissage. Ainsi, un EWS doit répondre à cette diversité en assurant un fonctionnement équitable entre les différents profils d'apprenants. Nous proposons une méthodologie d'évaluation qui se base sur l'identification des profils d'apprenants et utilise un large spectre de métriques temporelles et de précision. En utilisant un EWS, les enseignants s'attendent à une génération d'alerte. C'est pour cette raison,nous concevons un algorithme qui s'appuie sur les résultats de prédiction, les métriques temporelles et la notion des règles d'alerte pour proposer une méthode automatique de génération d'alerte. Le contexte applicatif de cette thèse est le Centre National d'Enseignement à Distance (CNED). Nous exploitons les traces numériques d'une population de collégiens inscrits en classe 3ème pendant les années scolaires 2017-2018 et 2018-2019
Over the past few decades, the adoption of e-learning has evolved rapidly and its use has been pushedeven further with the COVID-19 pandemic. The objective of this learning mode is to guarantee thecontinuity of the learning process. However, the online learning is facing several challenges, and themost widespread is the high failure rates among learners. This issue is due to many reasons such asthe heterogeneity of the learners and the diversity of their learning behaviors, their total autonomy, thelack and/or the inefficiency of the pedagogical provided follow-up. . .. Therefore, teachers need a systembased on analytical and intelligent methods allowing them an accurate and early prediction of at-risk offailure learners. This solution is commonly adopted in the state of the art. However, the work carried outdoes not respond to some particularities of the learning process (the continuity and evolution of learning,the diversity of learners and their total autonomy) and to some teachers expectations such as the alertgeneration.This thesis belongs to the field of learning analytics and uses the numeric traces of online learnersto design a predictive system (Early Warning Systems (EWS)) dedicated to teachers in online establish-ments. The objective of this EWS is to identify learners at risk as soon as possible in order to alertteachers about them. In order to achieve this objective, we have dealt with several sub-problems whichhave allowed us to elaborate four scientific contributions.We start by proposing an in-depth methodology based on the Machine Learning (ML) steps and thatallows the identification of four learning indicators among : performance, engagement, reactivity andregularity. This methodology also highlights the importance of temporal data for improving predictionperformance. In addition, this methodology allowed to define the model with the best ability to identifyat-risk learners.The 2nd contribution consists in proposing a temporal evaluation of the EWS using temporal metricswhich measure the precocity of the predictions and the stability of the system. From these two metrics,we study the trade-offs that exist between ML precision metrics and temporal metrics.Online learners are characterized by the diversity of their learning behaviors. Thus, an EWS shouldrespond to this diversity by ensuring an equitable functioning with the different learners profiles. Wepropose an evaluation methodology based on the identification of learner profiles and that uses a widespectrum of temporal and precision metrics.By using an EWS, teachers expect an alert generation. For this reason, we design an algorithm which,based on the results of the prediction, the temporal metrics and the notion of alert rules, proposes anautomatic method for alert generation. This algorithm targets mainly at-risk learners.The context of this thesis is the French National Center for Distance Education (CNED). In parti-cular, we use the numeric traces of k-12 learners enrolled during the 2017-2018 and 2018-2019 schoolyears
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Ghourabi, Samira. "L’appropriation des référentiels normatifs dans les environnements d’apprentissage en ligne : evaluation de l’usage de la plate forme Moodle de l’Université Virtuelle de Tunis". Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30003.

Testo completo
Abstract (sommario):
Avec le développement fulgurant des Technologies de l’Information et de la Communication, les méthodes classiques de diffuser, d’accéder et de partager l’information ont été repensées.Actuellement, les TIC dédiées à l’éducation sont en plein essor, permettant à l’être humain des nouvelles manières pour se former en toute autonomie et pour tracer son propre parcours d’apprentissage. L’e-Learning, comme nouvelle forme d’apprentissage facilite, à la fois, l’accès à des ressources pédagogiques et l’échange et la collaboration à distance. Afin de remédier les contraintes liées à l’interopérabilité des dispositifs e-Learning et de garantir la qualité de l’apprentissage, l’application des référentiels normatifs doit toucher tous les aspects d’un dispositif d’apprentissage (les profils des apprenants, les méthodes de suivi et d’évaluation, les outils et les fonctionnalités de communication...). Le travail proposé dans cette thèse a pour but d’examiner l’état d’application de référentiels normatifs dans l’Université Virtuelle de Tunis. A travers une étude de terrain, nous avons étudié d’une part, la réceptivité de l’UVT aux intérêts des référentiels normatifs dédiés à l’éducation, et d’autre part, nous avons repéré les outils de communication intégrés dans la plateforme Moodle permettant au tuteur d’assurer le suivi, l’évaluation et le soutien
With the significant growth of Information and Communication Technologies, the traditional methods of disseminating, accessing and sharing information have been reshaped.Currently, the ICT dedicated to education are thriving, enabling learner human new ways to train independently and draw their own learning paths. The e-Learning is a new form of learning facilitates both, access to educational resources, sharing and remote collaboration.To overcome the difficulties related to interoperability of e-Learning systems and guarantee the quality of learning, the application of normative references must apply to all aspects of a learning device (learner’s profiles, methods of monitoring and evaluation, communication tools and capabilities ...). The work proposed in this thesis aims to examine the state of reference standards application in the Virtual University of Tunis. Through a case study, we examined on the one hand, the receptivity of the VUT on regarding the interests of normative references dedicated to education, on the other hand; we identified the communication tools integrated in the platform Moodle allowing the tutor to follow up, evaluation and support
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Passard, Christian. "Application des méthodes d'interrogation neutronique active à l'analyse en ligne dans les usines de retraitement". Grenoble 1, 1993. http://www.theses.fr/1993GRE10034.

Testo completo
Abstract (sommario):
La connaissance en temps reel (analyse en ligne) des quantites d'uranium et de plutonium contenus dans des solutions est un parametre tres important dans la conduite des usines de retraitement. Dans ce cadre, l'interrogation neutronique active permet d'obtenir la concentration d'uranium ou de plutonium de maniere non destructive, non intrusive, et rapide. Cette methode consiste a creer des fissions dans les noyaux fissiles contenus dans la solution grace a une source de neutrons (generateur de neutrons ou source isotopique), puis a detecter les particules qui en sont issues (neutrons prompts, neutrons retardes, gamma retardes). Plusieurs possibilites sont envisageables suivant les applications et les performances requises. La mesure peut etre effectuee directement sur la solution en ecoulement (mesure sur pot de passage) ou bien sur un prelevement d'echantillon (mesure sur cruchon). Ce rapport presente la theorie et le traitement du signal des differentes methodes d'interrogation neutronique active applicables a l'analyse en ligne ainsi que les experiences de qualification realisees en laboratoire ou en milieu industriel
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Pakdel, Ali. "De l'activité communicative à l'activité sociale d'apprentissage des langues en ligne : analyse de la dynamique sociale en contexte institutionnel". Phd thesis, Université de Provence - Aix-Marseille I, 2011. http://tel.archives-ouvertes.fr/tel-00637137.

Testo completo
Abstract (sommario):
Ce travail a pour principal objet d'étude la dynamique sociale développée dans le cadre des activités d'apprentissage des langues en ligne en contexte institutionnel. En s'appuyant sur les propositions faites par la théorie de l'activité, cette thèse présente une analyse de la finalité, du cadre instrumental et du cadre social de l'activité d'apprentissage des langues en ligne en contexte institutionnel et de leur évolution dans le système de l'activité. Cette recherche fournit également une méthode d'analyse permettant d'évaluer l'impact de différents types de tâches et d'environnements virtuels d'apprentissage sur l'intensité de la dynamique sociale développée au sein des groupes d'apprenants d'une langue en ligne en contexte institutionnel. La méthode d'analyse utilisée s'appuie aussi bien sur l'analyse quantitative des traces écrites des communications/productions des apprenants que sur l'analyse du contenu de ces traces. Nous montrons qu'il est possible de développer une dynamique sociale de communauté virtuelle au sein de groupes d'apprenants d'une langue en ligne en contexte institutionnel. Le développement d'une telle dynamique est favorisé par la mise en œuvre de tâches d'apprentissage des langues et d'environnements virtuels d'apprentissage permettant l'action sociale authentique dans des cadres sociaux qui dépassent le cadre formel de l'institution éducative.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Delest, Sébastien. "Segmentation de maillages 3D à l'aide de méthodes basées sur la ligne de partage des eaux". Phd thesis, Université François Rabelais - Tours, 2007. http://tel.archives-ouvertes.fr/tel-00211378.

Testo completo
Abstract (sommario):
La segmentation de maillages polygonaux est un outil nécessaire à de nombreuses applications. Elle correspond au découpage du maillage en régions à partir d'informations portant sur la surface ou la forme globale de l'objet. Ces dernières années, de nombreux algorithmes ont été proposés dans cette thématique en large expansion. Les applications sont très variées; citons la reconnaissance de forme, l'indexation, la compression, la métamorphose, la détection de collision, le plaquage de texture, la simplification, etc.

Nous proposons dans un premier temps une étude assez large des méthodes de segmentation de maillages polygonaux. Nous abordons les algorithmes pour les deux principales familles de méthodes que sont la segmentation en carreaux surfaciques et la segmentation en parties significatives. Nous avons concentré nos travaux sur la ligne de partage des eaux (LPE) et formulé des propositions originales pour la fonction de hauteur de la LPE et des stratégies pour limiter la sur-segmentation que produit naturellement la LPE.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Sarrut, Morgan. "Optimisation de méthodes bidimensionnelles en ligne LCxLC-UV/MS et LCxSFC-UV pour l’analyse d’échantillons complexes". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1189/document.

Testo completo
Abstract (sommario):
La chromatographie en phase liquide bidimensionnelle « comprehensive » en ligne (LCxLC) est une technique à très haut pouvoir de séparation. Après avoir établi son intérêt mais aussi les enjeux liés au développement de méthodes et les conditions expérimentales utilisées, une attention particulière est portée à l'optimisation des méthodes en LCxLC. Une procédure d'optimisation basée une méthode « Pareto-optimal » est décrite. Les conditions optimales prédites sont ensuite appliquées à la séparation RPLCxRPLC d'un mélange complexe de peptides et comparée avec la 1D-RPLC en termes de capacité de pics, temps d'analyse et facteur de dilution démontrant l'avantage fournit par la RPLCxRPLC. L'optimisation d'une méthode HICxRPLC-UV/MS en ligne permettant la caractérisation exhaustive d'un anticorps conjugué est réalisée soulignant, entre autres, la grande complémentarité entre les différents modes de détection employés en 1D et 2D.Enfin, la possibilité de développer un couplage RPLCxSFC est explorée dans le but d'augmenter l'espace de séparation pour des composés neutres. La méthode RPLCxSFC optimisée est comparée avec une séparation RPLCxRPLC optimisée pour l'analyse d'une bio-huile montrant qu'elle peut-être considérée comme une alternative crédible pour la séparation de tels échantillons
Comprehensive two-dimensional liquid chromatography is a powerful but complex separative technique. After detailing the interest of such a technique, the method development issues and the experimental conditions employed throughout this work, a particular attention is paid to the optimization of LCxLC methods. Accordingly an optimization procedure based on Pareto-optimal method is described. The predicted optimal conditions are then applied to experimental RPLCxRPLC separations of complex samples of peptides and compared with 1D-RPLC in terms of peak capacity, analysis time and sensitivity clearly showing the advantage of RPLCxRPLC approach.The optimization of a HICxRPLC-UV/MS method for the exhaustive characterization of an antibody-drug conjugate is achieved highlighting the high complementarity of the different detection modes used both in 1D and 2D. Finally, a proof of concept concerning the implementation of RPLCxSFC coupling is achieved with the aim of increasing the separation space coverage for neutral compounds. The optimized RPLCxSFC separation is then compared with an optimized RPLCxRPLC approach for the analysis of a bio-oil sample showing that RPLCxSFC is a credible alternative for the separation of such a sample
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Delest, Sébastien. "Ségmentation de maillages 3D à l'aide de méthodes basées sur la ligne de partage des eaux". Tours, 2007. http://www.theses.fr/2007TOUR4025.

Testo completo
Abstract (sommario):
La segmentation de maillages polygonaux est un outil nécessaire à de nombreuses applications. Elle correspond au découpage du maillage en régions à partir d'informations portant sur la surface ou la forme globale de l'objet. Ces dernières années, de nombreux algorithmes ont été proposés dans cette thématique en large expansion. Les applications sont très variées; citons la reconnaissance de forme, l'indexation, la compression, la métamorphose, la détection de collision, le plaquage de texture, la simplification, etc. Nous proposons dans un premier temps une étude assez large des méthodes de segmentation de maillages polygonaux. Nous abordons les algorithmes pour les deux principales familles de méthodes que sont la segmentation en carreaux surfaciques et la segmentation en parties significatives. Nous avons concentré nos travaux sur la ligne de partage des eaux (LPE) et formulé des propositions originales pour la fonction de hauteur de la LPE et des stratégies pour limiter la sur-segmentation que produit naturellement la LPE
Mesh segmentation is a necessary tool for many applications. The mesh is decomposed into several regions from surface or shape information. In the last several years, many algorithms have been proposed in this growing area, with applications in many different areas as 3D shape matching and retrieval, compression, metamorphosis, collision detection, texture mapping, simplification, etc. First, we propose a review of mesh segmentation methods. We discuss about the algorithms relative to the two main types of methods: the patch-type segmentation and the part-type segmentation. We focused on the watershed transformation and proposed new approches relativing to the height function and strategies to avoid over segmentation produced by the watershed
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Zeaiter, Magida. "Mesures robustes en ligne des solutés organiques par spectrométrie infrarouge et étalonnages multivariés". Montpellier 2, 2004. http://www.theses.fr/2004MON20186.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Michel, Thierry. "Test en ligne des systèmes à base de microprocesseur". Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343488.

Testo completo
Abstract (sommario):
Cette thèse traite de la vérification en ligne, par des moyens matériels, du flot de contrôle d'un système a base de microprocesseur. Une technique de compaction est utilisée pour faciliter cette vérification (analyse de signature). La plupart des méthodes proposées jusqu'ici imposent une modification du programme d'application, afin d'introduire dans celui-ci des propriétés invariantes (la signature en chaque point de l'organigramme est indépendante des chemins préalablement parcourus). Les méthodes proposées ici, au contraire, ont comme caractéristique principale de ne pas modifier le programme vérifie et utilisent un dispositif de type processeur, disposant d'une mémoire locale, pour assurer l'invariance de la signature. Deux méthodes sont ainsi décrites. La première est facilement adaptable a différents microprocesseurs et présente une efficacité qui la place parmi les meilleures méthodes proposées jusqu'ici. La seconde methode a été dérivée de la première dans le but de diminuer la quantité d'informations nécessaire au test. Cette dernière methode a été implantée sur un prototype d'unité centrale d'automate programmable (avec la société télémécanique) et son efficacité a été évaluée par des expériences d'injection de fautes. Le cout d'implantation particulièrement faible dans le cas du prototype réalise peut permettre d'envisager une évolution de celui-ci vers un produit industriel
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Amor, Yasmine. "Ιntelligent apprοach fοr trafic cοngestiοn predictiοn". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMR129.

Testo completo
Abstract (sommario):
La congestion routière constitue un défi majeur pour les zones urbaines, car le volume de véhicules continue de croître plus rapidement que la capacité globale du réseau routier. Cette croissance a des répercussions sur l'activité économique, la durabilité environnementale et la qualité de vie. Bien que des stratégies visant à atténuer la congestion routière ont connu des améliorations au cours des dernières décennies, de nombreux pays ont encore du mal à la gérer efficacement.Divers modèles ont été développés pour aborder ce problème. Cependant, les approches existantes peinent souvent à fournir des prédictions en temps réel et localisées qui peuvent s'adapter à des conditions de trafic complexes et dynamiques. La plupart de ces approches s'appuient sur des horizons de prédiction fixes et manquent de l'infrastructure intelligente nécessaire à la flexibilité. Cette thèse comble ces lacunes en proposant une approche intelligente, décentralisée et basée sur l'infrastructure pour l'estimation et la prédiction de la congestion routière.Nous commençons par étudier l'Estimation du Trafic. Nous examinons les mesures de congestion possibles et les sources de données requises pour différents contextes pouvant être étudiés. Nous établissons une relation tridimensionnelle entre ces axes. Un système de recommandation basé sur des règles est développé pour aider les chercheurs et les opérateurs du trafic à choisir les mesures de congestion les plus appropriées en fonction du contexte étudié.Nous passons ensuite à la Prédiction du Trafic, où nous introduisons notre approche DECOTRIVMS. Cette dernière utilise des panneaux intelligents à messages variables pour collecter des données detrafic en temps réel et fournir des prédictions à court terme avec des horizons de prédiction variables.Nous avons utilisé des Réseaux de Graphes avec Attention en raison de leur capacité à capturer des relations complexes et à gérer des données structurées en graphes. Ils sont bien adaptés pour modéliser les interactions entre différents segments routiers étudiés.Nous avons aussi employé des méthodes d'apprentissage en ligne, spécifiquement la Descente de Gradient Stochastique et la Descente de Gradient Adaptative. Bien que ces méthodes ont été utilisées avec succès dans divers autres domaines, leur application à la prédiction de la congestion routière reste sous-explorée. Dans notre thèse, nous visons à combler cette lacune en explorant leur efficacité dans le contexte de la prédiction de la congestion routière en temps réel.Enfin, nous validons l'efficacité de notre approche à travers deux études de cas réalisées à Mascate, Oman, et à Rouen, France. Une analyse comparative est effectuée, évaluant divers modèles de prédiction, y compris les Réseaux de Graphes avec Attention, les Réseaux de Graphes Convolutionnels et des méthodes d'apprentissage en ligne. Les résultats obtenus soulignent le potentiel de DECOTRIVMS, démontrant son efficacité pour une prédiction précise et efficace de la congestion routière dans divers contextes urbains
Traffic congestion presents a critical challenge to urban areas, as the volume of vehicles continues to grow faster than the system’s overall capacity. This growth impacts economic activity, environmental sustainability, and overall quality of life. Although strategies for mitigating traffic congestion have seen improvements over the past few decades, many cities still struggle to manage it effectively. While various models have been developed to tackle this issue, existing approaches often fall short in providing real-time, localized predictions that can adapt to complex and dynamic traffic conditions. Most rely on fixed prediction horizons and lack the intelligent infrastructure needed for flexibility. This thesis addresses these gaps by proposing an intelligent, decentralized, infrastructure-based approach for traffic congestion estimation and prediction.We start by studying Traffic Estimation. We examine the possible congestion measures and data sources required for different contexts that may be studied. We establish a three-dimensional relationship between these axes. A rule-based system is developed to assist researchers and traffic operators in recommending the most appropriate congestion measures based on the specific context under study. We then proceed to Traffic Prediction, introducing our DECentralized COngestion esTimation and pRediction model using Intelligent Variable Message Signs (DECOTRIVMS). This infrastructure-based model employs intelligent Variable Message Signs (VMSs) to collect real-time traffic data and provide short-term congestion predictions with variable prediction horizons.We use Graph Attention Networks (GATs) due to their ability to capture complex relationships and handle graph-structured data. They are well-suited for modeling interactions between different road segments. In addition to GATs, we employ online learning methods, specifically, Stochastic Gradient Descent (SGD) and ADAptive GRAdient Descent (ADAGRAD). While these methods have been successfully used in various other domains, their application in traffic congestion prediction remains under-explored. In our thesis, we aim to bridge that gap by exploring their effectiveness within the context of real-time traffic congestion forecasting.Finally, we validate our model’s effectiveness through two case studies conducted in Muscat, Oman, and Rouen, France. A comprehensive comparative analysis is performed, evaluating various prediction techniques, including GATs, Graph Convolutional Networks (GCNs), SGD and ADAGRAD. The achieved results underscore the potential of DECOTRIVMS, demonstrating its potential for accurate and effective traffic congestion prediction across diverse urban contexts
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Dabbebi, Ines. "Conception et génération dynamique de tableaux de bord d’apprentissage contextuels". Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1040/document.

Testo completo
Abstract (sommario):
Ce travail s’inscrit dans une problématique générale de l’analytique de l’apprentissage numérique et particulièrement dans le contexte du projet ANR HUBBLE, un observatoire national permettant le dépôt de processus d’analyse de haut niveau. Nous nous intéressons principalement à la communication des données d’analyse aux utilisateurs en mettant à leur disposition des tableaux de bord d'apprentissage (TBA). Notre problématique porte sur l’identification de structures génériques dans le but de générer dynamiquement des TBA sur mesure. Ces structures doivent être à la fois génériques et adaptables aux besoins d’utilisateurs. Les travaux existants proposent le plus souvent des TBA trop généraux ou développés de manière adhoc. Au travers du projet HUBBLE, nous souhaitons exploiter les décisions des utilisateurs pour générer dynamiquement des TBA. Nous nous sommes intéressés au domaine de l’informatique décisionnelle en raison de la place des tableaux de bord dans leur processus. La prise de décision exige une compréhension explicite des besoins des utilisateurs. C'est pourquoi nous avons adopté une approche de conception centrée sur l'utilisateur dans le but de lui fournir des TBA adaptés. Nous proposons aussi un processus de capture des besoins qui a permis l’élaboration de nos modèles (indicateur, moyens de visualisation, utilisateur, …). Ces derniers sont utilisés par un processus de génération implémenté dans un prototype de générateur dynamique. Nous avons procédé à une phase d'évaluation itérative dont l’objectif est d'affiner nos modèles et de valider l'efficacité de notre processus de génération ainsi que de démontrer l'impact de la décision sur la génération des TBA
This work is part of a broader issue of Learning Analytics (LA). It is particularly carried out within the context of the HUBBLE project, a national observatory for the design and sharing of data analysis processes. We are interested in communicating data analysis results to users by providing LA dashboards (LAD). Our main issue is the identification of generic LAD structures in order to generate dynamically tailored LAD. These structures must be generic to ensure their reuse, and adaptable to users’ needs. Existing works proposed LAD which remains too general or developed in an adhoc way. According to the HUBBLE project, we want to use identified decisions of end-users to generate dynamically our LAD. We were interested in the business intelligence area because of the place of dashboards in the decision-making process. Decision-making requires an explicit understanding of user needs. That's why we have adopted a user-centered design (UCD) approach to generate adapted LAD. We propose a new process for capturing end-users’ needs, in order to elaborate some models (Indicator, visualization means, user, pattern, …). These models are used by a generation process implemented in a LAD dynamic generator prototype. We conducted an iterative evaluation phase. The objective is to refine our models and validate the efficiency of our generation process. The second iteration demonstrates the impact of the decision on the LAD generation. Thus, we can confirm that the decision is considered as a central element for the generation of LADs
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Iguiniz, Marion. "Développement de méthodes bidimensionnelles en ligne LCxLC-UV/MS et LCxSFC-UV pour l’analyse de composés pharmaceutiques". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1200/document.

Testo completo
Abstract (sommario):
La chromatographie en phase liquide bidimensionnelle est une technique à fort potentiel, offrant un grand pouvoir de séparation. Après avoir démontré son intérêt dans l’industrie pharmaceutique et présenté les enjeux liés à l’analyse quantitative, une attention particulière est portée sur le développement de méthodes. Dans l’idée de développer une stratégie d’analyse générique, la première étape est de sélectionner un set de trois systèmes 2D par le biais d’une approche développée au laboratoire. La deuxième étape est d’évaluer le potentiel de ces systèmes pour l’analyse quantitative. Ces deux étapes ont conduit à la proposition d’une stratégie d’analyse applicable à l’analyse pharmaceutique dans un contexte industriel. Enfin le potentiel du couplage RPLCxSFC est envisagé dans deux cas de figure différents. Premièrement, dans le but de comparer ce couplage aux séparations RPLCxRPLC développées dans le cadre d’une stratégie analytique générique, en termes de pouvoir de séparation. Deuxièmement, dans le cadre de l’analyse de composés chiraux, en développant un couplage sRPLCxSFC permettant une analyse achirale/chirale simultanée. Les avantages d’une telle approche ont été mis en avant en la comparant aux approches conventionnelles
Two-dimensional liquid chromatography (2D-LC) is a powerful technique considering its high separation power. After showing the advantage of 2D-LC in the pharmaceutical area and presenting the challenges related to quantitative analysis, special attention was paid to method development. With the aim of developing a generic analytical strategy for pharmaceuticals, the first step of our approach consisted in selecting a set of three 2D-systems with the help of a methodology previously developed. In a second step, the potential of these 2D-systems was evaluated for the purpose of quantitative analysis. An analytical strategy able to be applied to pharmaceutical analysis in an industrial context was proposed. Finally, the potential of RPLCxSFC was investigated in two different cases. Firstly, for comparing this on-line two dimensional technique to on-line RPLCxRPLC with respect of the separation power. Secondly, for chiral compounds by developing a selective RPLCxSFC method for simultaneous achiral-chiral analysis. The advantage of such method was highlighted by comparing to conventional approaches
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Renau-Ferrer, Ney. "Outils et méthodes pour l'analyse automatique multi-niveaux de tracés manuscrits à caractère géométrique acquis en ligne". Thesis, Antilles-Guyane, 2011. http://www.theses.fr/2010AGUY0394/document.

Testo completo
Abstract (sommario):
Cette thèse traite de la problématique de l'analyse automatique de tracés manuscrits réalisés à mains levée, à caractère géométrique et acquis en ligne. Lorsque l'on analyse un tracé en ligne, on peut le faire selon plusieurs angles. Comme pour les tracés hors ligne, on peu s'atteler à reconnaitre la forme produite. Mais le caractère en ligne de l'acquisition permet également d'autres niveaux d'analyse, comme l'analyse de la procédure utilisée par le dessinateur lors de la production de son dessin. Nous avons dans le cadre de ce travail élaboré des outils permettant de telles analyses de la production de tracé. Dans une première partie nous traitons des pré traitements à effectuer sur le tracé afin de pouvoir procéder aux analyses spatio-graphique et procédurale. Ces pré traitements sont le filtrage, la segmentation mixte à base d'arcs de cercles et de segments de droite, la sélection des points d'intérêt ainsi que l'identification de la nature de ces points. La seconde partie concerne l'analyse visuo-spatiale. Nous abordons alors deux aspects: la question de la reconnaissance des formes et celle de l'évaluation automatique de leur qualité. Notre contribution consiste en une méthode de reconnaissance basée sur l'apparence utilisant des descripteurs locaux. La dernière partie traite de l'analyse procédurale. Nous proposons une méthode d'extraction et de modélisation de la procédure mise en œuvre lors du dessin d'une forme. Nous montrons comment en utilisant cette modélisation, nous pouvons non seulement déterminer la procédure favorite d'un utilisateur mais également reconnaitre un dessinateur par l'analyse de sa procédure
This thesis handles the problem of the automatic analysis of online hand drawn geometric sketches. An online sketch can be analysed according to several points of view. As for offline sketching, we can try to recognize the produced shape. However, online sketching allows other levels of analysis. For example the analysis of the behavior of the drawer during the production of the sketch. In this thesis, we have tried to develop tools allowing a multi level analysis, including both shape and behavior analysis. The first part of our work deals with the pre treatments that must be performed on the sketch in order to allow upper level analysis. Those pre treatments are filtering, mixed segmentation and feature points detection and labelisation. In the second part, we approach shape analysis in two aspects: shape recognition and evaluation. We have developed a appearance based method which use local descriptors to allows both recognition and evaluation of the quality of a produced shape compared to the model . in the last part we propose a method for drawer's behavior extraction and modeling. Then we show how we can not only determine the favorite procedure of a drawer but also recognize the drawer by analyzing his behavior
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Picque, Daniel. "Développement de méthodes de mesure en ligne de la concentration en éthanol dans les procédés de fermentation". Compiègne, 1989. http://www.theses.fr/1989COMPD286.

Testo completo
Abstract (sommario):
Ce travail visait à la réalisation de la mesure en ligne de la concentration en éthanol lors des procédés de fermentation. Quatre méthodes ont été développées : 1) mesure indirecte à partir du volume de CO2 dégagé, 2) mesure par des semi-conducteurs sensibles aux gaz, 3) mesure par chromatographie liquide haute pression associée à un système d'échantillonnage. Une corrélation linéaire est établie entre la concentration en éthanol du milieu et le volume de CO2 dégagé dans différentes conditions de fermentation. La concentration en éthanol peut être prédite avec un écart moyen de 2,73 g/l par rapport a la mesure hors ligne réalisée par chromatographie en phase gazeuse (choisie comme méthode de référence). L'étude des semi-conducteurs sensibles aux gaz a permis la détermination des principales caractéristiques de ces capteurs. Elle démontre leurs limites pour la mesure de la concentration en éthanol principalement du fait de leur dérive importante. Avec l'ébulliomètre, la concentration en éthanol est déterminée à partir de la mesure de la température d'ébullition, de l'extrait sec et de la densité initiale du milieu. L'écart moyen est de 0,97 g/l. L'utilisation d'une interface d'échantillonnage composée d'une membrane de filtration tubulaire placée à l'intérieur du réacteur permet d'obtenir un filtrat débarrassé de cellule. Ainsi, ce filtrat peut être analyse par chromatographie liquide haute pression avec une différence de concentration en éthanol entre les mesures en ligne et hors lignes de 0,6 g/l.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Laubie, Raphaëlle. "Les Déterminants de l’Action Collective en Ligne dans les Communautés Virtuelles de Patients : une Approche Multi-Méthodes". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED036/document.

Testo completo
Abstract (sommario):
Au cours des dernières années, les communautés virtuelles de patients se sont énormément développées sur l'Internet. Ces communautés permettent des échanges fréquents entre les patients, qui peuvent partager des informations liées à la santé dans un environnement interactif. Alors que beaucoup s'accordent sur l'opportunité représentée par ces communautés pour ses utilisateurs, les connaissances sur ce qui détermine l'action collective en ligne des patients ainsi que sur les fondamentaux de l'action collective en ligne dans ces espaces virtuels sont relativement peu développées. En conséquence, ce travail doctoral examine les raisons pour lesquelles les patients interagissent entre eux et comment ils procèdent. En nous appuyant sur le modèle du comportement orienté vers un but, la théorie de la valeur de l'attente, la théorie des forces du champ, les concepts de dons et les interviews menées, nous avons développé un modèle qui examine les interactions en ligne des patients dans un contexte d'action collective en ligne. Une approche multi-méthode, qualitative et quantitative, permet d'explorer les interactions des patients et de mesurer les déterminants de l'action collective en ligne sur ces espaces virtuels. L'analyse qualitative de 54 entretiens menés avec des patients, des proches de patients, des professionnels de la santé 2.0, des médecins et des soignants permet d'affiner le modèle de recherche, qui a ensuite été testé au travers d'une enquête quantitative auprès de 269 patients. Cette recherche contribue à la recherche en systèmes d'information en augmentant nos connaissances sur la dynamique individuelle et les interactions qui entourent les communautés de patients en ligne
Over the last few years, virtual patients’communities have been developing tremendously over the Internet. These Web 2.0 communities allow frequent interactions among patients, who can share health-related information within an interactive environment. While many agree on the opportunity represented by those communities for its users, we know very little about what determines patients’ online collective action, specifically on virtual communities as well as the fundamentals of online collective action in these virtual spaces. Accordingly, this doctoral work examines why patients interact with others and how they interact on topics related to their disease through these virtual communities. Drawing on the goal-directed behavior (MGB), the expectancy-value (EVT) theories, the field force theory, gift concepts and field interviews, we have developed a model for examining patients’ online interactions and identified gift-giving behaviors in the context of online collective action. A multi-method, qualitative and quantitative approaches, enables us to explore patients’ interactions and measures the determinants of online collective action on these virtual spaces. The qualitative analysis of 54 interviews conducted with patients, patient’s relatives, Health 2.0 professionals, doctors and caregivers allows refining the research model, which has then been tested through a survey handled with 269 patients, members of patient’s communities. This research contributes to IS research by increasing our knowledge regarding the individual dynamics and interactions that surround online patients’ communities
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Bérujon, Sébastien. "Métrologie en ligne de faisceaux et d'optiques X de synchrotrons". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00859120.

Testo completo
Abstract (sommario):
Cette thèse présente des travaux de recherche de métrologie en ligne de faisceaux de rayons X dans les installations synchrotrons. Deux approches principales ont été étudiées pour extraire la phase d'un front d'onde X : les méthodes utilisant des réseaux optiques et celles utilisant l'effet speckle dans le domaine X. L'interféromètre à réseaux X est l'outil le plus répandu résentatif de la première catégorie. Ses performances et son potentiel furent étudiés dans diverses situations de métrologie en ligne. Les méthodes utilisant le speckle X sont des techniques originales développées au cours de ce projet. Elles utilisent des membranes faites de petits grains diffusants, dont seule la distribution statistique est connue, pour permettre la modulation du front d'onde. Les différentes techniques furent déployées expérimentalement sur les lignes de lumière BM05 de l'ESRF et B16 de Diamond Light Source. Leurs implémentations servirent à la caractérisation de différents composants optiques utilisés pour manipuler les faisceaux synchrotron X et à l'étude de la faisabilité de micro imagerie par contraste de phase avec les sus citées techniques.
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Atine, Jean-Charles. "Méthodes d'apprentissage flou : application à la segmentation d'images biologiques". Toulouse, INSA, 2005. http://eprint.insa-toulouse.fr/archive/00000272/.

Testo completo
Abstract (sommario):
TLes travaux présentés ont pour objectif d'aider les biologistes au diagnostic de la viabilité cellulaire en utilisant des méthodes de classification floues. Notre travail fait part d'une stratégie de classification permettant de construire un partitionnement d'images de cellules venant d'un microscope optique. Nous aboutissons à une classification automatique des cellules, en segmentant l'image, par l'algorithme T-LAMDA que nous avons développé. Une étude portant sur les méthodes de classification existantes, l'espace couleur et la résistance au bruit, permet de trouver la structure la plus adaptée à notre étude. L'analyse comparative de différentes méthodes (dont les méthodes LAMDA et T-LAMDA), nous permet de mettre en exergue la plus appropriée pour la classification des cellules mélangées au bleu de méthylène. Nous proposons quelques algorithmes supervisés basés sur LAMDA afin de voir si le sens de traitement des données au niveau de cet algorithme influe sur le résultat. L'algorithme T-LAMDA, basé sur les arbres de décisions, se révèle le mieux adapté pour notre étude et donne ainsi des résultats plus précis que les autres méthodes, avec un temps d'exécution plus court. Nous suggérons de faire un apprentissage en utilisant l'application CELCA, Cell Classification Application, qui utilise l'algorithme T-LAMDA. Le logiciel se charge des calculs des cinétiques, en fonction des images qui respectent un protocole bien défini. Le temps de traitement de 117 images est de 6'47'' minutes, ce qui est largement en dessous du temps mis par les biologistes en effectuant manuellement le comptage
The presented works have for objective to help the biologists in the diagnosis of the cellular viability by using some methods of classification. Our work announces a strategy of classification allowing to building partition of images of cells coming from an optical microscope. We classify automatically the cells by operating the segmentation on images using the developed algorithm T-LAMDA. A statement concerning the existing classification methods, the color space and the resistance to noise, allows to finding the structure the most adapted to our study. The comparative analysis of various methods (of which LAMDA and T-LAMDA methods), allows us to put in evidence the most appropriate for the classification of cells subjected to the blue of methylene solution. We propose some supervised algorithms based on LAMDA to show if the way of treating the data influence the result. The T-LAMDA algorithm, based on the decision trees, shows itself the best adapted for our study and so gives more precise results than other methods, with a shorter time of execution. We suggest learning by using the CELCA application, Cell Classification Application, which uses the developed T-LAMDA algorithm. The software takes care of calculations of the kinetics, according to the images which respect to a well defined protocol. Time for treating 117 images is 6 '47'' minutes, what is widely below the time taken by biologists to count the cells
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Belmonte, Mylène. "Automatisation intégrale de la ligne 1 : étude et modélisation du trafic mixte". Compiègne, 2008. http://www.theses.fr/2008COMP1752.

Testo completo
Abstract (sommario):
La présente thèse se situe dans le cadre du projet d'automatisation intégrale de la ligne 1 du métro de Paris. C'est un projet qui consiste à transformer la ligne 1 (ligne avec conducteurs) en une ligne en conduite automatique intégrale (sans conducteur ni personnel à bord des trains) et ceci sans arrêter l'exploitation. Il résulte une phase mixte de cohabitation entre des trains en conduite manuelle et des trains en conduite automatique intégrale. Dans ce contexte, mon travail de recherche consiste dans un premier temps à continuer le développement d'un logiciel permettant d'étudier et d'analyser la phase mixte d'exploitation sur la ligne 1. Une fois opérationnel, le modèle a servi à la réalisation de deux études que j'ai menées dans un second temps. Ces deux études répondent à des problématiques touchant la gestion mixte des circulations des trains avec et sans conducteurs dans les terminus. Elles prennent en compte deux contraintes opposées : la sécurité des agents et des passagers d'un côté et la qualité de service offerte aux voyageurs d'un autre côté. L'analyse et les résultats de ces deux études seront présentés dans le présent rapport de thèse
The current thesis takes place in the framework of fine 1 automation project. It is a project that consists of upgrading fine 1 (with drivers on-board) to unattended train operation (no drivers or agents on-board) without service interruption. It results a mixed fleet operation for a period of two years between manually driven trains and driverless ones. In this context, my research work consists of continuing in a first step the development of software destined to study and analyse the mixed fleet operation on fine 1. Once operational; the model has served as a simulation in two case studies that I elaborate in a second step. These two case studies aim to answer problematical matters affecting the management of the mixed trains running inside the terminal stations. They take into account two opposite constraints: people-staff safety on one hand and quality of service offered to passengers on the other hand. The analysis and the results of these two case studies will be described in the current PhD report
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Gulikers, Lennart. "Sur deux problèmes d’apprentissage automatique : la détection de communautés et l’appariement adaptatif". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE062/document.

Testo completo
Abstract (sommario):
Dans cette thèse, nous étudions deux problèmes d'apprentissage automatique : (I) la détection des communautés et (II) l'appariement adaptatif. I) Il est bien connu que beaucoup de réseaux ont une structure en communautés. La détection de ces communautés nous aide à comprendre et exploiter des réseaux de tout genre. Cette thèse considère principalement la détection des communautés par des méthodes spectrales utilisant des vecteurs propres associés à des matrices choisiesavec soin. Nous faisons une analyse de leur performance sur des graphes artificiels. Au lieu du modèle classique connu sous le nom de « Stochastic Block Model » (dans lequel les degrés sont homogènes) nous considérons un modèle où les degrés sont plus variables : le « Degree-Corrected Stochastic Block Model » (DC-SBM). Dans ce modèle les degrés de tous les nœuds sont pondérés - ce qui permet de générer des suites des degrés hétérogènes. Nous étudions ce modèle dans deux régimes: le régime dense et le régime « épars », ou « dilué ». Dans le régime dense, nous prouvons qu'un algorithme basé sur une matrice d'adjacence normalisée réussit à classifier correctement tous les nœuds sauf une fraction négligeable. Dans le régime épars il existe un seuil en termes de paramètres du modèle en-dessous lequel n'importe quel algorithme échoue par manque d'information. En revanche, nous prouvons qu'un algorithme utilisant la matrice « non-backtracking » réussit jusqu'au seuil - cette méthode est donc très robuste. Pour montrer cela nous caractérisons le spectre des graphes qui sont générés selon un DC-SBM dans son régime épars. Nous concluons cette partie par des tests sur des réseaux sociaux. II) Les marchés d'intermédiation en ligne tels que des plateformes de Question-Réponse et des plateformes de recrutement nécessitent un appariement basé sur une information incomplète des deux parties. Nous développons un modèle de système d'appariement entre tâches et serveurs représentant le comportement de telles plateformes. Pour ce modèle nous donnons une condition nécessaire et suffisante pour que le système puisse gérer un certain flux de tâches. Nous introduisons également une politique de « back-pressure » sous lequel le débit gérable par le système est maximal. Nous prouvons que cette politique atteint un débit strictement plus grand qu'une politique naturelle « gloutonne ». Nous concluons en validant nos résultats théoriques avec des simulations entrainées par des données de la plateforme Stack-Overflow
In this thesis, we study two problems of machine learning: (I) community detection and (II) adaptive matching. I) It is well-known that many networks exhibit a community structure. Finding those communities helps us understand and exploit general networks. In this thesis we focus on community detection using so-called spectral methods based on the eigenvectors of carefully chosen matrices. We analyse their performance on artificially generated benchmark graphs. Instead of the classical Stochastic Block Model (which does not allow for much degree-heterogeneity), we consider a Degree-Corrected Stochastic Block Model (DC-SBM) with weighted vertices, that is able to generate a wide class of degree sequences. We consider this model in both a dense and sparse regime. In the dense regime, we show that an algorithm based on a suitably normalized adjacency matrix correctly classifies all but a vanishing fraction of the nodes. In the sparse regime, we show that the availability of only a small amount of information entails the existence of an information-theoretic threshold below which no algorithm performs better than random guess. On the positive side, we show that an algorithm based on the non-backtracking matrix works all the way down to the detectability threshold in the sparse regime, showing the robustness of the algorithm. This follows after a precise characterization of the non-backtracking spectrum of sparse DC-SBM's. We further perform tests on well-known real networks. II) Online two-sided matching markets such as Q&A forums and online labour platforms critically rely on the ability to propose adequate matches based on imperfect knowledge of the two parties to be matched. We develop a model of a task / server matching system for (efficient) platform operation in the presence of such uncertainty. For this model, we give a necessary and sufficient condition for an incoming stream of tasks to be manageable by the system. We further identify a so-called back-pressure policy under which the throughput that the system can handle is optimized. We show that this policy achieves strictly larger throughput than a natural greedy policy. Finally, we validate our model and confirm our theoretical findings with experiments based on user-contributed content on an online platform
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Farhat, Ramzi. "Approche d'assistance aux auteurs pour la réutilisation d'objets d'apprentissage". Phd thesis, Institut National des Télécommunications, 2010. http://tel.archives-ouvertes.fr/tel-00589601.

Testo completo
Abstract (sommario):
Cette thèse se situe dans le domaine de la création de contenus pédagogiques par une approche basée sur une structuration à base d'objets d'apprentissage et leur réutilisation au sein d'objets plus complexes. Les modèles récents d'objets pédagogiques comme SCORM ou SIMBAD permettent aux auteurs de construire de nouveaux objets par assemblage d'objets existants. La difficulté pour les auteurs est de concevoir de tels objets en maitrisant la complexité de la composition et en pouvant garantir un haut niveau de qualité, y compris pédagogique. Nous proposons dans ce travail une approche d'assistance aux auteurs basée sur un ensemble d'outils d'analyse permettant de mieux qualifier l'objet composé et d'en vérifier la conformité. Ces analyses portent tant sur le contenu de l'objet, ses métadonnées notamment celles issues de la norme LOM, que sur la structure de composition elle-même. L'objectif est de générer une cartographie détaillée sur l'objet en question. Il s'agit d'offrir à l'auteur des indicateurs divers et variés qui vont lui permettre d'avoir une meilleur vue sur les différentes facettes de l'objet d'apprentissage en cours de conception. En particulier, il aura une analyse de la vue système et de la vue apprenant. Une fois que l'analyse est satisfaisante, des métadonnées complémentaires sont calculées automatiquement par notre environnement en se basant sur les métadonnées éducatives des objets utilisés dans la composition de l'objet. La composition d'un objet peut être guidée par des règles de conformité. Celles-ci permettent de décrire certains critères structurels et sémantiques recherchés. Cette approche offre ainsi un moyen pour la promotion de la réutilisation des objets d'apprentissage. Elle offre le support théorique et les éléments pratiques permettent de rendre la composition par réutilisation pleinement sous contrôle de l'auteur et capable de produire par conséquence des objets d'apprentissage respectant des critères de qualité.
Gli stili APA, Harvard, Vancouver, ISO e altri
46

El, Sahmarany Lola. "Méthodes d'amélioration pour le diagnostic de câble par réflectométrie". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00999462.

Testo completo
Abstract (sommario):
L'utilisation de câbles électriques et leurs longueurs dans certains systèmes électriques ont fortement augmenté au cours des dernières années. Or, la fiabilité de ces systèmes repose en partie sur la fiabilité des réseaux électriques. On constate en pratique qu'une part non négligeable des pannes et des dysfonctionnements de ces systèmes proviennent des défauts dans les liaisons filaires et non des équipements électriques. La connaissance de ces réseaux filaires et en particulier la détection de leurs défauts est donc importante. De nombreuses méthodes ont été développées pour tester l'état des câbles. Parmi ces méthodes on peut distinguer les méthodes de réflectométrie largement utilisées et facilement embarquables. Généralement ces méthodes sont très bien adaptées pour détecter et localiser les défauts francs mais les défauts non francs sont pratiquement transparents à ces méthodes car ils ont des conséquences électriques très faibles. Pour s'affranchir de ces limitations des améliorations en termes de mesure et traitement sont nécessaires. Dans cette thèse, trois nouvelles méthodes de diagnostic filaire ont été développées pour améliorer et faciliter la détection et la localisation de tous types de défauts filaires. Chacune des ces méthodes répond à un obstacle que nous avons rencontré pendant les trois années de recherche. Un premier obstacle concerne le phénomène de dispersion du signal dans les câbles qui rend la détection des défauts et du vieillissement des câbles très difficile. Un autre obstacle lié à la détection des défauts non-francs présente un enjeu actuel majeur du diagnostic filaire car leurs signatures sont très faibles et parfois noyées dans le bruit ou masquées par la proximité d'une autre impulsion d'amplitude plus importante. Les trois méthodes sont les suivantes : - La première méthode proposée, baptisée " corrélation adaptative " fournit un nouvel algorithme pour compenser la dispersion du signal. Elle permet de mieux localiser et mieux détecter les singularités sur des câbles de n'importe quelle longueur. - La deuxième méthode proposée, baptisée TRR (en anglais Time reversal Reflectometry) est basée sur le principe de la réflectométrie et du retournement temporel. Elle permet de caractériser le vieillissement des câbles électriques. - La troisième méthode proposée, baptisée RART (Réflectométrie associée à un processus de retournement temporel) est basée sur les principes de la réflectométrie et du retournement temporel et permet d'améliorer la détection des défauts électriques liés à une dégradation de l'isolant. Ces travaux de thèse ont montré les performances et la facilité de ces méthodes visant à assurer la sureté de fonctionnement des systèmes électriques que ce soit dans des moyens de transport, un bâtiment ou même des réseaux de communication.
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies". Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Testo completo
Abstract (sommario):
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Hirwa, Serge. "Méthodes de commande avancées appliquées aux viseurs". Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00969110.

Testo completo
Abstract (sommario):
La stabilisation inertielle de ligne de visée est essentiellement un problème de rejet de perturbations : il faut rendre la ligne de visée de la caméra embarquée dans le viseur insensible aux mouvements du porteur. Les méthodes de commande robuste du type H-infini sont bien adaptées à la résolution de ce type de problème, et plus particulièrement l'approche Loop-Shaping qui repose sur des concepts de réglage de l'automatique fréquentielle classique. Cependant, les correcteurs obtenus via cette approche sont généralement d'ordre élevé et donc difficilement implémentables sur le calculateur embarqué du viseur.Dans cette thèse, nous avons proposé des méthodologies de synthèse de correcteurs robustes d'ordre réduit et/ou de structure fixée. Pour cela, nos travaux ont été axés sur :- L'optimisation pour la synthèse H-infini à ordre et/ou structure fixée. Tout d'abord nous avons exploré les possibilités offertes par l'optimisation sous contraintes LMI (Linear Matrix Inequalities). Celles-ci se sont avérées limitées, bien que de nombreux algorithmes aient été proposés dans ce cadre depuis le début des années 90. Ensuite, nous avons opté pour l'optimisation non lisse. En effet des outils numériques récemment développés rendent accessible cette approche, et leur efficacité s'est avéré indéniable.- L'adaptation au cadre particulier du critère H-infini Loop-Shaping.La structure particulière de ce critère de synthèse a été exploitée afin de mieux prendre en compte les pondérations, et d'améliorer la réduction d'ordre du correcteur final. Enfin, une approche basée uniquement sur le réglage graphique d'un gabarit de gain fréquentiel en boucle ouverte est proposée. Ces différentes méthodologies sont illustrées, tout au long de la thèse, sur un viseur dont le modèle a été identifié à partir de mesures expérimentales.
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Alattar, Farah Basma. "Débats participatifs en ligne et hors ligne en milieu scolaire - Pour une éducation à la citoyenneté". Thesis, Paris 3, 2020. http://www.theses.fr/2020PA030001.

Testo completo
Abstract (sommario):
Notre recherche-action se réfère à la pédagogique active et de projet. Nous avons réfléchi aux moyens de développer en milieu scolaire, grâce à un environnement numérique, les débats participatifs ; nous avons fondé cette réflexion sur une expérience concrète menée à partir d’un lycée parisien : une simulation multilingue de parlements internationaux que nous avons baptisée « Parlement des futurs citoyens ». Nous avons d’abord souligné le rôle de ces discussions et concertations dans la prise de conscience par les élèves de la nécessité de construire un monde plus humain. Nous avons complété cette formation aux débats par la création d’une Organisation Non Gouvernementale dans le domaine de la santé. L’objectif était de conférer à l’éducation à la citoyenneté son sens profond en permettant à des élèves espagnols, français, italiens, roumains et turcs de passer d’un espace virtuel de discussion à un espace associatif de médiation qui œuvre pour des actions solidaires. Enfin, à travers la mise en place d’un Hackathon avec des élèves européens, nous avons démontré que la compétition et les débats démocratiques visant l’inclusion scolaire sont complémentaires et se nourrissent mutuellement.Gérer un espace éducatif international de discussions en ligne et hors ligne en milieu scolaire exige du professeur la mise en place d’une ingénierie sociale, de formation et éducative rigoureuse, pensée en termes d’outils, de planification et de gestion de ressources humaines. Cette organisation d’un enseignement hybride doit pouvoir conjuguer des dispositifs en ligne avec des outils dédiés allant des agrégateurs de contenu, du forum, du site de formation, du vote en ligne jusqu’à l’organisation de la plateforme dédiée à l’e-learning
Our action-research refers to active and project pedagogy. We have considered ways of developing participatory debates in schools, using a digital environment; we have based this reflection on a concrete experience conducted from a Parisian high school: a multilingual simulation of international parliaments that we have named "Parliament of Future Citizens".We first highlighted the role of these discussions and consultations in raising students' awareness of the need to build a more humane world. We have complemented this training in debates with the creation of a Non-Governmental Organization in the field of health. The objective was to give citizenship education its deep meaning by allowing Spanish, French, Italian, Romanian and Turkish pupils to move from a virtual space of discussion to an associative space of mediation that works for solidarity actions. Finally, through the establishment of a Hackathon with European students, we have demonstrated that competition and democratic debates aimed at inclusive education are complementary and mutually developing.Managing an international educational environment for online and offline debates in high-school requires the teacher to implement rigorous social engineering, training and education, thought in terms of tools, planning and human resources management. This hybrid education organization must be able to combine online devices with dedicated tools ranging from content aggregators, forums, training sites, online voting to the organization of the platform dedicated to e-learning
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Langlet, Alyssa. "Développement de méthodes d'analyse de comprimés à haute vitesse". Mémoire, Université de Sherbrooke, 2018. http://hdl.handle.net/11143/11773.

Testo completo
Abstract (sommario):
La qualité des produits commercialisés représente un enjeu essentiel dans le domaine pharmaceutique. De plus en plus, les industriels cherchent à contrôler les différentes étapes de leurs procédés, les produits générés à toutes les étapes de fabrication ainsi que leurs produits finis, le but de tout cela étant une meilleure compréhension des procédés, ainsi qu’un gain de temps et une réduction des pertes financières. La chaire de recherche sur les Technologies d’Analyse de Procédés (PAT) en partenariat avec Pfizer travaille sur le développement de connaissances sur les phénomènes physico-chimiques régissant le comportement des procédés, et sur les critères de transferts technologiques basés sur des modèles phénoménologiques ou mathématiques. C’est dans le cadre de cette chaire que s’est déroulée cette maîtrise. Les travaux présentés mettent en lumière le développement d’une méthode permettant d’analyser de manière non destructive 100% des comprimés fabriqués, à vitesse réelle de production. À l’aide de la spectroscopie Proche-Infrarouge, l’objectif est de quantifier la teneur en principe actif dans chaque produit et dans le but d’identifier tous ceux étant sur ou sous-dosés. Également, l’adaptation de cette méthode à d’autres types d’analyses qui ont un intérêt dans l’industrie, comme la quantification d’humidité des comprimés, et l’enrobage, a été étudiée. Dans chaque cas, des spectres proche-infrarouge de produits fabriqués ont été acquis à l’aide d’une sonde installée sur un système de tri fonctionnant à une vitesse supérieure à celle d’une presse (c’est à dire généralement de 60,000 à 160,000 comprimés par heure). Les données ont été utilisées pour bâtir des modèles multivariés et prédire les valeurs souhaitées. Les résultats obtenus ont montré qu’il était possible d’analyser l’intégralité des échantillons d’un lot, à une vitesse garantissant de ne pas ralentir la production. L’utilisation d’une telle méthode dans l’industrie permettra de contrôler la globalité des produits finis, et donc permettre une qualité de 100% des produits commercialisés et éviter les rappels. Elle permettra également d’être utilisée en développement, lorsque la génération de beaucoup de données est nécessaire, comme pour le développement d’un algorithme par exemple.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia