Tesis sobre el tema "Recherche basée sur les phénomènes"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Recherche basée sur les phénomènes.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Recherche basée sur les phénomènes".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Zhang, Xiaoyan. "Cross-industry digital innovation in asset maintenance : a phenomenon-based exploratory case study". Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2023. http://www.theses.fr/2023ECDL0051.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse capture, décrit, documente et conceptualise un phénomène inexploré mais important, l'innovation numérique intersectorielle, en fertilisant de manière croisée la maintenance des actifs dans les secteurs de l'aviation et du fret ferroviaire. Le rail est le mode de transport de marchandises le plus économe en énergie et le moins polluant. Cependant, le statu quo en matière de maintenance des wagons de fret ferroviaire en Europe présente un état d'inefficacité et un manque d'intelligence. Avec le développement rapide des technologies numériques, la maintenance conditionnelle et prédictive est une excellente opportunité de réaliser un grand gain d’efficacité dans la maintenance des wagons, rendant potentiellement le transport ferroviaire de marchandises compétitif et durable. La manière de tirer parti des technologies numériques au profit de la maintenance des wagons de fret ferroviaire n'est pas seulement un problème technique sur la façon de bien utiliser la technologie numérique pour améliorer l'efficacité de la maintenance, mais aussi un problème stratégique sur la manière d'innover pour générer une croissance de la valeur. dans l'industrie du fret ferroviaire. Quand il s’agit de résoudre des problèmes pratiques aussi complexes, les meilleures idées viennent parfois de l’extérieur de votre secteur. Comme initié par le projet Aero-Ferro Benchmark, l’apprentissage des meilleures pratiques de l’aviation contribuera au succès du fret ferroviaire. Ainsi, cette thèse vise à conceptualiser comment réaliser une innovation numérique intersectorielle dans la maintenance des actifs, et à résoudre le problème de ce que le fret ferroviaire peut apprendre de l'industrie aéronautique. À cet égard, sont passées en revue les théories pertinentes dans le domaine de l’innovation et de la stratégie pour trouver un soutien théorique. Cependant, l’innovation numérique intersectorielle est un domaine tellement naissant qu’aucune théorie ne pourrait directement aider à définir, analyser et aborder cette question complexe. Cela nous motive à conceptualiser un nouveau cadre théorique pour expliquer ce phénomène emergent en menant une étude de cas exploratoire sur l’innovation numérique dans la maintenance des actifs dans les secteurs du fret aérien et ferroviaire. Nous commençons par déterminer un cadre préliminaire de système de maintenance des actifs à partir de deux sous-systèmes (système technique et système commercial) pour guider la théorisation basée sur les phénomènes. Ensuite, une approche de raisonnement abductif et de peignage des systèmes est suivie, ainsi qu'une revue de la littérature et une étude de cas comme principales méthodes de recherche. Les résultats d’une étude de cas sur le système technique suggèrent que la stratégie de maintenance des wagons de fret ferroviaire subira un changement de paradigme impératif, passant du préventif au prédictif, notamment en termes d’utilisation de la technologie numérique et de gestion des données. Ainsi, une architecture technique de maintenance prédictive basée sur la surveillance de l’état des wagons de fret ferroviaire est proposée. Pour le système d'affaires, cette thèse analyse l'évolution des rôles des principaux acteurs dans ce paysage émergent de la maintenance numérique et l'évolution de leurs modèles économiques dans l'écosystème de la maintenance des wagons, prévoyant l'innovation potentielle des modèles économiques des équipementiers de matériel roulant (wagons), des opérateurs ferroviaires de fret et gardiens de wagons. Cette thèse offre des contributions théoriques et pratiques perspicaces. Premièrement, cette thèse fait progresser la construction théorique de l’innovation numérique intersectorielle. Un cadre stratégique d’innovation numérique intersectorielle basé sur des phénomènes est élaboré. Deuxièmement, cette thèse oriente la stratégie de résolution de problèmes d’innovation numérique dans la maintenance des wagons dans l’industrie du fret ferroviaire
A phenomenon-based exploratory case study Abstract This thesis captures, describes, documents, and conceptualize an unexplored yet significant phenomenon, cross-industry digital innovation, by cross-fertilizing the asset maintenance in aviation and rail freight industries. Rail is the most energy-efficient and low-emitting freight transport mode. However, the status quo of rail freight wagon maintenance in Europe presents a state of inefficiency and lack of intelligence. With the rapid development of digital technologies, condition-based and predictive maintenance represent an excellent opportunity to yield a big efficiency leap in wagon maintenance, thus potentially making rail freight transport competitive and sustainable. This thesis argues that how to leverage digital technologies to benefit rail freight wagon maintenance is not only a technical problem of how to make good use of digital technology to improve maintenance efficiency, but also a strategic problem of how to innovate business model to generate value growth for rail freight industry. When solving such complex practical problems, sometimes the best ideas come from outside your industry. As initiated by the Aero-Ferro Benchmark project, learning the best practice from aviation will contribute to rail freight success. Thus, this thesis aims to theoretically conceptualize how to carry out cross-industry digital innovation in asset maintenance, and to practically solve the problem of what rail freight can learn from the aviation industry. In this respect, this thesis reviews relevant theories in the field of innovation and strategy aiming to find theoretical support. However, based on the knowledge gaining from literature, it is found that cross-industry digital innovation is such an infant field that no well-established and well-fitting theory could directly help define, analyze and address this complex issue. This motivates us to conceptualize a new theoretical framework to explain this emerging phenomenon. To achieve this purpose, this thesis conducts an exploratory case study on digital innovation in asset maintenance in aviation and rail freight industries. We start from determining a preliminary asset maintenance system framework from two sub-system (technical system and business system) to guide the phenomenon-based theorizing. Then, an abductive reasoning and system combing approach is followed, together with literature review and case study as the main research methods. Findings from case study on the technical system argue that the maintenance strategy of rail freight wagons will undergo an imperative paradigm shift from preventive to predictive, especially in terms of utilizing digital technology and data management. Thus, a technical architecture of condition monitoring based predictive maintenance for rail freight wagons is proposed in this thesis. For the business system, this thesis analyzes the changing roles of main actors in this emerging digital maintenance landscape and the evolution of their business models in wagon maintenance ecosystem, forecasting the potential business model innovation of rolling stock(wagon) OEMs, cargo rail operators and wagon keepers. In doing so, this thesis offers insightful theoretical and practical contributions. First, this thesis contributes to advancing the theory building in cross-industry digital innovation. A phenomenon-based cross-industry digital innovation strategy framework is developed. Second, this thesis contributes to guiding the problem-solving strategy of digital innovation in wagon maintenance in rail freight industry
2

Marie, Nicolas. "Recherche exploratoire basée sur des données liées". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4129/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse s’intéresse à l’exploitation de la sémantique de données pour la recherche exploratoire. La recherche exploratoire se réfère à des tâches de recherche qui sont très ouvertes, avec de multiples facettes, et itératives. Les données sémantiques et les données liées en particulier, offrent de nouvelles possibilités pour répondre à des requêtes de recherche et des besoins d’information complexes. Dans ce contexte, le nuage de données ouvertes liées (LOD) joue un rôle important en permettant des traitements de données avancés et des interactions innovantes. Nous détaillons un état de l’art de la recherche exploratoire sur les données liées. Puis nous proposons un algorithme de recherche exploratoire à base de données liées basé sur une recherche associative. A partir d’un algorithme de propagation d’activation nous proposons une nouvelle formule de diffusion optimisée pour les graphes typés. Nous proposons ensuite des formalisations supplémentaires de plusieurs modes d’interrogation avancée. Nous présentons également une architecture logicielle innovante basée sur deux choix de conception paradigmatiques. D’abord, les résultats doivent être calculés à la demande. Deuxièmement, les données sont consommées à distance à partir de services SPARQL distribués. Cela nous permet d’atteindre un niveau élevé de flexibilité en termes d’interrogation et de sélection des données. L’application Discovery Hub implémente ces résultats et les présente dans une interface optimisée pour l’exploration. Nous évaluons notre approche grâce à plusieurs campagnes avec des utilisateurs et nous ouvrons le débat sur de nouvelles façons d’évaluer les moteurs de recherche exploratoires
The general topic of the thesis is web search. It focused on how to leverage the data semantics for exploratory search. Exploratory search refers to cognitive consuming search tasks that are open-ended, multi-faceted, and iterative like learning or topic investigation. Semantic data and linked data in particular offer new possibilities to solve complex search queries and information needs including exploratory search ones. In this context the linked open data cloud plays an important role by allowing advanced data processing and innovative interactions model elaboration. First, we detail a state-of-the-art review of linked data based exploratory search approaches and systems. Then we propose a linked data based exploratory search solution which is mainly based on an associative retrieval algorithm. We started from a spreading activation algorithm and proposed new diffusion formula optimized for typed graph. Starting from this formalization we proposed additional formalizations of several advanced querying modes in order to solve complex exploratory search needs. We also propose an innovative software architecture based on two paradigmatic design choices. First the results have to be computed at query-time. Second the data are consumed remotely from distant SPARQL endpoints. This allows us to reach a high level of flexibility in terms of querying and data selection. We specified, designed and evaluated the Discovery Hub web application that retrieves the results and present them in an interface optimized for exploration. We evaluate our approach thanks to several human evaluations and we open the discussion about new ways to evaluate exploratory search engines
3

Quinnez, Bruno. "Modélisation des phénomènes aéroélastiques basée sur une linéarisation des équations d'Euler". Châtenay-Malabry, Ecole centrale de Paris, 1994. http://www.theses.fr/1994ECAP0364.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans la première partie de cette thèse, on présente une méthode qui permet d'analyser les phénomènes aéroélastiques ou aéroacoustiques rencontres sur les structures vibrantes plongées dans un écoulement. Cette méthode est basée sur la linéarisation des équations d'Euler et elle permet donc de prendre en compte les aspects compressibles et tourbillonnaires des écoulements étudiés. Les équations d'Euler linearisées ont été écrites sous forme conservative. L’intégration en espace est réalisée à l'aide de la méthode des volumes finis, tandis que pour l'intégration en temps, les schémas explicites de Lax-Wendroff et des différences centrées ont été testés. Les conditions aux limites utilisées lors de cette étude sont de deux types: la condition aux limites de type structure vibrante et la condition aux limites non réfléchissante pour les parties frontière situées loin de la structure. Afin d'obtenir des temps de calcul raisonnables, une optimisation en vectoriel du programme a été réalisée en utilisant la méthode de concaténation des boucles et l'algorithme des directions alternées. Dans les domaines aéroélastiques et aéroacoustiques, des comparaisons avec les méthodes habituellement employées ont été effectuées. De bons résultats ont été obtenus dans des écoulements subsoniques et supersoniques. Pour les écoulements transsoniques, la méthode telle quelle n'est pas applicable. Pour simuler la propagation des ondes dans l'écoulement fluide, il faut si possible des maillages réguliers et orthogonaux afin d'éviter des réflexions parasites sur les irrégularités des mailles. On étudie donc dans la deuxième partie de cette thèse, une méthode de maillage structure tridimensionnel orthogonal. On utilise un découpage en tranches parallèles du volume à mailler. Chaque section est maillée à l'aide d'une transformation presque holomorphe. Le gauchissement de chacune des tranches est ensuite obtenu à l'aide d'un modèle de plaques
4

Karam, Naouel. "Recherche sémantique d'informations : une approche basée sur les logiques de description". Clermont-Ferrand 2, 2005. http://www.theses.fr/2005CLF21617.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse propose une solution de recherche sémantique d'informations basée sur les logiques de description. Les besoins exprimés par une description en langage naturel sont transformés en une terminologie, cette dernière est ensuite comparée à celles décrivant les documents présents dans la base considérée. Ce traitement est appelé matching de terminologies. Il consiste à comparer les éléments de deux terminologies afin de déduire les correspondances sémantiques entre eux. Le principe est basé sur le calcul de la discordance entre les éléments de la requête et ceux des documents. Notre cadre applicatif impose la prise en compte de liens sémantiques issus d'une ontologie lexicale lors de la comparaison des éléments. Aussi, les différentes étapes du traitement doivent tenir compte de cette information ontologique. Ce besoin nous a conduit à établir deux approches nécessitant des extensions des algorithmes des subsomption et de différence sur lesquels s'appuie le matching
5

Guay, Martin. "Animation de phénomènes gazeux basée sur la simulation d'un modèle de fluide à phase unique sur le GPU". Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4931.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le présent mémoire porte sur l'animation passive de phénomènes naturels. L'animation est dite passive lorsque qu'elle [i.e. lorsqu'elle] est directe et sans contrôle ou sans dynamique inverse. En particulier, le type de phénomènes naturels traités est celui des phénomènes gazeux et plus précisément, ceux modélisés par un fluide à phase unique. Tout d'abord, le domaine de l'animation de fluide synthétisé par la simulation d'un modèle physique sera introduit ainsi que la problématique abordée.Le document comprend trois contributions abordant la problématique à différents niveaux. Dans le premier ouvrage, on retrouve une méthode permettant de résoudre les équations de Navier-Stokes en une seule itération sur le GPU (Graphical Processing Unit). La méthode est si simple qu'elle a pu être implémentée en moins d'une journée de travail dans Fx-Composer (vidéo : http: //www.youtube.com/watch?v=PScfTOKbSpU). En plus d'être extrêmement rapide sur le GPU, cette méthode rend l'animation de fluide beaucoup plus accessible et peut être utilisée à différentes fins : l'initiation à l'animation de fluide à l'aide d'une méthode simple à implémenter ou l'ajout rapide d'effets visuels dans un jeu vidéo ou autre application interactive. La deuxième contribution aborde le problème au niveau de la visualisation du fluide. On y retrouve l'élaboration d'une méthode explicite et inconditionnellement stable pour la résolution numérique de l'équation de convection-diffusion utilisée pour simuler la densité d'un gaz qui à la fois est diffusé et transporté dans le domaine par un champ de vecteurs-vitesse, qui dans notre cas représente le mouvement d'un fluide.Le troisième article aborde le problème au niveau de la complexité calculatoire et réduit l'animation 3D de feu à une utilisation 2D strictement en espace-écran. La complexité d'une animation en espace-écran est constante pour une résolution d'image donnée puisque les calculs se font uniquement sur les pixels de l'écran (ou une sur une sous-résolution de ceux-ci).
6

Allani, Atig Olfa. "Une approche de recherche d'images basée sur la sémantique et les descripteurs visuels". Thesis, Paris 8, 2017. http://www.theses.fr/2017PA080032.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La recherche d’image est une thématique de recherche très active. Plusieurs approches permettant d'établir un lien entre les descripteurs de bas niveau et la sémantique ont été proposées. Parmi celles-là, nous citons la reconnaissance d'objets, les ontologies et le bouclage de pertinence. Cependant, leur limitation majeure est la haute dépendance d’une ressource externe et l'incapacité à combiner efficacement l'information visuelle et sémantique. Cette thèse propose un système basé sur un graphe de patrons, la sélection ciblée des descripteurs pour la phase en ligne et l'amélioration de la visualisation des résultats. L'idée est de (1) construire un graphe de patrons composé d'une ontologie modulaire et d'un modèle basé graphe pour l'organisation de l'information sémantique, (2) de construire un ensemble de collections de descripteurs pour guider la sélection des descripteurs à appliquer durant la recherche et (3) améliorer la visualisation des résultats en intégrant les relations sémantiques déduite du graphe de patrons.Durant la construction de graphe de patrons, les modules ontologiques associés à chaque domaine sont automatiquement construits. Le graphe de régions résume l'information visuelle en un format plus condensé et la classifie selon son domaine. Le graphe de patrons est déduit par composition de modules ontologiques. Notre système a été testé sur trois bases d’images. Les résultats obtenus montrent une amélioration au niveau du processus de recherche, une meilleure adaptation des descripteurs visuels utilisés aux domaines couverts et une meilleure visualisation des résultats qui diminue le niveau d’abstraction par rapport à leur logique de génération
Image retrieval is a very active search area. Several image retrieval approaches that allow mapping between low-level features and high-level semantics have been proposed. Among these, one can cite object recognition, ontologies, and relevance feedback. However, their main limitation concern their high dependence on reliable external resources and lack of capacity to combine semantic and visual information.This thesis proposes a system based on a pattern graph combining semantic and visual features, relevant visual feature selection for image retrieval and improvement of results visualization. The idea is (1) build a pattern graph composed of a modular ontology and a graph-based model, (2) to build visual feature collections to guide feature selection during online retrieval phase and (3) improve the retrieval results visualization with the integration of semantic relations.During the pattern graph building, ontology modules associated to each domain are automatically built using textual corpuses and external resources. The region's graphs summarize the visual information in a condensed form and classify it given its semantics. The pattern graph is obtained using modules composition. In visual features collections building, association rules are used to deduce the best practices on visual features use for image retrieval. Finally, results visualization uses the rich information on images to improve the results presentation.Our system has been tested on three image databases. The results show an improvement in the research process, a better adaptation of the visual features to the domains and a richer visualization of the results
7

Houssein, Ali. "Reconnaissance globale de mots manuscrits arabes basée sur une recherche avec un dictionnaire". Rouen, 1998. http://www.theses.fr/1998ROUES049.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce document nous décrivons une méthode de reconnaissance globale des mots manuscrits arabes. L'acquisition des mots est effectuée par un scanner. Tout d'abord des indices visuels appelés primitives sont choisis sur le mot selon le critère de l'importance de l'information amenée et en privilégiant la facilité de calcul. Ces primitives sont codées par leur nombre d'apparition dans le mot, pour former un vecteur de caractéristiques. La variabilité de l'écriture donne des vecteurs différents pour le même mot, mais le codage des primitives peut regrouper des mots non ressemblants avec le même code. Le vecteur de caractéristiques est choisi avec 7 primitives qui donnent le nombre des traces, des alifs isolés, des boucles, des points situés au-dessus et au-dessous de trace, des hampes et des jambes. Pour générer les vecteurs proches du mot recherché, la variation du nombre des primitives dans le mot est analysée. On évalue le degré de ressemblance des vecteurs proches pour classer les candidats dans une liste selon le nombre de leurs primitives. Deux méthodes aux performances similaires sont retenues. La première est la fonction discriminante qui est une fonction linéaire des écarts entre le nombre de primitives de deux vecteurs. Les coefficients de cette fonction discriminante sont proportionnels à la variance des primitives. La deuxième méthode est la distance de Mahalanobis, qui est une fonction quadratique des écarts entre le nombre de primitives de deux vecteurs. Les résultats pour les deux méthodes sont semblables. Le dictionnaire est construit avec une structure d'arbre binaire de recherche ou chaque nœud contient un vecteur de primitives avec l'ensemble des mots qui sont associes a ce vecteur. Le parcours de l'arbre est très rapide et les comparaisons avec les mots du dictionnaire sont effectués avec le calcul du degré de ressemblance. Tout en ayant un nombre très faible de modèles dans le dictionnaire, la génération des vecteurs proches nous donne les moyens de rechercher toutes les possibilités. Les résultats sont analysés avec l'augmentation du nombre de modèles de mots des différents scripteurs dans le dictionnaire et en élargissant l'intervalle de recherche.
8

Essayeh, Aroua. "Une approche de personnalisation de la recherche d'information basée sur le Web sémantique". Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0003.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le travail de cette thèse s’inscrit dans le cadre de la recherche d’information (RI) et plus précisément la recherche d’information personnalisée. En effet, avec la prolifération des données de différentes sources et malgré la diversité de méthodes et d’approches de la recherche d’information classique, cette dernière n’est plus considérée aujourd’hui comme un moyen efficace pour répondre aux exigences de l’utilisateur considéré comme l’acteur principal de tout système de recherche d’information (SRI). Dans ce travail de thèse, nous adressons deux principaux problèmes liés à la RI personnalisée : (1) la formalisation et la mise en œuvre d’un modèle utilisateur et (2) la formulation de la requête de recherche dans le but d’améliorer les résultats retournés à l'utilisateur en fonction de sa perception et de ses préférences. Pour atteindre ces objectifs, nous avons proposé une approche de recherche d’information guidée par les ontologies et basée sur l’utilisation sémantique des informations. En effet, notre contribution se décline en trois principaux points : (1) la modélisation et la construction de profil utilisateur suivant une approche ontologique modulaire. Ce modèle permet de capturer les informations relatives à l’utilisateur, de les modéliser suivant l’approche sémantique dans le but de les réutiliser pour des tâches de raisonnement et d’inférence ; (2) la reformulation sémantique de la requête de recherche en exploitant les concepts, les relations syntaxiques et non syntaxiques entre les concepts et les propriétés ; et finalement, (3) la recommandation des résultats qui consiste à proposer des résultats de recherche en se basant sur l’ensemble des communautés utilisateurs construites par l’approche de classification non supervisée « Fuzzy K-mode » améliorée. Ces communautés sont aussi modélisées sémantiquement dans l’ontologie modulaire de profil. Ensuite, afin de valider l’approche proposée, nous avons mis en œuvre un système pour la recherche des itinéraires dans le transport public. Enfin, cette thèse propose des perspectives de recherche sur la base des limites rencontrées
This PhD thesis reports on a recent study in the field of information retrieval (IR), more specifically personalized IR. Traditional IR uses various methods and approaches. However, given the proliferation of data from different sources, traditional IR is no longer considered to be an effective means of meeting users’ requirements. (‘Users’ here refers to the main actor in an IR system.) In this thesis, we address two main problems related to personalized IR: (1) the development and implementation of a user model; and (2) the formulation of a search query to improve the results returned to users according to their perceptions and preferences. To achieve these goals, we propose a semantic information search approach, based on the use of semantic information and guided by ontologies. The contribution of our work is threefold. First, it models and constructs user profiles following a modular ontological approach; this model allows the capture of information related to the user, and models the data according to the semantic approach so that the data can be re-used for reasoning and inference tasks. Second, it provides evidence for reformulating a query by exploiting concepts, hierarchical and non-hierarchical relationships between concepts and properties. Third, based on our findings, we recommend search results that are informed by the user’s communities, built by the improved unsupervised classification approach called the ‘Fuzzy K-mode’. These communities are also semantically modeled with modular profile ontology. To validate our proposed approach, we implemented a system for searching the itineraries for public transport. Finally, this thesis proposes research perspectives based on the limitations we encountered
9

Zomahoun, Damien Esse. "Emergsem : une approche d'annotation collaborative et de recherche d'images basée sur les sémantiques émergentes". Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS019/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L’extraction de la sémantique d’une image est un processus qui nécessite une analyse profonde du contenu de l’image. Elle se réfère à leur interprétation à partir d’un point de vuehumain. Dans ce dernier cas, la sémantique d’une image pourrait être générique (par exemple un véhicule) ou spécifique (par exemple une bicyclette). Elle consiste à extraire une sémantique simple ou multiple de l’image afin de faciliter sa récupération. Ces objectifs indiquent clairement que l’extraction de la sémantique n’est pas un nouveau domaine de recherche. Cette thèse traite d’une approche d’annotation collaborative et de recherche d’images baséesur les sémantiques émergentes. Il aborde d’une part, la façon dont les annotateurs pourraient décrire et représenter le contenu des images en se basant sur les informations visuelles, et d’autre part comment la recherche des images pourrait être considérablement améliorée grâce aux récentes techniques, notamment le clustering et la recommandation. Pour atteindre ces objectifs, l’exploitation des outils de description implicite du contenu des images, des interactions des annotateurs qui décrivent la sémantique des images et celles des utilisateurs qui utilisent la sémantique produite pour rechercher les images seraient indispensables.Dans cette thèse, nous nous sommes penchés vers les outils duWeb Sémantique, notamment les ontologies pour décrire les images de façon structurée. L’ontologie permet de représenter les objets présents dans une image ainsi que les relations entre ces objets (les scènes d’image). Autrement dit, elle permet de représenter de façon formelle les différents types d’objets et leurs relations. L’ontologie code la structure relationnelle des concepts que l’on peut utiliser pour décrire et raisonner. Cela la rend éminemment adaptée à de nombreux problèmes comme la description sémantique des images qui nécessite une connaissance préalable et une capacité descriptive et normative.La contribution de cette thèse est focalisée sur trois points essentiels : La représentationsémantique, l’annotation sémantique collaborative et la recherche sémantique des images.La représentation sémantique permet de proposer un outil capable de représenter la sémantique des images. Pour capturer la sémantique des images, nous avons proposé une ontologie d’application dérivée d’une ontologie générique.L’annotation sémantique collaborative que nous proposons consiste à faire émerger la sémantique des images à partir des sémantiques proposées par une communauté d’annotateurs.La recherche sémantique permet de rechercher les images avec les sémantiques fournies par l’annotation sémantique collaborative. Elle est basée sur deux techniques : le clustering et la recommandation. Le clustering permet de regrouper les images similaires à la requête d’utilisateur et la recommandation a pour objectif de proposer des sémantiques aux utilisateurs en se basant sur leurs profils statiques et dynamiques. Elle est composée de trois étapes à savoir : la formation de la communauté des utilisateurs, l’acquisition des profils d’utilisateurs et la classification des profils d’utilisateurs avec l’algèbre de Galois. Des expérimentations ont été menées pour valider les différentes approches proposées dans ce travail
The extraction of images semantic is a process that requires deep analysis of the image content. It refers to their interpretation from a human point of view. In this lastest case, the image semantic may be generic (e.g., a vehicle) or specific (e.g., a bicycle). It consists in extracting single or multiple images semantic in order to facilitate its retrieval. These objectives clearly show that the extraction of semantic is not a new research field. This thesis deals with the semantic collaborative annotation of images and their retrieval. Firstly, it discusses how annotators could describe and represent images content based on visual information, and secondly how images retrieval could be greatly improved thank to latest techniques, such as clustering and recommendation. To achieve these purposes, the use of implicit image content description tools, interactions of annotators that describe the semantics of images and those of users that use generated semantics to retrieve the images, would be essential. In this thesis, we focus our research on the use of Semantic Web tools, in particular ontologies to produce structured descriptions of images. Ontology is used to represent image objects and the relationships between these objects. In other words, it allows to formally represent the different types of objects and their relationships. Ontology encodes the relational structure of concepts that can be used to describe and reason. This makes them eminently adapted to many problems such as semantic description of images that requires prior knowledge as well as descriptive and normative capacity. The contribution of this thesis is focused on three main points : semantic representation, collaborative semantic annotation and semantic retrieval of images.Semantic representation allows to offer a tool for the capturing semantics of images. To capture the semantics of images, we propose an application ontology derived from a generic ontology. Collaborative semantic annotation that we define, provides emergent semantics through the fusion of semantics proposed by the annotators.Semantic retrieval allows to look for images with semantics provided by collaborative semantic annotation. It is based on clustering and recommendation. Clustering is used to group similar images corresponding to the user’s query and recommendation aims to propose semantics to users based on their profiles. It consists of three steps : creation of users community, acquiring of user profiles and classification of user profiles with Galois algebra. Experiments were conducted to validate the approaches proposed in this work
10

You, Wei. "Un système à l'approche basée sur le contenu pour la recommandation personnalisée d'articles de recherche". Compiègne, 2011. http://www.theses.fr/2011COMP1922.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La recommandation personnalisée d'article de recherche filtre les publications selon les centres d'intérêt spécifiques en recherche des utilisateurs, et, bien menée, pourrait considérablement alléger le problème de la surcharge d'informations. Le filtrage basé sur le contenu est une solution prometteuse pour cette tâche parce qu'elle exploite efficacement la nature textuelle des articles de recherche. En général, la recommandation d'articles de recherche basée sur le contenu pose trois questions essentielles : la représentation des articles candidats, la construction du profil utilisateur, et la conception d'un modèle qui permette de comparer la représentation du contenu des articles candidats avec la représentation des intérêts de l'utilisateur cible. Dans cette thèse, nous développons tout d'abord une technique d'extraction automatique d'expressions-clés pour représenter les articles scientifiques. Cette technique améliore les approches existantes en utilisant une localisation plus précise des expressions-clés potentielles et une nouvelle stratégie pour éliminer le chevauchement dans la liste de sortie. Cette technique est un acteur majeur du système : en effet, non seulement elle fournit une représentation de l'article candidat, mais elle est également réutilisée pour la construction de l'ontologie de domaine, et pour l'analyse des articles appartenant à l'histoire des utilisateurs. Ensuite, pour la construction du profil utilisateur, nous proposons une nouvelle approche basée sur les ontologies. Le profil ontologique de l'utilisateur peut être décrit comme suit : tous les utilisateurs partagent une ontologie de domaine commune qui représente la base de connaissances des utilisateurs. Pour chaque utilisateur, nous créons alors une instance personnelle de l'ontologie étendue pour représenter ses besoins spécifiques. Cette instance personnelle contient tous les concepts intéressants pour l'utilisateur, et chaque concept est annoté par un score d'intérêt qui reflète le degré d'intérêt de l'utilisateur pour ce concept. On distingue les chercheurs chevronnés et les jeunes chercheurs en dérivant leurs intérêts en recherche individuelle à partir des différents ensembles de leur histoire. Nous utilisons également la structure des ontologies et appliquons l'algorithme de propagation nommé "spreading activation" pour déduire les intérêts possibles de l'utilisateur. Finalement, nous explorons un nouveau modèle pour produire des recommandations en recourant à la théorie Dempster-Shafer. On observe que quand un chercheur veut décider si oui ou non un article de recherche l'intéresse, il peut considérer le texte de l'article comme une suite d'expressions. Les expressions relatives à ses centres d'intérêt en recherche encouragent une lecture poussée de l'article, tandis que les expressions relevant de sujets qui ne l'intéressent pas diminuent son intérêt pour l'article. Notre modèle simule ce processus d'évaluation. Du point de vue de la théorie de croyance, les termes clés extraits à partir d'un article candidat peuvent être considérés comme des sources de croyance. A ces parts de croyance, notre modèle associe des degrés d'intérêt de l'utilisateur. Dés lors, comme ces croyances s'accumulent et se renforcent, une inclination prend forme et devient graduellement plus nette. Différentes d'autres mesures basées sur la similarité entre la représentation des articles candidats et les profils utilisateur, nos recommandations, produites en combinant toutes les parts de croyance, peuvent directement mesurer à quel point l'utilisateur pourrait être intéressé par l'article candidat. Les résultats expérimentaux montrent que le système que nous avons développé surpasse la plupart des approches actuelles. De plus, la méthode proposée est suffisamment générique pour permettre la résolution d'autres tâches de recommandation
Personalized research paper recommendation filters the publications according to the specific research interests of users, which could significantly alleviate the information overload problem. Content-based filtering is a promising solution for this task because it can effectively exploit the textual-nature of research papers. A content-based recommender system usually concerns three essential issues: item representation, user profiling, and a model that provides recommendations by comparing candidate item's content representation with the target user's interest representation. In this dissertation, we first propose an automatic keyphrase extraction technique for scientific documents, which improves the existing approaches by using a more precise location for potential keyphrases and a new strategy for eliminating the overlap in the output list. This technique helps to implement the representation of candidate papers and the analysis of users' history papers. Then for modeling the users' information needs, we present a new ontology-based approach. The basic idea is that each user is represented as an instance of a domain ontology in which concepts are assigned interest scores reflecting users' degree of interest. We distinguish senior researchers and junior researchers by deriving their individual research interests from different history paper sets. We also takes advantage of the structure of the ontology and apply spreading activation model to reason about the interests of users. Finally, we explore a novel model to generate recommendations by resorting to the Dempster-Shafer theory. Keyphrases extracted from the candidate paper are considered as sources of evidence. Each of them are linked to different levels of user interest and the strength of each link is quantified. Different from other similarity measures between user profiles and candidate papers, our recommendation result produced by combining all evidence is able to directly indicate the possibility that a user might be interested in the candidate paper. Experimental results show that the system we developed for personalized research paper recommendation outperforms other state-of-the-art approaches. The proposed method can be used as a generic way for addressing different types of recommendation problems
11

Zidi, Amir. "Recherche d'information dirigée par les interfaces utilisateur : approche basée sur l'utilisation des ontologies de domaine". Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0012/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce mémoire porte sur l'utilisation des ontologies dans les systèmes de recherche d'information SRI dédiés à des domaines particuliers. Il se base sur une approche à deux niveaux, à savoir la formulation et la recommandation des requêtes. La formulation consiste à assister l'utilisateur dans l'expression de sa requête en se basant sur des concepts et des propriétés de l'ontologie de domaine utilisée. La recommandation consiste à proposer des résultats de recherche en utilisant la méthode du raisonnement à partir de cas. Dans cette méthode, une nouvelle requête est considérée comme un nouveau cas.La résolution de ce nouveau cas consiste à réutiliser les anciens cas similaires qui ne sont que des requêtes traitées auparavant. Afin de valider l'approche proposée, un système OntoCBRIR a été développé et un ensemble d'expérimentations a été élaboré. Enfin, les perspectives de recherche concluent le présent rapport
This thesis study the using of ontologies in information retrieval systemdedicated to a specific domain. For that we propose a two-level approach to deal with i) the query formulation that assists the user in selecting concepts and properties of the used ontology ; ii) the query recommendation that uses the case-based reasoning method, where a new query is considered as a new case. Solving a new case consists of reusing similar cases from the history of the previous similar cases already processed. For the validation of the proposed approaches, a system was developed and a set of computational experimentations was made. Finally, research perspectives conclude that this present report
12

Naffakhi, Najeh. "Un modèle de recherche d'information agrégée basée sur les réseaux bayésiens dans des documents semi-structurés". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2018/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Nous proposons un modèle de recherche d'information basé sur les réseaux bayésiens. Dans ce modèle, la requête de l'utilisateur déclenche un processus de propagation pour sélectionner les éléments pertinents. Dans notre modèle, nous cherchons à renvoyer à l'utilisateur un agrégat au lieu d'une liste d'éléments. En fait, l'agrégat formulé à partir d'un document est considéré comme étant un ensemble d'éléments ou une unité d'information (portion d'un document) qui répond le mieux à la requête de l'utilisateur. Cet agrégat doit répondre à trois aspects à savoir la pertinence, la non-redondance et la complémentarité pour qu'il soit qualifié comme une réponse à cette requête. L'utilité des agrégats retournés est qu'ils donnent à l'utilisateur un aperçu sur le contenu informationnel de cette requête dans la collection de documents. Afin de valider notre modèle, nous l'avons évalué dans le cadre de la campagne d'évaluation INEX 2009 (utilisant plus que 2 666 000 documents XML de l'encyclopédie en ligne Wikipédia). Les expérimentations montrent l'intérêt de cette approche en mettant en évidence l'impact de l'agrégation de tels éléments
The work described in this thesis are concerned with the aggregated search on XML elements. We propose new approaches to aggregating and pruning using different sources of evidence (content and structure). We propose a model based on Bayesian networks. The dependency relationships between query-terms and terms-elements are quantified by probability measures. In this model, the user's query triggers a propagation process to find XML elements. In our model, we search to return to the user an aggregate instead of a list of XML elements. In fact, the aggregate made from a document is considered an information unit (or a portion of this document) that best meets the user's query. This aggregate must meet three aspects namely relevance, non-redundancy and complementarity in order to answer the query. The value returned aggregates is that they give the user an overview of the information need in the collection
13

Vernhes, Simon. "Décomposition des problèmes de planification de tâches basée sur les landmarks". Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0050/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les algorithmes permettant la création de stratégies efficaces pour la résolution d’ensemble de problèmeshétéroclites ont toujours été un des piliers de la recherche en Intelligence Artificielle. Dans cette optique,la planification de tâches a pour objectif de fournir à un système la capacité de raisonner pour interagiravec son environnement de façon autonome afin d’atteindre les buts qui lui ont été assignés. À partir d’unedescription de l’état initial du monde, des actions que le système peut exécuter, et des buts qu’il doit atteindre,un planificateur calcule une séquence d’actions dont l’exécution permet de faire passer l’état du monde danslequel évolue le système vers un état qui satisfait les buts qu’on lui a fixés. Le problème de planification esten général difficile à résoudre (PSPACE-difficile), cependant certaines propriétés des problèmes peuvent êtreautomatiquement extraites permettant ainsi une résolution efficace.Dans un premier temps, nous avons développé l’algorithme LMBFS (Landmark-based Meta Best-First Search).À contre-courant des planificateurs state-of-the-art, basés sur la recherche heuristique dans l’espace d’états,LMBFS est un algorithme qui réactualise la technique de décomposition des problèmes de planification baséssur les landmarks. Un landmark est un fluent qui doit être vrai à un certain moment durant l’exécutionde n’importe quel plan solution. L’algorithme LMBFS découpe le problème principal en un ensemble desous-problèmes et essaie de trouver une solution globale grâce aux solutions trouvées pour ces sous-problèmes.Dans un second temps, nous avons adapté un ensemble de techniques pour améliorer les performances del’algorithme. Enfin, nous avons testé et comparé chacune de ces méthodes permettant ainsi la création d’unplanificateur efficace
The algorithms allowing on-the-fly computation of efficient strategies solving aheterogeneous set of problems has always been one of the greatest challengesfaced by research in Artificial Intelligence. To this end, classical planningprovides to a system reasoning capacities, in order to help it to interact with itsenvironment autonomously. Given a description of the world current state, theactions the system is able to perform, and the goal it is supposed to reach, a plannercan compute an action sequence yielding a state satisfying the predefined goal. Theplanning problem is usually intractable (PSPACE-hard), however some propertiesof the problems can be automatically extracted allowing the design of efficientsolvers.Firstly, we have developed the Landmark-based Meta Best-First Search (LMBFS)algorithm. Unlike state-of-the-art planners, usually based on state-space heuristicsearch, LMBFS reenacts landmark-based planning problem decomposition. Alandmark is a fluent appearing in each and every solution plan. The LMBFSalgorithm splits the global problem in a set of subproblems and tries to find aglobal solution using the solutions found for these subproblems. Secondly, wehave adapted classical planning techniques to enhance the performance of ourbase algorithm, making LMBFS a competitive planner. Finally, we have tested andcompared these methods
14

Kaddah, Rim. "Gestion active de la demande basée sur l'habitat connecté". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0025/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L’Internet des Objets (IdO) et le déploiement des équipements connectés permettent la mise en place de solutions de Gestion Active de la Demande(GAD) avancées. En effet, il devient possible d’avoir plus de visibilité et un contrôle fin sur différents équipements qui consomment, stockent ou produisent de l’énergie dans une maison. Dans cette thèse, nous considérons des solutions ayant la capacité de produire des décisions de contrôle direct à différents niveaux de granularité en fonction des variables mesurées dans les habitats. Le contrôle est basé sur une optimisation d’utilité perçue. Des fonctions utilité sont définies à travers une approche générique qui considère la flexibilité de la charge et l’impact des décisions de contrôle sur les utilisateurs. L’approche proposée n’impose pas de restrictions sur le type des équipements contrôlés ni sur la granularité des décisions de contrôle. Ceci permet un contrôle joint d’équipements hétérogènes. Nous considérons trois types d’architectures de contrôle à savoir: des solutions centralisées, partiellement distribuées et entièrement distribuées. Ces architectures diffèrent dans la distribution de la prise de décision entre les entités impliquées dans le contrôle et les données qui sont mis à disposition de ces entités. L’analyse numérique montre les compromis des solutions proposées du point de vue de la performance, de l’extensibilité et de la complexité
The Internet of Things (IoT) paradigm brings an opportunity for advanced Demand Response (DR) solutions. Indeed, it enables visibility and control on the various appliances that may consume, store or generate energy within a home. In this thesis, we consider solutions having the capability to produce direct control decisions at different granularities based on variables measured at homes. Control schemes are driven by an optimization based on utility functions. These functions are defined based on a generic approach that considers load’s flexibility and the impact of control decisions on users. The proposed approach does not impose any restrictions on the type of controlled appliances nor on the granularity of control decisions. This enables joint control of heterogeneous loads. We consider three types of control architectures, namely centralized, partially distributed and fully distributed solutions. Schemes based on these architectures differ in the distribution of decision making among entities involved in the control and data that is made available to these entities. Numerical analysis shows the trade-offs of proposed solutions from a performance, scalability and complexity perspectives
15

Sanson, Mathilde. "Recherche de nouvelles cibles thérapeutiques dans la myopathie de Duchenne basée sur des miRNAs dérégulés nouvellement identifiéss". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE047.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La myopathie de Duchenne (DMD) est une maladie pédiatrique incurable causée par l’absence ou l’expression fortement réduite de la dystrophine. La DMD touche un garçon sur 3500-5000 et cause leur décès par arrêt cardio-respiratoire, le plus souvent à la troisième ou quatrième décennie de leur vie. Les myofibres du muscle dystrophique subissent des cycles successifs de dégénérescence et régénérescence, jusqu’à l’épuisement du potentiel régénératif. Les tissus musculaires sont remplacés par des tissus fibrotiques et adipeux. Actuellement, aucune solution médicale satisfaisante n’existe pour traiter la DMD. Le traitement de routine consiste en une administration de glucocorticoïdes. Les futures thérapies développées incluent, en particulier, le transfert de gène et le saut d’exon. Cependant, les résultats des essais cliniques ces dernières années ont indiqué que la restauration de l’expression de la dystrophine n’est pas probablement pas suffisante. L’une des hypothèses est que la restauration de l’expression de la dystrophine ne suffit pas à inverser une pathologie dystrophique à un stade avancé. De ce fait, il est nécessaire d’étudier les mécanismes, l’impact et la réversibilité de pathologies secondaires. Dans ce contexte, la première partie de ma thèse a consisté à sélectionner un miRNA dérégulé d’un intérêt particulier, impliqué dans une pathologie secondaire de la DMD. Des travaux préliminaires de mon groupe de recherche (avant mon arrivée) ont identifié un grand nombre de miRNAs dérégulés dans la DMD. Dans la première partie de ma thèse, j’ai quantifié certain de ces miRNAs dans des biopsies musculaires du modèle GRMD (model canin de la DMD) et sélectionné miR-379, un miRNA normalisé par les glucocorticoïdes selon nos données préliminaires. J’ai ensuite identifié et validé EIF4G2 comme cible directe de miR-379. EIF4G2 est un facteur de traduction impliqué dans le contrôle cellulaire de l’apoptose, de la différenciation et de l’activité mitochondriale. J’ai ensuite identifié une cible traductionnelle d’EIF4G2, nommée ici ProtX, une protéine connue pour être impliquée dans l’activité mitochondriale. Pour des raisons de confidentialité et de brevetabilité, l’identité exacte de cette protéine ne peut pas être révélée dans ce résumé. J’ai ensuite démontré dans des myoblastes humains et des cellules iPS que miR-379, EIF4G2 et ProtX sont impliqués dans la régulation de l’activité mitochondriale et le contrôle de l’engagement cellulaire (des cellules iPS) et la différenciation myogénique. Il est intéressant de noter que ProtX a été envisagé précédemment comme un modifier potentiel dans la DMD. Je présente dans cette thèse une voie de signalisation qui pourrait expliquer l’action des glucocorticoïdes sur les dysfonctionnements mitochondriaux chez les patients DMD. L’un des futurs objectifs de mon groupe de recherche est l’évaluation dans des modèles de la DMD du potentiel thérapeutique de la surexpression de ProtX
Duchenne Muscular Dystrophy (DMD) is a paediatric muscle disease that affects one in 3500-5000 boys and causes death by cardio-respiratory failure, most often at the third or fourth decade of life. DMD is caused by the lack or the drastically reduced expression of dystrophin. The myofibers in the dystrophic muscle undergo successive cycles of degeneration and regeneration, until exhaustion of the regenerative potential. The degenerated contractile tissues are replaced by fatty fibrotic tissue. At present, there is no satisfactory medical solution for the DMD disease. Routine treatment is of glucocorticoid drugs. Therapeutic development effort is focused in particular on gene replacement and exon skipping technologies. However, disappointing results from recent years’ clinical trials employing these experimental therapies indicated that restored dystrophin expression might not be enough. One hypothesis is that the restoration of dystrophin expression is not enough for the reversion of an advanced-stage dystrophic pathology. Accordingly, in order to propose complementary therapeutic solutions, it is necessary to investigate the mechanisms, impact and reversion of secondary pathologies. In this context, the first part of my thesis comprised a screening for miRNAs that might be involved in DMD secondary pathology. Early work in our research group (before my arrival) identified a large number of dysregulated miRNAs in DMD. Thus, I profiled some of these miRNAs in muscle biopsies of the GRMD (a dog model for DMD), and selected for further investigations miR-379, which is, according our previous data in the group, glucocorticoid responsive in DMD. I then identified and validated the EIF4G2 gene as a direct target of miR-379. EIF4G2 is a translation factor that is involved in the control of apoptosis differentiation, and mitochondrial activities. I then identified a translational target of EIF4G2, named here ProtX, known to be involved in mitochondrial activity. For confidentiality reasons, the exact identity of this protein cannot be disclosed yet. In a set of experiments in human myoblast and iPS cells, I then demonstrated that miR-379, EIF4G2 and ProtX are involved in the tuning of mitochondrial activity and in the control of cellular engagement (of IPS cells) and myogenic differentiation. Interestingly, ProtX has been suggested in the past as a potential modifier in the DMD disease. Taken together, I am presenting here a signalling pathway that might link the glucocorticoid response to mitochondrial dysfunction in DMD patients. A future goal of our research group is the evaluation of the therapeutic potential thus signalling pathway in the DMD disease in animal model experimentation
16

Huybrechts, Valérie. "Ethique de la recherche appliquée à la chirurgie : Evaluation de la protection des personnes et de l’intégrité scientifique dans la recherche en chirurgie". Thesis, Paris 5, 2012. http://www.theses.fr/2012PA05D016/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Pierret, Jean-Dominique. "Méthodologie et structuration d'un outil de découverte de connaissances basé sur la littérature biomédicale : une application basée sur l'exploitation du MeSH". Toulon, 2006. http://tel.archives-ouvertes.fr/tel-00011704.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L´information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d´exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d´une requête est donc un ensemble d´informations connues qui n´apporte en lui-même aucune nouveauté. Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l´information disponible qu´à la méthodologie utilisée. Cette méthodologie générale s´applique de façon privilégiée dans un environnement d´information validée et structurée ce qui est le cas de l´information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu´elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d´information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature
The information available in bibliographic databases is dated and validated by a long process and becomes not very innovative. Usually bibliographic databases are consultated in a boolean way. The result of a request represente is a set of known which do not bring any additional novelty. In 1985 Don Swanson proposed an original method to draw out innovative information from bibliographic databases. His reasoning is based on systematic use of the biomedical literature to draw the latent connections between different well established knowledges. He demonstrated unsuspected potential of bibliographic databases in knowledge discovery. The value of his work did not lie in the nature of the available information but consisted in the methodology he used. This general methodology was mainly applied on validated and structured information that is bibliographic information. We propose to test the robustness of Swanson's theory by setting out the methods inspired by this theory. These methods led to the same conclusions as Don Swanson's ones. Then we explain how we developed a knowledge discovery system based on the literature available from public biomedical information sources
18

Guemeida, Abdelbasset. "Contributions à une nouvelle approche de Recherche d'Information basée sur la métaphore de l'impédance et illustrée sur le domaine de la santé". Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00581322.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les récentes évolutions dans les technologies de l'information et de la communication, avec le développement de l'Internet, conduisent à l'explosion des volumes des sources de données. Des nouveaux besoins en recherche d'information émergent pour traiter l'information en relation aux contextes d'utilisation, augmenter la pertinence des réponses et l'usabilité des résultats produits, ainsi que les possibles corrélations entre sources de données, en rendant transparentes leurs hétérogénéités. Les travaux de recherche présentés dans ce mémoire apportent des contributions à la conception d'une Nouvelle Approche de Recherche d'Information (NARI) pour la prise de décision. NARI vise à opérer sur des grandes masses de données cataloguées, hétérogènes, qui peuvent être géo référencées. Elle est basée sur des exigences préliminaires de qualité (standardisation, réglementations), exprimées par les utilisateurs, représentées et gérées à l'aide des métadonnées. Ces exigences conduisent à pallier le manque de données ou leur insuffisante qualité, pour produire une information de qualité suffisante par rapport aux besoins décisionnels. En utilisant la perspective des utilisateurs, on identifie et/ou on prépare des sources de données, avant de procéder à l'étape d'intégration des contenus. L'originalité de NARI réside dans la métaphore de l'écart d'impédance (phénomène classique lorsque on cherche à connecter deux systèmes physiques hétérogènes). Cette métaphore, dont R. Jeansoulin est à l'origine, ainsi que l'attention portée au cadre réglementaire, en guident la conception. NARI est structurée par la dimension géographique (prise en compte de divers niveaux de territoires, corrélations entre plusieurs thématiques) : des techniques d'analyse spatiale supportent des tâches de la recherche d'information, réalisées souvent implicitement par les décideurs. Elle s'appuie sur des techniques d'intégration de données (médiation, entrepôts de données), des langages de représentation des connaissances et des technologies et outils relevant du Web sémantique, pour supporter la montée en charge, la généralisation et la robustesse théorique de l'approche. NARI est illustrée sur des exemples relevant de la santé
19

Jlassi, Aymen. "Optimisation de la gestion des ressources sur une plate-forme informatique du type Big Data basée sur le logiciel Hadoop". Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4042.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'entreprise "Cyres-group" cherche à améliorer le temps de réponse de ses grappes Hadoop et la manière dont les ressources sont exploitées dans son centre de données. Les idées sous-jacentes à la réduction du temps de réponse sont de faire en sorte que (i) les travaux soumis se terminent au plus tôt et que (ii) le temps d'attente de chaque utilisateur du système soit réduit. Nous identifions deux axes d'amélioration : 1. nous décidons d'intervenir pour optimiser l'ordonnancement des travaux sur une plateforme Hadoop. Nous considérons le problème d'ordonnancement d'un ensemble de travaux du type MapReduce sur une plateforme homogène. 2. Nous décidons d'évaluer et proposer des outils capables (i) de fournir plus de flexibilité lors de la gestion des ressources dans le centre de données et (ii) d'assurer l'intégration d'Hadoop dans des infrastructures Cloud avec le minimum de perte de performance. Dans une première étude, nous effectuons une revue de la littérature. À la fin de cette étape, nous remarquons que les modèles mathématiques proposés dans la littérature pour le problème d'ordonnancement ne modélisent pas toutes les caractéristiques d'une plateforme Hadoop. Nous proposons à ce niveau un modèle plus réaliste qui prend en compte les aspects les plus importants tels que la gestion des ressources, la précédence entre les travaux, la gestion du transfert des données et la gestion du réseau. Nous considérons une première modélisation simpliste et nous considérons la minimisation de la date de fin du dernier travail (Cmax) comme critère à optimiser. Nous calculons une borne inférieure à l'aide de la résolution du modèle mathématique avec le solveur CPLEX. Nous proposons une heuristique (LocFirst) et nous l'évaluons. Ensuite, nous faisons évoluer notre modèle et nous considérons, comme fonction objective, la somme des deux critères identifiés depuis la première étape : la minimisation de la somme pondérée des dates de fin des travaux ( ∑ wjCj) et la minimisation du (Cmax). Nous cherchons à minimiser la moyenne pondérée des deux critères, nous calculons une borne inférieure et nous proposons deux heuristiques de résolution
"Cyres-Group" is working to improve the response time of his clusters Hadoop and optimize how the resources are exploited in its data center. That is, the goals are to finish work as soon as possible and reduce the latency of each user of the system. Firstly, we decide to work on the scheduling problem in the Hadoop system. We consider the problem as the problem of scheduling a set of jobs on a homogeneous platform. Secondly, we decide to propose tools, which are able to provide more flexibility during the resources management in the data center and ensure the integration of Hadoop in Cloud infrastructures without unacceptable loss of performance. Next, the second level focuses on the review of literature. We conclude that, existing works use simple mathematical models that do not reflect the real problem. They ignore the main characteristics of Hadoop software. Hence, we propose a new model ; we take into account the most important aspects like resources management and the relations of precedence among tasks and the data management and transfer. Thus, we model the problem. We begin with a simplistic model and we consider the minimisation of the Cmax as the objective function. We solve the model with mathematical solver CPLEX and we compute a lower bound. We propose the heuristic "LocFirst" that aims to minimize the Cmax. In the third level, we consider a more realistic modelling of the scheduling problem. We aim to minimize the weighted sum of the following objectives : the weighted flow time ( ∑ wjCj) and the makespan (Cmax). We compute a lower bound and we propose two heuristics to resolve the problem
20

Daoud, Mariam. "Accès personnalisé à l'information : approche basée sur l'utilisation d'un profil utilisateur sémantique dérivé d'une ontologie de domaines à travers l'historique des sessions de recherche". Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00442931.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le but fondamental de la recherche d'information (RI) contextuelle consiste à combiner des sources d'évidences issues du contexte de la requête et du contexte de l'utilisateur dans une même infrastructure afin de mieux caractériser les besoins en information de l'utilisateur et améliorer les résultats de la recherche. Notre contribution porte sur la conception d'un système de RI personnalisé intégrant la caractérisation du type de recherche véhiculé par la requête ainsi que la modélisation et construction de profils sémantiques des utilisateurs. Nous exploitons le contexte de la requête dans un mécanisme de prédiction du type de recherche en tant qu'informationnel lié à la recherche par contenu, navigationnel lié à la recherche des sites d'accueil et transactionnel lié à la recherche des services en ligne. Notre approche de prédiction du type de recherche consiste à combiner des sources d'évidences issues des caractéristiques morphologiques de la requête d'une part et le profil de la session défini par le type de recherche porté par la session de recherche d'autre part. Nous nous intéressons ensuite à exploiter, dans un premier temps, le profil de l'utilisateur à court terme dans un processus d'accès personnalisé à l'information. Le profil à court terme traduit généralement un centre d'intérêt de l'utilisateur construit sur la base d'une ou plusieurs sessions de recherche traitant un même besoin en information. Ce profil est construit en exploitant les documents jugés pertinents par l'utilisateur et une ressource sémantique, en l'occurrence une ontologie de base, servant à la représentation conceptuelle du profil. Dans un second temps, le profil à long terme de l'utilisateur est construit par agrégation des profils utilisateurs à court terme construits au cours des sessions de recherche de l'utilisateur. Nous exploitons le profil de l'utilisateur à long terme dans l'initialisation du profil dans une session de recherche traitant un besoin en information récurrent. Le profil de l'utilisateur créé ou qui évolue dans une même session de recherche est utilisé dans le ré-ordonnancement des résultats de recherche des requêtes appartenant à la même session. Nous avons validé notre approche de prédiction du type de recherche sur une collection de requêtes annotées de TREC par comparaison à un classifieur classique. En outre, vu qu'il n'existe pas des cadres d'évaluation standards d'accès personnalisé à l'information, plus particulièrement adaptés à la personnalisation à court terme, nous avons proposé des cadres d'évaluation orienté-contexte basé sur l'augmentation des collections de la campagne TREC par des profils utilisateurs et des sessions de recherche simulés. Nous avons exploité ces cadres d'évaluation pour valider notre contribution dans le domaine. Nous avons également comparé expérimentalement notre contribution à une approche de personnalisation reconnue dans le domaine et avons montré que notre approche est à l'origine d'un un gain de performance significatif.
21

Ninin, Jordan. "Optimisation Globale basée sur l'Analyse d'Intervalles : Relaxation Affine et Limitation de la Mémoire". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2010. http://tel.archives-ouvertes.fr/tel-00580651.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Depuis une vingtaine d'années, la résolution de problèmes d'optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l'analyse d'intervalles ont su trouver leur place, car ils ont l'avantage de prouver l'optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu'à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c'est pourquoi il est toujours nécessaire d'améliorer les techniques actuelles. - Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l'arithmétique d'intervalles et l'arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. - Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l'arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d'inégalité que les problèmes originaux, les contraintes d'égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d'infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l'efficacité de cette approche. - Un autre aspect de cette thèse a été l'étude d'une extension de ce type d'algorithmes en introduisant une limite sur mémoire disponible. L'idée principale de cette approche est de proposer un processus inverse de l'optimisation par le biais d'un principe métaheuristique: plutôt que d'améliorer des solutions locales à l'aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d'une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. - Enfin, pour finir l'étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu'à la résolution d'un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l'intérêt de ce type d'algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique.
22

Abbadeni, Noureddine. "Recherche d'images basée sur le contenu visuel : représentations multiples, similarité et fusion de résultats : cas des images de texture". Thèse, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/5045.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse traite de la recherche d’images basée sur le contenu visuel, thème de recherche d’un intérêt certain pour de nombreuses applications ayant toutes en commun l’utilisation et la recherche de l’information visuelle. Nous présentons, dans le cadre de cette thèse, un nouvel algorithme de recherche de textures dans lequel nous traitons les problèmes de représentations multiples du contenu, le problème de la similarité entre les images ainsi que le problème de la fusion de résultats provenant des différentes représentations considérées. Pour ce qui est de la représentation du contenu, deux modèles sont proposés : le modèle autorégressif et un modèle perceptuel basé sur un ensemble de caractéristiques perceptuelles telles que la granularité et la directionalité. Le modèle perceptuel est considéré selon deux points de vue : les images originales et la fonction d’autocovariance associée aux images originales. En ce qui concerne la similarité, un nouveau modèle de similarité basé sur le modèle de Gower est introduit. Cette mesure de similarité est flexible et peut se décliner en plusieurs variantes : une variante non pondérée, une variante pondérée et une variante hiérarchique. Compte tenu de la complexité des images de texture, les différents modèles et points de vue considérés sont mis à contribution à travers des techniques de fusion de résultats appropriées afin de représenter différentes facettes de l’information texturale et ainsi améliorer les performances de recherche. Les techniques de fusion de résultats sont aussi utilisées pour dégager une ébauche de solution au problème de l’invariance à travers une approche par requêtes multiples. Les expérimentations et l’évaluation des modèles proposés dans cette thèse montrent des résultats très appréciables.
23

Kexel, Christoph. "La production et la gestion des connaissances dans le marketing des moteurs de recherche : une approche basée sur l'apprentissage par l'action". Nice, 2012. http://www.theses.fr/2012NICE0034.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Depuis la fin des années 1980 le développement d’Internet a permis aux consommateurs de choisir parmi un très large éventail de produits et de fournisseurs et d’acheter de manière plus efficiente et flexible (Chaffey et al, 2006). Dans le marketing en ligne le consommateur potentiel ouvre un canal de communication vers le marketeur en cherchant de l’information sur les moteurs de recherche (Chaffey et al, 2006; Bogner, 2006), donc « être trouvé » représente le facteur crucial de succès pour les organisations contemporaines. Aujourd’hui, les entreprises modernes sont étonnamment réticentes à apprécier l’importance critique du marketing en ligne (Schubring, 2008). Cette dissertation a pour intention de créer une méthodologie pour améliorer les connaissances sur et les capacités de marketing en ligne des marketeurs. Tout d’abord, la thèse développe un model basé sur l’apprentissage par l’action pour transmettre les concepts de base nécessaires aux professionnels du marketing. Cette méthodologie est ensuite appliquée et évaluée dans un environnement contrôlé d’enseignement supérieur en transmettant l’expertise à un groupe de contrôle par la méthode traditionnelle. L’analyse de l’efficacité des différentes méthodes de transfert des connaissances est fournie pour identifier l’approche optimale d’apprentissage. Les données ainsi collectées sur l’amélioration possible des connaissances démontrent que le cadre développé dans la thèse produit des résultats optimaux dans toutes les sous-catégories du marketing par Internet. La thèse conclut que la méthodologie est capable de transmettre le savoir faire indispensable pour que les marketeurs puissent maitriser et utiliser le Web malgré ses extravagances. Ces résultats sont une avancée dans la pratique de la gestion en offrant une possibilité de formation efficace sur le lieu de travail pour la fonction organisationnelle du marketing en ligne. Dans un contexte plus général, ceci pourrait faciliter les modèles de formation corporative
Since the late 1980s the development of the Internet has empowered customers to choose from an extensive range of products and suppliers and to make purchases more efficient and flexible (Chaffey et al, 2006). In online marketing the potential customer opens a communication channel to the marketer by seeking information with search engines ((Chaffey et al, 2006), (Bogner, 2006)), so that ‘being found’ represents the crucial success factor for today’s organizations. However, modern firms are surprisingly sluggish in appreciating the critical importance of online marketing (Schubring, 2008). This dissertation aims to design a methodology for improvement of marketers’ knowledge and online marketing skills. The dissertation initially develops an action learning based model for conveying the basic concepts necessary for marketing practitioners. This methodology is then applied and evaluated in a controlled higher education environment by also conveying the expertise to a control group in a traditional form. An analysis of the efficacy of the different knowledge-transfer methods is provided in order to identify the optimal learning approach. The data collected on assumed knowledge improvements illustrate that optimal results have indeed been obtained in all subcategories of Internet marketing by the proposed framework. The dissertation concludes that the methodology is indeed able to instill the compulsory know-how in order that practitioners may cope with and make use of the World Wide Web – despite its vagaries. The findings advance business practice by providing a possibility of effective on-the-job training for the key organizational function of online marketing. This may facilitate corporate learning models in a more general context
24

Turki, Sadok. "Impact du délai de livraison sur le niveau de stock : une approche basée sur la méthode IPA". Thesis, Metz, 2010. http://www.theses.fr/2010METZ029S/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le monde industriel actuel ne cesse pas d'évoluer. La concurrence accrue, la grande diversification des produits demandés, le développement du commerce électronique, l'augmentation des échanges de données entre donneurs d'ordres et le producteur, sont autant de facteurs qui poussent les entreprises à continuellement optimiser leurs systèmes de production afin de produire et de livrer dans des délais précis, à des coûts réduits, en satisfaisant des niveaux de service élevés exigés par les clients. Ceci nécessite l'utilisation de méthodes bien adaptées pouvant guider le concepteur dans les choix qu'il est amené à faire lors des phases de conception. C'est pourquoi, dans notre thèse, nous nous sommes donc intéressés à développer une méthodologie qui va permettre aux entreprises de prendre des décisions fiables soient lors de la conception et le pilotage du système de production en identifiant et modélisant les phénomènes aléatoires (comme la demande, les pannes des machines) et en intégrant explicitement le délai de livraison dans le modèle. Ainsi, dans la première partie de notre travail, nous avons étudié un système de production constitué par une machine, un stock de capacité infinie et un client qui demande à chaque instant une quantité de produit. Nous avons appliqué à ce système un modèle à flux continus avec prise en compte d'un temps de livraison constant. Afin d'évaluer les performances de notre système, nous nous sommes basés sur la méthode d'analyse des perturbations infinitésimale (IPA) et nous avons réalisé des simulations à l'aide d'un algorithme basé sur cette méthode pour déterminer le niveau du stock optimal qui minimise la fonction de coût total. Ce coût total est la somme du coût de stockage, du coût de rupture et du coût de transport. Dans la deuxième partie de notre travail, nous avons appliqué, pour le même système que celui étudié dans la première partie, un modèle à flux discrets. La méthode d'analyse des perturbations infinitésimale (IPA) est également appliquée pour ce modèle pour déterminer le niveau de stock optimal. L'application de cette méthode à un modèle à flux discrets est une innovation. En effet, D'après nos connaissances, il n'existe pas des travaux qui appliquent la méthode IPA à des modèles à flux discrets. Dans la dernière partie de notre thèse, nous avons considéré un système de production avec un délai de livraison planifié entre le client et le producteur. Nous avons ensuite étudié l'impact des coûts de livraison sur le niveau de stock optimal. La méthode d'analyse des perturbations infinitésimale est également appliquée pour les deux types de modèles (modèles à flux continus et discrets)
The first part of our work, we study a manufacturing system composed of a machine, a buffer with infinite capacity and customer. We applied this to system a continuous flow model taking into account a constant delivery time. To evaluate the performance of our system, we relied on the method of infinitesimal perturbation analysis (IPA), we performed simulations using an algorithm based on this method to determine the optimal buffer level which minimizes the cost function. This total cost is the sum of inventory cost, backlog cost and transportation cost. In the second part of our work, we applied a discrete flow model to the same system studied in the first part. The infinitesimal perturbation analysis method (IPA) is also applied to this model to determine the optimal inventory level. Applying this method to a discrete flow model is an innovation. Indeed, as we know, there is no work applying the method to IPA models to discrete flow. In the last part, we considered a manufacturing system with a random delivery time between the costumer and the producer. Then we studied the impact of transportation costs on the optimal buffer level. The method of infinitesimal perturbation analysis is also applied for both types of models (discrete flows and continuous flows model)
25

Demougeot-Lebel, Joëlle. "Le développement professionnel pédagogique des enseignants-chercheurs : une exception française ? : contribution à la compréhension du phénomène sur base empirique". Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOL002.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Depuis peu la question de la pédagogie universitaire en général, et du développement professionnel pédagogique (DPP) des universitaires en particulier est une question d’actualité en France. Toutefois ce concept reste polysémique et protéiforme. Qui plus est, d’aucuns attribuent à la France une spécificité à propos de ce DPP.Cette recherche appréhende le concept par le prisme de trois dimensions : les pratiques pédagogiques que déclarent mettre en œuvre les universitaires, leurs conceptions à propos de ce qui constitue un « bon » et un « mauvais » cours et enfin les attentes et besoins qu’ils expriment pour se développer pédagogiquement. Ce travail se réalise via un dispositif méthodologique mixte qui combine démarches qualitative et quantitative, et interroge des enseignants universitaires de disciplines et années d’expériences variées. Tant à propos de leurs pratiques, que de leurs conceptions ou encore de leurs attentes et besoins, les répondants ne forment pas un groupe homogène et leur DPP s’avère pouvoir être abordé sous différents aspects. Nos résultats font le constat que les pratiques d’enseignement et les conceptions sont encore très majoritairement inscrites dans un modèle magistral et transmissif. Mais avec une prise en compte de l’apprenant. Ce qui conduit les enseignants à identifier un besoin de soutien au DPP, mais une difficulté à identifier ce qui pourrait concourir à le satisfaire. Ce DPP apparaît comme un processus solitaire qui s’exerce dans un « isolement pédagogique ».Nous revenons sur la possibilité d’une spécificité française. Laquelle ne peut être démontrée si on analyse uniquement l’axe «enseignants». Ce qui conduit à envisager des perspectives d’analyse situationnelle
Recently, teaching and learning in higher education, Faculty and educational development (FED) in particular, have become topical issues in France. However, the concepts are polysemic and protean. Moreover, some argue that there is a French specificity about FED. This research approaches the FED concept from three angles: teaching practices, faculty beliefs on what constitutes "good" or "bad" teaching, and their stated expectations and needs for professional development. This work was carried out with a mixed methodology combining qualitative and quantitative approaches, based on a survey of 174 academics of the same university, distributed across disciplines and various lengths of teaching experience. On the three accounts of practices, beliefs or expectations and needs, the population of respondents is heterogeneous and their FED may be approached in different ways. Our results point out that their teaching practices and views still predominately refer to the transmission model of teaching, blended with a consideration for the learner. This leads them to identify a need for support towards FED, but with a difficulty to identify what might contribute to satisfy it. FED appears as a solitary process that takes place in a "pedagogical isolation." When contemplating a possible French specificity, we concluded that it could not be established from the only perspective of academics. This leads to consider the prospects of a contextual analysis
26

Lachance, Patrick. "L'influence du porte-parole publicitaire sur son récepteur : une étude basée sur le modèle de la probabilité d'élaboration". Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23609/23609.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Dinh, Ba-Duy. "Accès à l'information biomédicale : vers une approche d'indexation et de recherche d'information conceptuelle basée sur la fusion de ressources termino-ontologiques". Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1737/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La recherche d'information (RI) est une discipline scientifique qui a pour objectif de produire des solutions permettant de sélectionner à partir de corpus d'information celle qui sont dites pertinentes pour un utilisateur ayant exprimé une requête. Dans le contexte applicatif de la RI biomédicale, les corpus concernent différentes sources d'information du domaine : dossiers médicaux de patients, guides de bonnes pratiques médicales, littérature scientifique du domaine médical etc. Les besoins en information peuvent concerner divers profils : des experts médicaux, des patients et leurs familles, des utilisateurs néophytes etc. Plusieurs défis sont liés spécifiquement à la RI biomédicale : la représentation "spécialisée" des documents, basés sur l'usage des ressources terminologiques du domaine, le traitement des synonymes, des acronymes et des abréviations largement pratiquée dans le domaine, l'accès à l'information guidé par le contexte du besoin et des profils des utilisateurs. Nos travaux de thèse s'inscrivent dans le domaine général de la RI biomédicale et traitent des défis de représentation de l'information biomédicale et de son accès. Sur le volet de la représentation de l'information, nous proposons des techniques d'indexation de documents basées sur : 1) la reconnaissance de concepts termino-ontologiques : cette reconnaissance s'apparente à une recherche approximative de concepts pertinents associés à un contenu, vu comme un sac de mots. La technique associée exploite à la fois la similitude structurelle des contenus informationnels des concepts vis-à-vis des documents mais également la similitude du sujet porté par le document et le concept, 2) la désambiguïsation des entrées de concepts reconnus en exploitant la branche liée au sous-domaine principal de la ressource termino-ontologique, 3) l'exploitation de différentes ressources termino-ontologiques dans le but de couvrir au mieux la sémantique du contenu documentaire. Sur le volet de l'accès à l'information, nous proposons des techniques d'appariement basées sur l'expansion combinée de requêtes et des documents guidées par le contexte du besoin en information d'une part et des contenus documentaires d'autre part. Notre analyse porte essentiellement sur l'étude de l'impact des différents paramètres d'expansion sur l'efficacité de la recherche : distribution des concepts dans les ressources ontologiques, modèle de fusion des concepts, modèle de pondération des concepts, etc. L'ensemble de nos contributions, en termes de techniques d'indexation et d'accès à l'information ont fait l'objet d'évaluation expérimentale sur des collections de test dédiées à la recherche d'information médicale, soit du point de vue de la tâche telles que TREC Medical track, CLEF Image, Medical case ou des collections de test telles que TREC Genomics
Information Retrieval (IR) is a scientific field aiming at providing solutions to select relevant information from a corpus of documents in order to answer the user information need. In the context of biomedical IR, there are different sources of information: patient records, guidelines, scientific literature, etc. In addition, the information needs may concern different profiles : medical experts, patients and their families, and other users. . . Many challenges are specifically related to the biomedical IR : the document representation, the usage of terminologies with synonyms, acronyms, abbreviations as well as the access to the information guided by the context of information need and the user profiles. Our work is most related to the biomedical IR and deals with the challenges of the representation of biomedical information and the access to this rich source of information in the biomedical domain. Concerning the representation of biomedical information, we propose techniques and approaches to indexing documents based on: 1) recognizing and extracting concepts from terminologies : the method of concept extraction is basically based on an approximate lookup of candidate concepts that could be useful to index the document. This technique expoits two sources of evidence : (a) the content-based similarity between concepts and documents and (b) the semantic similarity between them. 2) disambiguating entry terms denoting concepts by exploiting the polyhierarchical structure of a medical thesaurus (MeSH - Medical Subject Headings). More specifically, the domains of each concept are exploited to compute the semantic similarity between ambiguous terms in documents. The most appropriate domain is detected and associated to each term denoting a particular concept. 3) exploiting different termino-ontological resources in an attempt to better cover the semantics of document contents. Concerning the information access, we propose a document-query matching method based on the combination of document and query expansion techniques. Such a combination is guided by the context of information need on one hand and the semantic context in the document on the other hand. Our analysis is essentially based on the study of factors related to document and query expansion that could have an impact on the IR performance: distribution of concepts in termino-ontological resources, fusion techniques for concept extraction issued from multiple terminologies, concept weighting models, etc
28

Sokhn, Maria. "Plateforme de recherche basée d'information multimédia guidée par une ontologie dans une architecture paire à paire". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00678039.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Au cours de la dernière décennie, nous avons assisté à une croissance exponentielle de documents numériques et de ressources multimédias, y compris une présence massive de ressources vidéo. Les vidéos sont devenu de plus en plus populaire grâce au contenue riche à l'audio riche qu'elles véhiculent (contenu audiovisuelle et textuelle). Les dernières avancées technologiques ont rendu disponibles aux utilisateurs cette grande quantité de ressources multimédias et cela dans une variété de domaines, y compris les domaines académiques et scientifiques. Toutefois, sans techniques adéquates se basant sur le contenu des multimédia, cette masse de donnée précieuse est difficilement accessible et demeure en vigueur inutilisable. Cette thèse explore les approches sémantiques pour la gestion ainsi que la navigation et la visualisation des ressources multimédias générées par les conférences scientifiques. Un écart, que l'on appelle sémantique, existe entre la représentation des connaissances explicites requis par les utilisateurs qui cherchent des ressources multimédias et la connaissance implicite véhiculée le long du cycle de vie d'une conférence. Le but de ce travail est de fournir aux utilisateurs une plateforme qui améliore la recherche de l'information multimédia des conférences en diminuant cette distance sémantique. L'objectif de cette thèse est de fournir une nouvelle approche pour le contenu multimédia basé sur la recherche d'information dans le domaine des conférences scientifiques.
29

Gousseva, Natalia. "Etude méthodologique sur la prise en compte des différences culturelles dans la gestion des projets internationaux basée sur une recherche entre la France et la Russie". Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090003.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le développement de la coopération internationale et des compagnies transnationales, ainsi que la réalisation des projets internationaux demandent l'application d'un nouveau modèle de gestion. L'objectif de cette thèse est d'apporter un éclairage nouveau à la recherche en management des équipes multiculturelles. Dans la présente étude, nous avons vérifié l'hypothèse selon laquelle l'efficacité de la gestion des projets internationaux dépend de l'obtention d'avantages tirés des différences culturelles. La recherche réalisée montre l'impact de celles-ci sur la gestion des projets internationaux, elle-même inséparable d'une composante culturelle qui représente l'ensemble des facteurs conditionnés par la culture nationale. Ainsi, la direction d'une équipe de spécialistes, le travail d'une équipe multinationale de projet, la prise de décision, le règlement des conflits et la motivation des membres d'une équipe multiculturelle dépendent de l'influence de la culture nationale
Development of international cooperation, increasing number of transnational companies and growing interests for international projects realisation require an application of new mode of management. The objective of this thesis is to shed a new light on the research of multicultural team management. In the framework of this research we testified the thesis hypothesis according to which the efficiency of international project management depend on using advantages of cross-cultural differences. The results of the conducted research show the great influence of cross-cultural differences on the international project management, as well as demonstrate dependence of management process from cultural component, presented by different factors of national culture. It confirms that leadership, multicultural team building and cooperation, the process of decision making, conflict resolving and motivation depend on the influence of national culture
30

Longo, Laurence. "Vers des moteurs de recherche "intelligents" : un outil de détection automatique de thèmes : méthode basée sur l'identification automatique des chaînes de référence". Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00939243.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse se situe dans le domaine du Traitement Automatique des Langues et vise à optimiser la classification des documents dans les moteurs de recherche. Les travaux se concentrent sur le développement d'un outil de détection automatique des thèmes des documents (ATDS-fr). Utilisant peu de connaissances, la méthode hybride adoptée allie des techniques statistiques de segmentation thématique à des méthodes linguistiques identifiant des marqueurs de cohésion. Parmi eux, les chaînes de référence - séquence d'expressions référentielles se rapportant à la même entité du discours (e.g. Paul...il...cet homme) - ont fait l'objet d'une attention particulière, car elles constituent un indice textuel important dans la détection des thèmes (i.e. ce sont des marqueurs d'introduction, de maintien et de changement thématique). Ainsi, à partir d'une étude des chaînes de référence menée dans un corpus issu de genres textuels variés (analyses politiques, rapports publics, lois européennes, éditoriaux, roman), nous avons développé un module d'identification automatique des chaînes de référence RefGen qui a été évalué suivant les métriques actuelles de la coréférence.
31

Çinar, Yagmur Gizem. "Prédiction de séquences basée sur des réseaux de neurones récurrents dans le contexte des séries temporelles et des sessions de recherche d'information". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM079.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse examine les défis de la prédiction de séquence dans différents scénarios, tels que la prédiction de séquence à l'aide de réseaux de neurones récurrents (RNN) dans le contexte des séries temporelles et des sessions de recherche d'informations (RI). Prédire les valeurs inconnues suivant certaines valeurs précédemment observées est appelée prédiction de séquence. Elle est largement applicable à de nombreux domaines où un comportement séquentiel est observé dans les données. Dans cette étude, nous nous concentrons sur deux tâches de prédiction de séquences: la prévision de séries temporelles et la prédiction de la requête suivante dans une session de recherche d'informations.Les séries temporelles comprennent souvent des pseudo-périodes, c'est-à-dire des intervalles de temps avec une forte corrélation entre les valeurs des séries temporelles. Les changements saisonniers dans les séries temporelles météorologiques ou la consommation d'électricité le jour et la nuit sont quelques exemples de pseudo-périodes. Dans un scénario de prévision, les pseudo-périodes correspondent à la différence entre les positions de la sortie prévue et les entrées spécifiques. Afin de capturer des périodes dans des RNN, une mémoire de la séquence d'entrée est requise. Les RNN séquence à séquence (avec mécanisme d'attention) réutilisent des (représentations des) valeurs d'entrée spécifiques pour prédire les valeurs de sortie. Les RNN séquence à séquence avec un mécanisme d'attention semblent convenir à la capture de périodes. Ainsi, nous explorons d’abord la capacité d’un mécanisme d’attention dans ce contexte. Cependant, selon notre analyse initiale, un mécanisme d’attention standard ne permet pas de capturer les périodes. Par conséquent, nous proposons un modèle RNN d’attention basé sur le contenu et sensible à la période. Ce modèle étend les RNN séquence à séquence de l'état de l'art avec un mécanisme d’attention. Il vise à capturer les périodes dans une série temporelle avec ou sans valeurs manquantes. Nos résultats expérimentaux avec des RNN contenant un mécanisme d'attention basé sur le contenu et sensible à la période montrent une amélioration significative des performances de prévision des séries temporelles univariées et multivariées sur plusieurs ensembles de données disponibles publiquement.La prédiction de la requête suivante est un autre défi de la prédiction de séquence. La prédiction de la requête suivante aide les utilisateurs à désambiguïser leur requête, à explorer différents aspects de leur besoin en information ou à former une requête précise et succincte qui permet d’optimiser les performances de la recherche. Une session de recherche est dynamique et les besoins en informations d'un utilisateur peuvent changer au cours d'une session de recherche à la suite des interactions de recherche. De plus, les interactions d'un utilisateur avec un moteur de recherche influencent les reformulations de requêtes de l'utilisateur. Considérant cette influence sur les formulations de requête, nous analysons d’abord l’origine des mots des requêtes suivantes. En utilisant l’analyse des sources des mots de requête, nous proposons deux approches de prédiction de requête: une vue d'ensemble et une vue de séquence. La vue d'ensemble adapte une approche de sac de mots en utilisant un nouvel ensemble de traits définis en fonction des sources d'analyse des mots des requêtes suivantes. Ici, la prochaine requête est prédite en utilisant un apprentissage de classification. La vue de séquence étend un modèle RNN hiérarchique en prenant en compte les sources des mots des requêtes suivantes dans la prédiction. Les sources des mots des requêtes suivantes sont incorporées à l'aide d'un mécanisme d'attention sur les mots d'interaction. Nous avons observé que l’utilisation de l’approche séquentielle, une formulation naturelle du problème, et l’exploitation de toutes les sources des mots permettent d’améliorer la prédiction des requêtes suivantes
This thesis investigates challenges of sequence prediction in different scenarios such as sequence prediction using recurrent neural networks (RNNs) in the context of time series and information retrieval (IR) search sessions. Predicting the unknown values that follow some previously observed values is basically called sequence prediction.It is widely applicable to many domains where a sequential behavior is observed in the data. In this study, we focus on two different types of sequence prediction tasks: time series forecasting and next query prediction in an information retrieval search session.Time series often display pseudo-periods, i.e. time intervals with strong correlation between values of time series. Seasonal changes in weather time series or electricity usage at day and night time are some examples of pseudo-periods. In a forecasting scenario, pseudo-periods correspond to the difference between the positions of the output being predicted and specific inputs.In order to capture periods in RNNs, one needs a memory of the input sequence. Sequence-to-sequence RNNs (with attention mechanism) reuse specific (representations of) input values to predict output values. Sequence-to-sequence RNNs with an attention mechanism seem to be adequate for capturing periods. In this manner, we first explore the capability of an attention mechanism in that context. However, according to our initial analysis, a standard attention mechanism did not perform well to capture the periods. Therefore, we propose a period-aware content-based attention RNN model. This model is an extension of state-of-the-art sequence-to-sequence RNNs with attention mechanism and it is aimed to capture the periods in time series with or without missing values.Our experimental results with period-aware content-based attention RNNs show significant improvement on univariate and multivariate time series forecasting performance on several publicly available data sets.Another challenge in sequence prediction is the next query prediction. The next query prediction helps users to disambiguate their search query, to explore different aspects of the information they need or to form a precise and succint query that leads to higher retrieval performance. A search session is dynamic, and the information need of a user might change over a search session as a result of the search interactions. Furthermore, interactions of a user with a search engine influence the user's query reformulations. Considering this influence on the query formulations, we first analyze where the next query words come from? Using the analysis of the sources of query words, we propose two next query prediction approaches: a set view and a sequence view.The set view adapts a bag-of-words approach using a novel feature set defined based on the sources of next query words analysis. Here, the next query is predicted using learning to rank. The sequence view extends a hierarchical RNN model by considering the sources of next query words in the prediction. The sources of next query words are incorporated by using an attention mechanism on the interaction words. We have observed using sequence approach, a natural formulation of the problem, and exploiting all sources of evidence lead to better next query prediction
32

Ressad-Bouidghaghen, Ourdia. "Accès contextuel à l'information dans un environnement mobile : approche basée sur l'utilisation d'un profil situationnel de l'utilisateur et d'un profil de localisation des requêtes". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1404/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le but fondamental de la recherche d'information (RI) contextuelle consiste à combiner des sources d'évidences issues du contexte de la requête, du contexte de l'utilisateur et de son environnement dans une même infrastructure afin de mieux caractériser les besoins en information de l'utilisateur et d'améliorer les résultats de recherche. Notre contribution porte sur la conception d'un système de RI contextuel dans un cadre mobile. Plus spécifiquement, notre contribution se décline en trois principaux points : la modélisation et construction de profil situationnel de l'utilisateur, la caractérisation de la sensibilité de la requête à la localisation de l'utilisateur, ainsi que la définition d'un cadre de combinaison de ces éléments contextuels pour calculer un score de pertinence multidimensionnelle des documents. Nous nous sommes intéressés en premier lieu à exploiter le profil situationnel de l'utilisateur dans un processus d'accès personnalisé à l'information. Le profil situationnel est composé de centres d'intérêts de l'utilisateur appris pour chaque situation de recherche. Une situation de recherche est caractérisée par une représentation sémantique de la localisation et de temps de l'utilisateur lors de sa recherche. Les centres d'intérêts sont construits en exploitant les documents jugés pertinents par l'utilisateur et une ontologie générale. Nous avons proposé d'utiliser l'approche par raisonnement à partir de cas pour sélectionner le centre d'intérêt à exploiter pour la personnalisation sur la base de la comparaison de la similarité des situations de recherche. Le centre d'intérêt sélectionné est utilisé dans le ré-ordonnancement des résultats de recherche des requêtes appartenant à une situation de recherche similaire. Nous exploitons ensuite le contexte de la requête dans un mécanisme de prédiction de la sensibilité de la requête à la localisation de l'utilisateur. Notre approche de prédiction de la sensibilité de la requête à la localisation se base sur la construction d'un modèle de langue de localisation de la requête. Ce modèle nous a servi comme source d'évidence pour calculer des caractéristiques pour la classification des requêtes selon leur sensibilité à la localisation. Nous avons également intégré notre approche de détection de la sensibilité de la la requête à la localisation dans un processus d'adaptation des résultats de recherche selon le type de la requête. En vue d'intégrer ces deux types d'adaptation dans un SRI contextuel, nous nous sommes proposés d'appliquer un modèle d'agrégation prioritaire pour la combinaison de pertinence multidimensionnelle pour la RI mobile. Ce modèle de pertinence multidimensionnelle présente la particularité d'exploiter deux opérateurs d'agrégation prioritaire permettant d'adapter les résultats de recherche selon les préférences de l'utilisateur exprimées sur les critères de pertinence. Vu qu'il n'existe pas de cadre d'évaluation standard d'accès contextuel à l'information, plus particulièrement adapté au contexte mobile, nous avons proposé des cadres d'évaluation orientés-contexte basés sur des approches par "simulation de contexte" et "par étude journalière". Nous avons exploité ces cadres d'évaluation pour valider notre contribution dans le domaine. En particulier, nous avons évalué expérimentalement notre approche de personnalisation en utilisant notre profil situationnel en comparaison à un SRI standard, et avons montré que notre approche est à l'origine d'un gain de performance significatif. Nous avons validé notre approche de détection de la sensibilité de la requête à la localisation de l'utilisateur sur une collection de requêtes annotées manuellement issue du \textit{log} de recherche d'AOL, en testant plusieurs classificateurs du domaine et par comparaison à une approche de l'état de l'art, et nous avons montré son efficacité à améliorer la performance de la recherche par comparaison à un SRI standard. Nous avons également comparé notre cadre de combinaison de pertinence à une approche de combinaison linéaire standard et montré son efficacité
Contextual information retrieval aims at combining knowledge about the query context and the user context in the same framework in order to better meet the user information needs. We propose a contextual search approach integrating a query location intent prediction method and a situational user profile modelling approach in order to improve the retrieval effectiveness for mobile search. We propose an approach to personalize search results for mobile users by exploiting both cognitive and spatio temporal context of the user. We propose to model the user on three semantic dimensions : time, location and interests. A case based reasoning approach is adopted to select the appropriate user profile for re-ranking the search results. In order to identify the user intent global, local explicit and local implicit, we exploit the top N search results returned by a general Web search engine to build a location query profile using language models. Two measures namely location Kullback-Leibler Divergence and Kurtosis defined on this profile, allow us to effectively classify the three types of queries. We also propose a multidimensional ranking model based on the standard relevance dimension of topic and the contextual dimensions of interests and location to personalise search results for o mobile user. The peculiarity of our multidimensional ranking lies in a "prioritized combination" of the considered criteria, using the "prioritized scoring" and "prioritized and" operators, which allow flexible personalization of search results according to users' preferences. As there is no standard evaluation protocol for evaluating contextual access retrieval, we have proposed context-oriented evaluation protocols ranging from simulation frameworks to user studies. We have exploited these protocols to evaluate our contributions in the domain and have shown the effectiveness of our approaches
33

Amar, Bensaber Boucif. "Etude des protocoles de communication de groupe : MTCP, une solution basée sur une extension de TCP". Paris 5, 1998. http://www.theses.fr/1998PA05S006.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Notre objectif est de contribuer aux efforts de recherche dans le domaine des communications de groupe et en particulier de proposer une solution originale, robuste et stable pour tous les environnements de réseaux. Nous présentons une synthèse sur les protocoles pour la communication multicast. Nous rappelons les concepts de groupe et détaillons tous les aspects spécifiques de la gestion de groupe et les principales fonctionnalités des couches trois et quatre du modèle OSI sous l'angle de la communication de groupe. Nous proposons un service de transport multipoint 1-a-n (un émetteur, n récepteurs) totalement fiable, construit sur un protocole classique et largement diffusé, TCP. Notre solution baptisée MTCP (multicast TCP), s'appuie sur la fonction multicast des protocoles IP et IGMP. Nous utilisons une approche d'organisation hiérarchique basée sur la topologie d'un arbre de concentration ou figurent trois entités : l'émetteur, les serveurs, les récepteurs. Ce modèle prend en compte la répartition des récepteurs sur des réseaux hétérogènes et évite le problème d'implosion des informations de retour. Les taches de gestion de la conversation et de transfert de données sont déléguées aux serveurs qui ont chacun la responsabilité d'un sous-réseau. Une partie substantielle de cette thèse est consacrée à la description de l'interface avec l'utilisateur. Nous proposons une extension à la fois simple à mettre en œuvre et d'un cout faible. La partie la plus importante de notre travail est la spécification fonctionnelle du protocole MTCP. Nous décrivons le comportement de la machine protocolaire en réponse à chaque évènement. Enfin, nous présentons les résultats des simulations qui montrent la robustesse de notre protocole quel que soit l'environnement. Les résultats obtenus montrent la stabilité de MTCP : il offre la même qualité de service pour des communications de groupe de tailles différentes et ceci quelle que soit la dispersion géographique du groupe.
34

Clapson, André-Claude. "Recherche de signaux impulsionnels sur le détecteur d'ondes gravitationnelles Virgo". Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00085885.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le détecteur d'ondes gravitationnelles par interférométrie optique Virgo atteindra bientôt sa sensibilité nominale.
Les sources astrophysiques attendues sont principalement les coalescences de systèmes binaires d'objets compacts et les supernovas gravitationnelles. Les amplitudes des signaux sont à la limite de la sensibilité de l'instrument, les taux d'événements observables sont faibles et les formes d'ondes mal connues, notamment pour les effondrements gravitationnels.
L'analyse des données repose sur la recherche de signaux de faible amplitude dans du bruit coloré. Dans ce contexte, ce travail propose l'utilisation de décompositions temps-fréquence des séries temporelles pour la détection de signaux courts. Les performances de cette approche sont estimées en simulation et comparées à celles d'autres méthodes de détection disponibles dans la communauté.
Une autre difficulté pour l'analyse est la présence de structures spectrales étroites dans la distribution d'énergie en fréquence des données. Elles proviennent de résonances mécaniques des miroirs et du système d'isolation sismique de l'instrument. L'utilisation de filtres de Kalman pour éliminer ces bruits bien modélisés avant l'analyse est présentée. Le problème essentiel
de l'estimation des paramètres du modèle est traité, avec l'objectif d'une réestimation dynamique.
Enfin ces outils sont appliqués aux données Virgo disponibles, avec comme résultat principal la mise en évidence de sources de bruits instrumentaux importantes, dont la suppression demandera une amélioration du fonctionnement et une meilleure isolation de l'environnement.
35

Gan, Changquan. "Une approche de classification non supervisée basée sur la notion des K plus proches voisins". Compiègne, 1994. http://www.theses.fr/1994COMP765S.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La classification non supervisée a pour objectif de définir dans un ensemble de données des classes permettant de caractériser la structure interne des données. C’est une technique très utile dans de nombreux domaines technologiques comme en diagnostic des systèmes complexes (pour la mise en évidence de modes de fonctionnement) et en vision par ordinateur (pour la segmentation d'image). Les méthodes traditionnelles de la classification non supervisée présentent plusieurs problèmes en pratique, par exemple, la nécessité de préfixer le nombre de classes, le manque de stratégie appropriée pour le réglage de paramètres et la difficulté de valider le résultat obtenu. Dans cette thèse nous tentons d'apporter une solution à ces problèmes en développant une nouvelle approche basée sur la notion des K plus proches voisins. Alliant la détection de mode et la recherche de graphe reflétant la proximité des données, cette approche identifie d'abord les centres de classe, puis construit une classe autour de chaque centre. Elle n'emploie aucune connaissance a priori sur les données et ne possède qu'un seul paramètre. Une stratégie de réglage de ce paramètre a été établie après une étude théorique et une analyse expérimentale. L’idée est de rechercher la stabilité du résultat de classification. Des tests présentés dans ce mémoire montrent une bonne performance de l'approche proposée ; elle est libre d'hypothèse sur la nature des données, relativement robuste et facile à utiliser
36

Curt, Corinne. "Evaluation de la performance des barrages en service basée sur une formalisation et une agrégation des connaisssances". Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21819.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce mémoire, des approches contribuant à l'évaluation de la performance d'un barrage sont proposées. Les développements portent sur : -une méthode d'évaluation déterministe de la performance des barrages par recueil, formalisation et agrégation de différentes sources de connaissances ; -une base de connaissances sur les phénomènes de dégradation des barrages permettant la capitalisation des connaissances du domaine ; -une méthode d'analyse des imperfections ; -une méthode non déterministe d'évaluation de la performance qui procède par représentation des imperfections et leur propagation dans le modèle. Ces différentes méthodes ont conduit à trois outils informatiques : une interface d'aide à l'évaluation de la performance, un système de traçabilité des données et une base de connaissances sur les phénomènes de dégradation. Ces approches sont illustrées sur les barrages en remblai et plus spécifiquement le mécanisme d'érosion interne
37

Medernach, Emmanuel. "Allocation de ressources et ordonnancement multi-utilisateurs : une approche basée sur l'équité". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00686891.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les grilles de calcul et le "cloud computing" permettent de distribuer un ensemble de ressources informatiques, telles que du stockage ou du temps de calcul, à un ensemble d'utilisateurs en fonction de leurs demandes en donnant l'illusion de ressources infinies. Cependant, lorsque l'ensemble de ces ressources est insuffisant pour satisfaire les exigences des utilisateurs, des conflits d'intérêts surgissent. Ainsi, un libre accès à des ressources limitées peut entraîner une utilisation inefficace qui pénalise l'ensemble des participants. Dans de tels environnements, il devient nécessaire d'établir des procédures d'arbitrage afin de résoudre ces conflits en garantissant une distribution équitable aux différents utilisateurs. Nous présentons une nouvelle classe de problèmes : celle des ordonnancements multi-utilisateurs. Cette thèse aborde la notion d'équité au travers de problèmes d'allocation de ressources sous incertitudes et d'ordonnancement de tâches périodiques.
38

Shahzad, Atif. "Une Approche Hybride de Simulation-Optimisation Basée sur la fouille de Données pour les problèmes d'ordonnancement". Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00647353.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème l'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l'ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d'obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en œuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs.
39

Vachon, Brigitte. "Étude de l'utilisation d'une approche réflexive pour intégrer les évidences scientifiques dans la pratique de l'ergothérapie en réadaptation au travail". Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/4280.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La pratique basée sur les données probantes (PBDP) se définit comme l'utilisation consciencieuse, explicite et judicieuse des meilleures et récentes connaissances scientifiques lors de la prise de décision concernant les soins d'un client. Elle demande aux cliniciens le développement des attitudes et des habiletés qui leur permettent d'apprendre à gérer l'incertitude, maintenir à jour leur pratique et à mieux gérer la complexité des problématiques qui leur sont soumises. Plusieurs auteurs ont souligné l'importance de la réflexion pour faciliter l'intégration des données probantes à la pratique. D'ailleurs, certaines études ont démontré que l'utilisation de cette approche d'apprentissage favorisait la mise en place de changement de pratique. Afin d'explorer plus en profondeur dans quelle mesure l'apprentissage réflexif peut faciliter l'intégration des données probantes au processus de prise de décision clinique, une recherche collaborative a été réalisée auprès d'un groupe d'ergothérapeutes travaillant dans le secteur de la réadaptation au travail pour les personnes ayant de la douleur persistante. Huit ergothérapeutes ont été recrutés et ont formé un groupe d'apprentissage réflexif qui s'est réuni à douze reprises sur une période de 15 mois. Les objectifs spécifiques de cette étude étaient de documenter le processus d'apprentissage réflexif utilisé, décrire les stratégies mises en oeuvre pour faciliter l'apprentissage, identifier les facteurs qui influençaient le processus et décrire les changements effectués par les ergothérapeutes exposés à cette approche. Les résultats ont permis de développer un processus d'apprentissage réflexif qui favorise la mise en place de changements de perspective à chacune des étapes du processus de prise de décision clinique de l'ergothérapeute, soit le"Modèle d'utilisation des résultats de la recherche fondé sur la réflexion critique". Les stratégies qui ont facilité l'intégration des évidences scientifiques sont l'analyse critique et répétée de situations de pratique réelles et imparfaites, l'échange et le soutien des pairs, la durée de l'intervention, la présence d'un facilitateur qui agissait à titre de mentor, la réflexion personnelle effectuée entre les rencontres de groupe et les lectures complémentaires. Les facteurs qui ont influencé le processus d'apprentissage sont la facilité à partager son expérience personnelle, la flexibilité des croyances normatives, l'habileté à gérer les émotions négatives, la perception de son efficacité personnelle, la disponibilité du soutien social et la capacité de prendre des risques. Les résultats de l'étude ont aussi permis de décrire cinq modes de prise de décision qui influençaient comment les participants utilisaient les données probantes et la position qu'ils adoptaient par rapport au changement de leur pratique. Tout au long de l'étude, ils ont progressivement développé leur autonomie à intégrer l'approche de la PBDP. Un modèle a été élaboré et décrit ce processus d'"empowerment" à trois niveaux qui permet le développement: (1) de la pensée délibérée et réfléchie du thérapeute, (2) du centralisme du client au sein du processus de prise de décision et d'intervention et (3) de la conscience systémique par rapport aux multiples facteurs influençant le changement de pratique. Ce projet contribue ainsi à l'avancement des connaissances dans le secteur de la formation continue des professionnels de la réadaptation, et ce, particulièrement dans le contexte de la réadaptation au travail pour les personnes ayant de la douleur persistante.
40

Sidibe, Ibrahima dit Bouran. "Analyse non-paramétrique des politiques de maintenance basée sur des données des durées de vie hétérogènes". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0081/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans la littérature, plusieurs travaux ont été développés autour de la modélisation, l’analyse et la mise en place de politiques de maintenance pour les équipements sujets à des défaillances aléatoires. Ces travaux occultent souvent les réalités industrielles par des hypothèses telles que la connaissance a priori des distributions paramétriques des durées de vie et l’homogénéité des conditions d’exploitation des équipements. Ces hypothèses sont restrictives et constituent une source de biais parce qu’elles conditionnent l’analyse statistique des politiques de maintenance. Dans ce présent travail de thèse, de telles hypothèses sont relaxées pour permettre la prise en compte et la mise en valeurs des informations dérivant directement des données de durées vie issues de l’exploitation de l’équipement et ce sans passer par un modèle paramétrique intermédiaire. L’objectif de ce travail de thèse consiste alors en le développement de modèles statistiques et d’outils efficaces pour l’analyse des politiques de maintenance basées sur les données de durées de vie hétérogènes. Nous proposons en effet une démarche complète d’analyse de stratégies de maintenance en partant des données de durées de vie jusqu’à l’obtention des politiques optimales de maintenance en passant par une phase d’estimation des lois de probabilité. Les politiques de maintenance considérées sont appliques à des équipements usagés évoluant dans des environnements d’exploitation distingués par leur niveau de sévérité. Dans ce contexte, un modèle mathématique est proposé permettant d’évaluer et d’analyser théoriquement les coûts unitaires d’une stratégie de maintenance particulière dite de type âge. Cette analyse a permis d’établir les conditions nécessaires et suffisantes garantissant un âge optimal de remplacement préventif de l’équipement. Les coûts unitaires de maintenance sont complètement estimés par la méthode du Noyau de Parzen. Cette méthode d’estimation est non-paramétrique et définie par une fonction noyau et un paramètre de lissage. Il est également montré, dans nos travaux de recherche, que cet estimateur garantit une faible propagation des erreurs induites par le paramètre de lissage. Les résultats obtenus par la méthode du Noyau de Parzen sont proches des valeurs théoriques avec un faible coefficient de variation. Des extensions de la première politique de maintenance sont également proposées et étudiées. Ce travail de thèse s’achève par la proposition d’une approche permettant de mesurer et d’analyser le risque induit par le report d’une maintenance préventive. Ce risque est analysé à travers une fonction risque proposée
In the reliability literature, several researches works have been developed to deal with modeling, analysis and implementation of maintenance policies for equipments subject to random failures. The majority of these works are based on common assumptions among which the distribution function of the equipment lifetimes is assumed to be known. Furthermore, the equipment is assumed to experience only one operating environment. Such assumptions are indeed restrictive and may introduce a bias in the statistical analysis of the distribution function of the equipment lifetimes which in turn impacts optimization of maintenance policies. In the present research work, these two particular assumptions are relaxed. This relaxation allows to take into account of information related to conditions where the equipment is being operating and to focus on the statistical analysis of maintenance policies without using an intermediate parametric lifetimes distribution. The objective of this thesis consists then on the development of efficient statistical models and tools for managing the maintenance of equipments whose lifetimes distribution is unknown and defined through the heterogeneous lifetimes data. Indeed, this thesis proposes a framework for maintenance strategies determination, from lifetimes data acquisition toward the computation of optimal maintenance policies. The maintenance policies considered are assumed to be performed on used equipments. These later are conduct to experience their missions within different environments each of which is characterized by a degree of severity. In this context, a first mathematical model is proposed to evaluate costs induced by maintenance strategies. The analysis of these costs helps to establish the necessary and sufficient conditions to ensure the existence of an optimal age to perform the preventive maintenance. The maintenance costs are fully estimated by using the Kernel method. This estimation method is non-parametric and defined by two parameters, namely the kernel function and the smoothing parameter. The variability of maintenance costs estimator is deeply analyzed according to the smoothing parameter of Kernel method. From these analyses, it is shown that Kernel estimator method ensures a weak propagation of the errors due to the computation of smoothing parameter. In addition, several simulations are made to estimate the optimal replacement age. These simulations figure out that the numerical results from the Kernel method are close to the theoretical values with a weak coefficient of variation. Two probabilistic extensions of the first mathematical model are proposed and theoretically discussed. To deal with the problem of delayed preventive maintenance, an approach is proposed and discussed. The proposed approach allows evaluating the risk that could induce the delay taken to perform a preventive maintenance at the required optimal date. This approach is based on risk analysis conduct on the basis of a proposed risk function
41

Preamechai, Sarawut. "Dispositifs architecturaux et mouvements qualifiés : recherche exploratoire sur les conduites sensori-motrices des passants dans les espaces publics intermédiaires". Phd thesis, Grenoble 2, 2006. http://tel.archives-ouvertes.fr/tel-00087820.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette recherche questionne l'interaction entre l'espace construit et les usagers, en
entrant particulièrement par l'expérience vécue de ceux-ci. Le champ d'étude principal
s'établit en particulier autour de la question des mouvements situés des usagers dans
l'espace public urbain, plus précisément dans les espaces publics intermédiaires. Nous
cherchons à comprendre comment l'espace construit est mis à l'épreuve par la pratique
des usagers. Nous faisons l'hypothèse que la qualité de mouvement des passants peut
révéler les formes physiques et sensibles de l'espace. Ainsi, elle comporterait une sorte
de validation des qualités potentielles de l'espace construit. Pour cela, la mobilité
corporelle est un élément d'étude essentiel d'un point de vue à la fois analytique et
méthodologique. Elle nous permet d'appréhender, d'une part la qualité d'ambiances de
l'espace construit, et d'autre part la qualité pratique de celui-ci. En ce qui concerne les
résultats de cette recherche, nous proposons un répertoire de phénomènes sensorimoteurs,
afin d'ébaucher un outil pratique pour la conception architecturale et urbaine.
Ce répertoire est constitué des diverses façons dont l'espace construit est perçu et
ressenti à travers les expériences vécues des passants.
42

Rataj, Felicitas. "Nouvelle thérapie anti-tumorale multi-cibles basée sur la dégradation des ARNms à demi-vie courte". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENV040/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La formation de nouveaux vaisseaux sanguins ou angiogenèse soutient la croissance tumorale en fournissant l'oxygène et les nutriments qui lui sont nécessaires. Le rôle clé du facteur de croissance de l'endothélium vasculaire VEGF dans ce processus a suscité le développement de stratégies anti-angiogéniques pour le traitement du cancer. Cependant, des travaux précliniques et des données cliniques suggèrent l'émergence de résistances aux anti-angiogéniques, en raison notamment de la redondance des facteurs de croissance pro-angiogéniques. Il est donc nécessaire de développer des stratégies alternatives plus efficaces. En 2010, notre laboratoire a apporté la preuve de concept d'une thérapie anti-tumorale et anti-angiogénique innovante basée la dégradation des ARNm à demi-vie courte par la protéine à doigts de zinc TIS11b. Néanmoins, l'instabilité de la protéine thérapeutique a entravé la caractérisation plus détaillée de cette stratégie. Dans ce contexte, l'objectif majeur de ma thèse était l'optimisation de la stabilité et de l'activité de TIS11b et l'évaluation de son efficacité thérapeutique. Pour cela, nous avons généré une nouvelle protéine TIS11b génétiquement modifiée sur la base d'études biochimiques et moléculaires. Notamment, nous avons observé que la phosphorylation de la sérine 334 située dans le domaine C-terminal de TIS11b augmente de façon très significative la stabilité de la protéine et potentialise son activité déstabilisatrice de l'ARNm du VEGF. De plus, la délétion du domaine N-terminal augmente également la stabilité de TIS11b sans altérer son activité. Nous avons alors généré deux nouvelles protéines thérapeutiques, la protéine ZnC et la protéine ZnC334D pour laquelle la troncation du domaine N-terminal et la substitution de la sérine S334 par un aspartate mimant une phosphorylation ont été combinées. Les nouvelles protéines ont été fusionnées à une étiquette polyarginine R9 leur permettant de traverser les membranes cellulaires (R9-ZnC et R9-ZnCS334D). Nous avons montré que R9-ZnC et R9-ZnCS334D inhibent l'expression de VEGF in vitro dans la lignée de cancer du sein murin 4T1. De plus, R9-ZnCS334D exerce une activité anti-proliférative, anti-migratoire et anti-invasive dans ces cellules. In vivo, l'injection intra-tumorale de R9-ZnCS334D dans des tumeurs 4T1 préétablies inhibe significativement l'expression du VEGF, la croissance et la vascularisation tumorales. De façon remarquable, l'analyse des extraits tumoraux indique que le traitement diminue l'expression de chimiokines clés dans les processus d'angiogenèse, d'inflammation et d'invasion (Fractalkine, MCP-1, NOV, SDF-1, Pentraxin…). Enfin, R9-ZnC et R9-ZnCS334D inhibent l'expression de marqueurs de la transition épithélio-mésenchymateuse, un processus impliqué dans la dissémination métastatique. L'ensemble de ces travaux indique que R9-ZnC et R9-ZnCS334D sont des molécules anti-tumorales multi-cibles, qui inhibent plusieurs étapes clés de la progression tumorale. Cette étude confirme que le ciblage de la stabilité des ARNm est une stratégie prometteuse et novatrice pour le développement de nouvelles thérapies anti-cancéreuses
One of the innovative aspects of anti-cancer therapies is the possibility of preventing tumor growth by blocking blood supply. Cancer cells induce the formation of their own blood vessels from pre-existing vasculature, a process called angiogenesis. One of the most important proangiogenic factors is vascular endothelial growth factor (VEGF). The success of bevacizumab (a humanized anti-VEGF monoclonal antibody) combined to chemotherapy for the treatment of human metastatic cancers has validated VEGF as an efficient target. However, despite the initial enthusiasm, resistance to these anti-angiogenic treatments resulting from compensatory mechanisms occurs upon time. For this reason, there is a real need for new anti-angiogenic drugs that will target the angiogenic process through distinct mechanisms. In 2010, our laboratory has successfully developed an anti-angiogenic and anti-tumoral therapy based on destabilization of short-lived mRNAs by the zinc finger protein TIS11b. However, the therapeutic protein was highly unstable, thus making it difficult to further characterize the experimental therapy. In this context, the main task of my thesis was the optimization of TIS11b stability and activity followed by the evaluation of the multi-target action of our novel protein on tumor development. In a first part of this work, biochemical and molecular approaches allowed us to demonstrate that phosphorylation of the C-terminal serine S334 in TIS11b protein markedly increases its stability. In addition, deletion of the N-terminal domain of TIS11b highly increases its protein stability without affecting its activity. Therefore, we integrated N-terminal truncation (ZnC) and C-terminal substitution of S334 by an aspartate to mimic a permanent phosphorylation at S334 (ZnCS334D) as a novel TIS11b engineering strategy. Both proteins were fused subsequently to a cell-penetrating peptide polyarginine (R9). In vitro studies revealed that R9-ZnC and R9-ZnCS334D inhibit VEGF expression in the murine breast cancer cells 4T1. In addition, R9-ZnCS334D impaired proliferation, migration, invasion and anchorage-independent growth of 4T1 cells. In vivo, intra-tumoral injection of either protein significantly reduced VEGF expression and tumor vascularization. Strikingly, antibody array analyses of tumor extracts demonstrated a reduced expression of several chemokines such as Fractalkine, MCP-1, NOV, SDF-1 and Pentraxin upon R9-ZnC or R9-ZnCS334D treatment. These factors, which are produced by several cell types within tumor tissue, are key drivers of tumor angiogenesis, tumor-promoting inflammation and invasion. Furthermore, the expression of markers of the epithelial-to-mesenchymal transition was also significantly reduced, suggesting an anti-metastatic effect of R9-ZnC and R9-ZnCS334D. Thus, we provide R9-ZnC and R9-ZnCS334D as potential novel multi-target agents which inhibit key hallmarks of cancer progression. This work supports the emerging link between mRNA stability and cancer and proposes novel concepts for the development of innovative anti-cancer therapies
43

Bouzillé, Guillaume. "Enjeux et place des data sciences dans le champ de la réutilisation secondaire des données massives cliniques : une approche basée sur des cas d’usage". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B023/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La dématérialisation des données de santé a permis depuis plusieurs années de constituer un véritable gisement de données provenant de tous les domaines de la santé. Ces données ont pour caractéristiques d’être très hétérogènes et d’être produites à différentes échelles et dans différents domaines. Leur réutilisation dans le cadre de la recherche clinique, de la santé publique ou encore de la prise en charge des patients implique de développer des approches adaptées reposant sur les méthodes issues de la science des données. L’objectif de cette thèse est d’évaluer au travers de trois cas d’usage, quels sont les enjeux actuels ainsi que la place des data sciences pour l’exploitation des données massives en santé. La démarche utilisée pour répondre à cet objectif consiste dans une première partie à exposer les caractéristiques des données massives en santé et les aspects techniques liés à leur réutilisation. La seconde partie expose les aspects organisationnels permettant l’exploitation et le partage des données massives en santé. La troisième partie décrit les grandes approches méthodologiques en science des données appliquées actuellement au domaine de la santé. Enfin, la quatrième partie illustre au travers de trois exemples l’apport de ces méthodes dans les champs suivant : la surveillance syndromique, la pharmacovigilance et la recherche clinique. Nous discutons enfin les limites et enjeux de la science des données dans le cadre de la réutilisation des données massives en santé
The dematerialization of health data, which started several years ago, now generates na huge amount of data produced by all actors of health. These data have the characteristics of being very heterogeneous and of being produced at different scales and in different domains. Their reuse in the context of clinical research, public health or patient care involves developing appropriate approaches based on methods from data science. The aim of this thesis is to evaluate, through three use cases, what are the current issues as well as the place of data sciences regarding the reuse of massive health data. To meet this objective, the first section exposes the characteristics of health big data and the technical aspects related to their reuse. The second section presents the organizational aspects for the exploitation and sharing of health big data. The third section describes the main methodological approaches in data sciences currently applied in the field of health. Finally, the fourth section illustrates, through three use cases, the contribution of these methods in the following fields: syndromic surveillance, pharmacovigilance and clinical research. Finally, we discuss the limits and challenges of data science in the context of health big data
44

Douar, Adnane. "Recherche de matériaux isolants pour la conception d'une nouvelle génération de connecteurs électriques haute tension : influence de la pollution sur les phénomènes de décharges partielles du contournement et de claquage". Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0046/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans le présent travail, nous abordons une problématique essentielle liée aux accessoires des lignes électriques et plus particulièrement au connecteur à perforation d’isolant (TTDC 45501 FA), commercialisé par la société Sicame située à Arnac-Pompadour (Corrèze). Ce produit permet d’effectuer des dérivations de courant en moyenne tension gainé HTA entre 15 et 25kV. Cependant, il devient nécessaire de concevoir une nouvelle génération de connecteurs capable de fonctionner à une tension de 52 kV en raison de la constante augmentation des besoins en électricité. En réalité, le principal souci concernant ces produits réside dans l’apparition de décharges partielles dans le volume constitué par la matière isolante (polyamide 6 chargée à 50% en poids de fibres de verre). Ces décharges engendrent un vieillissement prématuré du produit sous l’action conjuguée d’une atmosphère corrosive (brouillard salin) et d’un champ électrique. Ainsi, l’objectif de la présente thèse est de faire, dans un premier temps, un choix approprié de matériaux isolants parmi des polymères thermoplastiques, thermodurcissables époxydes ou élastomères en EPDM, capables de résister à plusieurs contraintes : thermique, électrique, mécanique, chimique et climatique. La partie expérimentale concerne, tout d’abord, la mesure de la tension de contournement, de l’activité des décharges partielles se propageant à la surface des matériaux isolants et de la tension de claquage, en tension alternative (A.C.). Pour cela, des échantillons polymères qui comportent des surfaces planes ou des surfaces pourvues de protubérances ont été moulés en vue de comparer leur comportement diélectrique en présence d’atmosphères polluées de type brouillard salin; ces mesures sont nécessaires pour effectuer un choix approprié du matériau à intégrer dans le connecteur. Par la suite, l’étude et la caractérisation optique et électrique de décharges glissantes, se propageant en surface de divers matériaux polymères, en tension impulsionnelle (L.I.) pour les deux polarités (positive et négative) et pour deux types de champ électrique (normal et tangentiel) sont présentées pour le cas d’une interface solide/air. La mesure de la longueur finale des décharges glissantes et la visualisation de l’onde de courant sont les deux paramètres principaux pour différencier les caractéristiques des matériaux utilisés. L’ensemble des résultats de mesures a permis de sélectionner les résines époxydes cyclo-aliphatiques (CEP) comme candidates potentielles pour la conception d’une nouvelle génération de connecteurs. De plus, la simulation du champ électrique, à l’aide du logiciel Flux 2D/3D, sur le connecteur électrique (TTDC 45501FA) a permis d’aboutir à la proposition d’un prototype de connecteur présentant une nouvelle géométrie et pouvant fonctionner à 52kV
In the present study, we deal with an essential problem related to electrical lines accessories and more particularly to piercing connectors (TTDC 45501FA) commercialized by a private company named Sicame and which is located in Arnac-Pompadour (Corrèze, France). This product/accessory is designed to provide power diversions on medium voltage live lines HVA operating between 15 and 25kV. However, it becomes required to design a new generation of piercing connectors able to operate on 52kV live lines because of the electrical power demands that are steadily increasing. Actually, the main concerns about these products are the occurrence of partial discharges within the insulating material volume (polyamide 6 containing 50%wt of glass fibers). Most of the time, these discharges induce an early ageing process of the accessory under the combined effects of a corrosive environment (as salt fog) and an electric field threshold. Thus, the main objective of the present Ph.D. thesis is to carry out an appropriate choice of insulating materials among several tested polymers such as thermoplastics and thermosetting epoxy resins and EPDM elastomers that are capable of withstanding several constraints: thermal and electrical and mechanical and chemical conditions. The experimental section is focusing on the measurements of flashover voltage and partial discharges activity propagating on polymeric surfaces and breakdown voltage within material bulks under A.C voltage. That is why polymeric samples with plane surfaces and textured surfaces are molded to compare their resistance to partial discharges when being subjected to polluted environments such as salt fog; these measurements are necessary to choose the suitable materials for the required application to be integrated in the new generation of connectors. Then, the optical and electrical characterization results of creeping discharges propagating on several polymeric surfaces under lightning impulse (L.I.) voltage with its both polarities (positive and negative) and for two kinds of applied electric field (normal and tangential) are presented in the case of solid/air interfaces. Final length measurements of creepage discharges are the main parameter for distinguishing material properties. The whole obtained results (under AC and LI voltages) allow us to point out the cycloaliphatic epoxy resins as potential candidates to the conception of a new generation of piercing connectors. In addition, the electric field simulation and modelling of the TTDC 45501FA connector by using the Flux 2D/3D software seems to be helpful to design a connector prototype which exhibits a new geometry and is able to reach a voltage level that equals 52kV
45

Matei, Mihaela. "Le soin courant et le standard de soin dans l'encadrement juridique de la recherche biomédicale". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTD032.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La législation relative à la recherche biomédicale est fondée historiquement sur le principe selon lequel la recherche et le soin constituent deux activités distinctes. Perçu comme le garant éthique de tout encadrement normatif de la recherche, ce principe a conduit en France à la création d’un cadre juridique spécifique pour les pratiques médicales expérimentales. En pratique cependant, un protocole de recherche biomédicale est souvent constitué d’actes de recherche intriqués avec les interventions du soin. La distinction entre les pratiques médicales et les interventions expérimentales peut être brouillée par l’objet de la recherche (le soin courant), par la méthodologie employée (l’évaluation en conditions réelles) ou encore par le faible niveau de l’intervention ajoutée par le protocole. Tant les dispositifs juridiques passés que les modèles présents occultent cette évidence en invoquant la séparation du soin et de la recherche. Pourtant la coexistence du soin avec la recherche a créé des tensions que le cadre juridique actuel ne peut résoudre. Il est manifeste que ces dernières n'ont été évacuées en rien par la création de deux régimes juridiques distincts, l'un relatif au soin et l'autre relatif à larecherche biomédicale. De plus, la séparation nette au plan normatif entre les deux activités a empêché l’indispensable réflexion sur l’articulation entre les obligations qui relèvent de la relation médicale et celles qui sont liées à la recherche, telle l'obligation d'assurer la continuité des soins. Le législateur, soucieux de garantir cette frontière, ne traite pas spécifiquement de ces questions. Il est dès lors essentiel de déterminer avec précision le contenu et l’étendue des obligations de soigner ainsi que de mieux encadrer le « soin courant » et le « standard de soin» dans le contexte de la recherche biomédicale. Dans ces conditions, le paradigme juridique centré sur la distinction soin-recherche a-t-il encore un sens?
A biomedical research protocol includes both medical and research interventions. Since its origins, the legal framework has ignored this evidence under the pretext that research and care are two distinct activities. That is why it is all the more essential to determine the nature and the scope of the duty of care and the standard of care used in the context of biomedical research. In parallel, there is a need to distinguish, from a regulatory perspective, this "standard of care" from any equivalent notions used in the context of usual care
46

Khorbatly, Mohamad. "Optimisation numérique appliquée à la gestion de crise : Approche basée sur un algorithme hybride pour la résolution du problème intégré d'ordonnancement et d'allocation des ressources". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH18/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les travaux présentes dans cette thèse s'inscrivent dans le cadre des méthodes d'évacuation des populations. Ils visent à étudier les capacités et modéliser le problème d'évacuation (blessés, sinistrés, enfants, personnes agées, etc.) dans une situation de crise (attentats terroristes, catastrophes naturelles, etc.) et développer des méthodes d'aide à la décision tout en proposant une meilleure planification et des plans optimaux d'évacuation des populations de la zone de crise vers les centres hospitaliers.Notre travail consiste à résoudre le problème d'évacuation de blessés dans des zones de crise avec une nouvelle vision qui consiste à optimiser le temps de transport et par conséquent sauver le maximum des personnes touchées par cette crise d'une façon dynamique, efficace et rapide pour minimiser la perte humaine
The work presented in this thesis is part of human evacuation methods. It aims to study the capacities, model the evacuation problem (wounded, victims, children, elderly, etc.) in a crisis situation (terrorist attacks, natural disasters, etc.) and to develops methods for decision making while proposing better planning and optimal evacuation plans for populations from the crisis zone to hospitals.Our job is to solve the wounded evacuation problem in crisis zone with a new vision that optimizes the transport time and thus saving the maximum of causalities in a dynamic, efficient and fast way in order to minimize human loss
47

Gangat, Yasine. "Architecture Agent pour la modélisation et simulation de systèmes complexes multidynamiques : une approche multi-comportementale basée sur le pattern "Agent MVC"". Phd thesis, Université de la Réunion, 2013. http://tel.archives-ouvertes.fr/tel-01022620.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La co-construction et la réutilisation de modèles font l'objet de plusieurs travaux dans le domaine de la simulation. Cependant, dans le domaine plus spécifique de la Simulation Orientée Agent (SOA), nous pouvons constater un manque sur ces deux points malgré un besoin fort de la part des thématiciens. La co-construction est essentielle pour optimiser la mise en commun du savoir de différents experts, mais nous faisons souvent face à des divergences de points de vue. Les méthodologies existantes pour la co-construction en SOA ne permettent qu'un faible niveau de collaboration entre thématiciens durant la phase initiale de modélisation, ainsi qu'entre les des thématiciens avec les modélisateurs ou les modélisateurs-informaticiens... Pour faciliter cette co-construction, nous proposons de suivre une méthodologie de conception favorisant cette collaboration. La réutilisation de modèle octroie un gain de temps significatif, une amélioration du modèle et l'apport de nouvelle connaissance. Les méthodologies en SOA dans ce domaine existent. Cependant, dans le spectre de réutilisation, elles sont souvent limitées au niveau du modèle complet ou de l'agent avec l'impossibilité de "descendre" plus bas. L'expérience de EDMMAS, un cas concret d'un modèle issu de trois réutilisations successives, nous a permis de constater une nouvelle complexité qui découle de la démultiplication des comportements des agents et crée un décalage conséquent entre le modèle opérationnel et le modèle conceptuel. Notre objectif est de promouvoir la réutilisation aussi bien des modèles, que des agents et de leurs comportements.Pour répondre à ces questionnements, nous proposons dans ce manuscrit une manière de codifier et d'intégrer la connaissance provenant de disciplines différentes dans le modèle, tout en utilisant des modules "composables" qui facilitent la réutilisation. Nous proposons (i) une nouvelle architecture Agent (aMVC), appliquée dans un cadre multidynamique (DOM), avec l'appui (ii) d'une approche méthodologique (MMC) basée sur la décomposition et réutilisation des comportements. Cet ensemble de propositions, (i) et (ii), permet de conduire un projet pluridisciplinaire de SOA avec un grand nombre d'acteurs, facilitant la co-construction des modèles grâce à l'instauration de nouvelles synergies entre les différents acteurs participant à la modélisation. Les concepteurs pourront travailler de manière autonome sur leur dynamique et la plateforme fera l'intégration de ces dernières en assurant la cohésion et la robustesse du système. Nos contributions offrent la capacité de créer les briques élémentaires du système de manière indépendante, de les associer et de les combiner pour former des agents, selon des dynamiques conformément à l'approche DOM. Elles permettent ainsi de comparer la logique selon différentes possibilités pour une même dynamique et d'ouvrir la perspective d'étudier un grand nombre d'alternatives de modélisation d'un même système complexe, et de les analyser ensuite à une échelle très fine.
48

Bursuc, Andrei. "Indexation et recherche de contenus par objet visuel". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00873966.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
49

Messainguiral, Christiane. "Modélisation et interprétation des phénomènes physiques responsables des fluctuations des signaux délivrés par les détecteurs hors-coeur et en-coeur des réacteurs à eau préssurisée : potentialités d'une surveillance en service basée sur la mesure et l'analyse de ces fluctuations". Paris 11, 1987. http://www.theses.fr/1987PA112430.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L’objet du travail de cette thèse a été d’étudier les fluctuations des signaux délivrés par les détecteurs hors-cœur et en cœur des R. E. P. 900MW et d’en assurer l’interprétation. Le but poursuivi étant de statuer sur les potentialités d’une surveillance basée sur l’analyse des fluctuations neutroniques d’un réacteur à eau pressurisée. Il s’agissait donc de faire l’inventaire des sources de perturbations normalement présentes ou d’occurrence probable sous leurs deux aspects: qualitatif et quantitatif. La faible valeur des perturbations représentées. Enfin notre travail s’appuie sur de multiples campagnes de mesures que nous avons pu effectuer sur de nombreux réacteurs. De notre travail nous extrayons les points remarquables suivants: -l’analyse des fluctuations neutroniques permet de caractériser le comportement vibratoire de composants important du cœur dans une zone où aucune mesure vibratoire direct n’est envisageable, - quelques signatures correspondant à des comportements non souhaitables ont été expérimentées, des signatures typiques correspondant à des comportements non souhaitables mais non observés ont pu être définies et pourraient donc être reconnues si elles apparaissaient, - en dehors du domaine vibratoire, les fluctuations neutroniques permettent de caractériser l’état du détecteur lui-même, - dans le domaine thermohydraulique et pour les R. E. P. , les possibilités des fluctuations neutroniques doivent être considérées comme assez faibles mais non-nulles ainsi que semblent le montrer des mesures très récentes conduites à l’étranger
The study of the 900 MW PWR’s ex-core neutron sensors signals fluctuations and their interpretation were to be carried out in this work. The aim,at the end was to be able to decide what could be the possibilities and the limits of a surveillance based on the pressurized water reactors noise analysis. Hence, all the perturbation sources wether they are currently present or just may occur, were to be studied under their two aspects : qualitative and quantitative. The small amplitudes of the perturbations to be considered, allowed their effect on the neutron detector signals to be calculated with the first order approximation of the perturbation theory model. We developed the model and the computer software which, from direct and adjoint fluxes carried out the calculation of detectors signal sensitivity to the perturbations that were considered. Moreover, our work was supported by numerous on-site measurements, carried out many reactors. The following facts can be extracted from the work: -neutron noise analysis allows the vibrational behavior characterization of some primary circuit main components, at locations where no direct vibratory measurements can be generally considered, - some signatures typical of unsuitable behaviors, though not observed, have been defined and could be recognized if they were to come out, - besides the vibratory area, neutron noise may be used for characterization of the detector state itself, - in the thermohydraulical field, and for PWRs, the neutron noise possibilities have to be considered as rather low though not zero as some recent measurements abroad have shown
50

Bui, Quang Anh. "Vers un système omni-langage de recherche de mots dans des bases de documents écrits homogènes". Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS010/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Notre thèse a pour objectif la construction d’un système omni-langage de recherche de mots dans les documents numérisés. Nous nous plaçons dans le contexte où le contenu du document est homogène (ce qui est le cas pour les documents anciens où l’écriture est souvent bien soignée et mono-scripteur) et la connaissance préalable du document (le langage, le scripteur, le type d’écriture, le tampon, etc.) n’est pas connue. Grâce à ce système, l'utilisateur peut composer librement et intuitivement sa requête et il peut rechercher des mots dans des documents homogènes de n’importe quel langage, sans détecter préalablement une occurrence du mot à rechercher. Le point clé du système que nous proposons est les invariants, qui sont les formes les plus fréquentes dans la collection de documents. Pour le requêtage, l’utilisateur pourra créer le mot à rechercher en utilisant les invariants (la composition des requêtes), grâce à une interface visuelle. Pour la recherche des mots, les invariants peuvent servir à construire des signatures structurelles pour représenter les images de mots. Nous présentons dans cette thèse la méthode pour extraire automatiquement les invariants à partir de la collection de documents, la méthode pour évaluer la qualité des invariants ainsi que les applications des invariants à la recherche de mots et à la composition des requêtes
The objective of our thesis is to build an omni-language word retrieval system for scanned documents. We place ourselves in the context where the content of documents is homogenous and the prior knowledge about the document (the language, the writer, the writing style, etc.) is not known. Due to this system, user can freely and intuitively compose his/her query. With the query created by the user, he/she can retrieve words in homogenous documents of any language, without finding an occurrence of the word to search. The key of our proposed system is the invariants, which are writing pieces that frequently appeared in the collection of documents. The invariants can be used in query making process in which the user selects and composes appropriate invariants to make the query. They can be also used as structural descriptor to characterize word images in the retrieval process. We introduce in this thesis our method for automatically extracting invariants from document collection, our evaluation method for evaluating the quality of invariants and invariant’s applications in the query making process as well as in the retrieval process

Pasar a la bibliografía