To see the other types of publications on this topic, follow the link: Vues multiples.

Dissertations / Theses on the topic 'Vues multiples'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 28 dissertations / theses for your research on the topic 'Vues multiples.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Carrasco, Miguel. "Vues Multiples non-calibrées : Applications et Méthodologies." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00646709.

Full text
Abstract:
La recherche de modèles d'intérêt contenus dans des s'séquences de vues multiples d'une scène reste l'un des principaux problèmes de la vision par ordinateur actuellement. En dépit des grands progrès observés au cours des 40 dernières années, la vision par ordinateur ne parvient pas encore à répondre adéquatement quant à la manière d'inférer et de détecter des modèles d'intérêt dans des scènes pour lesquelles un ou plusieurs objet(s) sont vus depuis différents points de vue. Afin de surmonter ce problème, cette thèse propose de nouveaux algorithmes et prototypes capables de caractériser, d'inférer et de détecter des modèles d'intérêt en séquences avec des vues multiples de manière non calibrée, c'est-'a-dire sans connaissance à priori de la position du/des objet(s) par rapport ła (aux) caméra(s). Le travail réalisé s'articule autour de trois axes, divis'es en six articles qui constituent le corps de la thèse. (1) L'analyse de correspondances point par point à travers de marqueurs explicites et implicites sur les objets. (2) L'estimation de correspondances point par point 'a travers de multiples relations géométriques indépendantes du/des objet(s) qui composent la scène. (3) La prédiction du flux dynamique du déplacement généré par le mouvement de la caméra autour de l'objet. L'objectif principal de cette thèse est d'appuyer la prise de décision 'a travers d'une analyse dynamique et/ou géométrique du mouvement du/des objet(s) ou de la (des) caméra(s) pendant que ceux-ci se déplacent. Grâce à cette analyse, il est possible d'accroitre l'information sur la scène et l'(les) objet(s) 'a travers d'un processus inférentiel spécifique pour chaque cas. Il ressort des thématiques exposées qu'il est possible, par exemple, d'assister le processus d'inspection réalisé par un opérateur humain, de déterminer la qualité d'un produit de manière autonome, ou d'exécuter une action spécifique dans un acteur robotique. Bien que ces thématiques présentent des approches différentes, celles-ci ont le même ensemble de pas en ce qui concerne: (1) la détermination de la relation de correspondance de points ou de régions sur plusieurs images, (2) la détermination de la relation géométrique et/ou dynamique existante entre les correspondances estimées précédemment, (3) l'inférence de nouvelles relations sur les points dont la correspondance est inconnue en vue de caractériser le mouvement. Les variations les plus fortes correspondent 'a la manière dont la correspondance est estimée; au calcul de la dynamique et la géométrie entre les points correspondants; et enfin 'a la manière dont nous inférons une action particulière suite 'a un mouvement spécifique. Parmi les principaux résultats, on trouve le développement d'une méthodologie d'inspection non calibrée 'a vues multiples appliquée 'a l'analyse de la qualité des jantes de véhicules, le développement d'un prototype fonctionnel appliqué à l'inspection des cols de bouteilles de vin, une méthodologie de correspondance point par point géométrique capable de résoudre le problème de correspondance en deux et trois vues pour tout point d'intérêt, et enfin la reconnaissance de l'intention humaine pour les tâches de 'grasping' 'a travers de l'analyse du mouvement des yeux et de la main. 'A l'avenir, il restera encore 'a analyser les correspondances dynamiques 'a travers de caractéristiques invariantes, employer des méthodes d'analyse géométriques en séquences d'images radiologiques, et utiliser des modèles de détection d'intentions pour évaluer la qualité des objets.
APA, Harvard, Vancouver, ISO, and other styles
2

Durand, Stéphane. "Représentation des points de vues multiples dans une situation d'urgence : une modélisation par organisations d'agents." Le Havre, 1999. http://www.theses.fr/1999LEHA0005.

Full text
Abstract:
Les systèmes d'information et de communication (SIC) sont des systèmes informatisés qui regroupent et fournissent des renseignements et des informations sur une situation d'urgence en cours de développement aux acteurs décisionnels qui doivent la gérer. L'approche factuelle classique n'est pas suffisante pour gérer correctement les de telles situations. Nous proposons donc une approche basée sur l'interprétation artificielle des messages échanges par ces acteurs grâce à la couche communicationnelle d'un SIC. Cette approche permet non seulement de transmettre fidèlement les informations factuelles des messages, mais aussi la prise en compte d'une partie de leurs informations subjectives. Elle permet aussi de monter les points de vue conflictuels entre les acteurs décisionnels en fonction des messages échangés et la gestion de connaissances contradictoires. Pour cela, nous proposons un modèle de la couche communicationnelle d'un SIC incluant la base d'un système d'interprétation des messages. Ce modèle utilise systématiquement le paradigme agent. Il comprend des organisations d'agents, appelées organisations aspectuelles qui reifient les aspects de la situation exprimés dans leurs messages par les acteurs. Ces messages sont enrichis par le système et replacés dans leur contexte communicationnel.
APA, Harvard, Vancouver, ISO, and other styles
3

Ivaldi, William. "Synthèse de vue frontale et modélisation 3D de visages par vision multi-caméras." Paris 6, 2007. http://www.theses.fr/2007PA066221.

Full text
Abstract:
Cette thèse préparée avec SAGEM Sécurité, leader mondial en biométrie, a pour objectif d'étudier un système temps-réel de reconstruction faciale pour une application de reconnaissance de visages. L'algorithme doit générer une vue frontale d'un visage inconnu, sans contrainte de pose et sans arrêt devant les 4 caméras vidéo latérales. Après les méthodes classiques en double stéréovision, des modèles déformables de type AAM sont aussi évalués mais leur mode de déformation ne permet pas d'obtenir un ajustement acceptable sur des visages inconnus. Un Modèle 3D Radial est alors construit par projection hémisphérique d’exemples scans 3D afin d'obtenir des modes de représentation et d'instanciation satisfaisants. Après l'ajustement du modèle radial, l'image frontale est obtenue par fusion des 4 vues à l’aide d’un critère de visibilité calculé sur toute la surface du modèle. La vue virtuelle selon la normale visage du modèle est synthétisée en temps-réel par le GPU de la carte graphique
The purpose of this thesis prepared with SAGEM Sécurité, worldwide biometry leader, is to study a real-time system of facial reconstruction for a face recognition application. The algorithm must generate a frontal view of an unknown face, without constraint when walking behind the 4 video cameras. After testing a classic stereovision approach, we evaluate the well know AAM models but their deformation mode doesn't give any acceptable convergence on unknown faces. We then define an original 3D Radial Model by hemispheric projection of 3D face scans to get deformation modes adapted to the constraints. After the 3D radial model is ajusted, the frontal view is obtained by fusion of the 4 source images using a visibility rule applied at every position of the model surface. This virtual view is computed from a frontal point of view depending of the 'face' normal of the model. The virtual view synthesis is performed in real time using the graphic card GPU ressources
APA, Harvard, Vancouver, ISO, and other styles
4

Ismael, Muhannad. "Reconstruction de scène dynamique à partir de plusieurs vidéos mono- et multi-scopiques par hybridation de méthodes « silhouettes » et « multi-stéréovision »." Thesis, Reims, 2016. http://www.theses.fr/2016REIMS021/document.

Full text
Abstract:
La reconstruction précise d’une scène 3D à partir de plusieurs caméras offre un contenu synthétique 3D à destination de nombreuses applications telles que le divertissement, la télévision et la production cinématographique. Cette thèse propose une nouvelle approche pour la reconstruction 3D multi-vues basée sur l’enveloppe visuelle et la stéréovision multi-oculaire. Cette approche nécessite en entrée l’enveloppe visuelle et plusieurs jeux d’images rectifiées issues de différentes unités multiscopiques constituées chacune de plusieurs caméras alignées et équidistantes. Nos contributions se situent à différents niveaux. Le premier est notre méthode de stéréovision multi-oculaire qui est fondée sur un nouvel échantillonnage de l’espace scénique et fournit une carte de matérialité exprimant la probabilité pour chaque point d’échantillonnage 3D d’appartenir à la surface visible par l’unité multiscopique. Le second est l’hybridation de cette méthode avec les informations issues de l’enveloppe visuelle et le troisième est la chaîne de reconstruction basée sur la fusion des différentes enveloppes creusées tout en gérant les informations contradictoires qui peuvent exister. Les résultats confirment : i) l’efficacité de l’utilisation de la carte de matérialité pour traiter les problèmes qui se produisent souvent dans la stéréovision, en particulier pour les régions partiellementoccultées ; ii) l’avantage de la fusion des méthodes de l’enveloppe visuelle et de la stéréovision multi-oculaire pour générer un modèle 3D précis de la scène
Accurate reconstruction of a 3D scene from multiple cameras offers 3D synthetic content tobe used in many applications such as entertainment, TV, and cinema production. This thesisis placed in the context of the RECOVER3D collaborative project, which aims is to provideefficient and quality innovative solutions to 3D acquisition of actors. The RECOVER3Dacquisition system is composed of several tens of synchronized cameras scattered aroundthe observed scene within a chromakey studio in order to build the visual hull, with severalgroups laid as multiscopic units dedicated to multi-baseline stereovision. A multiscopic unitis defined as a set of aligned and evenly distributed cameras. This thesis proposes a novelframework for multi-view 3D reconstruction relying on both multi-baseline stereovision andvisual hull. This method’s inputs are a visual hull and several sets of multi-baseline views.For each such view set, a multi-baseline stereovision method yields a surface which is usedto carve the visual hull. Carved visual hulls from different view sets are then fused iterativelyto deliver the intended 3D model. Furthermore, we propose a framework for multi-baselinestereo-vision which provides upon the Disparity Space (DS), a materiality map expressingthe probability for 3D sample points to lie on a visible surface. The results confirm i) theefficient of using the materiality map to deal with commonly occurring problems in multibaselinestereovision in particular for semi or partially occluded regions, ii) the benefit ofmerging visual hull and multi-baseline stereovision methods to produce 3D objects modelswith high precision
APA, Harvard, Vancouver, ISO, and other styles
5

Conze, Pierre-Henri. "Estimation de mouvement dense long-terme et évaluation de qualité de la synthèse de vues. Application à la coopération stéréo-mouvement." Phd thesis, INSA de Rennes, 2014. http://tel.archives-ouvertes.fr/tel-00992940.

Full text
Abstract:
Les nouvelles technologies de la vidéo numérique tendent vers la production, la transmission et la diffusion de contenus de très haute qualité, qu'ils soient monoscopiques ou stéréoscopiques. Ces technologies ont énormément évolué ces dernières années pour faire vivre à l'observateur l'expérience la plus réaliste possible. Pour des raisons artistiques ou techniques liées à l'acquisition et à la transmission du contenu, il est parfois nécessaire de combiner la vidéo acquise à des informations de synthèse tout en veillant à maintenir un rendu photo-réaliste accru. Pour faciliter la tâche des opérateurs de production et post-production, le traitement combiné de contenus capturés et de contenus de synthèse exige de disposer de fonctionnalités automatiques sophistiquées. Parmi celles-ci, nos travaux de recherche ont porté sur l'évaluation de qualité de la synthèse de vues et l'élaboration de stratégies d'estimation de mouvement dense et long-terme. L'obtention d'images synthétisées de bonne qualité est essentielle pour les écrans 3D auto-stéréoscopiques. En raison d'une mauvaise estimation de disparité ou interpolation, les vues synthétisées générées par DIBR font cependant parfois l'objet d'artéfacts. C'est pourquoi nous avons proposé et validé une nouvelle métrique d'évaluation objective de la qualité visuelle des images obtenues par synthèse de vues. Tout comme les techniques de segmentation ou d'analyse de scènes dynamiques, l'édition vidéo requiert une estimation dense et long-terme du mouvement pour propager des informations synthétiques à l'ensemble de la séquence. L'état de l'art dans le domaine se limitant quasi-exclusivement à des paires d'images consécutives, nous proposons plusieurs contributions visant à estimer le mouvement dense et long-terme. Ces contributions se fondent sur une manipulation robuste de vecteurs de flot optique de pas variables (multi-steps). Dans ce cadre, une méthode de fusion séquentielle ainsi qu'un filtrage multilatéral spatio-temporel basé trajectoires ont été proposés pour générer des champs de déplacement long-termes robustes aux occultations temporaires. Une méthode alternative basée intégration combinatoire et sélection statistique a également été mise en œuvre. Enfin, des stratégies à images de référence multiples ont été étudiées afin de combiner des trajectoires provenant d'images de référence sélectionnées selon des critères de qualité du mouvement. Ces différentes contributions ouvrent de larges perspectives, notamment dans le contexte de la coopération stéréo-mouvement pour lequel nous avons abordé les aspects correction de disparité à l'aide de champs de déplacement denses long-termes.
APA, Harvard, Vancouver, ISO, and other styles
6

Dekker, Lenneke. "Frome : représentaion multiple et classification d'objets avec points de vue." Lille 1, 1994. http://www.theses.fr/1994LIL10201.

Full text
Abstract:
Le travail se place dans le cadre de la representation des connaissances par objets. Il s'inspire a la fois des travaux sur les frames et sur la programmation par objets. Le memoire veut contribuer a la definition d'un modele de representation riche et a son exploitation par un mecanisme de raisonnement par classification. Dans la premiere partie, apres avoir etudie certains aspects de systemes existants, nous proposons un langage de representation hybride frames-objets, appele frome (frames en rome). Frome importe dans ce contexte les capacites de representation multiple et evolutive d'objets, ainsi que la notion de point de vue, issues du langage a objets rome. Nous montrons comment notre langage est obtenu par extension meta-programmee du langage rome, i. E. En utilisant les capacites reflexives de celui-ci. Ces capacites sont conservees pour frome et garantissent son extensibilite. Ainsi, et a titre d'exemple, un module de filtrage d'objets est decrit, lequel est obtenu par extension de frome. La deuxieme partie est consacree a la classification d'objets. L'etat de l'art montre comment la classification d'objets est traitee dans les systemes existants, orientes objets ou fondes sur la logique terminologique. Nous proposons ensuite une forme de classification pour frome, qui s'inspire des deux approches. Cette proposition integre deux interpretations de la notion de classe: descriptive et definitionnelle, combinee avec des modalites d'appartenance d'un objet a une classe. Elle retient une description libre des objets a classifier. Le controle est organise de maniere orientee objet, i. E. Repartie sur les classes. La representation multiple d'objets autorise tout naturellement la presence de caracteristiques homonymes. Le probleme des conflits qui en decoule est alors resolu a l'aide de la notion de point de vue de rome. Nous montrons que l'homonymie d'attributs peut etre prise en compte dans la classification de deux manieres complementaires. D'une part, la notion de point de vue fournit un moyen d'identification complete des attributs homonymes. D'autre part, l'ambiguite constitue un parametre introduisant du non-determinisme dans la classification, pris en compte au travers des modalites d'appartenance.
APA, Harvard, Vancouver, ISO, and other styles
7

COSQUER, Ronan. "Conception d'un sondeur de canal MIMO - Caractérisation du canal de propagation d'un point de vue directionnel et doublement directionnel." Phd thesis, INSA de Rennes, 2004. http://tel.archives-ouvertes.fr/tel-00007560.

Full text
Abstract:
Depuis l'apparition des premiers réseaux radiomobiles cellulaires analogiques au d´ebut des années 70, nous avons assisté à une explosion de la demande en systèmes de communication sans fil. Les services concernés par les télécommunications sans fil se sont depuis étendus à la transmission de données et aux applications multimédia. Devant la nécessité d'avoir des débits élevés tout en garantissant une certaine qualit´e de service, les techniques MIMO (Multiple Input - Multiple Output) apparaissent comme très prometteuses. En utilisant plusieurs antennes simultanément en émission et en réception, ces systèmes exploitent la dimension spatiale pour la transmission de l'information. Ainsi la mise en oeuvre de ces techniques permet d'aboutir à une amélioration substantielle des débits et/ou des performances des liaisons numériques. Comme dans toutes les études systèmes, une analyse approfondie du canal de transmission et des mécanismes de propagation associés s'avère indispensable. Si dans un contexte classique, la caractérisation et la modélisation du canal peuvent se limiter au domaine temporel, il est n´ecessaire pour les systèmes MIMO de considérer la dimension spatiale au même niveau que la dimension temporelle. Une modélisation précise et réaliste du canal dans le domaine spatial est d'autant plus importante dans un contexte MIMO, puisque le gain par rapport à un système classique en terme de débit et/ou de performance est largement tributaire des propriétés spatiales du canal. C'est dans ce contexte que s'inscrit le travail présenté dans ce document. Cette thèse a pour objectif la conception d'un système de mesure performant permettant d'approfondir la connaissance du canal de propagation MIMO pour la bande UMTS.
APA, Harvard, Vancouver, ISO, and other styles
8

Pellicanò, Nicola. "Tackling pedestrian detection in large scenes with multiple views and representations." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS608/document.

Full text
Abstract:
La détection et le suivi de piétons sont devenus des thèmes phares en recherche en Vision Artificielle, car ils sont impliqués dans de nombreuses applications. La détection de piétons dans des foules très denses est une extension naturelle de ce domaine de recherche, et l’intérêt croissant pour ce problème est lié aux évènements de grande envergure qui sont, de nos jours, des scenarios à risque d’un point de vue de la sûreté publique. Par ailleurs, les foules très denses soulèvent des problèmes inédits pour la tâche de détection. De par le fait que les caméras ont le champ de vision le plus grand possible pour couvrir au mieux la foule les têtes sont généralement très petites et non texturées. Dans ce manuscrit nous présentons un système complet pour traiter les problèmes de détection et de suivi en présence des difficultés spécifiques à ce contexte. Ce système utilise plusieurs caméras, pour gérer les problèmes de forte occultation. Nous proposons une méthode robuste pour l’estimation de la position relative entre plusieurs caméras dans le cas des environnements requérant une surveillance. Ces environnements soulèvent des problèmes comme la grande distance entre les caméras, le fort changement de perspective, et la pénurie d’information en commun. Nous avons alors proposé d’exploiter le flot vidéo pour effectuer la calibration, avec l’objectif d’obtenir une solution globale de bonne qualité. Nous proposons aussi une méthode non supervisée pour la détection des piétons avec plusieurs caméras, qui exploite la consistance visuelle des pixels à partir des différents points de vue, ce qui nous permet d’effectuer la projection de l’ensemble des détections sur le plan du sol, et donc de passer à un suivi 3D. Dans une troisième partie, nous revenons sur la détection supervisée des piétons dans chaque caméra indépendamment en vue de l’améliorer. L’objectif est alors d’effectuer la segmentation des piétons dans la scène en partant d’une labélisation imprécise des données d’apprentissage, avec des architectures de réseaux profonds. Comme dernière contribution, nous proposons un cadre formel original pour une fusion de données efficace dans des espaces 2D. L’objectif est d’effectuer la fusion entre différents capteurs (détecteurs supervisés en chaque caméra et détecteur non supervisé en multi-vues) sur le plan du sol, qui représente notre cadre de discernement. nous avons proposé une représentation efficace des hypothèses composées qui est invariante au changement de résolution de l’espace de recherche. Avec cette représentation, nous sommes capables de définir des opérateurs de base et des règles de combinaison efficaces pour combiner les fonctions de croyance. Enfin, notre approche de fusion de données a été évaluée à la fois au niveau spatial, c’est à dire en combinant des détecteurs de nature différente, et au niveau temporel, en faisant du suivi évidentiel de piétons sur de scènes à grande échelle dans des conditions de densité variable
Pedestrian detection and tracking have become important fields in Computer Vision research, due to their implications for many applications, e.g. surveillance, autonomous cars, robotics. Pedestrian detection in high density crowds is a natural extension of such research body. The ability to track each pedestrian independently in a dense crowd has multiple applications: study of human social behavior under high densities; detection of anomalies; large event infrastructure planning. On the other hand, high density crowds introduce novel problems to the detection task. First, clutter and occlusion problems are taken to the extreme, so that only heads are visible, and they are not easily separable from the moving background. Second, heads are usually small (they have a diameter of typically less than ten pixels) and with little or no textures. This comes out from two independent constraints, the need of one camera to have a field of view as high as possible, and the need of anonymization, i.e. the pedestrians must be not identifiable because of privacy concerns.In this work we develop a complete framework in order to handle the pedestrian detection and tracking problems under the presence of the novel difficulties that they introduce, by using multiple cameras, in order to implicitly handle the high occlusion issues.As a first contribution, we propose a robust method for camera pose estimation in surveillance environments. We handle problems as high distances between cameras, large perspective variations, and scarcity of matching information, by exploiting an entire video stream to perform the calibration, in such a way that it exhibits fast convergence to a good solution. Moreover, we are concerned not only with a global fitness of the solution, but also with reaching low local errors.As a second contribution, we propose an unsupervised multiple camera detection method which exploits the visual consistency of pixels between multiple views in order to estimate the presence of a pedestrian. After a fully automatic metric registration of the scene, one is capable of jointly estimating the presence of a pedestrian and its height, allowing for the projection of detections on a common ground plane, and thus allowing for 3D tracking, which can be much more robust with respect to image space based tracking.In the third part, we study different methods in order to perform supervised pedestrian detection on single views. Specifically, we aim to build a dense pedestrian segmentation of the scene starting from spatially imprecise labeling of data, i.e. heads centers instead of full head contours, since their extraction is unfeasible in a dense crowd. Most notably, deep architectures for semantic segmentation are studied and adapted to the problem of small head detection in cluttered environments.As last but not least contribution, we propose a novel framework in order to perform efficient information fusion in 2D spaces. The final aim is to perform multiple sensor fusion (supervised detectors on each view, and an unsupervised detector on multiple views) at ground plane level, that is, thus, our discernment frame. Since the space complexity of such discernment frame is very large, we propose an efficient compound hypothesis representation which has been shown to be invariant to the scale of the search space. Through such representation, we are capable of defining efficient basic operators and combination rules of Belief Function Theory. Furthermore, we propose a complementary graph based description of the relationships between compound hypotheses (i.e. intersections and inclusion), in order to perform efficient algorithms for, e.g. high level decision making.Finally, we demonstrate our information fusion approach both at a spatial level, i.e. between detectors of different natures, and at a temporal level, by performing evidential tracking of pedestrians on real large scale scenes in sparse and dense conditions
APA, Harvard, Vancouver, ISO, and other styles
9

Ribière, Myriam. "Representation et gestion de multiples points de vue dans le formalisme des graphes conceptuels." Nice, 1999. http://www.theses.fr/1999NICE5289.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Dubois, Jérôme. "Homogénéisation dynamique de milieux aléatoires en vue du dimensionnement de métamatériaux acoustiques." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14512/document.

Full text
Abstract:
Les métamatériaux sont des milieux prometteurs pour l'imagerie acoustique. Grâce à ces milieux, il est possible de concevoir des lentilles à faces parallèles pouvant dépasser la limite conventionnelle de résolution d'une lentille et par conséquent améliorer les systèmes d'imagerie. Malgré l'intérêt grandissant des chercheurs pour les métamatériaux, le comportement des ondes acoustiques dans ces milieux n'est pas totalement connu. Nous proposons de développer la problématique de la propagation des ondes acoustiques dans un milieu de type métamatériau en détail dans ce manuscrit. Cette étude a permis d'extraire un critère discriminant un métamatériau d'un matériau classique et d'apporter un regard nouveau sur l'amplification des ondes évanescentes dans les métamatériaux.Nous explorons une piste peu empruntée en vue du dimensionnement de métamatériaux : les milieux aléatoires. Nous nous focalisons sur les milieux à deux dimensions dont les phases sont fluides. Dans cette optique, une phase de validation de techniques d'homogénéisation dynamique existantes est réalisée \textit{via} la comparaison des réponses acoustiques d'un écran de diffuseurs répartis aléatoirement obtenues par des simulations numériques FDTD avec celles prédites par des modèles analytiques. L'étude de ces modèles, utiles au dimensionnement de structures aléatoires présentant des réponses acoustiques ciblées, nous a amené à examiner avec attention leur comportement quasi-statique. Une technique d'homogénéisation permettant de prendre en compte explicitement les interactions entre diffuseurs est proposée dans ce contexte. Développée dans le cadre de la diffusion simple et multiple, elle relie les propriétés mécaniques effectives aux moyennes des champs acoustiques dans un volume représentatif.Finalement, l'analyse du comportement d'un milieu aléatoire \og réaliste \fg~possédant théoriquement des bandes fréquentielles à réfraction négative, grâce à des diffuseurs résonants à basses fréquences, a été menée. Différents régimes de fonctionnement atypiques sont identifiés à l'aide de simulations numériques. La confrontation des réponses de ce milieu avec celles d'un cristal phononique est ensuite présentée et révèle une étonnante similitude entre les deux arrangements
Metamaterials are promising media for acoustic imaging. For example, such media give the possibility to build flat lenses exhibiting sub-diffraction-limit resolution, thereby improving imaging setup. Despite the growing interest of the researcher for metamaterials, acoustic wave propagation is still not widely known. This work addresses the topic of wave propagation in metamaterials. In this work, we have defined a criterion which differentiate metamaterial from classical material and provide a new insight in the amplification of evanescent waves.We explore how to design metamaterials with random media. We focus on two dimensional media with fluid components. A validation process of existing dynamic homogenization techniques is done via the comparison between the responses of a screen of scatterers obtained by numerical simulations from FDTD with those predict by the analytical models. The study of those models, useful for designing random media with atypical responses, lead us to consider their quasi-static limit. In this context, we propose a homogenization technique which includes explicitly the interactions between scatterers. It is developed for multiple and simple scattering and link the effective properties to the averages of the acoustic fields in a representative volume.Finally, the analysis of the acoustic responses of a realistic random medium having theoretical negative refraction frequency bandwidth, thanks to low frequency resonant scatterers is done. Different atypical responses are identified from the numerical simulations. The comparison between the responses of this medium and those of phononic crystals is presented and shows a surprising similarity of the two arrangements
APA, Harvard, Vancouver, ISO, and other styles
11

Femmam, Chafika. "Approche des systèmes graphiques et focalisation sur FLM/FLE : méthodologie à angles de vue multiples." Besançon, 2006. http://www.theses.fr/2006BESA1015.

Full text
Abstract:
La thèse traite du sujet de l’écriture dans sa conception de système graphique. Afin de cerner la problématique relative à l’écriture et sa réalisation en classe d’apprentissage, nous avons adopté une méthodologie à angles de vue multiples. Ainsi nous sommes revenue sur l’histoire de l’écriture pour tenter une restitution d’une définition qui la restreignait à une simple notation de sons. En remontant son invention à 35000 ans, contrairement à la date conventionnelle de beaucoup de spécialistes (3500 av. J. -C. ), nous avons considéré les traces préhistoriques comme une première expression graphique et un pas déterminant vers ce qu’est l’écriture aujourd’hui. De ceci nous avons démontré que l’écriture est principalement d’origine iconique, un espace construit intelligemment que l’œil interroge pour lui attribuer une signification indépendamment du signifié phonique. Visant vérifier si cette nouvelle conception avait influencé les pratiques scolaires de l’écriture, nous avons recouru à deux méthodes d’expérimentation : d’un côté, des questionnaires adressés aux instituteurs de la première année d’enseignement/apprentissage scriptural ; de l’autre, des observations de classes pratiquant également cette activité. Les publics concernés sont, d’une part, les instituteurs français et leurs classes de CP et de CLIN ; de l’autre, les instituteurs algériens et leurs classes de 1ère A. F. Pour l’ALM et les classes de 4ème A. F. Pour le FLE. Les résultats nous montrent que, dans sa réalisation scolaire, l’écriture est toujours considérée dans sa conception la plus restrictive la liant étroitement à l’oral ; et que les exercices qui préparent à son appropriation n’ont pas réellement évolué depuis presque un siècle. Pour remédier à cet état de fait, nous pensons qu’il faut, d’abord, libérer l’écriture de sa dépendance à l’oral sans pour autant le négliger. Autrement dit, il est indispensable de concevoir des exercices scripturaux novateurs, moins contraignants et plus efficaces. Ceci en prenant en compte la véritable nature de l’écriture : une nature complexe
The thesis is about writing conceived of as a graphic system. A varied methodology is adopted in order to focus on problems relative to writing and on how writing is taught in the classroom. The subject is first approached historically in an attempt to reconstruct a definition of writing limited to that of a simple notation of sounds. Dating the invention of writing back 35000 years, in contrast to the conventional date that many specialists set at 35000B. C. , we have reconsidered prehistoric traces as a first graphic expression and a determining step toward modern written forms. From here we have shown that a writing is a mainly of iconic origin, a space constructed intelligently that the eye interrogates so as to attribute to it a significance independent of the phonic representation. Wanting to verify whether this new conception had influenced how writing is taught, we looked to two methods of experimentation : both questionnaires sent to primary school teachers working in the first year of scriptural teaching/learning, and also observation of classes involved in this activity. The publics concerned are : 1) French primary school teachers and their first year classes (A. F. ) for Arabic as a mother tongue, and fourth year classes (4ème A. F. ) for French as a foreign language. The result show that, scholastically, writing is still looked upon in its most restrictive conception linking it closely to the oral language, and that the exercises which prepare students to appropriate in have no really evolved for nearly a century. To remedy this situation we think that, without neglecting the oral, writing must first be liberated from it. In other words, it is indispensable to conceive of innovative scriptural exercises that are less constraining and more efficient, all the while taking into account the true and complex nature of writing
APA, Harvard, Vancouver, ISO, and other styles
12

Morgand, Alexandre. "Un modèle géométrique multi-vues des taches spéculaires basé sur les quadriques avec application en réalité augmentée." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC078/document.

Full text
Abstract:
La réalité augmentée (RA) consiste en l’insertion d’éléments virtuels dans une scène réelle, observée à travers un écran ou en utilisant un système de projection sur la scène ou l’objet d’intérêt. Les systèmes de réalité augmentée peuvent prendre des différentes formes pour obtenir l’équilibre désiré entre trois critères : précision, latence et robustesse. Il est possible d’identifier trois composants principaux à ces systèmes : localisation, reconstruction et affichage. Les contributions de cette thèse se concentrent essentiellement sur l’affichage et plus particulièrement le rendu des applications de réalité augmentée. À l’opposé des récentes avancées dans le domaine de la localisation et de la reconstruction, l’insertion d’éléments virtuels de façon plausible et esthétique reste une problématique compliquée, mal-posée et peu adaptée à un contexte temps réel. En effet, cette insertion requiert une reconstruction de l’illumination de la scène afin d’appliquer les conditions lumineuses adéquates à l’objet inséré. L’illumination de la scène peut être divisée en plusieurs catégories. Nous pouvons modéliser l’environnement de façon à décrire l’interaction de la lumière incidente et réfléchie pour chaque point 3D d’une surface. Il est également possible d’expliciter l’environnement en calculant la position des sources de lumière, leur type (lampe de bureau, néon, ampoule, ….), leur intensité et leur couleur. Pour insérer un objet de façon cohérente et réaliste, il est primordial d’avoir également une connaissance de la surface recevant l’illumination. Cette interaction lumière/matériaux est dépendante de la géométrie de la surface, de sa composition chimique (matériau) et de sa couleur. Pour tous ces aspects, le problème de reconstruction de l’illumination est difficile, car il est très complexe d’isoler l’illumination sans connaissance a priori de la géométrie, des matériaux de la scène et de la pose de la caméra observant la scène. De manière générale, sur une surface, une source de lumière laisse plusieurs traces telles que les ombres, qui sont créées par l’occultation de rayons lumineux par un objet, et les réflexions spéculaires ou spécularités qui se manifestent par la réflexion partielle ou totale de la lumière. Bien que ces spécularités soient souvent considérées comme des éléments parasites dans les applications de localisation de caméra, de reconstruction ou encore de segmentation, ces éléments donnent des informations cruciales sur la position et la couleur de la source lumineuse, mais également sur la géométrie de la surface et la réflectance du matériau où elle se manifeste. Face à la difficulté du problème de modélisation de la lumière et plus particulièrement du calcul de l’ensemble des paramètres de la lumière, nous nous sommes focalisés, dans cette thèse, sur l’étude des spécularités et sur toutes les informations qu’elles peuvent fournir pour la compréhension de la scène. Plus particulièrement, nous savons qu’une spécularité est définie comme la réflexion d’une source de lumière sur une surface réfléchissante. Partant de cette remarque, nous avons exploré la possibilité de considérer la spécularité comme étant une image issue de la projection d’un objet 3D dans l’espace. Nous sommes partis d’un constat simple, mais peu traité par la littérature qui est que les spécularités présentent une forme elliptique lorsqu’elles apparaissent sur une surface plane. À partir de cette hypothèse, pouvons-nous considérer un objet 3D fixe dans l’espace tel que sa projection perspective dans l’image corresponde à la forme de la spécularité ? Plus particulièrement, nous savons qu’un ellipsoïde projeté perspectivement donne une ellipse. Considérer le phénomène de spécularité comme un phénomène géométrique a de nombreux avantages. (...)
Augmented Reality (AR) consists in inserting virtual elements in a real scene, observed through a screen or a projection system on the scene or the object of interest. The augmented reality systems can take different forms to obtain a balance between three criteria: precision, latency and robustness. It is possible to identify three main components to these systems: localization, reconstruction and display. The contributions of this thesis focus essentially on the display and more particularly the rendering of augmented reality applications. Contrary to the recent advances in the field of localization and reconstruction, the insertion of virtual elements in a plausible and aesthetic way remains a complicated problematic, ill-posed and not adapted to a real-time context. Indeed, this insertion requires a good understanding of the lighting conditions of the scene. The lighting conditions of the scene can be divided in several categories. First, we can model the environment to describe the interaction between the incident and reflected light pour each 3D point of a surface. Secondly, it is also possible to explicitly the environment by computing the position of the light sources, their type (desktop lamps, fluorescent lamp, light bulb, . . . ), their intensities and their colors. Finally, to insert a virtual object in a coherent and realistic way, it is essential to have the knowledge of the surface’s geometry, its chemical composition (material) and its color. For all of these aspects, the reconstruction of the illumination is difficult because it is really complex to isolate the illumination without prior knowledge of the geometry, material of the scene and the camera pose observing the scene. In general, on a surface, a light source leaves several traces such as shadows, created from the occultation of light rays by an object, and the specularities (or specular reflections) which are created by the partial or total reflection of the light. These specularities are often described as very high intensity elements in the image. Although these specularities are often considered as outliers for applications such as camera localization, reconstruction or segmentation, these elements give crucial information on the position and color of the light source but also on the surface’s geometry and the material’s reflectance where these specularities appear. To address the light modeling problem, we focused, in this thesis, on the study of specularities and on every information that they can provide for the understanding of the scene. More specifically, we know that a specularity is defined as the reflection of the light source on a shiny surface. From this statement, we have explored the possibility to consider the specularity as the image created from the projection of a 3D object in space.We started from the simple but little studied in the literature observation that specularities present an elliptic shape when they appear on a planar surface. From this hypothesis, can we consider the existence of a 3D object fixed in space such as its perspective projection in the image fit the shape of the specularity ? We know that an ellipsoid projected perspectivally gives an ellipse. Considering the specularity as a geometric phenomenon presents various advantages. First, the reconstruction of a 3D object and more specifically of an ellipsoid, has been the subject to many publications in the state of the art. Secondly, this modeling allows a great flexibility on the tracking of the state of the specularity and more specifically the light source. Indeed, if the light is turning off, it is easy to visualize in the image if the specularity disappears if we know the contour (and reciprocally of the light is turning on again). (...)
APA, Harvard, Vancouver, ISO, and other styles
13

Kachkouch, Fatima Zahraa. "Développement de méthodes ultrasonores en vue de la caractérisation des milieux à porosité multiple." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMLH17/document.

Full text
Abstract:
L’objectif de cette thèse est d’étudier la propagation des ondes acoustiques dans un milieu à double porosité. La caractérisation analytique des modes de vibration d’une plaque à double porosité a été mise en évidence. L’étude théorique a été validée par des mesures ultrasonores expérimentales, sur deux matériaux granulaires à double porosité et des billes de verre à simple porosité, via la détermination d’un coefficient de comparaison théorie-expérience. Ces mesures ont également permis la détection des quatre ondes se propageant dans un matériau à double porosité. Un dispositif expérimental a été développé dans le but de caractériser le phénomène de colmatage qui affecte les milieux poreux lorsqu’ils sont traversés par un fluide chargé de matières en suspension. Ce phénomène affecte par exemple les filtres utilisés dans la clarification des eaux sales. La méthode ultrasonore non destructive a été combinée avec la méthode destructive généralement utilisée dans les laboratoires, pour le suivi du dépôt dans le temps et dans l’espace des trois milieux poreux soumis à l’injection de solutions turbides pendant une longue durée. Des corrélations entre les propriétés acoustiques (vitesse de phase et énergie du signal transmis) et la variation de la porosité du milieu en conséquence du dépôt sont obtenues. L’ensemble des résultats montre un bon accord entre les deux méthodes
The aim of this thesis is to study the propagation of acoustic waves in a double porosity medium. The analytical characterization of the vibration modes of a double porosity plate has been studied. The theoretical study was validated by experimental ultrasonic measurements, on two granular materials with double porosity and single porosity glass beads, by the determination of a theory-experiment comparison coefficient. These measurements also allowed the detection of the four waves propagating in a double porosity medium. An experimental device has been developed for the purpose of characterizing the clogging phenomenon which affects the porous media when traversed by a fluid loaded with suspended particles. This phenomenon affects for example the filters used in the clarification of dirty waters. The non-destructive ultrasonic method was combined with the destructive method generally used in laboratories, for monitoring the deposition in time and space of the three porous media subjected to the injection of turbid solutions for a long time. Correlations between the acoustic properties (phase velocity and energy of the transmitted signal) and the variation of the porosity of the medium as a consequence of the deposition are obtained. All results show a good agreement between the two methods
APA, Harvard, Vancouver, ISO, and other styles
14

Signol, François. "Estimation de fréquences fondamentales multiples en vue de la séparation de signaux de parole mélangés dans un même canal." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00618687.

Full text
Abstract:
Cette thèse propose un algorithme d'estimation de F0 multiples (AEP) pour la parole superposée. Il s'appuie sur deux familles de peignes spectraux nommées Peignes à Dents Négatives (PDN) et Peignes à Dents Manquantes (PDM). Le produit scalaire entre un spectre d'amplitude et un peigne spectral produit une fonction de pitch qui quanti fie la force de la structure harmonique d'une fréquence donnée. Les fonctions de pitch contiennent des pics parasites provoquant des erreurs d'estimation de F0. La combinaison des fonctions de pitch de chaque PDN et PDM permet d'atténuer ces pics parasites. Cette combinaison est nommée principe de Peigne à Suppression Harmonique (PSH). Deux implémentations du principe de PSH sont décrites dont une est évaluée de manière comparative à d'autres algorithmes existant dans les situations monopitch et bipitch. Quatre méthodologies sont proposées. Les performances obtenues sont largement à la hauteur de l'état de l'art (10% d'erreurs grossières en bipitch). Cette évaluation a permis de mettre en évidence l'influence critique de la décision voisé/non-voisé sur les taux d'erreurs.
APA, Harvard, Vancouver, ISO, and other styles
15

Pigache, François. "Modélisation causale en vue de la commande d'un translateur piézoélectrique plan pour une application haptique." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Pigache.pdf.

Full text
Abstract:
Pour rendre compte physiquement de la manipulation d'un objet virtuel dans l'espace ou sur un plan, la plupart des dispositifs haptiques actuels font appel à des actionneurs à un seul degré de liberté, dont les actions sont couplées par diverses liaisons mécaniques (type pantographe). La technologie piézoélectrique est une solution avantageuse dans ce domaine d'utilisation, pour son important effort massique, le travail à faible vitesse, et surtout la capacité à motoriser plusieurs degrés de liberté à partir d'un seul actionneur. Pour cette raison, un translateur piézoélectrique plan à onde stationnaire est étudié. Un modèle simplifié est élaboré pour offrir une interprétation globale des phénomènes de contact. Il est établi selon le formalisme du graphe informationnel causal qui met en évidence deux asservissements applicables au domaine haptique :un retour d'effort actif par le contrôle en force, et une solution alternative comparable à un embrayage, qualifié de retour d'effort dissipatif.
APA, Harvard, Vancouver, ISO, and other styles
16

Bedetti, Thomas. "Etude de la diffusion multiple des ultrasons en vue de la modélisation du bruit de structure et de la caractérisation des aciers moulés inoxydables à gros grains." Paris 7, 2012. http://www.theses.fr/2012PA077227.

Full text
Abstract:
Cette thèse porte sur l'étude du régime de diffusion multiple des ondes ultrasonores dans les milieux à microstructure complexe. Dans le cadre du Contrôle Non-Destructif (CND), nous nous sommes plus particulièrement intéressés aux aciers inoxydables forgés et moulés, utilisés dans l'industrie nucléaire. Dans un premier temps, une étude expérimentale a été réalisée, utilisant des capteurs linéaires multiéléments. Sur une bande de fréquences s'étalant de 1 MHz à 12 MHz, nous avons mesuré la matrice de réponse inter-éléments et en avons déduit, grâce à différents post-traitements, des valeurs de certains paramètres caractéristiques de la propagation de l'onde multiplement diffusée (libre parcours moyen, distance de corrélation du champ). De plus, la mise en évidence et l'étude du phénomène de rétrodiffusion cohérente dans ces aciers nous a permis d'accéder à une mesure de la constante de diffusion D. Par la suite, nous avons développé une méthode de simulation du bruit de structure fondée sur le couplage entre l'approximation de la diffusion et un algorithme de génération de bruit corrélé aléatoire. Les paramètres mesurés précédemment ont été utilisés en entrée de cette méthode. Se plaçant dans le contexte du CND, elle prend en compte l'influence du capteur en émission et réception. Des comparaisons avec des mesures de bruit effectuées dans les échantillons d'acier montrent un bon accord des résultats de simulation lorsque les contributions de diffusion multiple dominent celles de diffusion simple
This thesis presents the study of ultrasonic multiple scattering in media with a complex microstructure. In the context of Non-Destructive Testing (NDT), our media of interest consisted of forged and molded stainless steel samples often used in nuclear industry. An experimental study has first been conducted using linear phased arrays, by measuring the inter-elements response matrix in a wide frequency band (1 MHz to 12 MHz). Values of characteristic parameters of multiple scattering have been deduced by post-processing this matrix (elastic mean free path, correlation distance). In addition, the coherent backscattering effect that can appear in those steels has been highlighted and studied. By exploiting this phenomenon, the diffusion constant D has been measured. Then, a structural noise simulation method has been developed. It is based on the diffusion approximation and a numerical algorithm that generate random correlated noise. The experimentally measured parameters have been used as entries of the method. Accounting for the NDT domain, this method takes the influence of the transducers into account, at emission and reception. Comparisons have been conducted between simulated and experimental noise levels. Results have shown a good agreement when the diffusion regime is established
APA, Harvard, Vancouver, ISO, and other styles
17

Carré, Bernard. "Méthodologie orientée objet pour la représentation des connaissances : concepts de point de vue, de représentation multiple et évolutive d'objet." Lille 1, 1989. http://www.theses.fr/1989LIL10018.

Full text
Abstract:
Étude des fondements du paradigme orienté objet classe/instance/héritage de type smallfalk pour la représentation des connaissances. Il est ensuite présenté le langage ROME, un langage orienté objet d'expérimentation de nouveaux concepts. ROME est défini a la base par un noyau metacirculaire, inspiré de OBJVLISP et original par l'apport de notions nouvelles. La notion originale de représentation multiple et évolutive est proposée et intégrée au modelé orienté objet. Cette notion facilite l'expression de classifications multiples d'objets sous des points de vue indépendants en offrant la possibilité de les rattacher à plusieurs classes.
APA, Harvard, Vancouver, ISO, and other styles
18

Pigache, Francois. "Modélisation Causale en vue de la Commande d'un translateur piézoélectrique plan pour une application haptique." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00011938.

Full text
Abstract:
Pour rendre compte physiquement de la manipulation d'un objet virtuel dans l'espace ou sur un plan, la plupart des dispositifs haptiques actuels font appel à des actionneurs à un seul degré de liberté, dont les actions sont couplées par diverses liaisons mécaniques (type pantographe). La technologie piézoélectrique est une solution avantageuse dans ce domaine d'utilisation, pour son important effort massique, le travail à faible vitesse, et surtout la capacité à motoriser plusieurs degrés de liberté à partir d'un seul actionneur. Pour cette raison, un translateur piézoélectrique plan à onde stationnaire est étudié. Un modèle simplifié est élaboré pour offrir une interprétation globale des phénomènes de contact. Il est établi selon le formalisme du graphe informationnel causal qui met en évidence deux asservissements applicables au domaine haptique : un retour d'effort actif par le contrôle en force, et une solution alternative comparable à un embrayage, qualifié de retour d'effort dissipatif.
APA, Harvard, Vancouver, ISO, and other styles
19

Michoud, Brice. "Reconstruction 3D à partir de séquences vidéo pour l’acquisition du mouvement de personnages en temps réel et sans marqueur." Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10156/document.

Full text
Abstract:
Nous nous intéressons à l'acquisition automatique de mouvements 3D de personnes. Cette opération doit être réalisée sans un équipement spécialisé (marqueurs ou habillage spécifique), pour rendre son utilisation générale, sous la contrainte du temps réel. Pour répondre à ces questions, nous sommes amenés à traiter de la reconstruction et l'analyse de la forme 3D. Concernant le problème de reconstruction 3D en temps réel d'entités en mouvement à partir de plusieurs vues, les approches existantes font souvent appel à des calculs complexes incompatibles avec la contrainte du temps réel. Les approches du type SFS offrent un compromis intéressant entre efficacité algorithmique et précision. Ces dernières utilisent les silhouettes issues de chaque caméra pour proposer un volume englobant des objets. Cependant elles nécessitent un environnement particulièrement contraint, dont le placement minutieux des caméras. Les travaux présentés dans ce manuscrit généralisent l'utilisation des approches SFS à des environnements peu contrôlés. L'acquisition du mouvement revient à déterminer les paramètres offrant la meilleure corrélation entre le modèle et la reconstruction 3D. Notre objectif étant le suivi temps réel, nous proposons des méthodes qui offrent la précision requise et le temps réel. Couplé à un suivi temporel par filtre de Kalman, à un recalage d'objets géométriques simples (ellipsoïdes, sphères, etc.), nous proposons un système temps réel, offrant une erreur de l'ordre de 6%.De par sa robustesse, il permet le suivi simultané de plusieurs personnes, même lors de contacts. Les résultats obtenus ouvrent des perspectives à un transfert vers des applications grand public
We aim at automatically capturing 3D motion of persons without markers. To make it flexible, and to consider interactive applications, we address real-time solution, without specialized instrumentation. Real-time body estimation and shape analyze lead to home motion capture application. We begin by addressing the problem of 3D real-time reconstruction of moving objects from multiple views. Existing approaches often involve complex computation methods, making them incompatible with real-time constraints. Shape-From-Silhouette (SFS) approaches provide interesting compromise between algorithm efficiency and accuracy. They estimate 3D objects from their silhouettes in each camera. However they require constrained environments and cameras placement. The works presented in this document generalize the use of SFS approaches to uncontrolled environments. The main methods of marker-less motion capture, are based on parametric modeling of the human body. The acquisition of movement goal is to determine the parameters that provide the best correlation between the model and the 3D reconstruction.The following approaches, more robust, use natural markings of the body extremities: the skin. Coupled with a temporal Kalman filter, a registration of simple geometric objects, or an ellipsoids' decomposition, we have proposed two real-time approaches, providing a mean error of 6%. Thanks to the approach robustness, it allows the simultaneous monitoring of several people even in contacts. The results obtained open up prospects for a transfer to home applications
APA, Harvard, Vancouver, ISO, and other styles
20

Kalaji, Mohamed Nader. "Élaboration d’un système de libération contrôlée des facteurs de croissance FGF-2 et TGF-β1 en vue de leur utilisation en odontologie conservatrice et endodontie." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10224/document.

Full text
Abstract:
Ce travail a été mené afin d’étudier l’effet du FGF 2 et du TGF-β1 sur les étapes précoces de la régénération dentinaire en utilisant la micro-encapsulation de ces facteurs dans une matrice pour les protéger et contrôler leur libération et ensuite l’application des microparticules obtenues en coiffage pulpaire direct dans un modèle de culture de dents entières. Ce travail consiste d’abord à l’optimisation des moyens techniques mis en oeuvre pour réaliser l'encapsulation du TGFβ1, FGF-2 à l'aide de l'acide poly (lactique-glycolique) PLGA. Les études de la caractérisation colloïdal et physico chimique des microparticules montre que les microparticules gardent leurs caractéristiques physicochimiques après séchage et resuspension dans l’eau. La procèdes optimisé a été ensuite utilisé pour encapsuler les facteurs de croissance. L’encapsulation de FGF-2 et TGF-β1 a été obtenue avec une taille, une efficacité d’encapsulation et une profile de libération adaptés au type d’application choisi. Les études biologiques ne montrent aucun effet toxique des particules sur les fibroblastes pulpaires. Les facteurs de croissance ont gardé leur activité biologique spécifique. Un modèle de culture de dent entier humain a été utilisé pour réaliser l’application de nos microparticules comme un matériau de coiffage dentaire pour confirmer leurs activités biologiques ex-vivo. Ces microparticules peuvent être utiles dans les études des étapes précoces de la régénération dentinaire, l'activation et la migration des cellules progénitrices de la pulpe dentaire
The purpose of this work was to investigate the effect of FGF 2 and TGF-β1 on the early steps of dentin regeneration using microencapsulation of theses factors into a microparticles matrix to ensure growth factors protection and to provide bioactive sustained release in contact with dental pulp cells and then the application of the obtained microparticles in direct pulp capping using a culture model of entire tooth. This work involves the optimization of technical means used to achieve encapsulation of TGFβ1, FGF-2 using the poly (lactic-glycolic acid) PLGA. Physicochemical and colloidal characterization of microspheres shows that the microparticles retain their physicochemical characteristics after drying and re-suspended in water. The double emulsion method was used to separately encapsulate (FGF-2) and (TGFβ1). Microparticles morphology, loading, shelf life, potential toxicity and release kinetics were studied. Then the proliferation of dental pulp cells was examined in contact with microparticles. Biological studies show no toxic effect of particles on pulp fibroblasts. Growth factors have kept their specific biological activity. A culture model of human entire tooth was used to achieve the application of microparticles as a dental direct capping material to confirm their biological activities ex vivo. These microparticles can be useful in studies of early steps of dentin regeneration, activation and migration of progenitor cells in dental pulp
APA, Harvard, Vancouver, ISO, and other styles
21

Bedetti, Thomas. "Étude de la diffusion multiple des ultrasons en vue de la modélisation du bruit de structure et de la caractérisation des aciers moulés inoxydables à gros grains." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://pastel.archives-ouvertes.fr/pastel-00781177.

Full text
Abstract:
Cette thèse porte sur l'étude du régime de diffusion multiple des ondes ultrasonores dans les milieux à microstructure complexe. Dans le cadre du Contrôle Non-Destructif (CND), nous nous sommes plus particulièrement intéressés aux aciers inoxydables forgés et moulés, utilisés dans l'industrie nucléaire. Dans un premier temps, une étude expérimentale a été réalisée, utilisant des capteurs linéaires multiéléments. Sur une bande de fréquences s'étalant de 1 MHz à 12 MHz, nous avons mesuré la matrice de réponse inter-éléments et en avons déduit, grâce à différents post-traitements, des valeurs de certains paramètres caractéristiques de la propagation de l'onde multiplement diffusée (libre parcours moyen, distance de corrélation du champ). De plus, la mise en évidence et l'étude du phénomène de rétrodiffusion cohérente dans ces aciers nous a permis d'accéder à une mesure de la constante de diffusion D. Par la suite, nous avons développé une méthode de simulation du bruit de structure fondée sur le couplage entre l'approximation de la diffusion et un algorithme de génération de bruit corrélé aléatoire. Les paramètres mesurés précédemment ont été utilisés en entrée de cette méthode. Se plaçant dans le contexte du CND, elle prend en compte l'influence du capteur en émission et réception. Des comparaisons avec des mesures de bruit effectuées dans les échantillons d'acier montrent un bon accord des résultats de simulation lorsque les contributions de diffusion multiple dominent celles de diffusion simple.
APA, Harvard, Vancouver, ISO, and other styles
22

LAGE, NOGUEIRA JOSE WILSON. "Faisabilite technico-economique d'un systeme solaire complexe constitue d'un bassin solaire et d'un distillateur a multiples effets en vue de la production simultanee de sel et d'eau distillee." Nice, 1991. http://www.theses.fr/1991NICE4517.

Full text
Abstract:
L'auteur etudie theoriquement le comportement d'un bassin solaire couple a un distillateur a multiples effets en vue de la production de sel et d'eau distillee. Il simule son evolution avec des donnees meteorologiques d'une region bresilienne situee au voisinage de l'equateur. Il propose une methode de dimensionnement du systeme et montre, a l'aide d'un programme informatique, l'influence de divers parametres caracteristiques de son fonctionnement sur les performances du bassin. Enfin, il evalue le prix d'eau distillee produite et compare son cout avec celui relatif a d'autres procedes de dessalement
APA, Harvard, Vancouver, ISO, and other styles
23

Buchheit, Pauline. "Le recueil de multiples finalités de l'environnement en amont d'un diagnostic de vulnérabilité et de résilience : Application à un bassin versant au Laos." Electronic Thesis or Diss., Paris, Institut agronomique, vétérinaire et forestier de France, 2016. http://www.theses.fr/2016IAVF0008.

Full text
Abstract:
Le Laos est un pays enclavé et faiblement peuplé qui se trouve aujourd’hui, après plusieurs décennies de conflits liées à la décolonisation et à la guerre froide, au cœur d’un processus d’intégration économique régionale. Une croissance économique très rapide, soutenue par le développement massif des infrastructures de transport et d'exploitation des ressources naturelles, a des conséquences aussi importantes que différenciées sur les populations et leurs moyens d’existence. Les concepts de résilience et de vulnérabilité ont été employés dans différentes disciplines pour analyser et gérer des dynamiques sociales et écologiques face à des changements rapides et incertains. Parfois mis en opposition ou imbriqués, ces deux concepts s’insèrent dans une diversité de cadres d’analyse des relations société-environnement. Si l’ensemble des travaux étudiés soulignent la nécessité d’employer de multiples échelles d’analyse pour prendre en compte la complexité des phénomènes étudiés, ils n’évaluent cependant pas la vulnérabilité et la résilience aux mêmes niveaux : certains sont centrés sur les acteurs, tandis que d’autres considèrent des systèmes socioécologiques englobants. Or, les enjeux considérés comme prioritaires par les auteurs influencent l’échelle et les limites du système dont est évaluée la résilience ou la vulnérabilité. En amont d’un tel diagnostic, il semble donc nécessaire d’identifier les enjeux de résilience et de vulnérabilité que l’on souhaite aborder. Mais cette tâche dépasse selon nous les compétences des seuls scientifiques, et doit être ouverte à d’autres acteurs. La question est alors : comment peut-on prendre en compte des points de vue multiples dans la conceptualisation du système à évaluer ? Pour cela, nous proposons un cadre conceptuel qui considère un système socioécologique à la fois comme une représentation particulière de l’environnement construite par un acteur, et comme un ensemble finalisé d’éléments, organisé en une hiérarchie de niveaux d’observation, répondant chacun à une finalité, ou fonction. Nous avons alors élaboré et testé une démarche visant à recueillir les représentations systémiques qu’ont différents acteurs de leur environnement, c’est-à- dire la façon dont ils structurent un système socioécologique qui fait sens pour eux, en fonction des finalités qu’ils assignent à leur environnement. Cette démarche a été testée dans le bassin versant de la rivière Nam Lik, district de Fuang, province de Vientiane, qui abrite depuis 2010 le barrage hydroélectrique de Nam Lik 1-2. Une série d’ateliers ont été organisés auprès d’habitants de la zone d'étude, d’employés de l’administration locale et d’enseignants de l’université nationale du Laos. En amont d’un éventuel diagnostic de la vulnérabilité ou de la résilience du terrain d'étude, la thèse propose donc une réflexion sur les différents cadrages possibles de ces concepts, et sur les méthodes permettant de les recueillir auprès d’acteurs multiples
Lao PDR is a landlocked country with low population density, which stands nowadays in a process of regional economic integration, after suffering wars related to decolonization and Cold War during several decades. A very fast economic growth, based on the development of infrastructures of transport and natural resource exploitation, has led to large differentiated impacts on populations and their resource based livelihoods. The concepts of resilience and vulnerability have been used in different disciplines to analyze and manage the dynamics of geographical areas and social groups facing rapid and uncertain changes. Both concepts are used within a variety of frameworks of analysis of society-environment relationships. While all reviewed frameworks take into account multiple scales of analysis in order to tackle the complexity of the studied phenomena, they do not, however, assess vulnerability and resilience at the same scales. In particular, some frameworks are actor-centered, while others are system-centered. The scale and limit of the socioecological system whose resilience or vulnerability is assessed depend on the issues that the authors want to tackle. Before such an assessment, it seems necessary to identify the issues of resilience and vulnerability that we want to address. This task should not be taken over by scientists alone, but by other stakeholders as well. The question is: how can we incorporate multiple viewpoints in the system design? For this, our framework considers a socioecological system both as a specific representation of the environment offered by a stakeholder, and as a set of elements contributing to one function. This system is organized in a hierarchy of levels of observation, in which each level corresponds to an intermediary function. We developed and tested a process to collect system representations of the environment from various stakeholders, that is to say, the way they structure a socioecological system that makes sense to them, according to the purposes that they assign to their environment. This approach has been tested in the catchment area of the Nam Lik river, Fuang district, Vientiane province, where the Nam Lik 1-2 hydropower dam was built in 2010. A series of workshops were held with residents of the study area, employees of local government and Lao National University teachers. At the earliest stage of a vulnerability or resilience assessment in the field study, this thesis proposes a reflection on the possible framings of these concepts, as well as methods to collect them from multiple stakeholders
APA, Harvard, Vancouver, ISO, and other styles
24

Kalaji, Mohamed Nader. "Élaboration d'un système de libération contrôlée des facteurs de croissance FGF-2 et TGF-β1 en vue de leur utilisation en odontologie conservatrice et endodontie." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00881178.

Full text
Abstract:
Ce travail a été mené afin d'étudier l'effet du FGF 2 et du TGF-β1 sur les étapes précoces de la régénération dentinaire en utilisant la micro-encapsulation de ces facteurs dans une matrice pour les protéger et contrôler leur libération et ensuite l'application des microparticules obtenues en coiffage pulpaire direct dans un modèle de culture de dents entières. Ce travail consiste d'abord à l'optimisation des moyens techniques mis en oeuvre pour réaliser l'encapsulation du TGFβ1, FGF-2 à l'aide de l'acide poly (lactique-glycolique) PLGA. Les études de la caractérisation colloïdal et physico chimique des microparticules montre que les microparticules gardent leurs caractéristiques physicochimiques après séchage et resuspension dans l'eau. La procèdes optimisé a été ensuite utilisé pour encapsuler les facteurs de croissance. L'encapsulation de FGF-2 et TGF-β1 a été obtenue avec une taille, une efficacité d'encapsulation et une profile de libération adaptés au type d'application choisi. Les études biologiques ne montrent aucun effet toxique des particules sur les fibroblastes pulpaires. Les facteurs de croissance ont gardé leur activité biologique spécifique. Un modèle de culture de dent entier humain a été utilisé pour réaliser l'application de nos microparticules comme un matériau de coiffage dentaire pour confirmer leurs activités biologiques ex-vivo. Ces microparticules peuvent être utiles dans les études des étapes précoces de la régénération dentinaire, l'activation et la migration des cellules progénitrices de la pulpe dentaire
APA, Harvard, Vancouver, ISO, and other styles
25

Marchant, Thierry. "Agrégation de relations valuées par la méthode de Borda, en vue d'un rangement: considérations axiomatiques." Doctoral thesis, Universite Libre de Bruxelles, 1996. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212380.

Full text
Abstract:

Depuis 20 à 30 ans, l'aide multicritère à la décision est apparue. L'expansion de cette nouvelle discipline s'est marquée dans la littérature essentiellement par un foisonnement de nouvelles méthodes multicritères d'aide à la décision et par des applications de celles-ci à des problèmes "réels". Pour la plupart de ces méthodes, il n'y pas ou peu de fondements théoriques. Seul le bon sens a guidé les créateurs de ces méthodes.

Depuis une dizaine d'années, le besoin de bases théoriques solides se fait de plus en plus sentir. C'est dans cette perspective que nous avons réalisé le présent travail. Ceci étant dit, nous n'allons pas vraiment nous occuper de méthodes multicritères à la décision dans ce travail, mais seulement de fragments de méthodes. En effet, les méthodes multicritères d'aide à la décision peuvent généralement être décomposées en trois parties (outre la définition de l'ensemble des alternatives et le choix des critères):

  1. Modélisation des préférences: pendant cette étape, les préférences du décideur sont modélisées le long de chaque critère.

  2. Agrégation des préférences: un modèle global de préférences est construit au départ des modèles obtenus critère par critère à la fin de la phase précédente.

  3. Exploitation des résultats de l'agrégation: du modèle global de préférences issu de la phase 2, on déduit un choix, un rangement, une partition, selon les besoins.

Jusqu'à présent, à cause de la difficulté du problème, peu de méthodes ont été axiomatisées de bout en bout; la plupart des travaux ne s'intéressent qu'à une ou deux des trois étapes que nous venons de décrire.

Nous nous sommes intéressés à une méthode bien connue: la méthode de Borda. Elle accepte comme données de départ des relations binaires. Elle intervient donc après la phase de modélisation des préférences. Le résultat de cette méthode est un rangement. Elle effectue donc les opérations correspondant aux étapes 2 et 3. Dans la suite de ce travail nous appellerons méthode de rangement toute méthode effectuant les étapes 2 et 3 pour aboutir à un rangement. Etant donné que les méthodes de rangement, celle de Borda en particulier, sont utilisées également en choix social, nous puiserons abondamment dans le vocabulaire, les outils et les résultats du choix social. Les résultats présentés seront valides en choix social, mais nous nous sommes efforcés de les rendre aussi pertinents que possible en aide multicritère à la décision.

Dans le chapitre II, après quelques définitions et notations, nous présentons quelques méthodes de rangement classiques, y compris la méthode de Borda, et quelques résultats majeurs de la littérature. Nous généralisons une caractérisation des méthodes de scorage due à Myerson (1995).

Nous nous tournons ensuite vers les relations valuées. La raison en est la suivante: elles sont utilisées depuis longtemps dans plusieurs méthodes multicritères et, depuis peu, elles le sont aussi en choix social (p.ex. Banerjec 1994) car elles permettent de modéliser plus finement les préférences des décideurs confrontés à des informations incertaines, imprécises, contradictoires, lacunaires, Nous commençons donc le chapitre III par des notations et définitions relatives aux relations valuées.

Ensuite, nous présentons quelques méthodes de rangement opérant au départ de relations valuées. C'est-à-dire des méthodes de rangement qui agissent non pas sur des relations nettes, mais sur des relations valuées et qui fournissent comme précédemment un rangement des alternatives. N'ayant trouvé dans la littérature aucune méthode de ce type, toutes celles que nous présentons sont neuves ou des généralisations de méthodes existantes; comme par exemple, les méthodes de scorage généralisées, que nous caractérisons en généralisant encore une fois le résultat de Myerson.

Nous présentons enfin ce que nous appelons la méthode de Borda généralisée, qui est une des généralisations possibles de la méthode de Borda au cas valué. Nous basant sur un article de Farkas et Nitzan (1979), nous montrons que contrairement à ce qui se passait dans le cas particulier envisagé par Farkas et Nitzan (agrégation d'ordres totaux), la méthode de Borda généralisée (et sa particularisation au cas net) n'est pas toujours équivalente à la méthode proximité à l'unanimité. Cette dernière méthode classe chaque alternative en fonction de l'importance des changements qu'il faudrait faire subir à un ensemble de relations pour que l’alternative considérée gagne à l'unanimité. Nous identifions quelques cas où l'équivalence est vraie.

Ensuite, nous reprenons un résultat de Debord (1987). Il s'agit d'une caractérisation de la méthode de Borda en tant que méthode de choix appliquée à des préordres totaux. Nous la généralisons de deux façons au cas de la méthode de Borda en tant que méthode de rangement appliquée à des relations valuées. Lorsqu'on applique la méthode de Borda, on est amené à calculer une fonction à valeurs réelles sur l'ensemble des alternatives.

La valeur prise par cette fonction pour une alternative s'appelle le score de Borda de cette alternative. Ensuite, on range les alternatives par ordre décroissant de leur score de Borda. La tentation est grande - et beaucoup y succombent (peut-être avec raison) d'utiliser le score de Borda non seulement pour calculer le rangement mais aussi pour estimer si l'écart entre deux alternatives est important ou non (voir par exemple Brans 1994). Cette approche n'a, à notre connaissance, jamais été étudiée d'un point de vue théorique. Nous présentons deux caractérisations de la méthode de Borda utilisée à cette fin.

Dans la dernière partie du chapitre III, nous abandonnons la démarche qui visait à caractériser une méthode par un ensemble de propriétés le plus petit possible. Nous comparons 12 méthodes sur base d'une vingtaine de propriétés. Les résultats de cette partie sont résumés dans quelques tableaux.

Ce travail aborde donc la méthode de Borda et sa généralisation au cas valué sous différents angles. Il livre une série de résultats qui, espérons-le, devraient permettre de mieux comprendre la méthode de Borda et peut-être de l'utiliser à meilleur escient. Toutefois, quoique notre objectif ait été de présenter des résultats pertinents en aide multicritère à la décision (et nous avons fait des progrès dans ce sens), il reste du chemin à faire. Nous sommes probablement encore trop proche du choix social. Ceci constitue donc une voie de recherche intéressante, de même que l'étude d'autres méthodes de rangement et l'étude de méthodes complètes d'aide multicritère à la décision: modélisation du problème (identification du ou des décideur(s), des alternatives et des critères), modélisation des préférences, agrégation des préférences et exploitation des résultats de l'agrégation.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
26

Hatanaka, Roxanne. "Rastreamento de variantes de significado desconhecido (VUS) no gene RET em indivíduos-controle e em pacientes com carcinoma medular de tireoide." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/5/5135/tde-24022016-111259/.

Full text
Abstract:
Introdução: A Neoplasia endócrina múltipla do tipo 2 (NEM-2) é uma síndrome tumoral de herança autossômica dominante, na qual os tumores associados são carcinoma medular de tireoide (CMT), feocromocitoma (FEO) e hiperparatireoidismo primário (HPT). Esta síndrome ocorre devido a mutações ativadoras no proto-oncogene RET que alteram a via do receptor tirosina quinase RET. Essas mutações levam à ativação constitutiva de vias de sinalização desregulando o ciclo celular. Segundo os Consensos Internacionais de 2001 e 2009 sobre CMT/NEM-2, portadores de mutações no gene RET, inclusive indivíduos assintomáticos, devem ser submetidos a tireoidectomia total (TT) preventiva, aumentando a chance de cura da doença. Não é recomendado rastreamento clínico em portadores que apresentem somente polimorfismos isolados (variante não patogênica). No entanto, existem indivíduos que carregam variantes genéticas de significado clínico desconhecido (VUS), gerando dúvida quanto à conduta clínica. Atualmente, não se tem conhecimento se essas variantes podem ou não estar envolvidas no aumento do risco ao desenvolvimento de CMT. Dessa forma, o presente projeto analisou diversos aspectos como frequência alélica, estudo in silico, dados na literatura e nos bancos genéticos com o intuito de abranger o entendimento dessas variantes e auxiliar na indicação de conduta clínica adequada aos portadores de RET VUS. Objetivo: Expandir o conhecimento do potencial patogênico das VUS do gene RET, focando na classificação controversa da variante p.Y791F. Métodos: Foi realizado o rastreamento dos exons hotspots do gene RET em indivíduos adultos/idosos-controle e em pacientes com CMT através da técnica de Sequenciamento de Nova Geração (NGS) e Sequenciamento de Sanger. Foi também analisada a predição computacional da patogenicidade dessas variantes em seis diferentes programas preditivos. Foi feito o levantamento de dados em diversos bancos genéticos. Resultados: As variantes p.Y791N, p.Y791F e p.E511K foram encontradas no rastreamento genético das amostras-controle sequenciadas. Além dessas variantes, foram identificadas e estudadas famílias de pacientes com CMT portadoras das variantes p.V648I e p.K666N. A variante p.Y791F foi identificada em um novo caso somente com FEO. A análise in silico demonstrou que 4/6 programas foram mais informativos, e que 25/48 VUS demonstram alterar a estrutura físico-química da proteína RET. A frequência alélica encontrada nos bancos de dados de indivíduos-controle e indivíduos com tumores foram bastante baixas. Apenas 15/48 VUS possuem dados sobre estudos in vitro. Conclusão: Nossos dados sugerem que a variante RET p.Y791F, quando isolada e sem coocorrência com mutações conhecidas RET, se comporta como um polimorfismo benigno raro, sem associação do aumento do risco ao CMT. Já a associação de p.Y791F com mutações conhecidas RET, como a C634Y, pode levar ao desenvolvimento de fenótipos atípicos, como maior risco ao feocromocitoma. A variante p.V648I é provavelmente um polimorfismo benigno raro, evidenciado pelo seguimento clínico de aproximadamente 15 anos de uma família portadora dessa variante, sem evidências de CMT, FEO ou HPT. Há necessidade de mais dados para classificar apropriadamente as demais VUS; no entanto, devido a possibilidade das variantes p.E511K, K666N e Y791N poderem ser patogênicas, portadores devem ser monitorados clinicamente
Introduction: Multiple endocrine neoplasia type 2 (MEN-2) is a tumor syndrome with autosomal dominant inheritance, in which tumors are associated with medullary thyroid carcinoma (MTC), pheochromocytoma (FEO) and primary hyperparathyroidism (HPT). This syndrome occurs due to activating mutations in the RET proto-oncogene, which lead to constitutive activation of tyrosine kinase signaling pathways that deregulate the cell cycle. According to the International Consensus on MTC/MEN-2 of 2001 and 2009 one should recommend that RET mutation carriers, including asymptomatic individuals, should undergo prophylactic total thyroidectomy (TT), increasing the chance of cure of the disease. It is not recommended clinical screening in patients that show only isolated polymorphisms (non-pathogenic variant). However, there are individuals who carry genetic variants of unknown clinical significance (VUS), generating doubt about the best clinical management. Currently, there is no consistent knowledge whether these variants may or may not be involved with the increased risk to MTC. The present project has approached the several aspects of these VUS, such as the allele frequency, in silico pathogenic prediction, published data and public databases, in order to increase our knowledge about VUS, in an attempt to contribute by offering appropriate clinical management to VUS carriers. Objective: To expand the knowledge of the pathogenic potential of some of the VUS of the RET gene, focusing especially on the controversial genetic variant p.Y791F. Methods: We performed the mutation screening of hotspots exons of the RET gene of DNA samples of 2061 adult/elderly healthy individuals and of patients with CMT by Sanger sequencing and Next Generation Sequencing (NGS) techniques. Pathogenic predictions of the studied variants were generated using six genetic softwares. Allelic frequency of RET VUS was assessed in different public databanks. Results: Genetic screening of control samples identified the presence of p.Y791N, p.Y791F and p.E511K germline variants. Patients with MTC carrying p.V648I and p.K666N germline variants were localized and family members were screened and clinically investigated. In addition, a new case with pheochromocytoma was found to carry the p.Y791F germline variant. The in silico analyses showed that 4 out of 6 packages were more informative, suggesting physico-chemical structure alteration caused by 25 out of 48 RET VUS. Very low allele frequencies were found in the public databases including healthy individuals and tumor samples. In vitro studies have been performed only for 15 out of 48 RET VUS. Conclusion: Our data strongly suggest that the p.Y791F variant, when occurring in an isolated form, is a benign polymorphism not associated with increased risk of MTC. Conversely, its co-occurrence with bona fide RET mutations as C634Y may lead to modulation of the phenotype, as increasing the frequencies of large and bilateral pheochromocytomas in MEN2A families. Family members carrying the p.V648I variant isolate have been followed clinically for approximately 15 years. As no indication of MCT, pheochromocytoma or hyperparathyroidism development has been documented, we conclude that this variant is a rare RET benign polymorphism. More information is needed to a better characterization of other VUS as E511K, K666N and Y791N. Thus, carriers with these variants should be necessarily examined through a periodic clinical follow up
APA, Harvard, Vancouver, ISO, and other styles
27

Moreno, Betancur Margarita. "Regression modeling with missing outcomes : competing risks and longitudinal data." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T076/document.

Full text
Abstract:
Les données manquantes sont fréquentes dans les études médicales. Dans les modèles de régression, les réponses manquantes limitent notre capacité à faire des inférences sur les effets des covariables décrivant la distribution de la totalité des réponses prévues sur laquelle porte l'intérêt médical. Outre la perte de précision, toute inférence statistique requière qu'une hypothèse sur le mécanisme de manquement soit vérifiée. Rubin (1976, Biometrika, 63:581-592) a appelé le mécanisme de manquement MAR (pour les sigles en anglais de « manquant au hasard ») si la probabilité qu'une réponse soit manquante ne dépend pas des réponses manquantes conditionnellement aux données observées, et MNAR (pour les sigles en anglais de « manquant non au hasard ») autrement. Cette distinction a des implications importantes pour la modélisation, mais en général il n'est pas possible de déterminer si le mécanisme de manquement est MAR ou MNAR à partir des données disponibles. Par conséquent, il est indispensable d'effectuer des analyses de sensibilité pour évaluer la robustesse des inférences aux hypothèses de manquement.Pour les données multivariées incomplètes, c'est-à-dire, lorsque l'intérêt porte sur un vecteur de réponses dont certaines composantes peuvent être manquantes, plusieurs méthodes de modélisation sous l'hypothèse MAR et, dans une moindre mesure, sous l'hypothèse MNAR ont été proposées. En revanche, le développement de méthodes pour effectuer des analyses de sensibilité est un domaine actif de recherche. Le premier objectif de cette thèse était de développer une méthode d'analyse de sensibilité pour les données longitudinales continues avec des sorties d'étude, c'est-à-dire, pour les réponses continues, ordonnées dans le temps, qui sont complètement observées pour chaque individu jusqu'à la fin de l'étude ou jusqu'à ce qu'il sorte définitivement de l'étude. Dans l'approche proposée, on évalue les inférences obtenues à partir d'une famille de modèles MNAR dits « de mélange de profils », indexés par un paramètre qui quantifie le départ par rapport à l'hypothèse MAR. La méthode a été motivée par un essai clinique étudiant un traitement pour le trouble du maintien du sommeil, durant lequel 22% des individus sont sortis de l'étude avant la fin.Le second objectif était de développer des méthodes pour la modélisation de risques concurrents avec des causes d'évènement manquantes en s'appuyant sur la théorie existante pour les données multivariées incomplètes. Les risques concurrents apparaissent comme une extension du modèle standard de l'analyse de survie où l'on distingue le type d'évènement ou la cause l'ayant entrainé. Les méthodes pour modéliser le risque cause-spécifique et la fonction d'incidence cumulée supposent en général que la cause d'évènement est connue pour tous les individus, ce qui n'est pas toujours le cas. Certains auteurs ont proposé des méthodes de régression gérant les causes manquantes sous l'hypothèse MAR, notamment pour la modélisation semi-paramétrique du risque. Mais d'autres modèles n'ont pas été considérés, de même que la modélisation sous MNAR et les analyses de sensibilité. Nous proposons des estimateurs pondérés et une approche par imputation multiple pour la modélisation semi-paramétrique de l'incidence cumulée sous l'hypothèse MAR. En outre, nous étudions une approche par maximum de vraisemblance pour la modélisation paramétrique du risque et de l'incidence sous MAR. Enfin, nous considérons des modèles de mélange de profils dans le contexte des analyses de sensibilité. Un essai clinique étudiant un traitement pour le cancer du sein de stade II avec 23% des causes de décès manquantes sert à illustrer les méthodes proposées
Missing data are a common occurrence in medical studies. In regression modeling, missing outcomes limit our capability to draw inferences about the covariate effects of medical interest, which are those describing the distribution of the entire set of planned outcomes. In addition to losing precision, the validity of any method used to draw inferences from the observed data will require that some assumption about the mechanism leading to missing outcomes holds. Rubin (1976, Biometrika, 63:581-592) called the missingness mechanism MAR (for “missing at random”) if the probability of an outcome being missing does not depend on missing outcomes when conditioning on the observed data, and MNAR (for “missing not at random”) otherwise. This distinction has important implications regarding the modeling requirements to draw valid inferences from the available data, but generally it is not possible to assess from these data whether the missingness mechanism is MAR or MNAR. Hence, sensitivity analyses should be routinely performed to assess the robustness of inferences to assumptions about the missingness mechanism. In the field of incomplete multivariate data, in which the outcomes are gathered in a vector for which some components may be missing, MAR methods are widely available and increasingly used, and several MNAR modeling strategies have also been proposed. On the other hand, although some sensitivity analysis methodology has been developed, this is still an active area of research. The first aim of this dissertation was to develop a sensitivity analysis approach for continuous longitudinal data with drop-outs, that is, continuous outcomes that are ordered in time and completely observed for each individual up to a certain time-point, at which the individual drops-out so that all the subsequent outcomes are missing. The proposed approach consists in assessing the inferences obtained across a family of MNAR pattern-mixture models indexed by a so-called sensitivity parameter that quantifies the departure from MAR. The approach was prompted by a randomized clinical trial investigating the benefits of a treatment for sleep-maintenance insomnia, from which 22% of the individuals had dropped-out before the study end. The second aim was to build on the existing theory for incomplete multivariate data to develop methods for competing risks data with missing causes of failure. The competing risks model is an extension of the standard survival analysis model in which failures from different causes are distinguished. Strategies for modeling competing risks functionals, such as the cause-specific hazards (CSH) and the cumulative incidence function (CIF), generally assume that the cause of failure is known for all patients, but this is not always the case. Some methods for regression with missing causes under the MAR assumption have already been proposed, especially for semi-parametric modeling of the CSH. But other useful models have received little attention, and MNAR modeling and sensitivity analysis approaches have never been considered in this setting. We propose a general framework for semi-parametric regression modeling of the CIF under MAR using inverse probability weighting and multiple imputation ideas. Also under MAR, we propose a direct likelihood approach for parametric regression modeling of the CSH and the CIF. Furthermore, we consider MNAR pattern-mixture models in the context of sensitivity analyses. In the competing risks literature, a starting point for methodological developments for handling missing causes was a stage II breast cancer randomized clinical trial in which 23% of the deceased women had missing cause of death. We use these data to illustrate the practical value of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
28

Langelier, Guillaume. "Intégration de la visualisation à multiples vues pour le développement du logiciel." Thèse, 2010. http://hdl.handle.net/1866/5011.

Full text
Abstract:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Nowadays, software development has to deal more and more with huge complex programs, constructed and maintained by large teams working in different locations. During their daily tasks, each developer may have to answer varied questions using information coming from different sources. In order to improve global performance during software development, we propose to integrate into a popular integrated development environment (Eclipse) our new visualization tool (VERSO), which computes, organizes, displays and allows navigation through information in a coherent, effective, and intuitive way in order to benefit from the human visual system when exploring complex data. We propose to structure information along three axes: (1) context (quality, version control, etc.) determines the type of information; (2) granularity level (code line, method, class, and package) determines the appropriate level of detail; and (3) evolution extracts information from the desired software version. Each software view corresponds to a discrete coordinate according to these three axes. Coherence is maintained by navigating only between adjacent views, which reduces cognitive effort as users search information to answer their questions. Two experiments involving representative tasks have validated the utility of our integrated approach. The results lead us to believe that an access to varied information represented graphically and coherently should be highly beneficial to the development of modern software.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography