To see the other types of publications on this topic, follow the link: Modèle d'arbre.

Dissertations / Theses on the topic 'Modèle d'arbre'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle d'arbre.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Biri, Nicolas. "Logiques spatiales de ressources, modèles d'arbres et applications." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00128631.

Full text
Abstract:
La modélisation et la spécification de systèmes distribués nécessitent une adaptation des modèles logiques utilisés pour leur représentation. Les notions
d'emplacements et de ressources jouent notamment un rôle centrale dans la représentation de ces systèmes.

On propose tout d'abord à la proposition d'une première logique, la logique linéaire distribuée et mobile (DMLL) qui intègre les notions de distribution et de mobilité. On propose également une sémantique à la Kripke et un calcul des séquents supportant l'élimination des coupures pour cette logique.

Cette première étude a mis en avant le rôle centrale de la sémantique pour la modélisation de systèmes distribués. On propose alors la structure des arbres de ressources, des arbres dont les noeuds possèdent des labels et contiennent des ressources appartenant à
monoïde partiel de ressources et BI-Loc, une logique pour raisonner sur ces arbres, un langage permettant de modifier les arbres et son axiomatisation correcte et complète sous forme de triplets de Hoare. Concernant BI-Loc, on détermine des conditions suffisantes pour décider de la satisfaction et de la validité par model-checking et on développe une méthode de preuves fondée sur les tableaux sémantiques correcte et complète.

On montre comment on peut raisonner sur les tas de pointeurs grâce aux arbres de ressources. Enfin, on détermine comment le modèle des arbres partiel peut être utilisé pour représenter et spécifier les données
semi-structurées et raisonner sur la transformation de ce type de données.
APA, Harvard, Vancouver, ISO, and other styles
2

Bertrand, Denis. "Étude et inférence d'arbres de duplication en tandem." Montpellier 2, 2005. http://www.theses.fr/2005MON20180.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Jousse, Florent. "Transformations d'Arbres XML avec des Modèles Probabilistes pour l'Annotation." Phd thesis, Université Charles de Gaulle - Lille III, 2007. http://tel.archives-ouvertes.fr/tel-00342649.

Full text
Abstract:
Cette thèse traite de l'apprentissage supervisé de transformations d'arbres XML. Le langage XML permet de décrire des données sous forme d'arbres dont la structure est définie par un schéma. Il est par conséquent devenu le standard en termes d'échanges de données, que ce soit sur le Web ou entre plusieurs applications. Toutefois, les documents XML peuvent avoir des structures très variables. La grande variété de ces structures nécessite alors d'être capable de transformer de tels arbres. Nous proposons d'effectuer de telles transformations d'arbres XML en annotant les arbres d'entrée, c'est-à-dire en associant un label à chacun de ses noeuds, la sémantique associée aux labels permettant de transformer l'arbre.
Afin d'apprendre à effectuer ces transformations, nous adaptons donc dans un premier temps au cas des arbres XML le modèle des champs aléatoires conditionnels ou Conditional Random Fields (CRF). Les CRFs sont un modèle graphique non dirigé conditionnel pour l'annotation : ils modélisent la probabilité conditionnelle d'une annotation sachant une observation. Ils ont, jusqu'à présent, été essentiellement utilisés dans le cadre de tâches d'annotation de séquences, à la fois dans le domaine de l'extraction d'informations ou en traitement automatiques des langues naturelles. Notre adaptation des CRFs au cas de l'annotation d'arbres XML porte à la fois sur le modèle de dépendances et sur les algorithmes d'inférence exacte (recherche de la meilleure annotation) et d'apprentissage.
De plus, nous proposons deux méthodes d'amélioration de la complexité de ces algorithmes afin de permettre l'utilisation des champs aléatoires conditionnels dans le cadre d'applications à grande échelle. Ces méthodes s'appuient toutes deux sur l'utilisation des connaissances du domaine. La première consiste en l'intégration de contraintes sur l'annotation. Celles-ci viennent restreindre l'espace des annotations possibles d'un arbre en interdisant des configurations de labels. La seconde technique d'amélioration de la complexité que nous proposons consiste en l'approximation d'un CRF par la composition de plusieurs CRFs de complexité moindre, définis sur des sous-parties de l'alphabet des labels.
Ces travaux ont été validés par diverses expériences sur des données artificielles et réelles, montrant ainsi non seulement la qualité des transformations effectuées à l'aide de nos méthodes, mais aussi leur intérêt dans des tâches réelles. Ces bons résultats nous ont conduit à réaliser une application de génération automatique de flux RSS à partir de pages Web. Celle-ci permet à son utilisateur d'apprendre un générateur de flux RSS en annotant une ou plusieurs pages d'un site Web. Ce générateur consiste en un CRF qui annote les pages Web de ce site de façon à transformer l'arbre XHTML en un arbre XML au format RSS. Il permet alors de créer automatiquement des flux RSS pour toute autre page du même site. Cette application est disponible à l'adresse suivante : http://r2s2.futurs.inria.fr/
APA, Harvard, Vancouver, ISO, and other styles
4

Jacquemard, Florent. "Modèles d'automates d'arbres étendus pour la vérification de systèmes infinis." Habilitation à diriger des recherches, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00643595.

Full text
Abstract:
Ce document présente l'étude de plusieurs modèles de machines à états finis qui étendent tous le même formalisme: les automates d'arbres classiques, et leur application dans différentes tâches telles que l'analyse statique de programmes ou de systèmes, la typage, la vérification de la cohérence de spécifications, le model checking... Les arbres sont une structure naturelle de données, très répandue en informatique, par exemple pour la représentation des structures de données hiérarchiques ou imbriquées, pour des algorithmes spécifiques (arbres binaires de recherche, algorithmes distribués), comme modèle abstrait pour des données semi-structurées utilisées pour l'échange d'information dans le Web, pour une présentation algébrique de processus récursifs, comme les termes en logique... Lorsqu'il s'agit de raisonner sur des systèmes manipulant des arbres, ou modelisés par des arbres, il est crucial d'avoir une représentation finie d'ensembles infinis d'arbres. Les automates d'arbres sont des machines à états finis permettant une telle représentation. Ils ont fait la preuve de leur adéquation à des tâches de raisonnement: ils ont un modèle théorique bien établi, en étroite relation avec la logique, ils bénéficient de bonnes propriétés de composition et d'algorithmes de décision efficaces. En particulier, les automates d'arbres sont utilisées au coeur de systèmes de vérification formelle d'outils de déduction automatique. Toutefois, les automates d'arbres ont des limitations sévères en expressivité. Par exemple, ils sont incapables de faire du filtrage non-linéaire ou d'exprimer des contraintes d'intégrité tels que les clés dans les bases de données. Certaines extensions ont été proposées afin d'améliorer le modèle en essayant de conserver de bonnes propriétés. Nous présentons dans ce document de plusieurs de telles extensions, leurs propriétés et leur utilisation en vérification symbolique de systèmes et de programmes.
APA, Harvard, Vancouver, ISO, and other styles
5

Gourlet-Fleury, Sylvie. "Modélisation individuelle spatialement explicite de la dynamique d'un peuplement de forêt dense tropicale humide (dispositif de Paracou - Guyane française)." Phd thesis, Université Claude Bernard - Lyon I, 1997. http://tel.archives-ouvertes.fr/tel-00204403.

Full text
Abstract:
Un simulateur de la dynamique forestière, basé sur un modèle d'arbre dépendant des distances, est élaboré, calibré et évalué à partir des données accumulées sur le dispositif sylvicole expérimental de Paracou en Guyane française. Il met en oeuvre des arbres, localisés au sein d'un peuplement et dotés de règles de vie décrites par des sous-modèles de croissance, de mortalité et de recrutement en fonction d'un pas de temps de trois ans.

Le modèle de croissance est dérivé d'un type « potentiel x réducteur » adapté aux spécifités de la forêt dense tropicale humide de Guyane. Il prédit l'accroissement d'un arbre en fonction de son diamètre à l'instant t et de son environnement immédiat décrit par deux indices de compétition : l'un rend compte de la pression subie par l'arbre en début de période de croissance et l'autre de l'évolution de cette pression dans un passé proche. La prise en compte de quinze groupes d'espèces, homogènes du point de vue de la croissance, améliore considérablement son efficacité. Quatre modèles de mortalité prédisent la mort sur pied et la mort par chablis primaire, secondaire ou complexe d'un arbre, et un modèle de recrutement permet de gérer l'apparition de nouveaux individus sur des placeaux de 100m2 en fonction de la place disponible dans le peuplement.

Le simulateur, programmé en langage SmallTalk-80 selon la technique des systèmes multi-agents, est doté d'une interface conviviale permettant à l'utilisateur : (i) de suivre l'évolution virtuelle dans le temps d'un peuplement et de chacun des individus qui le constituent par le biais de cartes et de graphiques ; (ii) de réaliser à tout moment une gamme très variée d'interventions de manière à tester des scénarios sylvicoles. Les différents essais réalisés montrent que le peuplement que nous avons généré présente un comportement satisfaisant quelle que soit l'intensité des perturbations imposées, mais que sa réactivité est faible au regard d'un modèle matriciel calibré à partir des mêmes données. Nous proposons différentes voies d'amélioration et soulignons l'intérêt que peut présenter ce type de modèle pour la communauté scientifique et, à plus long terme, le gestionnaire forestier.
APA, Harvard, Vancouver, ISO, and other styles
6

Duffaut, Olivier. "Problématique multi-modèle pour la génération d'arbres de test : application au domaine de l'automobile." Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0005.

Full text
Abstract:
Ce travail concerne l'étude d'un système multi-modèle d'aide à la génération d'arbres de test. Son application a été menée sur les systèmes électroniques de commande embarqués sur véhicules automobiles. Le travail présenté met en évidence les problèmes actuels du développement manuel des arbres de test et propose une solution basée sur l'utilisation conjointe de plusieurs modèles du système traité. Dans l'architecture présentée, chaque modèle est considéré comme une entité indépendante qui participe à la construction de l'arbre de test en rendant des services. Ce processus est supervisé par une autre entité qui est dépositaire de la stratégie globale de test. Trois modèles ont été développés : un modèle fonctionnel, un modèle de comportement électrique normal et un modèle de comportement électrique anormal. La connaissance utilisée, les technique de génération de test et les services renuds dans un cadre multi-modèle sont décrits pour chaque modèle. Un maquette informatique a été réalisée. / Les arbres de test fournis ont été testés sur un système d'injection de carburant et évalués par rapport aux arbres de test existants.
APA, Harvard, Vancouver, ISO, and other styles
7

Sellier, Damien. "Analyse numérique du comportement mécanique d'arbres sous sollicitation aérodynamique turbulente." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12911.

Full text
Abstract:
Tempêtes et ouragans causent des dégâts considérables dans les forêts de plantation du globe, entraînant ainsi des pertes économiques sévères. La question de la tenue aérodynamique du système aérien de l'arbre est centrale pour déterminer les risques de ruine lors de tels événements. Un modèle de dynamique non-linéaire des structures basé sur la Méthode des Eléments Finis a été développé afin d'évaluer le comportement mécanique de l'arbre soumis à l'écoulement atmosphérique, de nature turbulente en milieu forestier. L'analyse numérique est nécessaire pour appréhender toute la variabilité et la complexité de l'architecture aérienne des arbres. Les oscillations libres de trois jeunes Pins maritimes (Pinus Pinaster Ait. ) sont caracterisées experimentalement et par des simulations numériques. L'influence de la morphologie des sujets est prise en compte. En outre, le modèle est appliqué à un Epicéa de Sitka (Picea Sitchensis) sous forçage aérodynamique. Enfin, la méthode des plans d'expérience est employée pour identifier les facteurs clés affectant la stabilité d'un Pin maritime soumis à un vent simulé. Les paramètres étudiés sont les caractéristiques géométriques et matérielles de la structure. Les résultats mettent en évidence l'aptitude du modèle à prédire les caractéristiques dynamiques d'arbres réels. Ils confirment de plus l'incidence de l'architecture aérienne sur les mouvements de l'arbre induits par le vent.
APA, Harvard, Vancouver, ISO, and other styles
8

Ghattas, Badih. "Agrégation d'arbres de décision binaires : Application à la prévision de l'ozone dans les Bouches du Rhône." Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Chaubert-Pereira, Florence. "Combinaisons markoviennes et semi-markoviennes de modèles de régression. Application à la croissance d'arbres forestiers." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00341822.

Full text
Abstract:
Ce travail est consacré à l'étude des combinaisons markoviennes et semi-markoviennes de modèles de régression, i.e. des mélanges finis de modèles de régression avec dépendances (semi-)markoviennes. Cette famille de modèles statistiques permet l'analyse de données structurées en phases successives synchrones entre individus, influencées par des covariables pouvant varier dans le temps et présentant une hétérogénéité inter-individuelle. L'algorithme d'inférence proposé pour les combinaisons (semi-)markoviennes de modèles linéaires généralisés est un algorithme du gradient EM. Pour les combinaisons (semi-)markoviennes de modèles linéaires mixtes, nous proposons des algorithmes de type MCEM où l'étape E se décompose en deux étapes de restauration conditionnelle: une pour les séquences d'états sachant les effets aléatoires (et les données observées) et une pour les effets aléatoires sachant les séquences d'états (et les données observées). Différentes méthodes de restauration conditionnelle sont présentées. Nous étudions deux types d'effets aléatoires: des effets aléatoires individuels et des effets aléatoires temporels. L'intérêt de cette famille de modèles est illustré par l'analyse de la croissance d'arbres forestiers en fonctions de facteurs climatiques. Ces modèles nous permettent d'identifier et de caractériser les trois principales composantes de la croissance (la composante ontogénique, la composante environnementale et la composante individuelle). Nous montrons que le poids de chaque composante varie en fonction de l'espèce et des interventions sylvicoles.
APA, Harvard, Vancouver, ISO, and other styles
10

Chaubert, Florence. "Combinaisons markoviennes et semi-markoviennes de modèles de régression : application à la croissance d'arbres forestiers." Montpellier 2, 2008. http://www.theses.fr/2008MON20117.

Full text
Abstract:
Ce travail est consacré à l'étude des combinaisons markoviennes et semi-markoviennes de modèles de régression, i. E. Des mélanges finis de modèles de régression avec dépendances (semi-)markoviennes. Cette famille de modèles statistiques permet l'analyse de données structurées en phases successives asynchrones entre individus, influencées par des covariables pouvant varier dans le temps et présentant une hétérogénéité inter-individuelle. L'algorithme d'inférence proposé pour les combinaisons (semi-)markoviennes de modèles linéaires généralisés est un algorithme du gradient EM. Pour les combinaisons (semi-)markoviennes de modèles linéaires mixtes, nous proposons des algorithmes de type MCEM où l'étape E se décompose en deux étapes de restauration conditionnelle: une pour les séquences d'états sachant les effets aléatoires (et les données observées) et une pour les effets aléatoires sachant les séquences d'états (et les données observées). Différentes méthodes de restauration conditionnelle sont présentées. Nous étudions deux types d'effets aléatoires: des effets aléatoires individuels et des effets aléatoires temporels. L'intérêt de cette famille de modèles est illustré par l'analyse de la croissance d'arbres forestiers en fonctions de facteurs climatiques. Ces modèles nous permettent d'identifier et de caractériser les trois principales composantes de la croissance (la composante ontogénique, la composante environnementale et la composante individuelle). Nous montrons que le poids de chaque composante varie en fonction de l'espèce et des interventions sylvicoles
This work focuses on Markov and semi-Markov switching regression models, i. E. Finite mixtures of regression models with (semi-)Markovian dependencies. These statistical models enable to analyse data structured as a succession of stationary phases that are asynchronous between individuals, influenced by time-varying covariates and which present inter-individual heterogeneity. The proposed inference algorithm for (semi-)Markov switching generalized linear models is a gradient EM algorithm. For (semi-)Markov switching linear mixed models, we propose MCEM-like algorithms whose E-step decomposes into two conditional restoration steps: one for the random effects given the state sequences (and the observed data) and one for the state sequences given the random effects (and the observed data). Various conditional restoration steps are presented. We study two types of random effects: individual-wise random effects and environmental random effects. The relevance of these models is illustrated by the analysis of forest tree growth influenced by climatic covariates. These models allow us to identify and characterize the three main growth components (ontogenetic component, environmental component and individual component). We show that the weight of each component varies according to species and silvicultural interventions
APA, Harvard, Vancouver, ISO, and other styles
11

Houdet-Côté, Benoît-Nicolas. "Le modèle des préférences références-dépendantes : test sur l'offre de travail de planteurs d'arbres de la Colombie-Britannique." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26034/26034.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Bettenfeld, Marie-Laure. "Etude de la diffusion de substances d'arôme dans des produits alimentaires modèles." Dijon, 1985. http://www.theses.fr/1985DIJOS002.

Full text
Abstract:
Le but de ce travail etait de mettre au point une methode experimentale de mesure de la diffusivite en milieu concentre et d'etudier l'influence des divers parametres entrant en jeu, sur celle-ci. Il a ete necessaire de travailler sur des substances modeles. En effet, les produits alimentaires sont des melanges complexes de composes de structures tres variees (glucides, lipides, proteines. . . ). On a choisi en tant que milieu de diffusion, des solutions de sucres appeles "substrats". Les aromes sont representes par des substances d'arome pures entrant dans leur composition.
APA, Harvard, Vancouver, ISO, and other styles
13

Morin, Xavier. "Biogéographie des espèces d'arbres européens et nord-américains : déterminisme et évolution sous l'effet du changement climatique." Montpellier 2, 2006. http://www.theses.fr/2006MON20056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Doumenge, Charles. "Contribution à l'étude des structures de populations d'arbres des forêts d'Afrique centrale (exemples du Gabon, Cameroun et Congo)." Montpellier 2, 1990. http://www.theses.fr/1990MON20285.

Full text
Abstract:
Dans cinq sites forestiers d'afrique centrale, les structures de populations d'arbres sont abordees par l'etude des structures demographiques et des repartitions horizontales des individus, en relation avec la position des houppiers des arbres relativement a la voute forestiere (arbres du sous-bois, de la voute ou emergents). Deux types opposes de population, et un type intermediaire, sont mis en evidence. Pour chacun d'eux, sont evoques des elements de leur fonctionnement, en insistant sur l'importance de la dispersion des diaspores et sur celle de la disponibilite en lumiere a tous les stades de developpement. Ces types de structures sont interpretes dans le cadre des dynamiques de renouvellement forestier, continu ou rythmique, et en relation avec le degre de stabilite des conditions de croissance et de developement des especes
APA, Harvard, Vancouver, ISO, and other styles
15

Grunenwald, Thierry. "Comportement vibratoire d'arbres de machines tournantes dans un espace annulaire de fluide de confinement modere." Paris 6, 1994. http://www.theses.fr/1994PA066380.

Full text
Abstract:
Le but de cette these est de decrire le comportement vibratoire d'un arbre dans un espace annulaire de fluide moderement confine. On y expose les principes theoriques du couplage fluide-elastique induit par l'ecoulement du fluide autour d'un arbre vertical suspendu, d'abord centre, puis excentre, dans l'espace annulaire. Les forces du fluide sur l'arbre sont modelisees par un terme intertiel, un terme gyroscopique et un terme de raideur. Le frottement fluide fait apparaitre une force d'amortissement et une force de raideur couplant les deplacements vibratoires transverses. Ces forces sont notablement modifiees par une excentricite relative de l'arbre, lorsqu'elle est superieure a 50%. L'analyse modale d'un tel systeme montre que chaque mode transverse du rotor a l'arret donne lieu a un mode direct et un mode retrograde durant la rotation. L'analyse de stabilite de ces modes met en evidence une instabilite du mode direct pour le rotor centre a une vitesse egale a deux fois sa frequence propre en air. Par contre, si l'arbre est excentre, le mode retrograde devient instable a une vitesse de rotation environ deux fois moindre. Afin de valider les modeles proposes, une etude experimentale est menee sur vibor, une maquette d'essais dont l'arbre est centre, et adhoc, une maquette developpee pour observer l'effet de l'excentricite. Les essais confirment l'existence de deux types d'instabilite, selon que le rotor est centre ou non. La theorie predit de maniere satisfaisante l'evolution des parametres modaux avec vitesse de rotation
APA, Harvard, Vancouver, ISO, and other styles
16

Le-Hong, Phuong. "Elaboration d'un composant syntaxique à base de grammaires d'arbres adjoints pour le vietnamien." Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00529657.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine du traitement automatique des langues naturelles et plus spécifiquement dans celui du traitement du vietnamien. Le travail présenté dans la thèse porte sur la construction d'outils et de ressources linguistiques pour les tâches fondamentales de traitement automatique du vietnamien, notamment la construction d'une grammaire à large couverture et un analyseur syntaxique pour cette langue. Nous développons une chaîne modulaire de prétraitements pour le vietnamien dont le rôle est d'appliquer à des corpus bruts une cascade de traitements de surface. Il s'agit d'un segmenteur en phrases, d'un segmenteur en unités lexicales, d'un reconnaisseur de mots redoublés et d'un étiqueteur morpho-syntaxique. Préalables nécessaires à une possible analyse, ces traitements peuvent également servir à préparer d'autres tâches. La modélisation de la grammaire vietnamienne est effectuée en utilisant le formalisme des grammaires d'arbres adjoints lexicalisées (Lexicalized Tree Adjoining Grammars ou LTAG). Nous développons un système qui extrait automatiquement une grammaire LTAG à partir d'un corpus arboré du vietnamien. Les arbres élémentaires de la grammaire forment les structures syntaxiques de la langue vietnamienne. Nous adaptons et enrichissons un analyseur syntaxique du français pour construire un analyseur syntaxique profond pour le vietnamien. Nous présentons les fondements théoriques des différents modules et systèmes, leurs évaluations quantitatives. Nos systèmes atteignent des performances prometteuses dans les tâches du traitement automatique du vietnamien à l'heure actuelle.
APA, Harvard, Vancouver, ISO, and other styles
17

RODRIGUEZ, SABINE. "Sur la simulation logicielle d'arbres de defaillances par des modeles neuronaux appliquee a des systemes industriels." Paris 6, 1999. http://www.theses.fr/1999PA066437.

Full text
Abstract:
Dans ce memoire, nous avons tout d'abord cherche a recenser les logiciels fiabilistes et en particulier ceux qui traitent la methode des arbres de defaillances, en caracterisant leurs fonctionnalites. Notre interet s'est alors porte vers la methode des arbres de defaillances pour laquelle nous avons etudie les differentes methodes existantes pour l'evaluation probabiliste et la determination des coupes minimales. Ensuite, nous avons cherche a etablir l'interet et les potentialites des reseaux de neurones pour une analyse fiabiliste. Nous proposons, dans un premier temps, un reseau neuronal a une couche cachee correspondant a un arbre de defaillances. Ce reseau est construit par un apprentissage des combinaisons binaires de defaillances en sommes de produits disjoints. Cette approche permet de fournir une analyse qualitative et quantitative exacte d'un arbre de defaillances coherent. Dans un second temps, nous proposons un reseau neuronal multicouche. Les regles de fonctionnement du reseau multicouche, que nous avons introduites, font apparaitre un nouveau principe de coexistence entre l'excitation et l'inhibition d'un evenement. Cette approche neuronale permet une analyse fiabiliste d'un arbre de defaillances. Nous avons montre, sur des cas pratiques et des benchmarks, que la complexite en terme de temps de calcul et de memoire est plus satisfaisante par un reseau neuronal multicouche que par la precedente methode neuronale a une couche cachee. Dans la continuite de l'etude fiabiliste sur les arbres de defaillances, nous introduisons un possible travail futur liant les seuils des reseaux de neurones et l'allocation d'objectifs de surete representee par des barrieres techniques et d'utilisations. Cette demarche a ete illustree dans le cadre du demantelement d'une installation nucleaire de base.
APA, Harvard, Vancouver, ISO, and other styles
18

Cerutti, Guillaume. "Segmentation et interprétation d'images naturelles pour l'identification de feuilles d'arbres sur smartphone." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22022/document.

Full text
Abstract:
Les espèces végétales, et en particulier les espèces d'arbres, forment un cadre de choix pour un processus de reconnaissance automatique basé sur l'analyse d'images. Les critères permettant de les identifier sont en effet le plus souvent des éléments morphologiques visuels, bien décrits et référencés par la botanique, qui laissent à penser qu'une reconnaissance par la forme est envisageable. Les feuilles constituent dans ce contexte les organes végétaux discriminants les plus faciles à appréhender, et sont de ce fait les plus communément employés pour ce problème qui connaît actuellement un véritable engouement. L'identification automatique pose toutefois un certain nombre de problèmes complexes, que ce soit dans le traitement des images ou dans la difficulté même de la classification en espèces, qui en font une application de pointe en reconnaissance de formes.Cette thèse place le problème de l'identification des espèces d'arbres à partir d'images de leurs feuilles dans le contexte d'une application pour smartphones destinée au grand public. Les images sur lesquelles nous travaillons sont donc potentiellement complexes et leur acquisition peu supervisée. Nous proposons alors des méthodes d'analyse d'images dédiées, permettant la segmentation et l'interprétation des feuilles d'arbres, en se basant sur une modélisation originale de leurs formes, et sur des approches basées modèles déformables. L'introduction de connaissances a priori sur la forme des objets améliore ainsi de façon significative la qualité et la robustesse de l'information extraite de l'image. Le traitement se déroulant sur l'appareil, nous avons développé ces algorithmes en prenant en compte les contraintes matérielles liées à leur utilisation.Nous introduisons également une description spécifique des formes des feuilles, inspirée par les caractéristiques déterminantes recensées dans les ouvrages botaniques. Ces différents descripteurs fournissent des informations de haut niveau qui sont fusionnées en fin de processus pour identifier les espèces, tout en permettant une interprétation sémantique intéressante dans le cadre de l'interaction avec un utilisateur néophyte. Les performances obtenues en termes de classification, sur près de 100 espèces d'arbres, se situent par ailleurs au niveau de l'état de l'art dans le domaine, et démontrent une robustesse particulière sur les images prises en environnement naturel. Enfin, nous avons intégré l'implémentation de notre système de reconnaissance dans l'application Folia pour iPhone, qui constitue une validation de nos approches et méthodes dans un cadre réel
Plant species, and especially tree species, constitute a well adapted target for an automatic recognition process based on image analysis. The criteria that make their identification possible are indeed often morphological visual elements, which are well described and referenced by botany. This leads to think that a recognition through shape is worth considering. Leaves stand out in this context as the most accessible discriminative plant organs, and are subsequently the most often used for this problem recently receiving a particular attention. Automatic identification however gives rise to a fair amount of complex problems, linked with the processing of images, or in the difficult nature of the species classification itself, which make it an advanced application for pattern recognition.This thesis considers the problem of tree species identification from leaf images within the framework of a smartphone application intended for a non-specialist audience. The images on which we expect to work are then potentially very complex scenes and their acquisition rather unsupervised. We consequently propose dedicated methods for image analysis, in order to segment and interpret tree leaves, using an original shape modelling and deformable templates. The introduction on prior knowledge on the shape of objects enhances significatively the quality and the robustness of the information we extract from the image. All processing being carried out on the mobile device, we developed those algorithms with concern towards the material constraints of their exploitation. We also introduce a very specific description of leaf shapes, inspired by the determining characteristics listed in botanical references. These different descriptors constitute independent sources of high-level information that are fused at the end of the process to identify species, while providing the user with a possible semantic interpretation. The classification performance demonstrated over approximately 100 tree species are competitive with state-of-the-art methods of the domain, and show a particular robustness to difficult natural background images. Finally, we integrated the implementation of our recognition system into the \textbf{Folia} application for iPhone, which constitutes a validation of our approaches and methods in a real-world use
APA, Harvard, Vancouver, ISO, and other styles
19

Rancourt, Marie-Pierre. "Programmes d'aide à l'emploi et solidarité sociale : analyse causale des effets de la participation par l'approche des forêts aléatoires." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/67007.

Full text
Abstract:
Dans ce mémoire, nous évaluons l’effet des programmes d’aide à l’emploi sur le nombre de sorties de l’aide sociale et la durée cumulative passée en dehors de celle-ci chez les prestataires vivant avec des contraintes sévères à l’emploi. Il est évident que tous les prestataires ne tireront pas les mêmes bénéfices de la participation à un programme et pour cette raison il est utile d’évaluer des effets de traitement conditionnellement aux caractéristiques de chaque individu. Pour bien répondre à la question de recherche, nous avons besoin d’une méthode flexible nous permettant d’estimer des effets de traitement hétérogènes. Pour ce faire, nous utilisons une technique d’apprentissage automatique nommée generalized random forests (grf ) nous permettant d’évaluer des effets de traitement hétérogènes en conditionnant sur les caractéristiques des individus. Nous avons utilisé une base de données fournie par le Ministère du Travail, de l’Emploi et de la Solidarité sociale (MTESS) contenant les observations mensuelles de tous les prestataires d’aide et de solidarité sociale entre 1999 et 2018 au Québec. Grâce à la méthode grf et à la base de données du MTESS, nous avons trouvé que les prestataires présentant les plus longues durées cumulatives à l’aide sociale ont des effets de traitement moins élevés que ceux présentant des durées plus courtes. Nous avons également observé que les prestataires les plus jeunes et les plus scolarisés bénéficient davantage de la participation aux programmes que les autres. C’est également le cas des individus qui ont un diagnostic auditif et de ceux qui n’ont pas un diagnostic organique.
In this thesis, we assess the effect of employment assistance programs on the number of exits from social assistance and the cumulative duration spent outside of it among beneficiaries living with severe constraints. It is obvious that not all beneficiaries will derive the same benefits from participating in a program and for this reason it is useful to assess treatment effects conditional on the characteristics of each individual. To answer the research question, we need a flexible method that allows us to estimate differentiated treatment effects based on individual characteristics. To do this, we use a machine learning technique called generalized random forests (grf ) allowing us to evaluate heterogeneous treatment effects by conditioning on the characteristics of individuals. We used a database provided by the Ministère du Travail, de l’Emploi et de la Solidarité sociale (MTESS) containing monthly observations of all recipients of social assistance between 1999 and 2018 in Quebec. Using the grf method and the MTESS database, we found that beneficiaries with the longest cumulative durations on social assistance had lower treatment effects than those with shorter durations. We also observed that the younger and more educated beneficiaries benefited more from program participation than the others. This is also the case for individuals who have an auditory diagnosis and those who do not have an organic diagnosis.
APA, Harvard, Vancouver, ISO, and other styles
20

Ammar, Sourour. "Modèles Graphiques Probabilistes pour l'Estimation de Densité en grande dimension : applications du principe Perturb & Combine pour les mélanges d'arbres." Phd thesis, Université de Nantes, 2010. http://tel.archives-ouvertes.fr/tel-00568136.

Full text
Abstract:
Dans les applications actuelles, le nombre de variables continue d'augmenter, ce qui rend difficile l'estimation de densité. En effet, le nombre de paramètres nécessaire pour l'estimation croit exponentiellement par rapport à la dimension du problème. Les modèles graphiques probabilistes fournissent une aide non négligeable pour lutter contre ce problème en fournissant une factorisation de la loi jointe mais souffrent d'un problème de passage à l'échelle. Le problème de grande dimension s'accentue du fait que le nombre d'observations avec lequel on effectue l'estimation de densité n'augmente pas dans les mêmes proportions, et reste même extrêmement faible dans certains domaines d'applications. La factorisation de la loi jointe s'avère non suffisante pour effectuer une estimation de densité de qualité lorsqu'il y a très peu de données. Le principe du Perturb & Combine, initialement appliqué en classification, permet de lutter contre ce genre de problèmes. Dans le cadre de cette thèse, nous proposons un algorithme générique d'estimation de densité en appliquant le principe du Perturb et Combine à une famille de modèles graphiques probabilistes "simples" , les structures arborescentes "manipulables" avec une complexité au pire quadratique. Plusieurs variantes de cet algorithme sont proposées en exploitant à deux niveaux le principe de perturbation: perturbation de la génération des modèles simples et perturbation des données d'apprentissage. Les expérimentations effectuées lors de ce travail montrent que nos premières approches sont concluantes en ce qui concerne la qualité d'approximation, pour une complexité algorithmique quadratique encore insuffisante en grande dimension. Notre seconde contribution concerne donc une nouvelle application du principe de perturbation, permettant d'arriver à une complexité algorithmique proche du quasi-linéaire pour une même qualité d'approximation.
APA, Harvard, Vancouver, ISO, and other styles
21

Leblanc, Stéphane. "L'influence de la fatigue sur la productivité des planteurs d'arbres en Colombie-Britannique : une analyse sur données de panel." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24552/24552.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Ammar, Kessentini Sourour. "Modèles graphiques probabilistes pour l'estimation de densité en grande dimensionbTexte imprimé : applications du principe Perturb & Combine pour les mélanges d'arbres." Nantes, 2010. http://www.theses.fr/2010NANT2082.

Full text
Abstract:
Dans les applications actuelles, le nombre de variables continue d'augmenter, ce qui rend difficile l'estimation de densité. En effet, le nombre de paramètres nécessaire pour l'estimation croit exponentiellement par rapport à la dimension du problème. Les modèles graphiques probabilistes fournissent une aide non négligeable pour lutter contre ce problème en fournissant une factorisation de la loi jointe mais souffrent d'un problème de passage à l'échelle. Le problème de grande dimension s'accentue du fait que le nombre d'observations avec lequel on effectue l'estimation de densité n'augmente pas dans les mêmes proportions, et reste même extrêmement faible dans certains domaines d'applications. La factorisation de la loi jointe s'avère non suffisante pour effectuer une estimation de densité de qualité lorsqu'il y a très peu de données. Le principe du Perturb & Combine, initialement appliqué en classification, permet de lutter contre ce genre de problèmes. Dans le cadre de cette thèse, nous proposons un algorithme générique d'estimation de densité en appliquant le principe du Perturb et Combine à une famille de modèles graphiques probabilistes "simples" , les structures arborescentes "manipulables" avec une complexité au pire quadratique. Plusieurs variantes de cet algorithme sont proposées en exploitant à deux niveaux le principe de perturbation : perturbation de la génération des modèles simples et perturbation des données d'apprentissage. Les expérimentations effectuées lors de ce travail montrent que nos premières approches sont concluantes en ce qui concerne la qualité d'approximation, pour une complexité algorithmique quadratique encore insuffisante en grande dimension. Notre seconde contribution concerne donc une nouvelle application du principe de perturbation, permettant d'arriver à une complexité algorithmique proche du quasi-linéaire pour une même qualité d'approximation
The dimensionality of current applications increases which makes the density estimation a difficult task. Indeed, the needed number of parameters to make estimation grows exponentially with respect to the dimension of the problem. Probabilistic graphical models can be used to solve this problem by providing a factorization of the joint distribution, but they suffer from a problem of scalability. The problem of high dimensional spaces is accentuated by the number of observations used to perform density estimation witch is not increased in the same proportions, and even remains extremely law in some applications. Factorization of the joint distribution is not sufficient to perform good density estimation with sparse data. The Perturb and Combine framework, first explored in classification, provide solutions for such problems. In this work, we explore and propose a generic algorithm for density estimation by applying the Perturb and Combine principle to a reduced family of simple probabilistic graphical models. These tree structures we proposed to use can be "manipulated" with at worst a quadratic complexity. Several variants of this algorithm are proposed by exploiting the Perturb and Combine principle according to two levels : perturbation of the tree generating procedure and perturbation of the learning dataset. Our initial approaches are conclusive regarding the quality of approximation, with a quadratic computational complexity, still insufficient in high dimensional spaces. Our second contribution concerns therefore a new application of the Perturb and Combine principle, which allows attending almost quasi-linear computational complexity, for the same quality of approximation
APA, Harvard, Vancouver, ISO, and other styles
23

Bongard, Sébastien. "Partage et libération de composés d'arôme dans des matrices laitières émultionnées et gélifiées modèles de yaourts brassés." Nantes, 2006. http://www.theses.fr/2006NANT2048.

Full text
Abstract:
Pour dégager étapes de formulation et facteurs de composition : teneur et nature de la matière grasse, et de structure modifiant la disponibilité de l'arôme dans les yaourts brassés, des matrices laitières modèles : émulsion, et gels brassés, ont été élaborées et leurs propriétés mécaniques et leur structure, incluant la composition protéique des interfaces ont été caractérisées. L'étude du partage et de la libération des composés d'arôme a permis de montrer que la rétention des composés d'arôme hydrophobes augmente avec la teneur en matière grasse liquide. Leur vitesse de libération est liée à la teneur en matière grasse liquide dans le cas des émulsions et au seuil d'écoulement dans le cas des gels. Au delà de 30g. Kg-1 de lipides, seule la fraction de matière grasse liquide doit être intégrée aux modèles de prédiction du partage. Pour les faibles teneurs en matière grasse, composition et structure de la phase continue doivent être prises en compte pour prédire partage et libération
This work aimed to sort the keys factors that modified the behavior of aroma compounds in models of stirred yogurts. Complex matrices were designed by varying the amount and the nature of emulsified fat as well as the organization of the continuous phase (emulsions vs stirred gels). Mechanical properties, structure of matrices and protein load and composition at the interface were characterized. Retention of hydrophobic aroma compounds was mainly related to the amount of liquid fat and to a lesser extent to the organization of the continuous phase. The release rate was related to the amount of liquid fat in emulsions and to the yield stress in stirred gels. Above 30 g. Kg-1 of liquid fat, partition coefficients over emulsions and stirred gels can be predicted from behavior over liquid fat and water only. Below this value, composition and organization of the continuous phase must be taken into account
APA, Harvard, Vancouver, ISO, and other styles
24

Ramirez, Ramirez Gabriela. "Etude de la sorption des composés d'arôme du vin par le bois de chêne en système modèle d'élevage en fûts." Dijon, 2002. http://www.theses.fr/2002DIJOS062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Doherty, Jean-François. "Phénologie et modèles prévisionnels d'éclosion printanière pour trois arthropodes ravageurs en plantation commerciale d'arbres de Noël dans un contexte de changements climatiques." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27826.

Full text
Abstract:
Le puceron des pousses du sapin Mindarus abietinus et le tétranyque de l’épinette Oligonychus ununguis sont deux ravageurs d’importance économique pour l’industrie des arbres de Noël au Québec. Les changements climatiques en cours pourraient affecter leur biologie et physiologie de telle sorte que leurs dommages sur les sapins cultivés augmenteront dans les prochaines décennies. Afin d’étudier les interactions entre M. abietinus, son arbre-hôte et la température ambiante, j’ai suivi des populations du puceron pendant trois étés dans des sapinières commerciales du sud du Québec. Entre autres, j’ai montré qu’il est possible de séparer correctement les générations chevauchantes de filles ailées et aptères du cycle vital complexe de M. abietinus, ce qui m’a permis d’observer une proportion de filles aptères plusieurs fois supérieure à ce qui était connu auparavant. Dans une expérience en plantation de sapin baumier, j’ai montré qu’un milieu réchauffé causerait une augmentation significative du taux de croissance des colonies de M. abietinus sur les pousses, en comparaison avec les colonies sous conditions naturelles actuelles. Ces résultats supportent l’hypothèse qu’un climat plus chaud, causé par les changements anthropogéniques, pourrait favoriser des densités plus élevées de M. abietinus, ce qui pourrait augmenter ses dommages esthétiques sur le sapin. Dans une expérience de laboratoire, la durée du développement en fonction de la température des œufs de ces deux ravageurs et de ceux d’une autre espèce, la cochenille des aiguilles du pin Chionaspis pinifoliae, a été mesurée en milieu contrôlé, ce qui m’a permis d’élaborer des modèles prévisionnels linéaires et non linéaires du taux de développement des œufs hivernés postdiapausants nouveaux pour le Québec. Finalement, en suivant la masse fraîche d’œufs hivernants de M. abietinus tout au long de leur diapause de plusieurs mois, j’ai observé un accroissement de la masse au printemps, impliquant l’eau comme possible facteur de déclenchement de l’embryogenèse.
The balsam twig aphid Mindarus abietinus and the spruce spider mite Oligonychus ununguis are two pests of economic importance for the Christmas tree industry in Québec. Current climate change could affect their biology and physiology in such a way that, if their local densities in commercial fir plantations grow in the future, potential damage to cultivated firs could increase substantially. In order to study the interactions between M. abietinus, its host tree, and ambient temperature, I followed populations of the aphid during three consecutive summers in commercial fir plantations of southern Québec. I found it possible to separate overlapping generations of different morphs of this aphid in growing colonies on fir shoots, which allowed to record a proportion of wingless daughters several times larger than previously known for this aphid in its complex life cycle. Based on a field experiment, a warmer environment surrounding the aphids on balsam fir shoots increased spring colony growth rates significantly, when compared to unaltered colonies on neighbouring trees. These results support the hypothesis that a warmer climate, caused by anthropogenic change, would promote higher densities of M. abietinus on fir shoots, which could increase esthetic damage to Christmas trees. In a laboratory experiment, I studied the effect of ambient temperature on postdiapause development of the overwintering eggs of both aphid and mite species, along with that of another conifer-feeding pest, the pine needle scale Chionaspis pinifoliae, which led to parametrise new linear and nonlinear development rate models for postdiapause egg development of all three species. Finally, by following fresh mass of M. abietinus overwintering eggs throughout their diapause of several months, it was possible to observe a substantial increase in size and mass of these eggs in early spring, suggesting that water could trigger diapause termination and/or initiate embryogenesis of the first active stage.
APA, Harvard, Vancouver, ISO, and other styles
26

Ospina, Arango Juan David. "Predictive models for side effects following radiotherapy for prostate cancer." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S046/document.

Full text
Abstract:
La radiothérapie externe (EBRT en anglais pour External Beam Radiotherapy) est l'un des traitements référence du cancer de prostate. Les objectifs de la radiothérapie sont, premièrement, de délivrer une haute dose de radiations dans la cible tumorale (prostate et vésicules séminales) afin d'assurer un contrôle local de la maladie et, deuxièmement, d'épargner les organes à risque voisins (principalement le rectum et la vessie) afin de limiter les effets secondaires. Des modèles de probabilité de complication des tissus sains (NTCP en anglais pour Normal Tissue Complication Probability) sont nécessaires pour estimer sur les risques de présenter des effets secondaires au traitement. Dans le contexte de la radiothérapie externe, les objectifs de cette thèse étaient d'identifier des paramètres prédictifs de complications rectales et vésicales secondaires au traitement; de développer de nouveaux modèles NTCP permettant l'intégration de paramètres dosimétriques et de paramètres propres aux patients; de comparer les capacités prédictives de ces nouveaux modèles à celles des modèles classiques et de développer de nouvelles méthodologies d'identification de motifs de dose corrélés à l'apparition de complications. Une importante base de données de patients traités par radiothérapie conformationnelle, construite à partir de plusieurs études cliniques prospectives françaises, a été utilisée pour ces travaux. Dans un premier temps, la fréquence des symptômes gastro-Intestinaux et génito-Urinaires a été décrite par une estimation non paramétrique de Kaplan-Meier. Des prédicteurs de complications gastro-Intestinales et génito-Urinaires ont été identifiés via une autre approche classique : la régression logistique. Les modèles de régression logistique ont ensuite été utilisés dans la construction de nomogrammes, outils graphiques permettant aux cliniciens d'évaluer rapidement le risque de complication associé à un traitement et d'informer les patients. Nous avons proposé l'utilisation de la méthode d'apprentissage de machine des forêts aléatoires (RF en anglais pour Random Forests) pour estimer le risque de complications. Les performances de ce modèle incluant des paramètres cliniques et patients, surpassent celles des modèle NTCP de Lyman-Kutcher-Burman (LKB) et de la régression logistique. Enfin, la dose 3D a été étudiée. Une méthode de décomposition en valeurs populationnelles (PVD en anglais pour Population Value Decomposition) en 2D a été généralisée au cas tensoriel et appliquée à l'analyse d'image 3D. L'application de cette méthode à une analyse de population a été menée afin d'extraire un motif de dose corrélée à l'apparition de complication après EBRT. Nous avons également développé un modèle non paramétrique d'effets mixtes spatio-Temporels pour l'analyse de population d'images tridimensionnelles afin d'identifier une région anatomique dans laquelle la dose pourrait être corrélée à l'apparition d'effets secondaires
External beam radiotherapy (EBRT) is one of the cornerstones of prostate cancer treatment. The objectives of radiotherapy are, firstly, to deliver a high dose of radiation to the tumor (prostate and seminal vesicles) in order to achieve a maximal local control and, secondly, to spare the neighboring organs (mainly the rectum and the bladder) to avoid normal tissue complications. Normal tissue complication probability (NTCP) models are then needed to assess the feasibility of the treatment and inform the patient about the risk of side effects, to derive dose-Volume constraints and to compare different treatments. In the context of EBRT, the objectives of this thesis were to find predictors of bladder and rectal complications following treatment; to develop new NTCP models that allow for the integration of both dosimetric and patient parameters; to compare the predictive capabilities of these new models to the classic NTCP models and to develop new methodologies to identify dose patterns correlated to normal complications following EBRT for prostate cancer treatment. A large cohort of patient treated by conformal EBRT for prostate caner under several prospective French clinical trials was used for the study. In a first step, the incidence of the main genitourinary and gastrointestinal symptoms have been described. With another classical approach, namely logistic regression, some predictors of genitourinary and gastrointestinal complications were identified. The logistic regression models were then graphically represented to obtain nomograms, a graphical tool that enables clinicians to rapidly assess the complication risks associated with a treatment and to inform patients. This information can be used by patients and clinicians to select a treatment among several options (e.g. EBRT or radical prostatectomy). In a second step, we proposed the use of random forest, a machine-Learning technique, to predict the risk of complications following EBRT for prostate cancer. The superiority of the random forest NTCP, assessed by the area under the curve (AUC) of the receiving operative characteristic (ROC) curve, was established. In a third step, the 3D dose distribution was studied. A 2D population value decomposition (PVD) technique was extended to a tensorial framework to be applied on 3D volume image analysis. Using this tensorial PVD, a population analysis was carried out to find a pattern of dose possibly correlated to a normal tissue complication following EBRT. Also in the context of 3D image population analysis, a spatio-Temporal nonparametric mixed-Effects model was developed. This model was applied to find an anatomical region where the dose could be correlated to a normal tissue complication following EBRT
APA, Harvard, Vancouver, ISO, and other styles
27

Faure, Pierre-Philippe. "Une approche à base de modèles fondés sur les intervalles pour la génération automatique d'arbres de diagnostic optimaux, application au domaine de l'automobile." Paris 13, 2001. http://www.theses.fr/2001PA132035.

Full text
Abstract:
Ce travail a été réalisé dans le cadre d'une convention CIFRE entre les centres de recherche du LAAS-CNRS et du LIPN et la société ACTIA qui développe des outils d'aide au diagnostic de pannes automobiles. Dans le domaine de l'automobile, l'utilisation de calculateurs électroniques complexes destinés à contrôler des fonctions telles que l'injection ou encore l'ABS s'est considérablement développée ces dernières années. En cas de panne d'une fonction, le calculateur intéressé est capable d'identifier précisément le circuit électronique défectueux. La tâche du garagiste consiste alors à localiser et à remplacer le composant fautif de ce circuit. Ce travail est réalisé en parcourant un arbre de diagnostic composé de séquences de tests et ayant pour feuilles les différentes réparations possibles à opérer. Ces arbres sont actuellement élaborés manuellement par des experts et, compte tenu de la complexité toujours croissante de ces circuits, il n'est pas rare d'y trouver des erreurs. L'application informatique AGENDA (pour automatic GENeration of DiAgnosis trees), développée au cours de cette thèse, met en oeuvre des algorithmes permettant de générer automatiquement ces arbres de diagnostic à partir des données de conception fournies par le constructeur automobile. D'abord, différents modèles du circuit à diagnostiquer sont construits à partir de ces données et des connaissances spécifiques données par l'expert grâce à une interface prévue à cet effet. Ensuite, les différentes fautes possibles de ce circuit ainsi que les différents tests applicables sont générés. Les valeurs correspondant aux tests lorsque le circuit est affecté d'une de ces fautes sont prédites grâce aux modèles. Enfin, l'exécution d'un algorithme AO* muni d'une heuristique pertinente permet d'obtenir un arbre de diagnostic optimal. Le critère d'évaluation d'un arbre de diagnostic se calcumle à partir des probabilités d'occurence des fautes et des coûts des tests.
APA, Harvard, Vancouver, ISO, and other styles
28

Kovacsik, Hélène. "Etude des propriétés mécaniques de la paroi artérielle après mise en place d'un stent sur un modèle animal d'artère de petit calibre." Montpellier 1, 2001. http://www.theses.fr/2001MON1T016.

Full text
Abstract:
La restenose apres mise en place d'un stent est un probleme majeur, dont l'incidence est accrue dans les arteres de petit calibre. L'hyperplasie myo-intimale est responsable de la diminution de la lumiere circulante. Dans le but de comprendre quels sont les facteurs promoteurs de cette hyperplasie, il importe d'analyser comment la presence d'un stent modifie les proprietes mecaniques de la paroi arterielle, et altere ainsi la fonction endotheliale. Nous avons etudie les proprietes mecaniques de la paroi arterielle apres mise en place d'un stent dans un modele animal d'artere de petit calibre : l'aorte sous-renale du lapin. [. . . ] la compliance et la distensibilite diminuaient et le diametre augmentait significativement au niveau du segment stente, sans modification significative des proprietes mecaniques de l'aorte en aval et en amont. Le desaccord de compliance initial ainsi observe apres mise en place d'un stent pourrait etre le principal facteur mecanique responsable de restenose du fait des perturbations locales de l'ecoulement et des contraintes parietales induites. Afin d'etudier les variations dans le temps des proprietes mecaniques des arteres stentees, nous avons adapte et valide une technique non vulnerante de mesure echographique trans-parietale des variations de diametre arteriel en la comparant a la technique invasive de poursuite d'echo. Cette technique nous permet desormais d'evaluer en aigu et en chronique l'effet du degre de dilatation arterielle sur la restenose.
APA, Harvard, Vancouver, ISO, and other styles
29

Atlan, Samuel. "Modélisation de la libération des composés d'arôme à partir de matrices alimentaires dans des systemes experimentaux et en bouche : détermination des proprietés et mécanismes de transfert de matière." Paris, AgroParisTech, 2007. http://pastel.paristech.org/3444/01/2007-03-19_Th%C3%A8se_Atlan_(version_finale).pdf.

Full text
Abstract:
Les composés d’arôme sont des molécules volatiles présentes à de faibles concentrations dans les aliments. Ils sont responsables de la perception olfactive et constituent un critère déterminant de la qualité organoleptique expliquant les préférences des consommateurs. Afin de mieux comprendre la génération des stimuli lors de la consommation de produits, le travail avait pour objectif l’étude de la libération des composés d’arôme dans les matrices alimentaires réelles, en s’appuyant sur la modélisation des transferts de matière. La démarche mise en oeuvre repose sur : i) l’identification de propriétés des composés d’arôme (coefficients de partage et de diffusion), ii) l’analyse des transferts dans des systèmes in vitro jusqu’à des systèmes in vivo : la bouche consommant l’aliment. Les propriétés physicochimiques sont des données nécessaires aux modèles de transfert de matière. La détermination de ces propriétés a constitué la première partie de ce travail. Les propriétés sont de deux types : les propriétés à l’équilibre entre deux phases (le coefficient de partage) et les propriétés dynamiques (coefficient de diffusion et coefficient de transfert de matière). Un traitement innovant des données expérimentales obtenues par la méthode PRV (Phase Ratio Variation) a été proposé sur 12 molécules de composés d’arômes. Ce traitement permet de déterminer le coefficient de partage (variant entre 3·10-5 et 3·10-2) associé à son intervalle de confiance rigoureusement calculé avec l’ensemble des degrés de liberté disponibles. Concernant la détermination du coefficient de diffusion des composés d’arôme dans les matrices alimentaires complexes, une cellule expérimentale a été spécialement développée. Elle a été initialement conçue en s’appuyant sur la simulation des transferts de matière, puis validée sur des matrices simples. Ensuite, des mesures expérimentales sur des matrices complexes ont été réalisées et ont permis de déterminer le coefficient de diffusion et sa variation suivant la composition de la matrice (nature des protéines) et le procédé (traitement mécanique). L’intervalle de confiance associé à la détermination du coefficient de diffusion a été calculé pour l’hexanoate d’éthyle dans des yaourts de compositions variables en matière grasse et en protéines. Sur un système expérimental simple, nous avons également montré par une analyse des mécanismes de transfert et leur modélisation que le coefficient de partage et le coefficient de diffusion des composés d’arôme pouvaient être déterminés simultanément. Le modèle de libération des composés d’arôme exploité pour l’hexanoate d’éthyle dans des gels de carraghénane a mis en évidence le besoin de connaître et maîtriser les étapes du protocole expérimental. Enfin, un modèle de libération des composés d’arôme lors de la consommation in vivo a été développé. Le modèle prend en compte les propriétés physicochimiques de l’aliment propres aux composés d’arôme et à la matrice, mais également les paramètres physiologiques liés aux sujets. Ce modèle a été établi pour des sujets dits « avaleurs parfaits », qui ferment la cloison entre la bouche et le pharynx lors de la mise en bouche du produit et jusqu’à sa déglutition. Il a permis de simuler la libération des composés d’arôme comme l’hexanoate d’éthyle, le butanoate d’éthyle et l’acétate d’éthyle depuis le produit (yaourt) jusqu’à la cavité nasale des sujets, mais également de déterminer quels sont les paramètres limitants de la libération, notamment le débit respiratoire du sujet
Aroma compounds are volatile molecules which are present in low concentration in food. They are responsible for olfactory perception, and are determinant for organoleptic quality explaining consumer preference. In order to improve the understanding of stimuli generation during food consumption, this work aimed at studying aroma compounds release by modelling mass transfer in real food matrices. The work consisted in two major steps: i) identification of aroma compounds properties ii) analysis of mass transfer, from in vitro systems to in vivo systems (the mouth during food consumption). Knowledge of physicochemical properties is a prerequisite for mass transfer models. The first part of this work thus consisted in their determination. They are divided in two groups: equilibrium properties between two phases (the partition coefficient) and dynamic properties (the diffusion coefficient and the mass transfer coefficient). A new method for processing the experimental data from the PRV (Phase Ratio Variation) was developed for 12 aroma compounds. The partition coefficient varied from 3·10-5 to 3·10-2, coupled with the confidence interval calculation with all the available degrees of freedom. To determine the diffusion coefficient of aroma compounds in complex food matrices, an experimental cell was designed for this purpose, based on the mass transfer simulation, and validated on model matrices. Experimental measurements were then carried out on complex food matrices, allowing the determination of the diffusion coefficients and their variations based on the matrix composition (type of proteins) and the mechanical treatment. The associated confidence interval of the diffusion coefficient was calculated for ethyl hexanoate in different yogurts with various fat and protein ratio. Using a static headspace device, an analysis of the mass transfer mechanisms and its modelling showed that the partition and the diffusion coefficients could be determined simultaneously. The release model was based on ethyl hexanoate in carrageen gels and showed that it is necessary to control the steps of the experimental protocol. Finally, a model of aroma compound release during in vivo consumption was developed. The model takes into account the physicochemical properties of aroma compounds and the physiological properties related to the subject. The model was established for “perfect swallowers”, who close the velopharynx when the product is set in the mouth until the deglutition process. The model allowed the simulation of the release of some aroma compounds (ethyl hexanoate, acetate and butanoate) from the product (yogurt) up to the nasal cavity, and in addition, it was possible to determine the limiting parameters of this release, namely the breathing flow
APA, Harvard, Vancouver, ISO, and other styles
30

Decotton, Jeanjean Nathalie. "Influence du génotype, de la fermentation et de la torréfaction sur le développment de l'arôme cacao : Rôle des précurseurs d'arôme." Montpellier 2, 1995. http://www.theses.fr/1995MON20064.

Full text
Abstract:
Le developpement de la fraction volatile du cacao resulte des effets combines de la variete, du traitement post-recolte (fermentation et sechage) et de la torrefaction. Les resultats analytiques ainsi que des etudes de correlation par analyse en composantes principales (acp) ont permis une approche de la part respective de ces effets. La caracterisation de la fraction volatile d'un lot de cacao sanchez au cours de la fermentation et de 9 clones et hybrides non fermentes et fermentes a ete determinee avant et apres torrefaction. Apres extraction par entrainement a la vapeur, les fractions volatiles des echantillons sont analysees par chromatographie et les composes volatils sont caracterises et identifies par couplage gc/ms. L'arome cacao est compose d'une fraction constitutive, d'une fraction fermentaire et d'une fraction additionnelle d'origine thermique. La fraction constitutive, (principalement composee d'alcools et d'esters) est peu importante, celle d'origine fermentaire est par contre determinante dans la composition de l'arome final. Elle est principalement constituee de composes d'origine microbiologique et/ou biochimique (alcools, esters, acides) qui s'accumulent tres rapidement et de composes d'origine thermique (aldehydes de strecker, pyrazines, furannes) formes essentiellement en fin de fermentation. La torrefaction conduit a la formation d'un nombre limite de composes nouveaux (pyrazines et pyrroles) mais surtout a l'augmentation de la teneur des composes volatils prealablement formes au cours de la fermentation. Une etude en systeme modele a permis de caracteriser l'influence des parametres de traitement (temperature, duree, teneur en eau) et le role (nature et teneur) des precurseurs dans le developpement de l'arome a la torrefaction. L'utilisation de systemes modeles a permis d'interpreter la formation de nombreux composes volatils mais n'a cependant pas permis de modeliser correctement la formation de l'arome cacao d'origine thermique
APA, Harvard, Vancouver, ISO, and other styles
31

Espinosa, Diaz Maria de los Angeles. "Etude de la rétention et de la libération des composés d'arôme dans des milieux modèles en présence ou non de béta-lactoglobuline." Dijon, 1999. http://www.theses.fr/1999DIJOS013.

Full text
Abstract:
La rétention et la libération des composés d'arôme dans des milieux modèles ont été étudiées en présence ou non de -lactoglobuline, afin de mieux comprendre les phénomènes impliques dans la qualité aromatique d'un produit alimentaire. Après la détermination des caractéristiques physico-chimiques des composés d'arôme, leurs interactions avec des matrices contenant la -lactoglobuline et/ou le miglyol, ont été étudiées par des méthodes de partage vapeur-liquide, liquide-liquide et sorption. Le transfert des composés d'arôme aux différentes interfaces a aussi été déterminé. Les résultats montrent des interactions physico-chimiques entre les composés volatils et la -lactoglobuline en fonction de leur nature et de leur concentration initiale, ainsi que du pH de la solution protéique. L'influence de la conformation de la protéine sur la rétention des composés d'arôme a été montrée, la forme monomérique présentant plus d'affinité que la forme dimérique. Par ailleurs, la présence d'eau s'avère nécessaire pour l'établissement d'interactions hydrophobes entre la protéine et les composes d'arôme. La volatilité des composés d'arôme peut être affectée par la structure de la matrice alimentaire ; en milieu disperse (eau-lipide), la disponibilité de béta-lactoglobuline a interagir avec le composé volatil est moindre, une fraction de cette protéine étant adsorbée à l'interface lipide-eau. La barrière physique formée par la –béta-lactoglobuline à l'interface lipide-eau modifie également le transfert des composés d'arôme entre les différentes phases, ce transfert étant influencé par le pH. Il a été montré que la libération des composés d'arôme de la matrice alimentaire dépend de leur nature. Leurs comportements en fonction de la composition et de la structure de la matrice alimentaire révèlent que la libération d'arôme est principalement influencée par les interactions avec les constituants non volatils du milieu.
APA, Harvard, Vancouver, ISO, and other styles
32

Flores, Olivier. "Déterminisme de la régénération chez quinze espèces d'arbres tropicaux en forêt guyanaise : les effets de l'environnement et de la limitation par la dispersion." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00297707.

Full text
Abstract:
Dans les communautés de forêt tropicale humide, la compétition interspécifique et la limitation du recrutement par la dispersion ont généralement invoquées pour expliquer la coexistence de nombreuses espèces d'arbres. Le rôle de ces mécanismes dans la régénération reste peu connu, bien que leur compréhension soit essentielle pour la gestion des forêts exploitées. Dans ce travail, les conditions du milieu et les relations intraspécifiques ont été prises en compte dans l'analyse des distributions de juvéniles. Quinze espèces non pionnières ont été sélectionnées selon un gradient de tolérance à l'ombre et des modes de dispersion variés. La modélisation statistique de la densité locale a permis de relier le succès d'installation des juvéniles aux conditions du milieu et aux distances aux arbres adultes simultanément. Les prédictions des
modèles confirment le gradient de tolérance parmi les espèces étudiées et révèlent des courbes d'installation différentes selon le mode de dispersion.
APA, Harvard, Vancouver, ISO, and other styles
33

Laqrichi, Safae. "Approche pour la construction de modèles d'estimation réaliste de l'effort/coût de projet dans un environnement incertain : application au domaine du développement logiciel." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2015. http://www.theses.fr/2015EMAC0013/document.

Full text
Abstract:
L'estimation de l'effort de développement logiciel est l'une des tâches les plus importantes dans le management de projets logiciels. Elle constitue la base pour la planification, le contrôle et la prise de décision. La réalisation d'estimations fiables en phase amont des projets est une activité complexe et difficile du fait, entre autres, d'un manque d'informations sur le projet et son avenir, de changements rapides dans les méthodes et technologies liées au domaine logiciel et d'un manque d'expérience avec des projets similaires. De nombreux modèles d'estimation existent, mais il est difficile d'identifier un modèle performant pour tous les types de projets et applicable à toutes les entreprises (différents niveaux d'expérience, technologies maitrisées et pratiques de management de projet). Globalement, l'ensemble de ces modèles formule l'hypothèse forte que (1) les données collectées sont complètes et suffisantes, (2) les lois reliant les paramètres caractérisant les projets sont parfaitement identifiables et (3) que les informations sur le nouveau projet sont certaines et déterministes. Or, dans la réalité du terrain cela est difficile à assurer. Deux problématiques émergent alors de ces constats : comment sélectionner un modèle d'estimation pour une entreprise spécifique ? et comment conduire une estimation pour un nouveau projet présentant des incertitudes ? Les travaux de cette thèse s'intéressent à répondre à ces questions en proposant une approche générale d'estimation. Cette approche couvre deux phases : une phase de construction du système d'estimation et une phase d'utilisation du système pour l'estimation de nouveaux projets. La phase de construction du système d'estimation est composée de trois processus : 1) évaluation et comparaison fiable de différents modèles d'estimation, et sélection du modèle d'estimation le plus adéquat, 2) construction d'un système d'estimation réaliste à partir du modèle d'estimation sélectionné et 3) utilisation du système d'estimation dans l'estimation d'effort de nouveaux projets caractérisés par des incertitudes. Cette approche intervient comme un outil d'aide à la décision pour les chefs de projets dans l'aide à l'estimation réaliste de l'effort, des coûts et des délais de leurs projets logiciels. L'implémentation de l'ensemble des processus et pratiques développés dans le cadre de ces travaux ont donné naissance à un prototype informatique open-source. Les résultats de cette thèse s'inscrivent dans le cadre du projet ProjEstimate FUI13
Software effort estimation is one of the most important tasks in the management of software projects. It is the basis for planning, control and decision making. Achieving reliable estimates in projects upstream phases is a complex and difficult activity because, among others, of the lack of information about the project and its future, the rapid changes in the methods and technologies related to the software field and the lack of experience with similar projects. Many estimation models exist, but it is difficult to identify a successful model for all types of projects and that is applicable to all companies (different levels of experience, mastered technologies and project management practices). Overall, all of these models form the strong assumption that (1) the data collected are complete and sufficient, (2) laws linking the parameters characterizing the projects are fully identifiable and (3) information on the new project are certain and deterministic. However, in reality on the ground, that is difficult to be ensured.Two problems then emerge from these observations: how to select an estimation model for a specific company ? and how to conduct an estimate for a new project that presents uncertainties ?The work of this thesis interested in answering these questions by proposing a general estimation framework. This framework covers two phases: the construction phase of the estimation system and system usage phase for estimating new projects. The construction phase of the rating system consists of two processes: 1) evaluation and reliable comparison of different estimation models then selection the most suitable estimation model, 2) construction of a realistic estimation system from the selected estimation model and 3) use of the estimation system in estimating effort of new projects that are characterized by uncertainties. This approach acts as an aid to decision making for project managers in supporting the realistic estimate of effort, cost and time of their software projects. The implementation of all processes and practices developed as part of this work has given rise to an open-source computer prototype. The results of this thesis fall in the context of ProjEstimate FUI13 project
APA, Harvard, Vancouver, ISO, and other styles
34

Grignon, Christophe. "Un modèle de thermique 2D appliqué aux structures hétérogènes creuses avec source intérieure mobile en régime fortement varié : le cas du tube d'arme en rafale." Poitiers, 1995. http://www.theses.fr/1995POIT2303.

Full text
Abstract:
La modelisation du comportement thermique de structures multicouches interesse de nombreuses applications industrielles. A ce titre, un modele de thermique bidimensionnel non lineaire avec source aux limites mobile en regime fortement varie a ete developpe. La recherche bibliographique a consiste a retenir la methode mathematique qui parait le mieux satisfaire les caracteristiques du modele vise. L'etude des principales methodes analytiques et numeriques nous a finalement oriente vers la methode des volumes finis. Une etude d'optimisation du maillage spatio-temporel utilise dans le modele est egalement abordee. Le tube d'arme, qui peut comporter des depots protecteurs internes (epaisseur de quelques dizaines de microns) et des revetements externes (peintures) et qui est le siege de transferts thermiques intenses et fortement instationnaires, a constitue une application majeure du modele. Il s'avere que ces transferts de chaleur ont une responsabilite importante dans l'usure des tubes d'armes, phenomene qui preoccupe les industriels de l'armement. Notre modele presente, a ce titre, un interet particulier. Dote de la possibilite de prendre en compte des conditions aux limites diverses (conditions de dirichlet, neumann, fourier, rayonnement infra-rouge et visible, transferts latents), le modele permet de traiter de situations variees. Pour illustrer cela, il a egalement ete utilise dans le but d'apprehender les transferts thermiques au sein de thermocouples et de cylindres de moteur a combustion interne. Des validations, s'appuyant sur des outils analytiques et numeriques annexes ainsi que sur des resultats experimentaux, permettent de crediter le modele d'une certaine fiabilite ce dernier restant cependant tributaire d'une bonne connaissance des proprietes thermophysiques, des epaisseurs des couches en arme par exemple, les chocs thermiques et mecaniques accompagnant un tir peuvent entrainer d'importantes degradations metallurgiques qui rendent tres complexe une caracterisation satisfaisante de la paroi
APA, Harvard, Vancouver, ISO, and other styles
35

Boisard, Lauriane. "Relations entre mobilité du sodium, libération du sel et des composés d'arôme en bouche et perception de la flaveur : application à des modèles fromagers." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00877715.

Full text
Abstract:
L'objectif de ce travail est de comprendre les effets d'un changement de composition des modèles fromagers sur la mobilité, la libération et la perception de molécules de la flaveur (sel, composés d'arôme). Six modèles fromagers aromatisés ont été formulés (3 ratios lipides/protéines (L/P) et 2 teneurs en sel). La microstructure et les propriétés rhéologiques des modèles fromagers ont été caractérisées respectivement par microscopie confocale et par compression uniaxiale. La mobilité des ions sodium a été analysée par RMN 23Na. La cinétique de libération des ions sodium a été suivie dans l'eau, puis dans la salive, en situation de consommation. La libération rétronasale des composés d'arôme a été suivie par nose-space APCI-MS, simultanément au suivi des déglutitions, et de la mastication par électromyographie. Enfin, les propriétés sensorielles des modèles fromagers (intensité salée, arôme, texture) ont été étudiées.Une diminution du ratio L/P et une diminution de la teneur en sel diminuent la taille des gouttelettes lipidiques et augmentent la fermeté. Cela conduit à une diminution de la mobilité des ions sodium, qui se traduit par une diminution de la quantité de sodium libéré dans la salive et une diminution de la perception salée. De plus, le maximum de libération d'arôme est atteint plus tard et la perception aromatique est diminuée. Ces effets peuvent être expliqués par la répartition lipides/protéines observée en microscopie, par une déglutition plus tardive et une plus grande activité masticatoire
APA, Harvard, Vancouver, ISO, and other styles
36

Mogenier, Guillaume. "Identification et prévision du comportement dynamique des rotors feuilletés en flexion." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00743720.

Full text
Abstract:
Cette thèse porte sur la prévision du comportement dynamique en flexion des rotors feuilletés à cage d'écureuil appelés MGV. La difficulté de la modélisation réside dans la complexité de l'assemblage de la masse magnétique, composée d'un empilement de tôles maintenues par des tirants excentrés précontraints, et d'une cage d'écureuil composée d'une distribution périphérique de barres de court circuit connectées à deux anneaux de court-circuit situés aux extrémités du feuilletage. Un modèle éléments finis de poutres de Timoshenko prenant en compte le caractère monolithique des MGV est développé. Le comportement dynamique latéral des rotors feuilletés est principalement régi par la rigidité de flexion de l'empilement dont les propriétés constitutives sont méconnues ce qui rend délicat la modélisation. Une approche d'identification numérique-expérimentale fournit une loi des propriétés constitutives de l'empilement en fonction des dimensions et précontraintes d'assemblage du feuilletage. Pour cela, les quantités modales calculées et mesurées sont incluses dans une fonctionnelle basée sur un quotient de Rayleigh hybride et combinée à des méthodes de réduction ou d'expansion. Les fonctionnelles proposées ont été testées dans diverses applications Industrielles. La modélisation des efforts centrifuges, de la raideur géométrique et du contact tirants-feuilletage a montré que l'effet de la rotation a une influence non linéaire qui tend à augmenter les forces longitudinales agissant sur le feuilletage et les tirants sans toutefois dépasser la limite élastique des tirants. La conséquence de ce phénomène est l'augmentation de la rigidité de flexion du feuilletage lors de la rotation.
APA, Harvard, Vancouver, ISO, and other styles
37

Campocasso, Sébastien. "Développement d'un modèle d'efforts de coupe multi-opérations et multi-matériaux. Application au tournage du cuivre pur dans différents états métallurgiques." Phd thesis, Paris, ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00933906.

Full text
Abstract:
La modélisation des efforts de coupe en usinage est nécessaire pour prédire certaines caractéristiques de la pièce usinée comme sa géométrie, son état de surface ou encore l'intégrité de la matière en sub-surface.Les nombreux modèles d'efforts de coupe déjà développés sont souvent appliqués dans le cas d'opérations d'usinage simples, ce qui limite leur diffusion vers le milieu industriel, alors qu'il existe un réel besoin de modélisation d'opérations d'usinage complexes et variées, et prenant en compte d'éventuels changements métallurgiques au niveau du matériau usiné.L'objectif de ces travaux est de proposer un modèle d'efforts de coupe appliqué à toute opération de tournage d'une part et considérant certaines propriétés mécaniques du matériau usiné d'autre part.Concernant l'aspect multi-opérations, un modèle géométrique utilisant des transformations homogènes a été développé et permet de décrire à la fois la trajectoire et la géométrie de l'outil. Les effets de paramètres originaux, tels que le diamètre de la pièce, l'angle de direction d'arête et le rayon de bec, sont étudiés, notamment à l'aide de nouvelles configurations de coupe élémentaires. La prise en compte de ces paramètres dans les relations de coupe locales permet finalement d'améliorer la simulation des efforts de coupe lors d'un contournage.L'approche utilisée pour l'aspect multi-matériaux consiste à modifier progressivement le matériau usiné. Ainsi, le matériau initial, le cuivre pur, a été étudié dans différents états métallurgiques, obtenus par des traitements thermo-mécaniques. En particulier, le procédé d'extrusion coudée à aires égales (ECAE) a été utilisé afin d'écrouir le matériau dans la masse. Ainsi, trois matériaux aux caractéristiques mécaniques différentes mais conservant plusieurs caractéristiques communes (thermiques notamment) ont pu être comparés en termes d'efforts de coupe. Les coefficients des relations de coupe sont finalement mis en regard des propriétés mécaniques obtenues par des essais de traction et de compression à grande vitesse.
APA, Harvard, Vancouver, ISO, and other styles
38

Mercadier, Mathieu. "Banking risk indicators, machine learning and one-sided concentration inequalities." Thesis, Limoges, 2020. http://aurore.unilim.fr/theses/nxfile/default/a5bdd121-a1a2-434e-b7f9-598508c52104/blobholder:0/2020LIMO0001.pdf.

Full text
Abstract:
Cette thèse de doctorat comprend trois essais portant sur la mise en œuvre, et le cas échéant l'amélioration, de mesures de risques financiers et l'évaluation des risques bancaires, basée sur des méthodes issues de l'apprentissage machine. Le premier chapitre élabore une formule élémentaire, appelée E2C, d'estimation des primes de risque de crédit inspirée de CreditGrades, et en améliore la précision avec un algorithme de forêts d'arbres décisionnels. Nos résultats soulignent le rôle prépondérant tenu par cet estimateur et l'apport additionnel de la notation financière et de la taille de l'entreprise considérée. Le deuxième chapitre infère une version unilatérale de l'inégalité bornant la probabilité d'une variable aléatoire distribuée unimodalement. Nos résultats montrent que l'hypothèse d'unimodalité des rendements d'actions est généralement admissible, nous permettant ainsi d'affiner les bornes de mesures de risques individuels, de commenter les implications pour des multiplicateurs de risques extrêmes, et d'en déduire des versions simplifiées des bornes de mesures de risques systémiques. Le troisième chapitre fournit un outil d'aide à la décision regroupant les banques cotées par niveau de risque en s'appuyant sur une version ajustée de l'algorithme des k-moyennes. Ce processus entièrement automatisé s'appuie sur un très large univers d'indicateurs de risques individuels et systémiques synthétisés en un sous-ensemble de facteurs représentatifs. Les résultats obtenus sont agrégés par pays et région, offrant la possibilité d'étudier des zones de fragilité. Ils soulignent l'importance d'accorder une attention particulière à l'impact ambigu de la taille des banques sur les mesures de risques systémiques
This doctoral thesis is a collection of three essays aiming to implement, and if necessary to improve, financial risk measures and to assess banking risks, using machine learning methods. The first chapter offers an elementary formula inspired by CreditGrades, called E2C, estimating CDS spreads, whose accuracy is improved by a random forest algorithm. Our results emphasize the E2C's key role and the additional contribution of a specific company's debt rating and size. The second chapter infers a one-sided version of the inequality bounding the probability of a unimodal random variable. Our results show that the unimodal assumption for stock returns is generally accepted, allowing us to refine individual risk measures' bounds, to discuss implications for tail risk multipliers, and to infer simple versions of bounds of systemic measures. The third chapter provides a decision support tool clustering listed banks depending on their riskiness using an adjusted version of the k-means algorithm. This entirely automatic process is based on a very large set of stand-alone and systemic risk indicators reduced to representative factors. The obtained results are aggregated per country and region, offering the opportunity to study zones of fragility. They underline the importance of paying a particular attention to the ambiguous impact of banks' size on systemic measures
APA, Harvard, Vancouver, ISO, and other styles
39

Raynal, Louis. "Bayesian statistical inference for intractable likelihood models." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS035/document.

Full text
Abstract:
Dans un processus d’inférence statistique, lorsque le calcul de la fonction de vraisemblance associée aux données observées n’est pas possible, il est nécessaire de recourir à des approximations. C’est un cas que l’on rencontre très fréquemment dans certains champs d’application, notamment pour des modèles de génétique des populations. Face à cette difficulté, nous nous intéressons aux méthodes de calcul bayésien approché (ABC, Approximate Bayesian Computation) qui se basent uniquement sur la simulation de données, qui sont ensuite résumées et comparées aux données observées. Ces comparaisons nécessitent le choix judicieux d’une distance, d’un seuil de similarité et d’un ensemble de résumés statistiques pertinents et de faible dimension.Dans un contexte d’inférence de paramètres, nous proposons une approche mêlant des simulations ABC et les méthodes d’apprentissage automatique que sont les forêts aléatoires. Nous utilisons diverses stratégies pour approximer des quantités a posteriori d’intérêts sur les paramètres. Notre proposition permet d’éviter les problèmes de réglage liés à l’ABC, tout en fournissant de bons résultats ainsi que des outils d’interprétation pour les praticiens. Nous introduisons de plus des mesures d’erreurs de prédiction a posteriori (c’est-à-dire conditionnellement à la donnée observée d’intérêt) calculées grâce aux forêts. Pour des problèmes de choix de modèles, nous présentons une stratégie basée sur des groupements de modèles qui permet, en génétique des populations, de déterminer dans un scénario évolutif les évènements plus ou moins bien identifiés le constituant. Toutes ces approches sont implémentées dans la bibliothèque R abcrf. Par ailleurs, nous explorons des manières de construire des forêts aléatoires dites locales, qui prennent en compte l’observation à prédire lors de leur phase d’entraînement pour fournir une meilleure prédiction. Enfin, nous présentons deux études de cas ayant bénéficié de nos développements, portant sur la reconstruction de l’histoire évolutive de population pygmées, ainsi que de deux sous-espèces du criquet pèlerin Schistocerca gregaria
In a statistical inferential process, when the calculation of the likelihood function is not possible, approximations need to be used. This is a fairly common case in some application fields, especially for population genetics models. Toward this issue, we are interested in approximate Bayesian computation (ABC) methods. These are solely based on simulated data, which are then summarised and compared to the observed ones. The comparisons are performed depending on a distance, a similarity threshold and a set of low dimensional summary statistics, which must be carefully chosen.In a parameter inference framework, we propose an approach combining ABC simulations and the random forest machine learning algorithm. We use different strategies depending on the parameter posterior quantity we would like to approximate. Our proposal avoids the usual ABC difficulties in terms of tuning, while providing good results and interpretation tools for practitioners. In addition, we introduce posterior measures of error (i.e., conditionally on the observed data of interest) computed by means of forests. In a model choice setting, we present a strategy based on groups of models to determine, in population genetics, which events of an evolutionary scenario are more or less well identified. All these approaches are implemented in the R package abcrf. In addition, we investigate how to build local random forests, taking into account the observation to predict during their learning phase to improve the prediction accuracy. Finally, using our previous developments, we present two case studies dealing with the reconstruction of the evolutionary history of Pygmy populations, as well as of two subspecies of the desert locust Schistocerca gregaria
APA, Harvard, Vancouver, ISO, and other styles
40

Doyennette, Marion. "La bouche, un réacteur complexe à l'origine de la libération des stimuli sensoriels : modélisation des transferts de composés d'arôme lors de la déstructuration d'aliments solides." Thesis, Paris, AgroParisTech, 2011. http://www.theses.fr/2011AGPT0047/document.

Full text
Abstract:
La libération des composés d'arôme détermine la qualité aromatique des produits alimentaires, et contribue ainsi aux choix et préférences des consommateurs. Dans ce contexte, la compréhension et la modélisation de la cinétique de libération est un défi scientifique et un enjeu de santé afin de pouvoir formuler des produits en intégrant des critères nutritionnels et sensoriels. Ce travail de thèse a permis d'étudier et de modéliser les mécanismes en bouche responsables de la dynamique de libération des stimuli olfactifs lors de consommation d'un aliment liquide ou solide chez l'homme.• Dans un premier temps, un modèle mécanistique décrivant la libération des composés d'arôme au cours de la consommation d'un aliment liquide ou semi-liquide a été développé. Ces produits ont un temps de résidence en bouche très court et ne nécessitent pas de manipulation intra-orale complexe. Le modèle a été construit sur la base de bilans de matière prenant en compte des mécanismes de transfert entre certains sous-compartiments du système, ainsi que les conditions spécifiques aux différentes étapes de la consommation. Une comparaison du modèle avec des données de libération in vivo lors de la consommation de fluides newtnoniens aromatisés avec du diacétyle et de l'hexanoate d'éthyle a été effectuée. Cette étude nous a permis de comprendre le rôle du résidu post-pharyngé et de la viscosité sur la libération des composés d'arôme : • l'épaisseur du bol tapissant les muqueuses a pu être estimée à environ 15µm; • contrairement à l'hypothèse initiale, il a été mis en évidence que les propriétés pertinentes à prendre en considération pour la libération des composés d'arôme à partir d'un fluide newtonien sont celles d'un mélange de produit hautement dilué par la salive. • Dans un second temps, le modèle a été adapté à des produits nécessitant une mastication. Pour en rendre compte, de nouveaux mécanismes ont été intégrés: phénomènes de transfert de matière et de dissolution du produit dans la salive, génération d'une surface d'échange produit/fraction liquide du bol et l'ouverture vélopharyngienne lors de la mastication du produit. Le modèle a ensuite été confronté avec les données de libération du propanoate d'éthyle in vivo lors de la consommation de matrices fromagères modèles. Le modèle a pu être ajusté de façon satisfaisante à l'ensemble des données expérimentales et les deux paramètres inconnus de notre modèle (la vitesse d'incorporation moyenne de salive dans le bol au cours de la consommation et la fréquence d'ouverture du vélopharynx) ont pu être estimés. Cette étude nous a permis de comprendre le rôle de la mastication sur la libération des composés d'arôme lors de la consommation d'aliments solides. De plus, l'étude de la libération de la 2-nonanone a permis de mettre en évidence un phénomène d'adsorption sur les muqueuses pour cette molécule. • Enfin, il ressort de la comparaison des deux modèles que les paramèters clés gouvernant la libération des composés d'arôme ne sont pas les mêmes selon la catégorie de produit (liquide ou solide) considérée: • lors de la consommation d'aliments liquides ou semi-liquides, le coefficient de transfert de matière dans le bol, la fréquence respiratoire de l'individu et l'épaisseur du résidu post-pharyngé sont les trois facteurs clés gouvernant la libération des composés d'arôme; • en revanche, lors de la consommation de produits solides mastiqués, ce sont la vitesse d'incorporation moyenne de salive dans le bol, la fréquence d'ouverture du vélopharynx et la durée de mastication qui sont les trois paramètres ayant un effet majeur sur les cinétiques de libération. La démarche de modélisation nous a permis de mieux comprendre les parts relatives du produit, de l'individu, et de l'interaction produit-individu sur la libération des composés d'arôme au cours de la consommation d'un aliment
Delivery of aroma compounds to olfactory receptors determines the aromatic quality of food products and contributes to consumer choices and preferences. Therefore, understanding and modelling the release kinetic is a scientific challenge and a health issue in order to formulate products of both high nutritional and sensory quality. This thesis studied in-mouth mechanisms responsible of the dynamics of olfactory stimuli release during food consumption. • First, a mechanistic model describing the aroma compounds release during consumption of a liquid or semi-liquid food has been developed. These products have a very short in-mouth residence time and do not require complex intra-oral manipulation. The model takes into account mass balances, transfer mechanisms occurring between some sub-compartments of the system, and the specific conditions at the different stages of consumption. A comparison of the model predictions with in vivo release data during the consumption of Newtnonien fluids flavored with diacetyl and ethyl hexanoate was performed. This study highlighted the role of post-pharyngeal residue and viscosity on the aroma compounds release: • the thickness of bolus covering the mucous membranes has been estimated at about 15μm; • it was found that the relevant properties to be considered for the release of aroma compounds from a Newtonian fluid are those of a mixture highly diluted by saliva. • Second, the model previously developed was adapted for products requiring chewing. It takes into account the phenomena of mass transfer and dissolution of the product in the saliva during chewing. The generation of a product/liquid contact surface as well as the velopharyngial opening that occurs during the mastication of the product were also integrated into the model. The model was then confronted with in vivo release data for ethyl propanoate during consumption of four cheese matrices. All simulations have been satisfactorily fitted to experimental data and the two unknown parameters of our model (the average rate of saliva incorporation into the bolus and the frequency of velopharyngial opening) could be estimated. This study has enabled us to understand the role of mastication on the release of aroma compounds during consumption of solid food: • the opening of velopharynx during intra-oral manipulation of the product produces a continuous supply of aroma compounds in the nose; • the residence time of solid product in the mouth are much longer than for the consumption of liquid and semi-liquid foods, allowing the secretion of significant volumes of saliva. In addition, the study of the release of 2-nonanone highlighted an adsorption phenomenon on the mucous membranes for this molecule. • Finally, sensitivity analysis of the two release models indicates that: • when eating a liquid or semi-liquid food, the mass transfer coefficient in the bolus, the breath rate and the thickness of post-pharyngeal residue are the three key factors governing the release of aroma compounds; • however, when eating a solid food product, it is the average rate of saliva incorporation into the bolus during consumption, the frequency and duration of velopharyngeal opening, and the mastication time which are the three parameters that have major effects on the kinetics of release. The modeling approach allowed us to better understand the relative effects of the product, the individual, and individual-product interaction on the release of aroma compounds during food consumption. The results of this work indicated that the most important parameters depend on the category of product (liquid or solid) under consideration
APA, Harvard, Vancouver, ISO, and other styles
41

Laitang, Cyril. "Impact de la structure des documents XML sur le processus d'appariement dans le contexte de la recherche d'information semi-structurée." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2091/.

Full text
Abstract:
Nos travaux s'inscrivent dans le cadre de la recherche d'information sur documents semi-structurésde type XML. La recherche d'information structurée (RIS) a pour objectif de retourner des granules documentaires précis répondant aux besoins d'information exprimés par l'utilisateur au travers de requêtes. Ces requêtes permettent de spécifier, en plus des conditions de contenu, des contraintes structurelles sur la localisation de l'information recherchée. L'objectif de nos travaux est d'étudier l'apport de la structure des documents dans le processus d'appariement documents-requêtes. Puisque les contraintes structurelles des requêtes peuvent être représentées sous la forme d'un arbre et que, parallèlement, la structure du document, de nature hiérarchique, peut elle-même utiliser le même type de représentation, nous avons proposé plusieurs modèles de mesure de la similarité entre ces deux structures. La mesure de la similarité entre deux structures arborescentes ayant été étudiée par le domaine de la théorie des graphes, nous avons tout d'abord cherché à adapter les algorithmes de ce domaine à notre problématique. Suite à une étude approfondie de ces algorithmes au regard de la RIS, notre choix s'est porté sur la distance d'édition entre arbres (Tree Edit Distance - TED). Cet algorithme permet, au travers de l'application récursive de séquences de suppression et de substitution, de mesurer le degré d'isomorphisme (le degré de similarité) entre deux arbres. Constatant que ces algorithmes sont coûteux en mémoire et en calcul, nous avons cherché à en réduire la complexité et le temps d'exécution au travers d'approches de résumé et de la mise en place d'un algorithme de TED au coût de complexité plus bas. Etant donné que la TED est normalement utilisée avec des coûts d'opération fixes peut adaptés à notre problématique, nous en avons également proposé de nouveaux basés sur la distance dans le graphe formé par la grammaire des documents : la DTD. Notre deuxième proposition se base sur les Modèles de Langue. En recherche d'information, ces derniers sont utilisés afin de mesurer la pertinence au travers de la probabilité qu'un terme de la requête soit généré par un document. Nous avons utilisés les Modèles de Langue pour mesurer, non pas la probabilité de pertinence du contenu, mais celle de la structure. Afin de former un vocabulaire document et requête à même d'être utilisé par notre modèle de langue structurel nous avons utilisé une technique de relaxation pondérée (la relaxation est le relâchement des contraintes). Nous avons également proposé une méthode pour apparier le contenu des documents et celui des requêtes. L'appariement seul des structures étant insuffisant dans une problématique de recherche d'information : la pertinence d'un granule documentaire est jugée en priorité sur la pertinence de l'information textuelle qu'il contient. De ce fait, nous avons proposé une approche de mesure de la pertinence de ce contenu. Notre méthode utilise la structure de l'arbre afin d'opérer une propagation de la pertinence du texte en prenant en compte l'environnement des éléments traversés ainsi que le contexte global du document. Nos différents modèles ont été expérimentés sur deux tâches de la campagne d'évaluation de référence de notre domaine : Initiative for XML Retrieval. Cette campagne a pour but de permettre l'évaluation de systèmes de recherche d'information XML dans un cadre normalisée et comporte plusieurs tâches fournissant des corpus, des mesures d'évaluation, des requêtes, et des jugements de pertinence. Nous avons à ce propos participé à cette campagne en 2011. Pour nos expérimentations, les tâches que nous avons choisi d'utiliser sont : * La tâche SSCAS d'INEX 2005 qui utilise une collection d'articles scientifiques d'IEEE. Cette collection est orientée texte dans la mesure où la structure exprimée dans les documents qu'elle contient est similaire à celle d'un livre (paragraphe, sections). * La tâche Datacentric d'INEX 2010 dont la collection est extraite d'IMDB. Cette collection est orientée données dans la mesure où les termes des documents sont très spécifiques et peu redondants et que la structure est porteuse de sens. Nos différentes expérimentations nous ont permis de montrer que le choix de la méthode d'appariement dépend de la collection considérée. Dans le cadre d'une collection orienté texte, la structure peut être prise en compte de manière non stricte et plusieurs sous-arbres extraits du document peuvent être utilisés simultanément pour évaluer la similarité structurelle. Inversement, dans le cadre d'une collection orientée donnée, la prise en compte stricte de la structure est nécessaire. Etant donné que les éléments recherchés portent une sémantique, il est alors important de détecter quelle partie du document est à priori pertinente. La structure à apparier doit être la plus précise et minimale possible. Enfin, nos approches de mesures de la similarité structurelle se sont montrées performantes et ont amélioré la pertinence des résultats retournés par rapport à l'état de l'art, à partir du moment où la nature de la collection a été prise en compte dans la sélection des arbres structurels en entrée
The work presented in this PhD thesis concerns structured information retrieval and focuses on XML documents. Structured information retrieval (SIR) aims at returning to users document parts (instead of whole documents) relevant to their needs. Those needs are expressed by queries that can contain content conditions as well as structural constraints which are used to specify the location of the needed information. In this work, we are interested in the use of document structure in the retrieval process. We propose some approaches to evaluate the document-query structural similarity. Both query structural constraints and document structures can be represented as trees. Based on this observation we propose two models which aim at matching these tree structures. As tree matching is historically linked with graph theory, our first proposition is based on an adaptation of a solution from the graph theory. After conducting an in depth study of the existing graph theory algorithms, we choose to use Tree Edit Distance (TED), which measures isomorphism (tree similarity) as the minimal set of remove and replace operations to turn one tree to another. As the main drawback of TED algorithms is their time and space complexity, which impacts the overall matching runtime, we propose two ways to overcome these issues. First we propose a TED algorithm having a minimal space complexity overall. Secondly, as runtime is dependent on the input tree cardinality (size) we propose several summarization techniques. Finally, since TED is usually used to assess relatively similar trees and as TED efficiency strongly relies on its costs, we propose a novel way, based on the DTD of documents, to compute these costs. Our second proposition is based on language models which are considered as very effective IR models. Traditionally, they are use to assess the content similarity through the probability of a document model (build upon document terms) to generate the query. We take a different approach based purely on structure and consider the document and query vocabulary as a set of transitions between document structure labels. To build these vocabularies, we propose to extract and weight all the structural relationships through a relaxation process. Finally, as relevance of the returned search results is first assessed based on the content, we propose a content evaluation process which uses the document tree structure to propagate relevance: the relevance of a node is evaluated thanks to its leaves as well as with the document context and neighbour nodes content relevance. In order to validate our models we conduct some experiments on two data-sets from the reference evaluation campaign of our domain: Initiative for XML retrieval (INEX). INEX tracks provide documents collections, metrics and relevance judgments which can be used to assess and compare SIR models. The tracks we use are: * The INEX 2005 SSCAS track whose associated documents are scientific papers extracted from IEEE. We consider this collection to be text-oriented as the structure used is similar to the one we can find in a book. * The INEX 2010 Datacentric track which uses a set of documents extracted from the Internet Movie Database (IMDB) website. This collection is data-oriented as document terms are very specific while the structure carries semantic meaning. Our various experiments show that the matching strategy strongly relies on the document structure type. In text-oriented collections, the structure can be considered as non-strict and several subtrees can be simultaneously used to assess the relevance. On the opposite, structure from documents regarded as data-centered should be used as strictly as possible. The reason is that as elements labels carry semantic, documents structures contain relevant and useful information that the content does not necessarily provide. Finally, our structural similarity approaches improve relevance of the returned results compared to state-of-the-art approaches, as long as the collection nature is considered when extracting the input trees for the structural matching process
APA, Harvard, Vancouver, ISO, and other styles
42

Maeght, Jean-Luc. "L'influence de la variabilité climatique sur l’enracinement superficiel et profond d'arbres adultes en plantation : les cas de l’hévéa (hevea brasiliensis) et du teck (tectona grandis) sous contraintes hydriques en Asie du sud est." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20158/document.

Full text
Abstract:
Le système racinaire, lien essentiel entre la plante et le sol quoi qu'essentiellement invisible, reste encore aujourd'hui peu étudié dans son ensemble. Les plantes étant ancrées au sol via leur système racinaire, leurs facultés d'adaptation et de survie sont donc très dépendantes de leurs capacités à savoir tirer profit de l'espace qui les entoure, notamment par l'intermédiaire de leur système racinaire. Certains arbres font néanmoins partie des plus grands et plus anciens êtres vivants de la planète, preuve s'il en est de leur capacité d'adaptation au milieu dans lequel ils poussent et aux changements environnementaux pouvant survenir dans le temps. Dans le cas des plantations, les contraintes anthropiques imposées se heurtent parfois aux limites de cette formidable capacité d'adaptation. Les travaux développés dans la première partie de cette thèse font l'objet de deux articles publiés et se concentrent sur une revue bibliographique des connaissances sur l'enracinement profond. Le rôle vital du système racinaire pour la plante est ainsi mis en avant ainsi que ses fonctions dans le continuum sol-plante-atmosphère. Son rôle essentiel, souvent sous-estimé dans le stockage du carbone, est également abordé. Les différentes techniques permettant d'accéder aux systèmes racinaires in situ sont passées en revue et nous présentons la technique du puits d'accès que nous avons utilisé pour observer les racines jusqu'à 5 mètres de profondeur. Nous avons également développé nos propres outils de prise de vue par l'intermédiaire de scanner à plat ainsi qu'un outil d'analyse d'images ( IJ_Rizo) aujourd'hui disponible en ligne.Dans la deuxième partie du mémoire, nous nous consacrons à l'étude du système racinaire de l'hévéa adulte (Hevea brasiliensis) dans le nord-est de la Thaïlande. Premier producteur mondial de caoutchouc naturel, la Thaïlande a fortement développé ses plantations d'hévéas allant jusqu'à étendre son exploitation au-delà de sa zone climatique naturelle, dans des zones à fortes contraintes hydriques. Dans ce contexte, nous avons étudié la saisonnalité et la dynamique des racines fines pendant trois ans ainsi que leur contribution au cycle du carbone. Nous avons pu mettre en évidence la continuité de la dynamique racinaire indépendamment des périodes de défoliation mais en lien avec la saisonnalité de la pluviométrie. Nous avons également pu caractériser la faible différenciation de la dynamique racinaire de 0 à 4,5 mètres de profondeur dans un tel contexte. La troisième partie de la thèse concerne l'étude du teck (tectona grandis), espèce endémique d'Asie du Sud-Est, et notamment du Laos dans la région de Luang Prabang. Le développement de sa culture sous forme de plantations mono-spécifiques se poursuit depuis les années 80. En appliquant la technique d'exclusion de pluie pendant 2 ans sur des arbres d'une plantation d'une vingtaine d'années, nous avons observé l'influence du régime de précipitations sur l'enracinement. Un arrêt pratiquement total de croissance des racines en surface et en profondeur a ainsi été mis en évidence. Nous concluons, dans le cas d'espèces à une forte dépendance à la ressource en eau de surface, à un impact direct sur l'état physiologique et une stagnation de la croissance des troncs. Certains individus ont démontré une capacité d'adaptation en modifiant leur cycle de foliation / défoliation accompagné d'une reprise de la croissance des troncs lors de la deuxième année du régime de sécheresse imposé. Nous avons également démontré l'importance de l'enracinement fin pour le stockage du carbone qui, dans ce contexte, représente plus de 45 % du carbone total, soit environ le double des données publiées dans la littérature.Les données obtenues pour les espèces étudiées dans ce mémoire pourront être utilisées pour la modélisation de scenarios simulant le changement climatique et le changement d'usage des terres
The root system is essential but essentially invisible. Plants are anchored to the soil through their root system; their adaptation and survival abilities are highly dependent on their ability to learn to take advantage of the space that surrounds them. Certain trees are nevertheless some of the largest and oldest living species on the planet- evidence of their ability to adapt to changes in their environment. Within managed anthropogenic constraints, particular species are vulnerable. It is clear that a wide range of parameters are likely to influence the root system and its operation, which offers many entry points to improve our understanding of a root's capacity for expansion, its dynamics, its role within the plant itself and within the soil plant atmosphere continuum. Available data on the extent and dynamics of plant roots includes several thousand references. However, the vast majority of these observations were made within the first meter of the soil profile. Data acquisition for the fine and/or deep roots is currently limited by constraints of time and financial resources. To overcome this lack of information, while trying to assess root dynamics under different environmental conditions, many models have been developed. However, it is still difficult to describe the complexity of root development in the community and to integrate its "plasticity".To understand such a complex environment, we must work toward establishing a definition of objectives and the tools necessary to develop and implement them. The work developed in the first part of this thesis is the subject of two articles and focuses on a literature review about deep roots. The vital role of the root system for the plant is well highlighted, as is its impact as a link within the atmosphere. We discuss the role of deep roots in carbon storage, which is critical and often underestimated. The different techniques for accessing the root systems in situ are also considered, and we present our access technique for observing the roots down to depths of five meters. We have also developed tools for shooting through a flatbed scanner and image analysis ( IJ_Rizo ) now available online.In the second part of the thesis, we focus on the study of root systems of adult rubber trees (Hevea brasiliensis L. RRIM 600) in the northeast of Thailand. Thailand has greatly expanded its acreage to extend its operations beyond its natural climate zone, into areas of high water stress. In this context, we studied the seasonality and dynamics of fine roots for three years and their contribution to the carbon cycle. We were able to highlight the continuity of root dynamics during independent periods of defoliation, yet link these to the seasonality of rainfall. We were also able to characterize the low differentiation of root dynamics at 0 to 4.5 m of depth in this context.The third part of the thesis concerns the study of teak particular to the region of Luang Prabang, Laos. By applying the rain exclusion technique for 2 years on a plantation of twenty-year-old trees, we observed the influence of precipitation patterns. During the period of water stress, an almost total cessation of root growth, at the surface and significant depths, has been highlighted. We conclude that in the case of species with a high dependence on water resources there is a direct impact on the physiological state and stagnated trunk growth. Some individuals have demonstrated an ability to adapt by changing their foliation/defoliation cycle, accompanied by a resumption of trunk growth during the second year of imposed drought. We also demonstrated the importance of rooting as a means of carbon storage, which in this context represents more than 45% of total carbon- roughly double the amount published in other literature .The data obtained for the species studied in this paper can be used for modelling scenarios simulating climate change and changing land use
APA, Harvard, Vancouver, ISO, and other styles
43

Tsogkas, Stavros. "Mid-level representations for modeling objects." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC012/document.

Full text
Abstract:
Dans cette thèse, nous proposons l'utilisation de représentations de niveau intermédiaire, et en particulier i) d'axes médians, ii) de parties d'objets, et iii) des caractéristiques convolutionnels, pour modéliser des objets.La première partie de la thèse traite de détecter les axes médians dans des images naturelles en couleur. Nous adoptons une approche d'apprentissage, en utilisant la couleur, la texture et les caractéristiques de regroupement spectral pour construire un classificateur qui produit une carte de probabilité dense pour la symétrie. Le Multiple Instance Learning (MIL) nous permet de traiter l'échelle et l'orientation comme des variables latentes pendant l'entraînement, tandis qu'une variante fondée sur les forêts aléatoires offre des gains significatifs en termes de temps de calcul.Dans la deuxième partie de la thèse, nous traitons de la modélisation des objets, utilisant des modèles de parties déformables (DPM). Nous développons une approche « coarse-to-fine » hiérarchique, qui utilise des bornes probabilistes pour diminuer le coût de calcul dans les modèles à grand nombre de composants basés sur HOGs. Ces bornes probabilistes, calculés de manière efficace, nous permettent d'écarter rapidement de grandes parties de l'image, et d'évaluer précisément les filtres convolutionnels seulement à des endroits prometteurs. Notre approche permet d'obtenir une accélération de 4-5 fois sur l'approche naïve, avec une perte minimale en performance.Nous employons aussi des réseaux de neurones convolutionnels (CNN) pour améliorer la détection d'objets. Nous utilisons une architecture CNN communément utilisée pour extraire les réponses de la dernière couche de convolution. Nous intégrons ces réponses dans l'architecture DPM classique, remplaçant les descripteurs HOG fabriqués à la main, et nous observons une augmentation significative de la performance de détection (~14.5% de mAP).Dans la dernière partie de la thèse nous expérimentons avec des réseaux de neurones entièrement convolutionnels pous la segmentation de parties d'objets.Nous réadaptons un CNN utilisé à l'état de l'art pour effectuer une segmentation sémantique fine de parties d'objets et nous utilisons un CRF entièrement connecté comme étape de post-traitement pour obtenir des bords fins.Nous introduirons aussi un à priori sur les formes à l'aide d'une Restricted Boltzmann Machine (RBM), à partir des segmentations de vérité terrain.Enfin, nous concevons une nouvelle architecture entièrement convolutionnel, et l'entraînons sur des données d'image à résonance magnétique du cerveau, afin de segmenter les différentes parties du cerveau humain.Notre approche permet d'atteindre des résultats à l'état de l'art sur les deux types de données
In this thesis we propose the use of mid-level representations, and in particular i) medial axes, ii) object parts, and iii)convolutional features, for modelling objects.The first part of the thesis deals with detecting medial axes in natural RGB images. We adopt a learning approach, utilizing colour, texture and spectral clustering features, to build a classifier that produces a dense probability map for symmetry. Multiple Instance Learning (MIL) allows us to treat scale and orientation as latent variables during training, while a variation based on random forests offers significant gains in terms of running time.In the second part of the thesis we focus on object part modeling using both hand-crafted and learned feature representations. We develop a coarse-to-fine, hierarchical approach that uses probabilistic bounds for part scores to decrease the computational cost of mixture models with a large number of HOG-based templates. These efficiently computed probabilistic bounds allow us to quickly discard large parts of the image, and evaluate the exact convolution scores only at promising locations. Our approach achieves a $4times-5times$ speedup over the naive approach with minimal loss in performance.We also employ convolutional features to improve object detection. We use a popular CNN architecture to extract responses from an intermediate convolutional layer. We integrate these responses in the classic DPM pipeline, replacing hand-crafted HOG features, and observe a significant boost in detection performance (~14.5% increase in mAP).In the last part of the thesis we experiment with fully convolutional neural networks for the segmentation of object parts.We re-purpose a state-of-the-art CNN to perform fine-grained semantic segmentation of object parts and use a fully-connected CRF as a post-processing step to obtain sharp boundaries.We also inject prior shape information in our model through a Restricted Boltzmann Machine, trained on ground-truth segmentations.Finally, we train a new fully-convolutional architecture from a random initialization, to segment different parts of the human brain in magnetic resonance image data.Our methods achieve state-of-the-art results on both types of data
APA, Harvard, Vancouver, ISO, and other styles
44

Eyono, Owoundi Ruben. "Modelisation de la retractibilite du bois en relation avec des parametres de la structure de l'accroissement annuel et de la position dans l'arbre chez quercus robur l. Et q. Petraea liebl. Application a l'integration de la retractibilite du bois dans les modeles de croissance de peuplements et d'arbres." Paris, ENGREF, 1992. http://www.theses.fr/1992ENGR0020.

Full text
Abstract:
Moyennant quelques hypotheses simplificatrices sur la structure anatomique de l'accroissement annuel et des connaissances deja acquises sur les effets respectifs de la largeur de cerne et de l'age medullaire sur la retractibilite et la densite du bois des chenes indigenes, des modeles permettant de decrire les variations de ces proprietes de base a une hauteur donnee dans l'arbre sont proposes. Les resultats de l'etude ont revele que les modeles proposes peuvent permettre de decrire de facon satisfaisante les variations, a une hauteur donnee dans l'arbre, de la retractibilite et de la densite du bois. Les ajustements de ces modeles sur des donnees provenant d'un echantillon de 23 chenes d'origines diverses, ont permis de mettre en evidence une grande diversite dans les comportements individuels
APA, Harvard, Vancouver, ISO, and other styles
45

Le, Faou Yohann. "Contributions à la modélisation des données de durée en présence de censure : application à l'étude des résiliations de contrats d'assurance santé." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS527.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux modèles de durée dans le contexte de la modélisation des durées de résiliation de contrats d’assurance santé. Identifié dès le 17ème siècle et les études de Graunt J. (1662) sur la mortalité, le biais induit par la censure des données de durée observées dans ce contexte doit être corrigé par les modèles statistiques utilisés. À travers la problématique de la mesure de la dépendance entre deux durées successives, et la problématique de la prédiction de la durée de résiliation d’un contrat d'assurance, nous étudions les propriétés théoriques et pratiques de différents estimateurs basés sur une méthode de pondération des observations (méthode dite IPCW) visant à corriger ce biais. L'application de ces méthodes à l'estimation de la valeur client en assurance est également détaillée
In this thesis, we study duration models in the context of the analysis of contract termination time in health insurance. Identified from the 17th century and the original work of Graunt J. (1662) on mortality, the bias induced by the censoring of duration data observed in this context must be corrected by the statistical models used. Through the problem of the measure of dependence between successives durations, and the problem of the prediction of contract termination time in insurance, we study the theoretical and practical properties of different estimators that rely on a proper weighting of the observations (the so called IPCW method) designed to compensate this bias. The application of these methods to customer value estimation is also carefully discussed
APA, Harvard, Vancouver, ISO, and other styles
46

Truong, Arthur. "Analyse du contenu expressif des gestes corporels." Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0015/document.

Full text
Abstract:
Aujourd’hui, les recherches portant sur le geste manquent de modèles génériques. Les spécialistes du geste doivent osciller entre une formalisation excessivement conceptuelle et une description purement visuelle du mouvement. Nous reprenons les concepts développés par le chorégraphe Rudolf Laban pour l’analyse de la danse classique contemporaine, et proposons leur extension afin d’élaborer un modèle générique du geste basé sur ses éléments expressifs. Nous présentons également deux corpus de gestes 3D que nous avons constitués. Le premier, ORCHESTRE-3D, se compose de gestes pré-segmentés de chefs d’orchestre enregistrés en répétition. Son annotation à l’aide d’émotions musicales est destinée à l’étude du contenu émotionnel de la direction musicale. Le deuxième corpus, HTI 2014-2015, propose des séquences d’actions variées de la vie quotidienne. Dans une première approche de reconnaissance dite « globale », nous définissons un descripteur qui se rapporte à l’entièreté du geste. Ce type de caractérisation nous permet de discriminer diverses actions, ainsi que de reconnaître les différentes émotions musicales que portent les gestes des chefs d’orchestre de notre base ORCHESTRE-3D. Dans une seconde approche dite « dynamique », nous définissons un descripteur de trame gestuelle (e.g. défini pour tout instant du geste). Les descripteurs de trame sont utilisés des poses-clés du mouvement, de sorte à en obtenir à tout instant une représentation simplifiée et utilisable pour reconnaître des actions à la volée. Nous testons notre approche sur plusieurs bases de geste, dont notre propre corpus HTI 2014-2015
Nowadays, researches dealing with gesture analysis suffer from a lack of unified mathematical models. On the one hand, gesture formalizations by human sciences remain purely theoretical and are not inclined to any quantification. On the other hand, the commonly used motion descriptors are generally purely intuitive, and limited to the visual aspects of the gesture. In the present work, we retain Laban Movement Analysis (LMA – originally designed for the study of dance movements) as a framework for building our own gesture descriptors, based on expressivity. Two datasets are introduced: the first one is called ORCHESTRE-3D, and is composed of pre-segmented orchestra conductors’ gestures, which have been annotated with the help of lexicon of musical emotions. The second one, HTI 2014-2015, comprises sequences of multiple daily actions. In a first experiment, we define a global feature vector based upon the expressive indices of our model and dedicated to the characterization of the whole gesture. This descriptor is used for action recognition purpose and to discriminate the different emotions of our orchestra conductors’ dataset. In a second approach, the different elements of our expressive model are used as a frame descriptor (e.g., describing the gesture at a given time). The feature space provided by such local characteristics is used to extract key poses of the motion. With the help of such poses, we obtain a per-frame sub-representation of body motions which is available for real-time action recognition purpose
APA, Harvard, Vancouver, ISO, and other styles
47

Dramé, Ibrahima. "Processus d'exploration des arbres aléatoires en temps continu à branchement non binaire : limite en grande population." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0110.

Full text
Abstract:
Dans cette thèse, on étudie la convergence du processus d'exploration de l'arbre généalogique d'un processus de branchement en temps continu non binaire, dans la limite d'une grande population. Dans la première partie, nous donnons une description précise du processus d'exploration de l'arbre non binaire. Ensuite nous décrivons une certaine bijection entre l'ensemble des processus d'exploration et l'ensemble des arbres non binaires. Après renormalisation des paramètres, nous présentons les résultats de convergence du processus de population et du processus d'exploration dans la limite d'une grande population. Dans la deuxième partie, nous établissons d'abord la convergence du processus de population vers un processus de branchement à espace d'état continu avec sauts. Puis, nous montrons la convergence du processus d'exploration normalisé de l'arbre généalogique correspondant vers le processus de hauteur continu défini récemment par Li, Pardoux et Wakolbinger.Dans la dernière partie, on définit un modèle discret de population avec interaction définie par une fonction générale non linéaire f. On fait une renormalisation adéquate du modèle discret pour obtenir en limite un processus de branchement à espace d'état continu généralisé. Ensuite nous renormalisons le processus d'exploration de l'arbre généalogique associé et nous prenons la limite quand la taille de la population tend vers l'infini
In this thesis, we study the convergence of the exploration process of the non-binary tree associated to a continuous time branching process, in the limit of a large population. In the first part, we give a precise description of the exploration process of the non-binary tree. We then describe a bijection between exploration processes and Galton Watson non-binary trees. After some renormalization, we present the results of convergence of the population process and the exploration process, in the limit of a large populations.In the second part, we first establish the convergence of the population process to a continuous state branching process (CSBP) with jumps. We then show the convergence of the (rescaled) exploration process, of the corresponding genealogical tree towards the continuous height process recently defined by Li, Pardoux and Wakolbinger. In the last part, we consider a population model with interaction defined with a more general non linear function $f.$ We proceed to a renormalization of the parameters model and we obtain in limit a generalized CSBP. We then renormalize the height process of the associated genealogical tree, and take the weak limit as the size of the population tends to infinity
APA, Harvard, Vancouver, ISO, and other styles
48

De, Moliner Anne. "Estimation robuste de courbes de consommmation électrique moyennes par sondage pour de petits domaines en présence de valeurs manquantes." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK021/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'estimation robuste de courbes moyennes ou totales de consommation électrique par sondage en population finie, pour l'ensemble de la population ainsi que pour des petites sous-populations, en présence ou non de courbes partiellement inobservées.En effet, de nombreuses études réalisées dans le groupe EDF, que ce soit dans une optique commerciale ou de gestion du réseau de distribution par Enedis, se basent sur l'analyse de courbes de consommation électrique moyennes ou totales, pour différents groupes de clients partageant des caractéristiques communes. L'ensemble des consommations électriques de chacun des 35 millions de clients résidentiels et professionnels Français ne pouvant être mesurées pour des raisons de coût et de protection de la vie privée, ces courbes de consommation moyennes sont estimées par sondage à partir de panels. Nous prolongeons les travaux de Lardin (2012) sur l'estimation de courbes moyennes par sondage en nous intéressant à des aspects spécifiques de cette problématique, à savoir l'estimation robuste aux unités influentes, l'estimation sur des petits domaines, et l'estimation en présence de courbes partiellement ou totalement inobservées.Pour proposer des estimateurs robustes de courbes moyennes, nous adaptons au cadre fonctionnel l'approche unifiée d'estimation robuste en sondages basée sur le biais conditionnel proposée par Beaumont (2013). Pour cela, nous proposons et comparons sur des jeux de données réelles trois approches : l'application des méthodes usuelles sur les courbes discrétisées, la projection sur des bases de dimension finie (Ondelettes ou Composantes Principales de l'Analyse en Composantes Principales Sphériques Fonctionnelle en particulier) et la troncature fonctionnelle des biais conditionnels basée sur la notion de profondeur d'une courbe dans un jeu de données fonctionnelles. Des estimateurs d'erreur quadratique moyenne instantanée, explicites et par bootstrap, sont également proposés.Nous traitons ensuite la problématique de l'estimation sur de petites sous-populations. Dans ce cadre, nous proposons trois méthodes : les modèles linéaires mixtes au niveau unité appliqués sur les scores de l'Analyse en Composantes Principales ou les coefficients d'ondelettes, la régression fonctionnelle et enfin l'agrégation de prédictions de courbes individuelles réalisées à l'aide d'arbres de régression ou de forêts aléatoires pour une variable cible fonctionnelle. Des versions robustes de ces différents estimateurs sont ensuite proposées en déclinant la démarche d'estimation robuste basée sur les biais conditionnels proposée précédemment.Enfin, nous proposons quatre estimateurs de courbes moyennes en présence de courbes partiellement ou totalement inobservées. Le premier est un estimateur par repondération par lissage temporel non paramétrique adapté au contexte des sondages et de la non réponse et les suivants reposent sur des méthodes d'imputation. Les portions manquantes des courbes sont alors déterminées soit en utilisant l'estimateur par lissage précédemment cité, soit par imputation par les plus proches voisins adaptée au cadre fonctionnel ou enfin par une variante de l'interpolation linéaire permettant de prendre en compte le comportement moyen de l'ensemble des unités de l'échantillon. Des approximations de variance sont proposées dans chaque cas et l'ensemble des méthodes sont comparées sur des jeux de données réelles, pour des scénarios variés de valeurs manquantes
In this thesis, we address the problem of robust estimation of mean or total electricity consumption curves by sampling in a finite population for the entire population and for small areas. We are also interested in estimating mean curves by sampling in presence of partially missing trajectories.Indeed, many studies carried out in the French electricity company EDF, for marketing or power grid management purposes, are based on the analysis of mean or total electricity consumption curves at a fine time scale, for different groups of clients sharing some common characteristics.Because of privacy issues and financial costs, it is not possible to measure the electricity consumption curve of each customer so these mean curves are estimated using samples. In this thesis, we extend the work of Lardin (2012) on mean curve estimation by sampling by focusing on specific aspects of this problem such as robustness to influential units, small area estimation and estimation in presence of partially or totally unobserved curves.In order to build robust estimators of mean curves we adapt the unified approach to robust estimation in finite population proposed by Beaumont et al (2013) to the context of functional data. To that purpose we propose three approaches : application of the usual method for real variables on discretised curves, projection on Functional Spherical Principal Components or on a Wavelets basis and thirdly functional truncation of conditional biases based on the notion of depth.These methods are tested and compared to each other on real datasets and Mean Squared Error estimators are also proposed.Secondly we address the problem of small area estimation for functional means or totals. We introduce three methods: unit level linear mixed model applied on the scores of functional principal components analysis or on wavelets coefficients, functional regression and aggregation of individual curves predictions by functional regression trees or functional random forests. Robust versions of these estimators are then proposed by following the approach to robust estimation based on conditional biais presented before.Finally, we suggest four estimators of mean curves by sampling in presence of partially or totally unobserved trajectories. The first estimator is a reweighting estimator where the weights are determined using a temporal non parametric kernel smoothing adapted to the context of finite population and missing data and the other ones rely on imputation of missing data. Missing parts of the curves are determined either by using the smoothing estimator presented before, or by nearest neighbours imputation adapted to functional data or by a variant of linear interpolation which takes into account the mean trajectory of the entire sample. Variance approximations are proposed for each method and all the estimators are compared to each other on real datasets for various missing data scenarios
APA, Harvard, Vancouver, ISO, and other styles
49

Genevès, Pierre. "Logiques pour XML." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00133591.

Full text
Abstract:
Cette thèse présente les fondements théoriques et pratiques d'un système pour l'analyse statique de langages manipulant des documents et données XML. Le système s'appuie sur une logique temporelle de point fixe avec programmes inverses, dérivée du mu-calcul modal, dans laquelle les modèles sont des arbres finis. Cette logique est suffisamment expressive pour prendre en compte les langages réguliers d'arbres ainsi que la navigation multidirectionnelle dans les arbres, tout en ayant une complexité simplement exponentielle. Plus précisément, la décidabilité de cette logique est prouvée en temps 2^O(n) où n est la taille de la formule dont le statut de vérité est déterminé.

Les principaux concepts de XML sont traduits linéairement dans cette logique. Ces concepts incluent la navigation et la sémantique de sélection de noeuds du langage de requêtes XPath, ainsi que les langages de schémas (incluant DTD et XML Schema). Grâce à ces traductions, les problèmes d'importance majeure dans les applications XML sont réduits à la satisfaisabilité de la logique. Ces problèmes incluent notamment l'inclusion, la satisfaisabilité, l'équivalence, l'intersection, le recouvrement des requêtes, en présence ou en l'absence de contraintes régulières d'arbres, et le typage statique d'une requête annotée.

Un algorithme correct et complet pour décider la logique est proposé, accompagné d'une analyse détaillée de sa complexité computationnelle, et des techniques d'implantation cruciales pour la réalisation d'un solveur efficace en pratique. Des expérimentations avec l'implantation complète du système sont présentées. Le système apparaît efficace et utilisable en pratique sur plusieurs scénarios réalistes.

La principale application de ce travail est une nouvelle classe d'analyseurs statiques pour les langages de programmation utilisant des requêtes XPath et des types réguliers d'arbres. De tels analyseurs permettent de s'assurer, au moment de la compilation, de propriétés importantes comme le typage correct des programmes ou leur optimisation, pour un traitement plus sûr et plus efficace des données XML.
APA, Harvard, Vancouver, ISO, and other styles
50

Chabi-Yo, Fousseni. "Asymmetry risk, state variables and stochastic discount factor specification in asset pricing models." Thèse, 2004. http://hdl.handle.net/1866/179.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography