To see the other types of publications on this topic, follow the link: Modélisation hiérarchique.

Dissertations / Theses on the topic 'Modélisation hiérarchique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modélisation hiérarchique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mbobi, Mokhoo. "Modélisation hétérogène non-hiérarchique." Paris 11, 2004. http://www.theses.fr/2004PA112211.

Full text
Abstract:
Les systèmes embarqués sont naturellement hétérogènes et les outils actuels employés pour leur modélisation utilisent une approche hiérarchique, qui, bien qu'évitant l'explosion combinatoire du nombre d'interfaces entre différents modèles de calcul (MoCs), impose systématiquement un changement de niveau hiérarchique lorsque l'on passe d'un MoC à un autre. Or ce couplage entre la hiérarchie et les changements de MoC perturbe la structure du modèle, nuit à la réutilisabilité des composants, altère la modularité et réduit la maintenabilité des modèles. Cette thèse propose une approche non-hiérarchique qui découple les changements des MoCs de la hiérarchie. Elle repose sur l'utilisation de " Composant à Interface Hétérogène " (Heterogeneous Interface Component - HIC) qui dispose d'entrées et de sorties de natures différentes pour permettre la communication hétérogène dans le système et d'un Modèle d'Exécution Hétérogène Non-Hiérarchique dont la tâche est de restructurer le système en le partitionnant, i. E. , en créant des sous-systèmes homogènes à la frontière des comportements hétérogènes, puis, d'ordonnancer leurs activations en déléguant leur ordonnancement interne à leurs MoCs réguliers et d'exécuter le système. Cette approche présente plusieurs avantages : - l'utilisation de plusieurs composants hétérogènes au même niveau hiérarchique, - la séparation entre le flot de contrôle et le flot de données qui augmente la réutilisabilité des composants. - la spécification par le concepteur du comportement de son système à la limite des différents MoCs comme partie intégrante du système contribue efficacement à la modularité et à la maintenabilité des modèles
Embedded systems are naturally heterogeneous. Currently, modeling tools used for modeling embedded systems use a hierarchical approach. This approach although avoiding the combinatorial explosion of the number of interfaces between models of Computation (MoCs) forces the change of hierarchical level when passing from one MoC to another. But, this coupling between hierarchy and model changing perturbs the structure of the model, affects the modularity and makes difficult the maintainability of the model. Moreover this coupling is harmfull to the reuse of the component. This thesis proposes a new approach that dissociates the MoC from this hierarchy. This approach uses two components : a "Heterogeneous Interface Components (HIC) " and a "Non-Hierarchical Heterogeneous Execution Model". A HIC have inputs and outputs of different nature to allow the heterogeneous communication in a system. The Execution Model reorganizes the system by partitionning, i. E. By creating homogenous subsystems at the border of the heterogeneous behavior. It schedules the activation of those subsystems and delegates their internal scheduling to their regular MoC. Finally it executes the system. This approach presents several advantages : the use of several components that use heterogeneous inputs or outputs at the same level of the hierarchy. The separation of control flow and data flow increases the reuse of the components. The explicit specification of the heterogeneous behavior of the system at the boundary between different MoCs as an integral part of the system, contributes efficiently to the modularity and the maintainability of the models
APA, Harvard, Vancouver, ISO, and other styles
2

Olivares, Romero Javier. "Modélisation hiérarchique bayésienne des amas stellaires jeunes." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAY071/document.

Full text
Abstract:
Il semble maintenant établi que la majorité des étoiles se forment dans des amas (Carpenter 2000; Porras et al. 2003; Lada & Lada 2003). Comprendre l'origine et l'évolution des populations stellaires est donc l'un des plus grands défis de l'astrophysique moderne. Malheureusement, moins d'un dixième de ces amas restent gravitationellement liés au delà de quelques centaines de millions d'années (Lada & Lada 2003). L’étude des amas stellaires doit donc se faire avant leur dissolution dans la galaxie.Le projet Dynamical Analysis of Nearby Clusters (DANCe, Bouy et al. 2013), dont le travail fait partie, fournit le cadre scientifique pour l'analyse des amas proches et jeunes (NYC) dans le voisinage solaire. Les observations de l'amas ouvert des Pléiades par le projet DANCe offrent une opportunité parfaite pour le développement d'outils statistiques visant à analyser les premières phases de l'évolution des amas.L'outil statistique développé ici est un système intelligent probabiliste qui effectue une inférence bayésienne des paramètres régissant les fonctions de densité de probabilité (PDF) de la population de l'amas (PDFCP). Il a été testé avec les données photométriques et astrométriques des Pléiades du relevé DANCe. Pour éviter la subjectivité de ces choix des priors, le système intelligent les établit en utilisant l'approche hiérarchique bayésienne (BHM). Dans ce cas, les paramètres de ces distributions, qui sont également déduits des données, proviennent d'autres distributions de manière hiérarchique.Dans ce système intelligent BHM, les vraies valeurs du PDFCP sont spécifiées par des relations stochastiques et déterministes représentatives de notre connaissance des paramètres physiques de l'amas. Pour effectuer l'inférence paramétrique, la vraisemblance (compte tenu de ces valeurs réelles), tient en compte des propriétés de l'ensemble de données, en particulier son hétéroscédasticité et des objects avec des valeurs manquantes.Le BHM obtient les PDF postérieures des paramètres dans les PDFCP, en particulier celles des distributions spatiales, de mouvements propres et de luminosité, qui sont les objectifs scientifiques finaux du projet DANCe. Dans le BHM, chaque étoile du catalogue contribue aux PDF des paramètres de l'amas proportionnellement à sa probabilité d'appartenance. Ainsi, les PDFCP sont exempts de biais d'échantillonnage résultant de sélections tronquées au-dessus d'un seuil de probabilité défini plus ou moins arbitrairement.Comme produit additionnel, le BHM fournit également les PDF de la probabilité d'appartenance à l'amas pour chaque étoile du catalogue d'entrée, qui permettent d'identifier les membres probables de l'amas, et les contaminants probables du champ. La méthode a été testée avec succès sur des ensembles de données synthétiques (avec une aire sous la courbe ROC de 0,99), ce qui a permis d'estimer un taux de contamination pour les PDFCP de seulement 5,8 %.Ces nouvelles méthodes permettent d'obtenir et/ou de confirmer des résultats importants sur les propriétés astrophysiques de l'amas des Pléiades. Tout d'abord, le BHM a découvert 200 nouveaux candidats membres, qui représentent 10% de la population totale de l'amas. Les résultats sont en excellent accord (99,6% des 100 000 objets dans l'ensemble de données) avec les résultats précédents trouvés dans la littérature, ce qui fournit une validation externe importante de la méthode. Enfin, la distribution de masse des systèmes actuelle (PDSMD) est en général en bon accord avec les résultats précédents de Bouy et al. 2015, mais présente l'avantage inestimable d'avoir des incertitudes beaucoup plus robustes que celles des méthodes précédentes.Ainsi, en améliorant la modélisation de l'ensemble de données et en éliminant les restrictions inutiles ou les hypothèses simplificatrices, le nouveau système intelligent, développé et testé dans le présent travail, représente l'état de l'art pour l'analyse statistique des populations de NYC
The origin and evolution of stellar populations is one of the greatest challenges in modern astrophysics. It is known that the majority of the stars has its origin in stellar clusters (Carpenter 2000; Porras et al. 2003; Lada & Lada 2003). However, only less than one tenth of these clusters remains bounded after the first few hundred million years (Lada & Lada 2003). Ergo, the understanding of the origin and evolution of stars demands meticulous analyses of stellar clusters in these crucial ages.The project Dynamical Analysis of Nearby Clusters (DANCe, Bouy et al. 2013), from which the present work is part of, provides the scientific framework for the analysis of Nearby Young Clusters (NYC) in the solar neighbourhood (< 500 pc). The DANCe carefully designed observations of the well known Pleiades cluster provide the perfect case study for the development and testing of statistical tools aiming at the analysis of the early phases of cluster evolution.The statistical tool developed here is a probabilistic intelligent system that performs Bayesian inference for the parameters governing the probability density functions (PDFs) of the cluster population (PDFCP). It has been benchmarked with the Pleiades photometric and astrometric data of the DANCe survey. As any Bayesian framework, it requires the setting up of priors. To avoid the subjectivity of these, the intelligent system establish them using the Bayesian Hierarchical Model (BHM) approach. In it, the parameters of prior distributions, which are also inferred from the data, are drawn from other distributions in a hierarchical way.In this BHM intelligent system, the true values of the PDFCP are specified by stochastic and deterministic relations representing the state of knowledge of the NYC. To perform the parametric inference, the likelihood of the data, given these true values, accounts for the properties of the data set, especially its heteroscedasticity and missing value objects. By properly accounting for these properties, the intelligent system: i) Increases the size of the data set, with respect to previous studies working exclusively on fully observed objects, and ii) Avoids biases associated to fully observed data sets, and restrictions to low-uncertainty objects (sigma-clipping procedures).The BHM returns the posterior PDFs of the parameters in the PDFCPs, particularly of the spatial, proper motions and luminosity distributions. In the BHM each object in the data set contributes to the PDFs of the parameters proportionally to its likelihood. Thus, the PDFCPs are free of biases resulting from typical high membership probability selections (sampling bias).As a by-product, the BHM also gives the PDFs of the cluster membership probability for each object in the data set. These PDFs together with an optimal probability classification threshold, which is obtained from synthetic data sets, allow the classification of objects into cluster and field populations. This by-product classifier shows excellent results when applied on synthetic data sets (with an area under the ROC curve of 0.99). From the analysis of synthetic data sets, the expected value of the contamination rate for the PDFCPs is 5.8 ± 0.2%.The following are the most important astrophysical results of the BHM applied tothe Pleiades cluster. First, used as a classifier, it finds ∼ 200 new candidate members, representing 10% new discoveries. Nevertheless, it shows outstanding agreement (99.6% of the 105 objects in the data set) with previous results from the literature. Second, the derived present day system mass distribution (PDSMD) is in general agreement with the previous results of Bouy et al. (2015).Thus, by better modelling the data set and eliminating unnecessary restrictions to it, the new intelligent system, developed and tested in the present work, represents the state of the art for the statistical analysis of NYC populations
APA, Harvard, Vancouver, ISO, and other styles
3

Thourel, Pierre. "Segmentation d'images sonar par modélisation markovienne hiérarchique et analyse multirésolution." Brest, 1996. http://www.theses.fr/1996BRES2026.

Full text
Abstract:
Le sonar haute resolution constitue un moyen efficace pour observer la tres grande variete d'objets reposant sur les fonds marins. Leur detection puis leur classification (en tant que rochers, epaves, objets manufactures,) est alors realisee grace a une analyse de la forme de l'ombre qu'ils produisent sur les images sonar. L'automatisation de la phase de classification requiert une premiere etape de segmentation des images acoustiques. Malheureusement, les resultats obtenus par les traitements classiques de segmentation ne sont pas satisfaisants en raison de la presence d'un fort bruit de speckle. Nous proposons donc une nouvelle approche qui permet d'aborder ce probleme de segmentation des images sonar par l'intermediaire d'une modelisation markovienne. Le premier volet de ce travail est consacre a la conception d'un modele markovien de segmentation qui integre a la fois une caracterisation des liens existants entre les etiquettes et les pixels de l'image observee (modelisation du terme d'attache aux donnees par des lois normales ou de rayleigh) et une description de la forme particuliere de certaines ombres permettant ainsi une regularisation du champ des etiquettes (modelisation du terme contextuel par des fonctions de potentiel definies sur des cliques binaires et quaternaires). L'estimation non supervisee des parametres du terme d'attache aux donnees repose sur la minimisation du critere de kolmogorov tandis que les parametres du terme a priori sont calibres par la methode des boites qualitatives. Afin d'ameliorer les performances de cette methode, nous avons ensuite retenu deux approches complementaires. Tout d'abord nous associons une analyse multigrille au modele markovien de segmentation afin de traiter un tres grand nombre d'images sonar. La deuxieme approche consiste a coupler une analyse multiresolution des images sonar avec un modele markovien hierarchique afin de segmenter des images representant en particulier des fonds marins rocheux. Ces deux methodes de segmentation ont ete validees sur des images de synthese et de nombreuses images reelles de sonar haute resolution
APA, Harvard, Vancouver, ISO, and other styles
4

Yvart, Alex. "Modélisation Hiérarchique de Surfaces à partir de Maillages Polyédriques et Applications." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00009003.

Full text
Abstract:
La conception et fabrication assistées par ordinateur (CFAO) est incontournable dans la création et l'élaboration d'un produit. De même, l'infographie est couramment employée en effets spéciaux ou réalité virtuelle. Pourtant, chaque domaine utilise ses propres outils pour modéliser des surfaces. Pour répondre aux contraintes de ces deux types d'utilisations, nous proposons une nouvelle modélisation de surfaces polynomiales, interpolantes, globalement lisses (de plan tangent continu) et hiérarchique. Une surface lisse initiale est d'abord construite sur un maillage triangulaire, ce qui permet de traiter toutes les topologies. Des détails sont ensuite progressivement ajoutés par niveaux. Pour ce faire, chaque face est subdivisée en quatre sous-faces par insertion d'un sommet en milieu d'arête. Ce raffinement n'induit pas de modifications significatives sur la surface. Chaque détail est défini localement par rapport au précédent grâce à l'utilisation de repères locaux. Cette hiérarchie permet à l'ensemble des détails fins de suivre continûment le déplacement lors d'une édition de la surface. Deux applications sont ensuite proposées dans cet ouvrage : Tout d'abord, un modeleur 3D respectant la démarche créative des artistes. Celui-ci repose sur le calcul d'une forme globale progressivement affinée pour obtenir l'objet désiré, et offre la possibilité d'éditer les objets de manière intuitive en modifiant très peu de paramètres. Enfin, un outil de reconstruction est présenté pour modéliser des objets existants grâce à notre nouvelle représentation hiérarchique.
APA, Harvard, Vancouver, ISO, and other styles
5

Fokwa, Didier. "Matériaux hétérogènes : analyse expérimentale et modélisation numérique par une approche hiérarchique." Paris 6, 1992. http://www.theses.fr/1992PA066147.

Full text
Abstract:
Dans la première partie, à partir d'une analyse expérimentale, on montre que: la longueur caractéristique du béton est comprise entre quatre et six fois la taille du plus gros granulat qui entre dans sa composition. Cette estimation n'est cependant pas valable pour les mortiers pour lesquels la taille du plus gros granulat ne constitue probablement pas la plus grosse hétérogénéité; la contrainte de pic et la densité volumique d'énergie de rupture diminuent lorsque la taille des granulats augmente; inversement, on note une augmentation de l'énergie de rupture avec la taille du granulat. Dans la deuxième partie, on développe un modèle hiérarchique qui prend en compte le caractère hétérogène de la microstructure. Des lois d'échelle sont déduites entre les paramètres de rupture et la taille du réseau hiérarchique. On montre en particulier qu'en présence d'un fort désordre local, il y a redistribution locale des contraintes et la contrainte de rupture macroscopique peut de ce fait être inférieure à la plus petite contrainte de rupture locale. La théorie du maillon le plus faible dans ce cas ne convient plus pour décrire le comportement du matériau
APA, Harvard, Vancouver, ISO, and other styles
6

Chehaibar, Ghassan. "Méthodes d'analyse hiérarchique des réseaux de Petri." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://tel.archives-ouvertes.fr/tel-00519683.

Full text
Abstract:
L'objet de cette thèse est de définir des méthodes d'analyse hiérarchique des réseaux de Petri (un formalisme de modélisation du contrôle des systèmes distribués). Premièrement, nous étudions la transformation de réseaux par remplacement de sous-réseaux ouverts: une notion d'équivalence est définie telle que si on remplace un sous-réseau ouvert par un réseau équivalent on obtient un réseau équivalent au réseau d'origine; puis nous définissons la classe des réseaux réentrants, pour laquelle la vérification de l'équivalence, complexe en général, devient simple. Deuxièmement, l'examen de la composition de réseaux par fusion de places conduit à deux résultats: la conservation d'espace d'accueil dans certaines conditions d'indépendance par rapport aux places partagées, et celle de l'absence d'interblocage lors de la composition des réseaux à ressources ordonnées (dans un sens différent de la solution classique). Enfin, un nouveau concept de norme pour la preuve de la propriété d'espace d'accueil est défini, muni d'opérations de composition permettant une vérification modulaire de cette propriété.
APA, Harvard, Vancouver, ISO, and other styles
7

Boubekeur, Tamy. "Traitement Hiérarchique, Edition et Synthèse de Géométrie Numérisée." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00260917.

Full text
Abstract:
La représentation des surfaces du monde réel dans la mémoire d'une machine peut désormais être obtenue automatiquement via divers périphériques de capture tels que les scanners 3D. Ces nouvelles sources de données, précises et rapides, amplifient de plusieurs ordres de grandeur la résolution des surfaces 3D, apportant un niveau de précision élevé pour les applications nécessitant des modèles numériques de surfaces telles que la conception assistée par ordinateur, la simulation physique, la réalité virtuelle, l'imagerie médicale, l'architecture, l'étude archéologique, les effets spéciaux, l'animation ou bien encore les jeux video. Malheureusement, la richesse de la géométrie produite par ces méthodes induit une grande, voire gigantesque masse de données à traiter, nécessitant de nouvelles structures de données et de nouveaux algorithmes capables de passer à l'échelle d'objets pouvant atteindre le milliard d'échantillons. Dans cette thèse, je propose des solutions performantes en temps et en espace aux problèmes de la modélisation, du traitement géométrique, de l'édition intéractive et de la visualisation de ces surfaces 3D complexes. La méthodologie adoptée pendant l'élaboration transverse de ces nouveaux algorithmes est articulée autour de 4 éléments clés : une approche hiérarchique systématique, une réduction locale de la dimension des problèmes, un principe d'échantillonage-reconstruction et une indépendance à l'énumération explicite des relations topologiques aussi appelée approche basée-points. En pratique, ce manuscrit propose un certain nombre de contributions, parmi lesquelles : une nouvelle structure hiérarchique hybride de partitionnement, l'Arbre Volume-Surface (VS-Tree) ainsi que de nouveaux algorithmes de simplification et de reconstruction ; un système d'édition intéractive de grands objets ; un noyau temps-réel de synthèse géométrique par raffinement et une structure multi-résolution offrant un rendu efficace de grands objets. Ces structures, algorithmes et systèmes forment une chaîne capable de traiter les objets en provenance du pipeline d'acquisition, qu'ils soient représentés par des nuages de points ou des maillages, possiblement non 2-variétés. Les solutions obtenues ont été appliquées avec succès aux données issues des divers domaines d'application précités.
APA, Harvard, Vancouver, ISO, and other styles
8

Abdelfattah, Nahed. "Modélisation 2D 1/2 hiérarchique basée sur les cartes planaires : réalisation et évaluation d'une interface graphique utilisant cette modélisation." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1994. http://tel.archives-ouvertes.fr/tel-00820994.

Full text
Abstract:
Cette thèse propose une modélisation basée sur les cartes planaires. Les données d'un même niveau plan sont modélisées, selon leur sémantique, par des cartes planaires indépendantes qui sont superposées. L'empilement de telles cartes, géré par une représentation tridimensionnelle inspirée des techniques de dessin en perspective cavalière, permet de modéliser des données appartenant à des plans strictement parallèles. Une structure de données hiérarchique offre la possibilité de détailler une zone d'un plan (face d'une carte planaire) par un certain nombre de cartes planaires représentant différentes sémantiques. De plus, cette modélisation gère parfaitement les liens qui peuvent exister entre les objets modélises dans différentes cartes planaires. Elle permet ainsi de garder le sens global de l'ensemble des objets. Cette modélisation a été utilisée pour réaliser une interface graphique dans le cadre d'un projet européen esprit. Une évaluation ergonomique de cette interface est présentée ainsi que les améliorations apportées à cette interface suite à l'évaluation.
APA, Harvard, Vancouver, ISO, and other styles
9

Nahed, Abdelfattah. "Modélisation 2D 1/2 hiérarchique basée sur les cartes planaires : réalisation et évaluation d'une interface graphique utilisant cette modélisation." Saint-Etienne, 1994. http://tel.archives-ouvertes.fr/docs/00/82/09/94/PDF/1994_Nahed_Abdelfattah.pdf.

Full text
Abstract:
Cette thèse propose une modélisation basée sur la notion de carte planaire. Les données d'un même niveau plan sont modélisées, selon leur sémantique, par des cartes planaires indépendantes qui sont superposées. De même l'empilement de telles cartes, permet de modéliser des données appartenant à des plans strictement parallèles. La visualisation et la manipulation des données de plans strictement parallèles sont assurées par une représentation tri-dimensionnelle inspirée des techniques de dessin en perspective cavalière. Une structure de données hiérarchique offre la possibilité de détailler une zone d'un plan (face d'une carte planaire) par un certain nombre de cartes planaires représentant différentes sémantiques. De plus, cette modélisation gère parfaitement les liens qui peuvent exister entre les objets modélisés dans différentes cartes planaires. Elle permet ainsi de garder le sens global de l'ensemble des objets. Cette modélisation a été utilisée pour réaliser une interface graphique dans le cadre d'un projet européen Esprit MMI2. Une évaluation ergonomique de cette interface est présentée ainsi que les améliorations apportées à cette interface suite à l'évaluation
This thesis proposes a model based on the planar map notion. Data of the same plane level are modeled by severa! planar maps each of which corresponding to a class of semantics. These maps are independent and superposed. Modeling of data belonging to parallel planes is also allowed by planar maps superposing. Display and manipulation of data belonging to parallel planes are ensured thanks to a three-dimensional representation that is inspired by perspective techniques in draughtmanship domain. A hierarchical data structure offers the possibility to detail one zone of the plane (a face in planar map notion) by many planar maps corresponding to the different semantics. Furthermore, this model handles perfectly the semantic links that could lie abjects modeled in different planar maps. Hence, it preserves the whole meaning of the modeled scene. The proposed medel has been used to design a graphical interface within the scope of an european Esprit project MMI2. An ergonomie evaluation of that interface and refinements made in it as consequence of the evaluation are also presented in this thesis
APA, Harvard, Vancouver, ISO, and other styles
10

Karray, Mohamed. "Contribution à la modélisation hiérarchique de systèmes opto-électroniques à base de VHDL-AMS." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001576.

Full text
Abstract:
Dans un contexte technologique où le degré d'intégration des circuits en micro et optoélectronique est de plus en plus fort, il apparaît nécessaire aux concepteurs de ces circuits de disposer d'outils de simulation complets permettant non seulement d'étudier le fonctionnement des différents éléments constitutifs des sous-systèmes qu'ils réalisent, mais également d'évaluer les performances globales de l'ensemble. Ce travail de thèse porte sur l'élaboration de modèles de composants optoélectroniques en utilisant le langage VHDL-AMS, langage particulièrement bien adapté à la modélisation de systèmes multi-domaines en intégrant les différentes contraintes: l'électronique, l'optique, la thermique ou la mécanique. Ce langage offre aussi la possibilité de modéliser à différents niveaux d'abstraction un même système. Notre travail se situe dans le contexte du projet SHAMAN, dont le but était de modéliser chaque composant d'un microsystème opto-électronique à haut débit, courte distance et à fortes interactions thermiques et mécaniques. La mise en œuvre d'une méthodologie de modélisation hiérarchique permettant de commuter entre deux conceptions ascendante et descendante amène à des solutions optimales en termes de performances, de coût et de temps de conception: ceci en ré-utilisant des composants virtuels dont l'utilisation est régie par des règles de propriétés intellectuelles (IP).
APA, Harvard, Vancouver, ISO, and other styles
11

Karray, Mohamed. "Contribution à la modélisation hiérarchique de systèmes opto-électroniques à base de VHD-AMS." Paris, ENST, 2004. http://www.theses.fr/2004ENST0044.

Full text
Abstract:
Dans un contexte technologique où le degré d'intégration des circuits en micro et optoélectronique est de plus en plus fort, il apparaît nécessaire aux concepteurs de ces circuits de disposer d'outils de simulation complets permettant non seulement d'étudier le fonctionnement des différents éléments constitutifs des sous-systèmes qu'ils réalisent, mais également d'évaluer les performances globales de l'ensemble. Ce travail de thèse porte sur l'élaboration de modèles de composants optoélectroniques en utilisant le langage VHDL-AMS, langage particulièrement bien adapté à la modélisation de systèmes multi-domaines en intégrant les différentes contraintes : l'électronique, l'optique, la thermique ou la mécanique. Ce langage offre aussi la possibilité de modéliser à différents niveaux d'abstraction un même système. Notre travail se situe dans le contexte du projet SHAMAN, dont le but était de modéliser chaque composant d'un microsystème opto-électronique à haut débit, courte distance et à fortes interactions thermiques et mécaniques. La mise en oeuvre d'une méthodologie de modélisation hiérarchique permettant de commuter entre deux conceptions ascendante et descendante amène à des solutions optimales en termes de performances, de coût et de temps de conception : ceci en ré-utilisant des composants virtuels dont l'utilisation est régie par des règles de propriétés intellectuelles (IP)
In a technological context in which the integration degree in micro and optoelectronic circuits increases more and more, it becomes necessary for the designers to get complete simulation tools, in order to study not only the behavior of different constitutive elements of sub-systems that they design, but also to evaluate global performances of the system. This thesis work concerns the design of opto-electronic component models, by using VHDL-AMS language. This language is very convenient for multi-domain modelling : electronics, optics, thermics or mechanics. It gives also the capability to get models at different abstraction levels in the system. Our work is a part of SHAMAN project. Its objective is to model every component of an opto-electronic system with the conditions of high speed, short distance, and strong thermal and mechanical interactions. The methodology used is hierarchical, combining top-down and bottom-up design flow in order to get optimal solutions about performances, cost and design time, and by re-using virtual components following intellectual property rules (IP)
APA, Harvard, Vancouver, ISO, and other styles
12

Ancelet, Sophie. "Exploiter l'approche hiérarchique bayésienne pour la modélisation statistique de structures spatiales: application en écologie des populations." Phd thesis, AgroParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004396.

Full text
Abstract:
Dans la plupart des questions écologiques, les phénomènes aléatoires d'intérêt sont spatialement structurés et issus de l'effet combiné de multiples variables aléatoires, observées ou non, et inter-agissant à diverses échelles. En pratique, dès lors que les données de terrain ne peuvent être directement traitées avec des structures spatiales standards, les observations sont généralement considérées indépendantes. Par ailleurs, les modèles utilisés sont souvent basés sur des hypothèses simplificatrices trop fortes par rapport à la complexité des phénomènes étudiés. Dans ce travail, la démarche de modélisation hiérarchique est combinée à certains outils de la statistique spatiale afin de construire des structures aléatoires fonctionnelles "sur-mesure" permettant de représenter des phénomènes spatiaux complexes en écologie des populations. L'inférence de ces différents modèles est menée dans le cadre bayésien avec des algorithmes MCMC. Dans un premier temps, un modèle hiérarchique spatial (Geneclust) est développé pour identifier des populations génétiquement homogènes quand la diversité génétique varie continûment dans l'espace. Un champ de Markov caché, qui modélise la structure spatiale de la diversité génétique, est couplé à un modèle bivarié d'occurrence de génotypes permettant de tenir compte de l'existence d'unions consanguines chez certaines populations naturelles. Dans un deuxième temps, un processus de Poisson composé particulier,appelé loi des fuites, est présenté sous l'angle de vue hiérarchique pour décrire le processus d'échantillonnage d'organismes vivants. Il permet de traiter le délicat problème de données continues présentant une forte proportion de zéros et issues d'échantillonnages à efforts variables. Ce modèle est également couplé à différents modèles sur grille (spatiaux, régionalisés) afin d'introduire des dépendances spatiales entre unités géographiques voisines puis, à un champ géostatistique bivarié construit par convolution sur grille discrète afin de modéliser la répartition spatiale conjointe de deux espèces. Les capacités d'ajustement et de prédiction des différents modèles hiérarchiques proposés sont comparées aux modèles traditionnellement utilisés à partir de simulations et de jeux de données réelles (ours bruns de Suède, invertébrés épibenthiques du Golfe-du-Saint-Laurent (Canada)).
APA, Harvard, Vancouver, ISO, and other styles
13

Paris, Thomas. "Modélisation de systèmes complexes par composition : une démarche hiérarchique pour la co-simulation de composants hétérogènes." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0035/document.

Full text
Abstract:
Le contexte de ce travail est la Modélisation et Simulation (M&S) de systèmes complexes. Leur étude nécessite de combiner plusieurs points de vue (échelles temporelles et spatiales, domaines scientifiques et formalismes, niveaux de résolution...). Le challenge est l'intégration rigoureuse de ces différentes perspectives sur un système au sein d'une démarche de M&S. La multi-modélisation et la co-simulation sont deux approches prometteuses pour cela. La difficulté sous-jacente est de fournir une démarche modulaire, hiérarchique, dotée d'une approche d'intégration de composants hétérogènes rigoureuse et associée à un environnement logiciel supportant l'ensemble du cycle de M&S pour la mettre en pratique. MECSYCO (Multi-agent Environment for Complex System CO-simulation) est un intergiciel de co-simulation se focalisant sur la réutilisation de modèles issus d'autres logiciels. Il se base sur une stratégie d'encapsulation logicielle et formelle fondée sur DEVS, fournit des mécanismes de gestion des hétérogénéités, et assure une co-simulation décentralisée et modulaire. MECSYCO répond au besoin d'intégration de composants hétérogènes au sein d'une co-simulation, mais ne propose pas de démarche complète comprenant l'ensemble des propriétés énoncées précédemment comme la possibilité de hiérarchiser. Pour pallier à ce manque, dans la continuité des travaux sur MECSYCO nous proposons une démarche de multi-modélisation et co-simulation descriptive autorisant la construction incrémentale de multi-modèles à partir de modèles issus d'autres logiciels. Notre démarche est décomposée en 3 étapes : l'intégration, la multi-modélisation et enfin l'expérimentation. Chaque élément produit lors de ces étapes est associé à une description permettant de le manipuler. L'utilisation de descriptions complète le processus d'intégration, permet la construction incrémentale et modulaire des multi-modèles, et isole l'expérimentation. Nous mettons ensuite en place un environnement de développement basé sur des langages dédiés aux descriptions, et nous automatisons le passage d'une description d'expérience à sa co-simulation effective. C'est une démarche d'Ingénierie Dirigée par les Modèles qui nous permet de mettre en pratique notre approche en facilitant le travail des modélisateurs et en évitant les erreurs d'implémentation. Nos contributions sont évaluées sur plusieurs expériences dont la reprise d’un multi-modèle d’autoroute hybride et un exemple de thermique des bâtiments
This work deals with complex system Modeling and Simulation (M&S). The particularity of such systems is the numerous heterogeneous entities in interaction involved inside them. This particularity leads to several organization layers and scientific domains. As a consequence, their study requests many perspectives (different temporal and spatial scales, different domains and formalisms, different granularities...). The challenge is the rigorous integration of these various system perspectives inside an M&S process. Multi-modeling and co-simulation are promising approaches to do so. The underlying problem is to define a modular and hierarchical process fitted with a rigorous way to integrate heterogeneous components and which is supported by a software environment that covers the whole M&S cycle. MECSYCO (Multi-agent Environment for Complex SYstem CO-simulation) is a co-simulation middleware focusing on the reuse of existing models from other software. It relies on a software and formal DEVS-based wrapping, provides heterogeneity handling mechanisms and ensures a decentralized and modular co-simulation. MECSYCO deals with the heterogeneous component integration need but its M&S process does not have all the properties above-mentioned. Notably, the hierarchical modeling ability is missing. To overcome this, we propose to fit MECSYCO with a descriptive multi-modeling and co-simulation process that allows the hierarchical design of multi-models using models from other software. Our process is split into three steps: integration, multi-modeling and finally the experimentation. We adopt a descriptive approach where a description file is linked to each product of these steps, these documents enable to manipulate them. The use of description files completes the integration steps, allows a hierarchical and modular multi-model design and isolates the experiments. Then we set up a development environment based on Domain Specific Languages to support the description work, and we automate the transition from an experiment description to its effective co-simulation. This is a Model-Driven Engineering approach which allows us to put into practice our contribution by facilitating the work of modelers and by avoiding implementation mistakes. Our contributions are evaluated on several experiments including a hybrid highway model and a thermal regulation example
APA, Harvard, Vancouver, ISO, and other styles
14

Paris, Thomas. "Modélisation de systèmes complexes par composition : une démarche hiérarchique pour la co-simulation de composants hétérogènes." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0035.

Full text
Abstract:
Le contexte de ce travail est la Modélisation et Simulation (M&S) de systèmes complexes. Leur étude nécessite de combiner plusieurs points de vue (échelles temporelles et spatiales, domaines scientifiques et formalismes, niveaux de résolution...). Le challenge est l'intégration rigoureuse de ces différentes perspectives sur un système au sein d'une démarche de M&S. La multi-modélisation et la co-simulation sont deux approches prometteuses pour cela. La difficulté sous-jacente est de fournir une démarche modulaire, hiérarchique, dotée d'une approche d'intégration de composants hétérogènes rigoureuse et associée à un environnement logiciel supportant l'ensemble du cycle de M&S pour la mettre en pratique. MECSYCO (Multi-agent Environment for Complex System CO-simulation) est un intergiciel de co-simulation se focalisant sur la réutilisation de modèles issus d'autres logiciels. Il se base sur une stratégie d'encapsulation logicielle et formelle fondée sur DEVS, fournit des mécanismes de gestion des hétérogénéités, et assure une co-simulation décentralisée et modulaire. MECSYCO répond au besoin d'intégration de composants hétérogènes au sein d'une co-simulation, mais ne propose pas de démarche complète comprenant l'ensemble des propriétés énoncées précédemment comme la possibilité de hiérarchiser. Pour pallier à ce manque, dans la continuité des travaux sur MECSYCO nous proposons une démarche de multi-modélisation et co-simulation descriptive autorisant la construction incrémentale de multi-modèles à partir de modèles issus d'autres logiciels. Notre démarche est décomposée en 3 étapes : l'intégration, la multi-modélisation et enfin l'expérimentation. Chaque élément produit lors de ces étapes est associé à une description permettant de le manipuler. L'utilisation de descriptions complète le processus d'intégration, permet la construction incrémentale et modulaire des multi-modèles, et isole l'expérimentation. Nous mettons ensuite en place un environnement de développement basé sur des langages dédiés aux descriptions, et nous automatisons le passage d'une description d'expérience à sa co-simulation effective. C'est une démarche d'Ingénierie Dirigée par les Modèles qui nous permet de mettre en pratique notre approche en facilitant le travail des modélisateurs et en évitant les erreurs d'implémentation. Nos contributions sont évaluées sur plusieurs expériences dont la reprise d’un multi-modèle d’autoroute hybride et un exemple de thermique des bâtiments
This work deals with complex system Modeling and Simulation (M&S). The particularity of such systems is the numerous heterogeneous entities in interaction involved inside them. This particularity leads to several organization layers and scientific domains. As a consequence, their study requests many perspectives (different temporal and spatial scales, different domains and formalisms, different granularities...). The challenge is the rigorous integration of these various system perspectives inside an M&S process. Multi-modeling and co-simulation are promising approaches to do so. The underlying problem is to define a modular and hierarchical process fitted with a rigorous way to integrate heterogeneous components and which is supported by a software environment that covers the whole M&S cycle. MECSYCO (Multi-agent Environment for Complex SYstem CO-simulation) is a co-simulation middleware focusing on the reuse of existing models from other software. It relies on a software and formal DEVS-based wrapping, provides heterogeneity handling mechanisms and ensures a decentralized and modular co-simulation. MECSYCO deals with the heterogeneous component integration need but its M&S process does not have all the properties above-mentioned. Notably, the hierarchical modeling ability is missing. To overcome this, we propose to fit MECSYCO with a descriptive multi-modeling and co-simulation process that allows the hierarchical design of multi-models using models from other software. Our process is split into three steps: integration, multi-modeling and finally the experimentation. We adopt a descriptive approach where a description file is linked to each product of these steps, these documents enable to manipulate them. The use of description files completes the integration steps, allows a hierarchical and modular multi-model design and isolates the experiments. Then we set up a development environment based on Domain Specific Languages to support the description work, and we automate the transition from an experiment description to its effective co-simulation. This is a Model-Driven Engineering approach which allows us to put into practice our contribution by facilitating the work of modelers and by avoiding implementation mistakes. Our contributions are evaluated on several experiments including a hybrid highway model and a thermal regulation example
APA, Harvard, Vancouver, ISO, and other styles
15

Awasthi, Anjali. "Développement d'un système de routage hiérarchique pour les réseaux urbains." Phd thesis, Université de Metz, 2004. http://tel.archives-ouvertes.fr/tel-00007751.

Full text
Abstract:
Cette thèse se divise en quatre parties. La première partie est consacrée à l'étude bibliographique des différents modèles de transport actuellement utilisés pour la simulation du trafic urbain. Une nouvelle classification est proposée : elle consiste à distinguer les modèles à partir de quatre critères qui sont présentés en détail dans le chapitre 1.

La deuxième partie de la thèse est consacrée au problème de décomposition d'un réseau urbain en sous réseaux de taille raisonnable et aussi indépendants les uns des autres que possible, c'est-à-dire ayant un nombre de connexions
aussi faible que possible.

Dans la troisième partie de la thèse nous présentons un programme de simulation pour générer les données qui, à leur tour, vont servir à constituer une mémoire. Cette mémoire a pour objectif de proposer le chemin le plus rapide à l'intérieur d'un sous-réseau dès que l'on connaît l'état du sous-réseau ainsi que l'origine et la destination du véhicule.

Enfin, la dernière partie de la thèse est la plus novatrice. Elle fait intervenir les techniques de l'analyse des données pour constituer la mémoire et permettre ainsi de choisir le chemin le plus rapide en temps réel.
APA, Harvard, Vancouver, ISO, and other styles
16

Sall, Ciré Elimane. "Modélisation spatiale hiérarchique bayésienne de l'apparentement génétique et de l'héritabilité en milieu naturel à l'aide de marqueurs moléculaires." Montpellier 2, 2009. http://www.theses.fr/2009MON20259.

Full text
Abstract:
La connaissance de l'apparentement génétique entre individus permet d'estimer l'héritabilité des caractères d'intérêt. La possibilité d'estimer l'héritabilité en milieu naturel suscite un intérêt croissant pour l'amélioration génétique des populations. Mais en milieu naturel, le pedigree n'est pas connu. L'utilisation des marqueurs moléculaires permet d'estimer l'apparentement puis d'estimer l'héritabilité. Néanmoins, les approches classiques ne permettent pas d'introduire une information exogène comme l'information spatiale. Or, nous pouvons supposer que deux individus proches géographiquement sont proches génétiquement. L'objectif de ce travail est de développer des modèles statistiques pour l'estimation de l'apparentement et de l'héritabilité à l'aide des marqueurs moléculaires en prenant en compte l'information spatiale. Premièrement, nous construisons un modèle spatial hiérarchique bayésien de l'apparentement. Comme la vraisemblance des observations, modes d'identité par état entre génotypes, est complexe, le modèle statistique pour l'apparentement considéré est celui de la vraisemblance composite. Le lien entre le mode d'identité par descendance et la distance spatiale se fait par l'intermédiaire d'un GLM probit ordinal. Deuxièmement, nous proposons une modélisation simultanée de l'apparentement et de l'héritabilité. Dans la troisième partie, nous proposons différents algorithmes MCMC pour l'inférence des paramètres des modèles. Finalement, l'intérêt du modèle spatial pour l'apparentement est illustré par une application à des données sur le karité (Vitellaria paradoxa)
Knowledge of genetic relatedness between individuals combined with phenotypic information allows estimating the heritability of character of interest. Estimate the heritability in natural populations remains an actual challenge. But, in natural populations, pedigree is unknown. The use of molecular markers allows estimating first relatedness and then the heritability. However, classical approaches do not allow introducing exogeneous information such as geographical information. Nevertheless, we can assume that more two individuals are spatially closed more they are genetically closed. The aim of this study was to develop statistical models allowing the estimation of the relatedness and the heritability simultaneously using molecular markers as well as the spatial information. In the first part, we developed a hierarchical spatial bayesian model for relatedness taking into account spatial information. As the likelihood of data given by the identity-by-state mode of pairs of genotypes, is not tractable, we proposed the use of the composite likelihood approaches. The link between identity-by-descent mode and spatial distance is made using ordinal Probit models belonging to the generalized linear models. In the second part, we proposed to model relatedness and heritability simultaneously. We gave, in the third part, different MCMC algorithms for model inference. Finally, the spatial model for relatedness interest is emphasized by an application on Shea tree (Vitellaria paradoxa) data
APA, Harvard, Vancouver, ISO, and other styles
17

Diard, Julien. "La carte bayésienne : un modèle probabiliste hiérarchique pour la navigation en robotique mobile." Phd thesis, Grenoble INPG, 2003. http://tel.archives-ouvertes.fr/tel-00004369.

Full text
Abstract:
Qu'est-ce qu'une carte ? Quelle est son utilité ? Qu'est-ce-qu'un lieu, un
comportement ? Qu'est-ce-que naviguer, se localiser et prédire, pour un
robot mobile devant accomplir une tâche donnée ?

Ces questions n'ont pas de réponses uniques ou évidentes à ce jour, et
restent centrales à de nombreux domaines de recherches.

La robotique, par exemple, souhaite y répondre en vue de la synthèse de
systèmes sensori-moteurs performants. Les sciences cognitives placent ces
questions comme essentielles à la compréhension des êtres vivants, de leurs
compétences, et au-delà, de leurs intelligences.

Notre étude se situe à la croisée de ces disciplines. Nous étudions tout
d'abord les méthodes probabilistes classiques (Localisation Markovienne,
PDMPOs, MMCs, etc.), puis certaines approches dites "bio-inspirées"
(Berthoz, Franz, Kuipers). Nous analysons les avantages et inconvénients
respectifs de ces approches en les replaçant dans un cadre général de
programmation des robots basé sur l'inférence bayésienne (PBR).

Nous proposons un formalisme original de modélisation probabiliste de
l'interaction entre un robot et son environnement : la carte bayésienne.

Dans ce cadre, définir une carte revient à spécifier une distribution de
probabilités particulière. Certaines des questions évoquées ci-dessus se
ramènent alors à la résolution de problèmes d'inférence probabiliste.

Nous définissons des opérateurs d'assemblage de cartes bayésiennes,
replaçant ainsi les notions de "hiérarchie de cartes" et de développement
incrémental comme éléments centraux de notre approche, en accord avec les
données biologiques. En appuyant l'ensemble de notre travail sur le
formalisme bayésien, nous profitons d'une part d'une capacité de traitement
unifié des incertitudes, et d'autre part, de fondations mathématiques
claires et rigoureuses. Notre formalisme est illustré par des exemples
implantés sur un robot mobile Koala.
APA, Harvard, Vancouver, ISO, and other styles
18

Brière, Alexandre. "Modélisation système d'une architecture d'interconnexion RF reconfigurable pour les many-cœurs." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066296/document.

Full text
Abstract:
La multiplication du nombre de cœurs de calcul présents sur une même puce va depair avec une augmentation des besoins en communication. De plus, la variété des applications s’exécutant sur la puce provoque une hétérogénéité spatiale et temporelle des communications. C’est pour répondre à ces problématiques que nous pré-sentons dans ce manuscrit un réseau d’interconnexion sur puce dynamiquement reconfigurable utilisant la Radio Fréquence (RF). L’utilisation de la RF permet de disposer d’une bande passante plus importante tout en minimisant la latence. La possibilité de reconfigurer dynamiquement le réseau permet d’adapter cette puce many-cœur à la variabilité des applications et des communications. Nous présentons les raisons du choix de la RF par rapport aux autres nouvelles technologies du domaine que sont l’optique et la 3D, l’architecture détaillée de ce réseau et d’une puce le mettant en œuvre ainsi que l’évaluation de sa faisabilité et de ses performances. Durant la phase d’évaluation nous avons pu montrer que pour un Chip Multiprocessor (CMP) de 1 024 tuiles, notre solution permettait un gain en performance de 13 %. Un des avantages de ce réseau d’interconnexion RF est la possibilité de faire du broadcast sans surcoût par rapport aux communications point-à-point,ouvrant ainsi de nouvelles perspectives en termes de gestion de la cohérence mémoire notamment
The growing number of cores in a single chip goes along with an increase in com-munications. The variety of applications running on the chip causes spatial andtemporal heterogeneity of communications. To address these issues, we presentin this thesis a dynamically reconfigurable interconnect based on Radio Frequency(RF) for intra chip communications. The use of RF allows to increase the bandwidthwhile minimizing the latency. Dynamic reconfiguration of the interconnect allowsto handle the heterogeneity of communications. We present the rationale for choos-ing RF over optics and 3D, the detailed architecture of the network and the chipimplementing it, the evaluation of its feasibility and its performances. During theevaluation phase we were able to show that for a CMP of 1 024 tiles, our solutionallowed a performance gain of 13 %. One advantage of this RF interconnect is theability to broadcast without additional cost compared to point-to-point communi-cations, opening new perspectives in terms of cache coherence
APA, Harvard, Vancouver, ISO, and other styles
19

Lafon, Marc. "Modélisation de la propagation de l'information cérébrale par graphes causaux qualitatifs." Phd thesis, Université Paul Sabatier - Toulouse III, 2000. http://tel.archives-ouvertes.fr/tel-00010176.

Full text
Abstract:
Des mesures de l'activité du cerveau humain peuvent être obtenues par diverses techniques d'imagerie neuro-fonctionnelle. Dans le domaine des neurosciences, les études menées grâce à ces nouvelles techniques sont appelées études d'activation. Elles mettent en évidence l'organisation en réseau des aires cérébrales mises en jeux lors de la réalisation de tâches cognitives particulières. La complexité du traitement de l'information cérébrale et l'incomplétude de l'observation rendent difficile l'interprétation de ce fonctionnement et rendent nécessaire la construction d'un outil de modélisation et de simulation. La nécessité de comprendre l'organisation fonctionnelle du cerveau humain, nous impose en plus de recourir à des formalismes permettant d'en avoir une représentation explicite. Dans cette optique, nous proposons un formalisme original, basé sur des graphes d'influences causales et une représentation qualitative de l'information. Les graphes d'influences sont tout à fait appropriés à la représentation de la double organisation du cerveau, en réseaux anatomiques (structurels) et fonctionnels. L'originalité de notre approche est double. D'une part, nous proposons une architecture hiérarchique fondée sur la notion de composant et qui permet de réduire la complexité des modèles tout en augmentant leur réutilisabilité. D'autre part, nous utilisons un formalisme unique pour décrire les niveaux structurels et fonctionnels cérébraux. La modélisation explicite de l'information cérébrale nous a conduit à proposer une représentation qualitative mixte, sous la forme de couples (intervalle, symbole). Ceci permet à la fois de prendre en compte l'amplitude de cette information, bruitée par les techniques d'imagerie, et sa catégorie. Nous proposons le simulateur BIOCAEN, fondé sur le formalisme ci-dessus. La simulation consiste en la propagation des influences à chaque instant d'une horloge discrète. Ce mécanisme permet de prendre en compte les processus automatiques qui constituent la majeure partie du fonctionnement cérébral. La contribution de notre travail à l'exploration du fonctionnement du cerveau humain réside dans la mise à disposition des chercheurs en neurosciences, d'un formalisme permettant d'exprimer explicitement, à un haut niveau d'abstraction, les hypothèses sur la propagation de l'information cérébrale et d'un simulateur permettant de les mettre en œuvre. Les hypothèses sont décrites dans des modèles où l'architecture causale offre un support à l'expression des réseaux anatomiques d'aires cérébrales, chacune d'entre elles étant représentée par un sous-réseau fonctionnel de processeurs d'information. La validation des hypothèses est réalisée par la confrontation des résultats de la simulation du modèle par BIOCAEN aux données de l'imagerie neuro-fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
20

Zhong, Zeling. "Comprendre l’appropriation des objets connectés grand public : une approche de modélisation à composants hiérarchiques." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLE017.

Full text
Abstract:
Selon Hoffman & Novak (2018), les objets connectés grand public qui ouvrent la voie à de nouvelles expériences d'usage, ont le potentiel de révolutionner la vie des consommateurs dans les années à venir. Le principal enjeu des objets connectés réside dans le fait d'intégrer leur usage dans les pratiques quotidiennes des consommateurs en produisant activement des données d'usage sur le long terme, à savoir l'appropriation. Cette recherche a validé le modèle explicatif de l'appropriation de l'objet connecté grand public au travers des besoins psychologiques des consommateurs français à l'égard de leurs objets connectés possédés. Nos résultats montrent que l'appropriation de l'objet connecté est fortement corrélée au besoin d'identité de soi, le besoin d'avoir un territoire ainsi que le besoin d'efficace et d'effectance. Et l'appropriation de l'objet connecté peut avoir un impact positif sur la perception de la valeur globale de l'objet connecté par les consommateurs, les comportements extra-rôle des consommateurs, ainsi que la satisfaction de leur vie quotidienne. Par ailleurs, le rôle médiateur des comportements extra rôle dans la relation entre l'appropriation et la valeur perçue nous permet d'affiner la compréhension des mécanismes de cocréation de valeur du point de vue du consommateur. Il nous enseigne de manière complémentaire comment l'appropriation de l'objet connecté contribue à la création de valeur par les consommateurs
According to Hoffman & Novak (2018), the smart connected object is presenting new opportunities for usage experience that have the potential to revolutionize consumers' lives. The main challenge for smart connected objects is to integrate their use into the daily practices of consumers by actively producing usage data in the long-term, namely appropriation. This research has validated the explanatory model of consumer smart connected object appropriation through the psychological needs of French consumers regarding their smart connected objects. Our results show that the smart connected object appropriation is strongly correlated with the need for self-identity, the need for having a place, the need for efficacy and effectance. And the smart connected object appropriation has a positive impact on perceived value of smart connected objects by consumers, their extra-role behaviors, as well as satisfaction of their daily life. Moreover, the mediating role of extra-role behaviors in the relationship between appropriation and perceived value allows us to understand in a complementary way the value cocreation mechanisms from the viewpoint of consumers, concerning how the smart connected object appropriation contributes to value creation by consumers
APA, Harvard, Vancouver, ISO, and other styles
21

Firmo, Drumond Thalita. "Apports croisées de l'apprentissage hiérarchique et la modélisation du système visuel : catégorisation d'images sur des petits corpus de données." Thesis, Bordeaux, 2020. https://tel.archives-ouvertes.fr/tel-03129189.

Full text
Abstract:
Les réseaux neuronaux convolutifs profonds ("deep convolutional neural networks" ou DCNN) ont récemment révolutionné la reconnaissance d'objets à grande échelle, modifiant les pratiques en vision par ordinateur, consistant à définir des caractéristiques représentatives "à la main", désormais apprises de façon hiérarchique à partir des données, tout en les classifiant. Fort de la progression des performances matérielles, on exploite efficacement des quantités toujours croissantes d'images recueillies en ligne. Mais, dans des domaines spécifiques, comme en santé ou pour certaines applications, les données sont moins abondantes, et les coûts d'étiquetage par des experts sont plus élevés. Cette rareté conduit à la question centrale de cette thèse : Ces domaines à données limitées peuvent-ils bénéficier des avantages des DCNN pour la classification des images ? Ce travail repose sur une étude approfondie de la littérature, divisée en deux parties principales, avant de proposer des modèles et des mécanismes originaux, expérimentés.La première partie couvre la reconnaissance des objets d'un double point de vue. Tout d'abord, la fonction visuelle biologique, est comparée et contrastée avec la structure, la fonction et les capacités des modèles DCNN. Puis, une revue de l'état-de-l'art identifie les principales catégories d'architectures et les innovations dans les DCNN récents. Cette base interdisciplinaire favorise l'identification des mécanismes — biologiquement et artificiellement inspirés — qui améliorent la reconnaissance d'images dans des situations difficiles. Le traitement récurrent en est un exemple clair : peu présent au niveau de la vision profonde, sauf le traitement aux vidéos — en raison du caractère naturellement séquentiel. Mais la biologie montre clairement qu'un tel traitement joue aussi un rôle dans l'affinement de notre perception d'une scène fixe. Ce thème est approfondi à travers une revue de la littérature consacrée aux architectures convolutionnelles récurrentes utilisées en catégorisation d'images.La deuxième partie se concentre sur notre question centrale~: l'apprentissage profond sur de petits corpus de données. Tout d'abord, le travail propose une discussion plus précise et détaillée de ce problème et de sa relation avec l'apprentissage hiérarchique des caractéristiques réalisé par des modèles profonds. Cette discussion est suivie d'une revue structurée du domaine, organisant et discutant les différentes voies possibles vers l'adaptation des modèles profonds à des données limitées. Plus qu'une simple liste, ce travail vise à trouver du sens dans la myriade d'approches du domaine, en regroupant les méthodes ayant un objectif ou un mécanisme d'action similaire, pour guider le développement d'application particulières, à petits corpus. Cette étude est complétée par une analyse expérimentale, explorant l'apprentissage de petits jeux de données avec des modèles et mécanismes originaux (précédemment publié comme papier de journal).En conclusion, l'apprentissage profond sur des petits corpus de données peut donner de bons résultats, si cela se fait de manière réfléchie. Au niveau des données, il faut essayer de recueillir plus d'informations à partir de sources de données supplémentaires connexes. Au niveau de la complexité, l'architecture et les méthodes d'entraînement peuvent être calibrées afin de tirer le meilleur parti de toute connaissance spécifique au domaine. Des propositions sont discutées en détail au fil du document. Il existe de multiples façons de réduire la complexité de l'apprentissage profond avec de petits échantillons de données, mais il n'y a pas de solution universelle. Chaque méthode a ses propres inconvénients et difficultés pratiques, devant toujours être adaptée spécifiquement à l'application, c'est-à-dire à la tâche perceptive à accomplir
Deep convolutional neural networks (DCNN) have recently protagonized a revolution in large-scale object recognition. They have changed the usual computer vision practices of hand-engineered features, with their ability to hierarchically learn representative features from data with a pertinent classifier. Together with hardware advances, they have made it possible to effectively exploit the ever-growing amounts of image data gathered online. However, in specific domains like healthcare and industrial applications, data is much less abundant, and expert labeling costs higher than those of general purpose image datasets. This scarcity scenario leads to this thesis' core question: can these limited-data domains profit from the advantages of DCNNs for image classification? This question has been addressed throughout this work, based on an extensive study of literature, divided in two main parts, followed by proposal of original models and mechanisms.The first part reviews object recognition from an interdisciplinary double-viewpoint. First, it resorts to understanding the function of vision from a biological stance, comparing and contrasting to DCNN models in terms of structure, function and capabilities. Second, a state-of-the-art review is established aiming to identify the main architectural categories and innovations in modern day DCNNs. This interdisciplinary basis fosters the identification of potential mechanisms - inspired both from biological and artificial structures — that could improve image recognition under difficult situations. Recurrent processing is a clear example: while not completely absent from the "deep vision" literature, it has mostly been applied to videos — due to their inherently sequential nature. From biology however it is clear such processing plays a role in refining our perception of a still scene. This theme is further explored through a dedicated literature review focused on recurrent convolutional architectures used in image classification.The second part carries on in the spirit of improving DCNNs, this time focusing more specifically on our central question: deep learning over small datasets. First, the work proposes a more detailed and precise discussion of the small sample problem and its relation to learning hierarchical features with deep models. This discussion is followed up by a structured view of the field, organizing and discussing the different possible paths towards adapting deep models to limited data settings. Rather than a raw listing, this review work aims to make sense out of the myriad of approaches in the field, grouping methods with similar intent or mechanism of action, in order to guide the development of custom solutions for small-data applications. Second, this study is complemented by an experimental analysis, exploring small data learning with the proposition of original models and mechanisms (previously published as a journal paper).In conclusion, it is possible to apply deep learning to small datasets and obtain good results, if done in a thoughtful fashion. On the data path, one shall try gather more information from additional related data sources if available. On the complexity path, architecture and training methods can be calibrated in order to profit the most from any available domain-specific side-information. Proposals concerning both of these paths get discussed in detail throughout this document. Overall, while there are multiple ways of reducing the complexity of deep learning with small data samples, there is no universal solution. Each method has its own drawbacks and practical difficulties and needs to be tailored specifically to the target perceptual task at hand
APA, Harvard, Vancouver, ISO, and other styles
22

Wacongne, Catherine. "Traitements conscient et non-conscient des régularités temporelles : Modélisation et neuroimagerie." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066290/document.

Full text
Abstract:
Que va-t-il arriver ensuite ? Les stimuli naturels ont tendance à se suivre d'une façon prédictible. De nombreux domaines de la psychologie et des neurosciences ont montré que le cerveau et le comportement des humains sont sensibles à la structure temporelle des stimuli sensoriels et sont capables de l'exploiter de multiples façons : pour prendre des décisions appropriées, encoder l'information de façon efficace, réagir plus vite aux événements prédictibles ou encore orienter l'attention vers les stimuli inattendus. Si de nombreuses aires cérébrales sont sensibles aux régularités temporelles (RT), toutes ne semblent pas traiter les mêmes types de structure temporelle. L'accès conscient aux stimuli semble jouer un rôle important dans la capacité à apprendre certains types de RT. Cette thèse explore l'organisation hiérarchique du traitement des RT et les propriétés computationnelles propres à leur traitement conscient et non conscient en combinant un travail de modélisation et des expériences de neuroimagerie en magnétoencéphalographie et électroencéphalographie (MEEG). Un premier modèle neuronal basé sur les principes du codage prédictif reproduit les principales propriétés du traitement préattentif des sons purs dans le cortex auditif indexé par le potentiel évoqué appelé négativité d'incongruence (MMN). Une seconde étude en MEEG met en évidence l'existence d'une hiérarchie de processus prédictifs dans le cortex auditif. Enfin, un second modèle explore les contraintes et les nouvelles propriétés computationnelles qui sont associées à l'accès conscient des stimuli à un système de mémoire de travail capable de maintenir indéfiniment un nombre limité d'objets
What is going to happen next? Natural stimuli tend to follow each other in a reproducible way. Multiple fields of neuroscience and psychology bring evidence that human’s brain and behavior are sensitive to the temporal structure of stimuli and are able to exploit them in multiple ways: to make appropriate decisions, encode efficiently information, react faster to predictable stimuli or orient attention towards surprising ones… Multiple brain areas show sensitivity to the temporal structure of events. However, all areas do not seem to be sensitive to the same kind of temporal regularities. Conscious access to the stimuli seems to play a key role in some of these dissociations and better understanding this role could improve the current diagnostic tools for non-communicative patients. This thesis explores the hierarchical organization of the processing of temporal regularities and the computational properties of conscious and unconscious levels of processing by combining a modeling approach with neuroimaging experiments using magnetoencephalography and electroencephalography (MEEG). First, a plausible neuronal model based on predictive coding principles reproduces the main properties of the preattentive processing of pure tones in the auditory cortex indexed by the evoked potential mismatch negativity (MMN). Second, a MEEG experiment provides evidence for a hierarchical organization of multiple predictive processes in the auditory cortex. Finally, a second model explores the new computational properties and constraints associated to the access of stimuli to a conscious space with a working memory able to maintain information for an arbitrary time but with limited capacity
APA, Harvard, Vancouver, ISO, and other styles
23

Plemenos, Dimitrios. "Contribution à l'étude et au développement des techniques de modélisation, génération et visualisation de scènes : le projet multiformes." Nantes, 1991. http://www.theses.fr/1991NANT2041.

Full text
Abstract:
Après une brève présentation des techniques classiques en modélisation, génération et visualisation de scènes, l'insuffisance de ces techniques est mise en évidence. Une nouvelle démarche, la démarche déclarative, est proposée, permettant la création et la visualisation de scènes à partir de la description de leurs propriétés
APA, Harvard, Vancouver, ISO, and other styles
24

Brière, Alexandre. "Modélisation système d'une architecture d'interconnexion RF reconfigurable pour les many-cœurs." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066296.

Full text
Abstract:
La multiplication du nombre de cœurs de calcul présents sur une même puce va depair avec une augmentation des besoins en communication. De plus, la variété des applications s’exécutant sur la puce provoque une hétérogénéité spatiale et temporelle des communications. C’est pour répondre à ces problématiques que nous pré-sentons dans ce manuscrit un réseau d’interconnexion sur puce dynamiquement reconfigurable utilisant la Radio Fréquence (RF). L’utilisation de la RF permet de disposer d’une bande passante plus importante tout en minimisant la latence. La possibilité de reconfigurer dynamiquement le réseau permet d’adapter cette puce many-cœur à la variabilité des applications et des communications. Nous présentons les raisons du choix de la RF par rapport aux autres nouvelles technologies du domaine que sont l’optique et la 3D, l’architecture détaillée de ce réseau et d’une puce le mettant en œuvre ainsi que l’évaluation de sa faisabilité et de ses performances. Durant la phase d’évaluation nous avons pu montrer que pour un Chip Multiprocessor (CMP) de 1 024 tuiles, notre solution permettait un gain en performance de 13 %. Un des avantages de ce réseau d’interconnexion RF est la possibilité de faire du broadcast sans surcoût par rapport aux communications point-à-point,ouvrant ainsi de nouvelles perspectives en termes de gestion de la cohérence mémoire notamment
The growing number of cores in a single chip goes along with an increase in com-munications. The variety of applications running on the chip causes spatial andtemporal heterogeneity of communications. To address these issues, we presentin this thesis a dynamically reconfigurable interconnect based on Radio Frequency(RF) for intra chip communications. The use of RF allows to increase the bandwidthwhile minimizing the latency. Dynamic reconfiguration of the interconnect allowsto handle the heterogeneity of communications. We present the rationale for choos-ing RF over optics and 3D, the detailed architecture of the network and the chipimplementing it, the evaluation of its feasibility and its performances. During theevaluation phase we were able to show that for a CMP of 1 024 tiles, our solutionallowed a performance gain of 13 %. One advantage of this RF interconnect is theability to broadcast without additional cost compared to point-to-point communi-cations, opening new perspectives in terms of cache coherence
APA, Harvard, Vancouver, ISO, and other styles
25

Dortel, Emmanuelle. "Croissance de l'albacore (Thunnus albacares) de l'Océan Indien : de la modélisation statistique à la modélisation bio-énergétique." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20035/document.

Full text
Abstract:
Depuis le début des années 1960, la croissance de l'albacore fait l'objet d'une attention particulière tant dans le domaine de la recherche que pour la gestion des pêcheries. Dans l'océan Indien, la gestion du stock d'albacores, sous la juridiction le Commission Thonière de l'Océan Indien (CTOI), souffre de nombreuses incertitudes associées à la courbe de croissance actuellement considérée. En particulier, des lacunes subsistent dans notre connaissance des processus biologiques et écologiques élémentaires régulant la croissance. Leur connaissance est pourtant fondamentale pour comprendre la productivité des stocks et leur capacité de résistance à la pression de pêche et aux changements océanographiques en cours. À travers la modélisation, cette étude se propose d'améliorer les connaissances actuelles sur la croissance de la population d'albacore de l'océan Indien et de renforcer ainsi les avis scientifiques sur l'état du stock. Alors que la plupart des études sur la croissance de l'albacore s'appuient sur une seule source de données, nous avons mis en œuvre un modèle hiérarchique Bayésien qui exploite diverses sources d'informations sur la croissance, i.e. des estimations d'âge obtenues par otolithométrie, des analyses de progressions modales et les taux de croissance individuels issus du marquage-recapture, et intègre explicitement des connaissances d'experts et les incertitudes associées à chaque source de données ainsi qu'au processus de modélisation. En particulier, le modèle de croissance a été couplé un à modèle d'erreurs dans les estimations d'âge par otolithométrie apportant une amélioration significative des estimations d'âge et des paramètres de croissance en résultant et permettant une meilleure évaluation de la fiabilité des estimations. Les courbes de croissances obtenues constituent une avancée majeure dans la représentation du patron de croissance actuellement utilisé dans les évaluations de stock d'albacore. Elles démontrent que l'albacore présente une croissance en phases, caractérisée par une forte accélération en fin de phase juvénile. Cependant, elles n'apportent aucune information sur les mécanismes biologiques et écologiques à l'origine de ces phases de croissance. Afin de mieux comprendre les facteurs impliqués dans l'accélération de la croissance, nous avons mis en œuvre un modèle bio-énergétique s'appuyant sur les principes de la théorie des bilans dynamiques d'énergie (DEB). Deux hypothèses apparaissant comme les plus pertinentes ont été testées : (i) une faible disponibilité alimentaire liée à une forte compétition inter et intra-spécifique chez les jeunes albacores formant des bancs et (ii) un changement dans le régime alimentaire des adultes s'accompagnant de la consommation de proies plus énergétiques. Il apparait que ces deux hypothèses sont susceptibles d'expliquer, au moins partiellement, l'accélération de la croissance
Since the early 1960s, the growth of yellowfin has been enjoyed a particular attention both in the research field and for fisheries management. In the Indian Ocean, the management of yellowfin stock, under the jurisdiction of the Indian Ocean Tuna Commission (IOTC), suffers from much uncertainty associated with the growth curve currently considered. In particular, there remain gaps in our knowledge of basic biological and ecological processes regulating growth. Their knowledge is however vital for understanding the stocks productivity and their resilience abilities to fishing pressure and oceanographic changes underway.Through modelling, this study aims to improve current knowledge on the growth of yellowfin population of the Indian Ocean and thus strengthen the scientific advice on the stock status. Whilst most studies on yellowfin growth only rely on one data source, we implemented a hierarchical Bayesian model that exploits various information sources on growth, i.e. direct age estimates obtained through otolith readings, analyzes of modal progressions and individual growth rates derived from mark-recapture experiments, and takes explicitely into account the expert knowledge and the errors associated with each dataset and the growth modelling process. In particular, the growth model was coupled with an ageing error model from repeated otolith readings which significantly improves the age estimates as well as the resulting growth estimates and allows a better assessment of the estimates reliability. The growth curves obtained constitute a major improvement of the growth pattern currently used in the yellowfin stock assessment. They demonstrates that yellowfin exhibits a two-stanzas growth, characterized by a sharp acceleration at the end of juvenile stage. However, they do not provide information on the biological and ecological mechanisms that lie behind the growth acceleration.For a better understanding of factors involved in the acceleration of growth, we implemented a bioenergetic model relying on the principles of Dynamic Energy Budget theory (DEB). Two major assumptions were investigated : (i) a low food availability during juvenile stage in relation with high intra and inter-specific competition and (ii) changes in food diet characterized by the consumption of more energetic prey in older yellowfin. It appears that these two assumption may partially explain the growth acceleration
APA, Harvard, Vancouver, ISO, and other styles
26

Holzschuch, Nicolas. "Le contrôle de l'erreur dans la méthode de radiosité hiérarchique." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004994.

Full text
Abstract:
Nous présentons ici plusieurs améliorations d'un algorithme de modélisation de l'éclairage, la méthode de radiosité. Pour commencer, une analyse détaillée de la méthode de radiosité hiérarchique permet de souligner ses points faibles et de mettre en évidence deux améliorations simples : une évaluation paresseuse des interactions entre les objets, et un nouveau critère de raffinement qui élimine en grande partie les raffinements inutiles. Un bref rappel des propriétés des fonctions de plusieurs variables et de leurs dérivées suit, qui permet d'abord de déduire une réécriture de l'expression de la radiosité, d'où un calcul numérique plus précis. Les méthodes d'estimation de l'erreur produite au cours du processus de modélisation de la lumière sont introduites. Nous voyons alors comment les propriétés de concavité de la fonction de radiosité permettent -- grâce au calcul des dérivées successives de la radiosité -- un contrôle complet de l'erreur commise dans la modélisation des interactions entre les objets, et donc un encadrement précis de la radiosité. Nous présentons un critère de raffinement basé sur cette modélisation des interactions, et un algorithme complet de radiosité hiérarchique intégrant ce critère de raffinement, et donc permettant un contrôle de l'erreur commise sur la radiosité au cours de la résolution. Finalement, nous présentons les méthodes de calcul pratique des dérivées successives de la radiosité (gradient et Hessien) dans le cas d'un émetteur constant sans obstacles tout d'abord, puis dans le cas d'un émetteur constant en présence d'obstacles et dans le cas d'un émetteur sur lequel la radiosité varie de façon linéaire.
APA, Harvard, Vancouver, ISO, and other styles
27

Simon, Maximilien. "Modélisation hiérarchique bayésienne pour l'évaluation des populations de thonidés : intérêts et limites de la prise en compte de distributions a priori informatives." Thesis, Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0080/document.

Full text
Abstract:
La modélisation de la dynamique des populations de thons et grands pélagiques pour l'évaluation des stocks est confrontée à deux enjeux majeurs. (1) L'hypothèse forte de proportionnalité entre Captures Par Unité d'Effort de pêche (CPUE) et l'abondance des stocks. Les CPUE des pêcheries commerciales sont en effet les seules mesures relatives de biomasse utilisées pour l'évaluations des stocks de thons et grands pélagiques, malgré leur manque de représentativité de l'abondance de ces populations. (2) Le manque de données informatives pour modéliser la relation Stock-Recrutement (SR) ce qui conduit à utiliser des contraintes sur la "steepness" de cette fonction. Nous examinons comment l'introduction d'informations indépendantes des pêcheries commerciales dans les modèles pour l'évaluation des stocks thoniers permet de lever l'hypothèse de capturabilité constante et de mieux justifier le choix de la steepness de la relation SR. Le cadre statistique bayésien autorise la prise en compte d'informations supplémentaires via des distributions a priori informatives (priors). Cette thèse examine donc les possibilités d'élicitation de priors informatifs pour des paramètres démographiques et des paramètres liés à la capturabilité des engins de pêche, ainsi que l'utilisation de ces priors dans un modèle global. Les cas d'études sont les stocks de thon rouge (Thunnus thynnus) et d'albacore (Thunnus albacares) de l'Atlantique. La grande variabilité naturelle des taux de mortalités pré-recrutement pose des limites à l'utilisation des seuls traits d'histoire de vie pour l'élicitation de priors pour des paramètres démographiques. Par ailleurs, la relation SR pour les thonidés est remise en question par une valeur de steepness proche de 1. Il apparait que des priors informatifs sur la capturabilité dans un modèle hiérarchique global permettent de réduire les incertitudes dans le diagnostic sur l'état d'un stock thonier. Nous montrons ainsi que le diagnostic sur le stock Atlantique d'albacore est plus pessimiste qu'attendu la tendance à la hausse des capturabilités des principaux engins de pêche est prise en compte. L'élicitation de priors présente donc un fort intérêt pour utiliser des informations supplémentaires et extérieures aux CPUE et améliorer la perception de l'état des stock thoniers
Modelisation of the population dynamics of tunas and tuna like species for stock assessment is facing two issues. (1) The hypothesis of proportionality between Catch Per Unit Effort (CPUE) and abundance (constant catchability). CPUEs from commercial fisheries appear to be the only relative measure of abundance in spite of their lack of representativity of the abundances of the populations. (2) The lack of informative data for the modelisation of the Stock-Recruit (SR) relationship, which leads to constraint this function on its steepness. The introduction of fisheries-independent sources of information is investigated in order to relax the assumption of constant catchability and to provide better justification of steepness choice for the SR relationship. The Bayesian statistical framework allows the consideration of additional information a priori via informative distributions (priors). This work investigate the elicitation of informative priors for demographic parameters and parameters related to the catchability of fishing gear, as well as the use of these priors into a surplus production model. The cases of the Atlantic bluefin tuna (Thunnus thynnus) and of the yellowfin tuna (Thunnus albacares}) were taken as examples. The large natural variability of pre-recruits mortality rates limits the use of life history traits for eliciting priors for demographic parameters. In addition, the SR relationship for tuna is challenged by a steepness value close to 1. It appears that informative priors on catchability parameters, in a hierarchical surplus production model, reduce uncertainties in the diagnosis on the status of tuna stocks. We show that the status of the Atlantic yellowfin tuna stock is more critical taking into account upward trends in the main fishing gears catchabilities. We conclude that prior elicitation is a reliable tool to take into account additionnal information and to improve tunas stock assessment
APA, Harvard, Vancouver, ISO, and other styles
28

Nelakanti, Anil Kumar. "Modélisation du langage à l'aide de pénalités structurées." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01001634.

Full text
Abstract:
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations.
APA, Harvard, Vancouver, ISO, and other styles
29

Piffady, Jérémy. "Etude des réponses des assemblages de poissons aux variations de l'environnement par modélisation hiérarchique bayésienne : Application aux juvéniles de cyprinidés du Haut-Rhône." Phd thesis, AgroParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00566444.

Full text
Abstract:
La compréhension des déterminismes des communautés de poissons et de leurs variations est un enjeu majeur, tant en écologie qu'en bioindication. Dans ce travail doctoral, nous avons mis en place des outils de statistiques avancées afin d'identifier les aspects des régimes thermique et hydrique, constituants essentiels de l'environnement naturel des poissons, responsables des variations des assemblages de juvéniles de cyprinidés du haut Rhône. En utilisant des chroniques de températures de l'eau, de débits et d'échantillonnages par pêche électrique sur la période 1980-2005, nous avons déterminé trois groupes d'espèces présentant des réponses synchrones aux variations d'environnement, et développé deux types de modèles hiérarchique, s'appuyant sur ces groupes, selon une perspective bayésienne :- un modèle de régression poissonienne, pour lequel nous avons utilisé une procédure de choix de modèle fondée sur le critère du Facteur de Bayes. Ce premier modèle nous a permis de sélectionner les variables d'intérêt et de quantifier leurs effets sur les variations interannuelles d'abondances des différentes espèces. - un modèle à facteur latent partagé, résumant l'influence commune d'une variable latente, l'hypersignal, sur les variations de l'environnement et des proportions relatives des groupes d'espèces. Nous avons ainsi souligné les importances relatives des variables environnementales dans la structuration des communautés. Alors que leurs effets sont généralement discutés séparément, nous avons mis en évidence l'influence conjointe des régimes thermique et hydrique sur la structuration et les variations interannuelles des assemblages de juvéniles de poissons en grandes rivières.
APA, Harvard, Vancouver, ISO, and other styles
30

Demonceaux, Cédric. "Etude du mouvement dans les séquences d'images par analyse d'ondelettes et modélisation markovienne hiérarchique : application à la détection d'obstacles dans un milieu routier." Phd thesis, Université de Picardie Jules Verne, 2004. http://tel.archives-ouvertes.fr/tel-00862980.

Full text
Abstract:
Ce travail a pour objectif de détecter les obstacles sur la route à partir d'une caméra montée sur un véhicule. Étant donné les contraintes que nous nous sommes fixées, un état de l'art des différentes méthodes existantes sur ce sujet montre que seule une analyse du mouvement dans les sé- quences d'images peut résoudre ce problème. En effet, cette méthode doit permettre de détecter tout type d'obstacles sur tout type de routes avec une seule caméra. Pour ce faire, nous avons développé une nouvelle méthode d'estimation de mouvement paramétrique par analyse d'ondelettes de l'équation de contrainte du flot optique (E.C.M.A.). Cette méthode multi- résolution nous a permis de contourner le problème de l'aliasage temporel inhérent à l'E.C.M.A.. Nous avons ensuite proposé de résoudre le problème de la détection de mouvement dans une scène filmée à par- tir d'une caméra mobile à l'aide d'une modélisation markovienne hiérarchique déduite de façon naturelle de l'estimation multi-résolution du mouvement. Puis, nous avons introduit une méthode de segmenta- tion au sens du mouvement entre deux images sans connaissance a priori et sans hypothèse de présence de mouvement dominant grâce à un raffinement successif de la segmentation d'une échelle grossière de l'image à l'échelle la plus fine. Chaque méthode (estimation, détection et segmentation) a été validée expérimentalement sur des séquences synthétiques et réelles. Enfin, celles-ci ont été adaptées au problème concret visé par cette thèse : la détection d'obstacles dans un milieu routier. L'utilisation d'ondelettes et de champs de Markov hiérarchiques aboutit à des solutions peu coûteuses en temps de calcul.
APA, Harvard, Vancouver, ISO, and other styles
31

Reda, Fatima Al. "Modélisation de mouvement de foules avec contraintes variées." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS235/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la modélisation de mouvements de foules. Nous proposons un modèle microscopique basé sur la théorie des jeux. Chaque individu a une certaine vitesse souhaitée, celle qu'il adopterait en l'absence des autres. Une personne est influencée par certains de ses voisins, pratiquement ceux qu'elle voit devant elle. Une vitesse réelle est considérée comme possible si elle réalise un équilibre de Nash instantané: chaque individu fait son mieux par rapport à un objectif personnel (vitesse souhaitée), en tenant compte du comportement des voisins qui l'influencent. Nous abordons des questions relatives à la modélisation ainsi que les aspects théoriques du problème dans diverses situations, en particulier dans le cas où chaque individu est influencé par tous les autres, et le cas où les relations d'influence entre les individus présentent une structure hiérarchique. Un schéma numérique est développé pour résoudre le problème dans le second cas (modèle hiérarchique) et des simulations numériques sont proposées pour illustrer le comportement du modèle. Les résultats numériques sont confrontés avec des expériences réelles de mouvements de foules pour montrer la capacité du modèle à reproduire certains effets.Nous proposons une version macroscopique du modèle hiérarchique en utilisant les mêmes principes de modélisation au niveau macroscopique, et nous présentons une étude préliminaire des difficultés posées par cette approche.La dernière problématique qu'on aborde dans cette thèse est liée aux cadres flot gradient dans les espaces de Wasserstein aux niveaux continu et discret. Il est connu que l'équation de Fokker-Planck peut s'interpréter comme un flot gradient pour la distance de Wasserstein continue. Nous établissons un lien entre une discrétisation spatiale du type Volume Finis pour l'équation de Fokker-Planck sur une tesselation de Voronoï et les flots gradient sur le réseau sous-jacent, pour une distance de type Wasserstein récemment introduite sur l'espace de mesures portées par les sommets d'un réseaux
We are interested in the modeling of crowd motion. We propose a microscopic model based on game theoretic principles. Each individual is supposed to have a desired velocity, it is the one he would like to have in the absence of others. We consider that each individual is influenced by some of his neighbors, practically the ones that he sees. A possible actual velocity is an instantaneous Nash equilibrium: each individual does its best with respect to a personal objective (desired velocity), considering the behavior of the neighbors that influence him. We address theoretical and modeling issues in various situations, in particular when each individual is influenced by all the others, and in the case where the influence relations between individuals are hierarchical. We develop a numerical strategy to solve the problem in the second case (hierarchical model) and propose numerical simulations to illustrate the behavior of the model. We confront our numerical results with real experiments and prove the ability of the hierarchical model to reproduce some phenomena.We also propose to write a macroscopic counterpart of the hierarchical model by translating the same modeling principles to the macroscopic level and make the first steps towards writing such model.The last problem tackled in this thesis is related to gradient flow frameworks in the continuous and discrete Wasserstein spaces. It is known that the Fokker-Planck equation can be interpreted as a gradient flow for the continuous Wasserstein distance. We establish a link between some space discretization strategies of the Finite Volume type for the Fokker- Planck equation in general meshes (Voronoï tesselations) and gradient flows on the underlying networks of cells, in the framework of discrete Wasserstein-like distance on graphs recently introduced
APA, Harvard, Vancouver, ISO, and other styles
32

Vautard, Jérémie. "Modélisation et résolution de problèmes de décision et d'optimisation hiérarchiques en utilisant des contraintes quantifiées." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00486721.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la programmation par contraintes quantifiées, un formalisme étendantla programmation par contraintes classique en ajoutant aux variables des quantificateurs existentiels ouuniversels, ce qui apporte en théorie une expressivité suffisante pour modéliser des problèmes avec adversaireou incertitude sur certains paramètres sous forme de problèmes appelés QCSP (Quantified Constraintsatisfaction Problem).Nous commençons par apporter une réponse aux difficultés de modélisation de problèmes réels dont estfrappée la programmation par contraintes quantifiées en introduisant une extension aux QCSP permettantd'expliciter les actions possibles de l'agent principal et de son adversaire. Puis, nous décrivons différentproblèmes grâce à ce formalisme, et discutons de la place de cette extension parmi les formalismes voisins créésen réponse à cette même difficulté de modélisation. Enfin, nous nous intéressons à la notion d'optimisationdans le cas des contraintes quantifiées, et apportons un formalisme d'optimisation de contraintes quantifiéespermettant d'exprimer des problèmes multi-niveaux non linéaires.
APA, Harvard, Vancouver, ISO, and other styles
33

Alves, da Silva Lucas. "Estimation de la consommation d'énergie et du taux d'erreur bit d'un système Bluetooth LE basée sur la modélisation hiérarchique d'un amplificateur de puissance à 2,4 GHz." Nice, 2011. http://www.theses.fr/2011NICE4103.

Full text
Abstract:
Les travaux de recherche présentés dans cette thèse abordent la prise en compte de la consommation d’énergie lors du développement de modèles hiérarchiques pour le développement de systèmes électroniques complexes. Une chaîne de communication sans fil Bluetooth Low-Energy (B-LE) a été créée, l’objectif étant d’estimer la durée de vie de la batterie du système complet, lors des différentes phases de développement. Dans un premier temps, le comportement énergétique du segment numérique a été étudié, en s’appuyant sur un modèle en systèmeC. Une analyse des différentes stratégies de découverte de dispositifs a été menée, considérant la consommation moyenne comme facteur d’optimisation. La modélisation du transceiver radio à partir de blocs comportementaux permet d’estimer la consommation énergétique du système complet et son influence sur le taux d’erreur par bit (TEB). La conception d’un amplificateur de puissance est présentée, à partir des spécifications, jusqu’à son design et à sa fabrication. Deux méthodes sont proposées pour l’extraction de la consommation de puissance, menant à des modèles comportementaux plus précis, tout en gardant des temps de simulation acceptables
The different results presented in this thesis focus on considering the energy consumption, during the development of hierarchical models for the design and verification of complex electronic systems. A wireless communication system was developed, complying to the Bluetooth Low-Energy (B-LE) standard, to estimate the whole system’s energy consumption, during the development phases. Initially, the energetic behaviour of the digital segment was studied, following the virtual prototyping approach. At the network level, an analysis of the different scan and advertisement strategies could be conducted, considering the device’s average power consumption as the optimization factor. Following, the radio transceiver’s modelling, using behavioural blocks, allows the estimation of the whole system’s energy consumption, as well as its influence over the system’s bit-error rate (BER). Finally the design of a power amplifier is presented, starting with its specification, through the architectural exploration and choice, until the circuit’s design and tape-out. Two methods are then proposed for the extraction of the power consumption, leading to refined accurate behavioural models, with minimal increase in simulation times
APA, Harvard, Vancouver, ISO, and other styles
34

Eckert, Nicolas. "Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne." Phd thesis, AgroParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003404.

Full text
Abstract:
Cette thèse s'intéresse au problème de la prédétermination des avalanches par couplage entre modélisation numérique et données historiques. L'assemblage s'effectue grâce au formalisme bayésien hiérarchique. La modélisation stochastique, l'inférence du modèle et la prédiction des aléas de référence sont clairement distinguées. L'échelle d'étude est tout d'abord celle d'un site avalancheux. Trois jeux d'hypothèses correspondant à différents compromis entre disponibilité des données et description de la propagation de l'avalanche sont proposés. L'incertitude liée à la méconnaissance du phénomène est combinée avec sa variabilité intrinsèque pour obtenir la loi de probabilité prédictive de la période de retour associée à n'importe quelle distance d'arrêt. Les distributions des autres variables caractérisant l'aléa sont également étudiées. Une analyse de sensibilité aux différentes hypothèses de modélisation est proposée. La prédétermination des fréquences avalancheuses sur des sites peu documentés et en contexte non stationnaire est ensuite traitée à l'échelle communale avec un modèle spatio-temporel. Celui-ci permet de quantifier les variations des occurrences avalancheuses dans les Alpes françaises au cours des soixante dernières années. Enfin, le problème du dimensionnement d'un ouvrage de protection est abordé. Le modèle stochastique est complété par les effets sur l'écoulement avalancheux d'une digue verticale et par une fonction de coût permettant l'optimisation de la hauteur de l'ouvrage. Le risque bayésien permet de ne pas séparer inférence et décision en prenant en compte l'erreur d'estimation pour le dimensionnement.
APA, Harvard, Vancouver, ISO, and other styles
35

Nelakanti, Anil Kumar. "Modélisation du langage à l'aide de pénalités structurées." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066033.

Full text
Abstract:
La modélisation de la langue naturelle est l¿un des défis fondamentaux de l'intelligence artificielle et de la conception de systèmes interactifs, avec applications dans les systèmes de dialogue, la génération de texte et la traduction automatique. Nous proposons un modèle log-linéaire discriminatif donnant la distribution des mots qui suivent un contexte donné. En raison de la parcimonie des données, nous proposons un terme de pénalité qui code correctement la structure de l'espace fonctionnel pour éviter le sur-apprentissage et d'améliorer la généralisation, tout en capturant de manière appropriée les dépendances à long terme. Le résultat est un modèle efficace qui capte suffisamment les dépendances longues sans occasionner une forte augmentation des ressources en espace ou en temps. Dans un modèle log-linéaire, les phases d'apprentissage et de tests deviennent de plus en plus chères avec un nombre croissant de classes. Le nombre de classes dans un modèle de langue est la taille du vocabulaire, qui est généralement très importante. Une astuce courante consiste à appliquer le modèle en deux étapes: la première étape identifie le cluster le plus probable et la seconde prend le mot le plus probable du cluster choisi. Cette idée peut être généralisée à une hiérarchie de plus grande profondeur avec plusieurs niveaux de regroupement. Cependant, la performance du système de classification hiérarchique qui en résulte dépend du domaine d'application et de la construction d'une bonne hiérarchie. Nous étudions différentes stratégies pour construire la hiérarchie des catégories de leurs observations
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations
APA, Harvard, Vancouver, ISO, and other styles
36

Minois, Nathan. "Etude de consistance et applications du modèle Poisson-gamma : modélisation d'une dynamique de recrutement multicentrique." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30396/document.

Full text
Abstract:
Un essai clinique est une recherche biomédicale pratiquée sur l'Homme dont l'objectif est la consolidation et le perfectionnement des connaissances biologiques ou médicales. Le nombre de sujets nécessaire (NSN) est le nombre minimal de patients à inclure dans l'essai afin d'assurer au test statistique une puissance donnée pour observer un effet donné. Pour ce faire plusieurs centres investigateurs sont sollicités. La période entre l'ouverture du premier centre investigateur et le recrutement du dernier patient est appelée période de recrutement que l'on souhaite modéliser. Les premières modélisations remontent à presque 50 ans avec les travaux de Lee, Williford et al. et Morgan avec l'idée déjà d'une modélisation de la dynamique de recrutement par des processus de Poisson. Un problème émerge lors de recrutement multicentriques du fait du manque de caractérisation de l'ensemble des sources de variabilité agissant sur les différentes dynamiques de recrutement. Le modèle dit Poisson-gamma basé sur un processus de Poisson dont les intensités par centre sont considérées comme un échantillon de loi gamma permet l'étude de variabilité. Ce modèle est au coeur de notre projet. Différents objectifs ont motivés la réalisation de cette thèse. Le premier questionnement porte sur la validité de ces modèles. Elle est établie de façon asymptotique et une étude par simulation permet de donner des informations précises sur la validité du modèle. Par la suite l'analyse de bases de données réelles a permis de constater que lors de certaines phases de recrutement, des pauses dans le recrutement sont observables. Une question se pose alors naturellement : comment et faut-il prendre en compte ces informations dans le modèle de dynamique de recrutement ? Il résulte d'études par simulation que la prise en compte de ces données n'améliore pas les performances prédictives du modèle lorsque les sources d'interruptions sont aléatoires mais dont la loi est inchangée au cours du temps. Une autre problématique observable sur les données et inhérente au problème de recrutement de patients est celle des dites sorties d'étude. Une technique Bayésienne empirique analogue à celle du processus de recrutement peut être introduite pour modéliser les sorties d'étude. Ces deux modélisations se couplent très bien et permettent d'estimer la durée de recrutement ainsi que la probabilité de sorties d'étude en se basant sur les données de recrutement d'une étude intermédiaire, donnant des prédictions concernant le processus de randomisation. La dynamique de recrutement possède de multiples facteurs autre que le temps de recrutement. Ces aspects fondamentaux couplés au modèle Poisson-gamma fournissent des indicateurs pertinents pour le suivi des essais. Ainsi est-il possible d'ajuster le nombre de centres au cours de l'essai en fonction d'objectifs prédéfinis, de modéliser et prévoir la chaîne d'approvisionnement nécessaire lors de l'essai et de prévoir l'effet de la randomisation des patients par région sur la puissance du test de l'essai. Il permet également d'avoir un suivi des patients après randomisation permettant ainsi de prévoir un ajustement du nombre de patients en cas de pertes significative d'effectif, ou d'abandonner un essai si les résultats préliminaires sont trop faibles par rapport aux risques connus et observés. La problématique de la dynamique de recrutement peut être couplée avec la dynamique de l'étude en elle-même quand celle-ci est longitudinale. L'indépendance des deux processus permet une estimation facile des différents paramètres. Le résultat est un modèle global du parcours du patient dans l'essai. Deux exemples clés de telles situations sont les données de survie - la modélisation permet alors d'estimer la durée d'un essai quand le critère d'arrêt est le nombre d'événements observés et les modèles de Markov - la modélisation permet alors d'estimer le nombre de patients dans un certain état au bout d'un certain temps
A clinical trial is a biomedical research which aims to consolidate and improve the biological and medical knowledges. The number of patients required il the minimal number of patients to include in the trial in order to insure a given statistical power of a predefined test. The constitution of this patients' database is one of the fundamental issues of a clinical trial. To do so several investigation centres are opened. The duration between the first opening of a centre and the last recruitment of the needed number of patients is called the recruitemtn duration that we aim to model. The fisrt model goes back 50 years ago with the work of Lee, Williford et al. and Morgan with the idea to model the recruitment dynamic using Poisson processes. One problem emerge, that is the lack of caracterisation of the variabliity of recruitment between centers that is mixed with the mean of the recruitment rates. The most effective model is called the Poisson-gamma model which is based on Poisson processes with random rates (Cox process) with gamma distribution. This model is at the very heart of this project. Different objectives have motivated the realisation of this thesis. First of all the validity of the Poisson-gamma model is established asymptotically. A simulation study that we made permits to give precise informations on the model validity in specific cases (function of the number of centers, the recruitement duration and the mean rates). By studying database, one can observe that there can be breaks during the recruitment dynamic. A question that arise is : How and must we take into account this phenomenon for the prediction of the recruitment duration. The study made tends to show that it is not necessary to take them into account when they are random but their law is stable in time. It also veered around to measure the impact of these breaks on the estimations of the model, that do not impact its validity under some stability hypothesis. An other issue inherent to a patient recruitment dynamic is the phenomenon of screening failure. An empirical Bayesian technique analogue to the one of the recruitment process is used to model the screening failure issue. This hierarchical Bayesian model permit to estimate the duartion of recruitment with screening failure consideration as weel as the probability to drop out from the study using the data at some interim time of analysis, giving predictions on the randomisation dynamic. The recruitment dynamic can be studied in many different ways than just the duration of recruitment. These fundamental aspects coupled with the Poisson-gamma model give relevant indicators for the study follow-up. Multiples applications in this sense are computed. It is therefore possible to adjust the number of centers according to predefined objectives, to model the drug's supply chain per region or center and to predict the effect of the randomisation on the power of the test's study. It also allows to model the folow-up period of the patients by means of transversal or longitudinal methods, that can serve to adjust the number of patients if too many quit during the foloww-up period, or to stop the study if dangerous side effects or no effects are observed on interim data. The problematic of the recruitment dynamic can also be coupled with the dynamic of the study itself when it is longitudinal. The independance between these two processes allows easy estimations of the different parameters. The result is a global model of the patient pathway in the trail. Two key examples of such situations are survival data - the model permit to estimate the duration of the trail when the stopping criterion is the number of events observed, and the Markov model - the model permit to estimate the number of patients in a certain state for a given duartion of analysis
APA, Harvard, Vancouver, ISO, and other styles
37

Le, Goc Romain. "Caractérisation et modélisation des écoulements dans les milieux fracturés." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00467417.

Full text
Abstract:
La gestion d'un aquifère repose sur l'étude de ses propriétés hydrauliques. Nous proposons une approche computationnelle afin de caractériser la structure physique d'un aquifère et les propriétés hydrauliques associées, en focalisant sur l'étude des milieux hétérogènes fracturés où les écoulements sont fortement chenalisés. Ainsi, une première partie cherche à définir le modèle de fracturation sous-jacent à deux sites naturels suédois à partir d'observations corrigées des biais d'échantillonnage. La modélisation choisie repose sur une distribution des longueurs en loi de puissance et sur un terme de densité dépendant des orientations. Les propriétés hydrauliques des milieux hétérogènes, poreux et fracturés, sont ensuite caractérisées grâce à deux indicateurs statistiques décrivant le degré de chenalisation des écoulements à partir de la distance entre deux chenaux principaux et de la longueur efficace des chenaux. Ces indicateurs permettent de relier les propriétés physiques du milieu (hétérogénéité, organisation) à ses propriétés hydrauliques. Finalement, nous tentons d'identifier les composantes principales de la structure de perméabilité à partir de données de charge hydraulique en résolvant le problème inverse associé. On montre ainsi qu'il est possible d'identifier les principales structures contrôlant les écoulements à condition d'utiliser des données contenant une information sur la perméabilité pertinente à l'échelle du site, une paramétrisation représentative des structures principales et une méthodologie appropriée. Ces différentes approches permettent de définir un modèle pertinent des propriétés hydrauliques d'un milieu complexe.
APA, Harvard, Vancouver, ISO, and other styles
38

Chagneau, Pierrette. "Modélisation bayésienne hiérarchique pour la prédiction multivariée de processus spatiaux non gaussiens et processus ponctuels hétérogènes d'intensité liée à une variable prédite : application à la prédiction de la régénération en forêt tropicale humide." Montpellier 2, 2009. http://www.theses.fr/2009MON20157.

Full text
Abstract:
Un des points faibles des modèles de dynamique forestière spatialement explicites est la modélisation de la régénération. Un inventaire détaillé du peuplement et des conditions environnementales a permis de mettre en évidence les effets de ces deux facteurs sur la densité locale de juvéniles. Mais en pratique, la collecte de telles données est coûteuse et ne peut être réalisée à grande échelle : seule une partie des juvéniles est échantillonnée et l'environnement n'est connu que partiellement. L'objectif est ici de proposer une approche pour prédire la répartition spatiale et le génotype des juvéniles sur la base d'un échantillonnage raisonnable des juvéniles, des adultes et de l'environnement. La position des juvéniles est considérée comme la réalisation d'un processus ponctuel marqué, les marques étant constituées par les génotypes. L'intensité du processus traduit les mécanismes de dispersion à l'origine de l'organisation spatiale et de la diversité génétique des juvéniles. L'intensité dépend de la survie des graines, qui dépend elle-même des conditions environnementales. Il est donc nécessaire de prédire l'environnement sur toute la zone d'étude. L'environnement, représenté par un champ aléatoire multivarié, est prédit grâce à un modèle hiérarchique spatial capable de traiter simultanément des variables de nature différente. Contrairement aux modèles existants où les variables environnementales sont considérées comme connues, le modèle de régénération proposé doit prendre en compte les erreurs liées à la prédiction de l'environnement. La méthode est appliquée à la prédiction de la régénération des juvéniles en forêt tropicale (Guyane française)
One of the weak points of forest dynamics models is the recruitment. Classically, ecologists make the assumption that recruitment mainly depends on both spatial pattern of mature trees and environment. A detailed inventory of the stand and the environmental conditions enabled them to show the effects of these two factors on the local density of seedlings. In practice, such information is not available: only a part of seedlings is sampled and the environment is partially observed. The aim of the paper is to propose an approach in order to predict the spatial distribution and the seedlings genotype on the basis of a reasonable sampling of seedling, mature trees and environmental conditions. The spatial pattern of the seedlings is assumed to be a realization of a marked point process. The intensity of the process is not only related to the seed and pollen dispersal but also to the sapling survival. The sapling survival depends on the environment; so the environment must be predicted on the whole study area. The environment is characterized through spatial variables of different nature and predictions are obtained using a spatial hierarchical model. Unlike the existing models which assume the environmental covariables as exactly known, the recruitment model we propose takes into account the error related to the prediction of the environment. The prediction of seedling recruitment in tropical rainforest in French Guiana illustrates our approach
APA, Harvard, Vancouver, ISO, and other styles
39

Galtié, Jean-François. "Information géographique numérique pour l'environnement : approche hiérarchique, modélisation et gestion prévisionnelle du risque incendie en région méditerranéenne : couplage données terrain : données de télédétection-video et intégration opérationnelle sous SIG." Toulouse 2, 1997. http://www.theses.fr/1997TOU20045.

Full text
Abstract:
Ce travail a pour ambition de contribuer a l'amelioration de la prevision du risque incendie de vegetation en zone mediterraneenne. L'etude a ete conduite dans le massif des aspres (pyrenees-orientales), region de collines regulierement parcourues par le feu. Les resultats presentes repondent a un double objectif : - d'une part, verifier experimentalement que la detection precoce du risque a partir des caracteristiques de reponse spectrale des combustibles etait possible et fiable aux differentes echelles d'observation d'approche hierarchique ; - d'autre part, mettre en place une demarche a la fois methodologique et operationnelle de gestion previsionnelle du risque, qui reponde aux exigences des principaux acteurs concernes en matiere d'aide a la decision. Le premier de ces objectifs a ete realise, a travers le couplage entre donnees sol et donnees teledetectees, par modelisation de la sensibilite au feu (inflammabilite/combustibilite) du combustible, a partir des parametres biologiques et descripteurs de l'etat hydrique, pour lesquels ont ete determinees les caracteristiques spectrales potentiellement teledetectables, en particulier dans les differentes bandes spectrales de l'instrument video experimente. Un indice de susceptibilite au feu, le fisbi, etabli a partir des reponses dans la bande mir, a notamment ete propose. La modelisation a ete conduite a trois echelles d'observation principales emboitees, depuis la "particule" vegetale et la plante jusqu'a la formation vegetale. La methodologie developpee pour atteindre le second objectif repose essentiellement sur la conception et la mise en oeuvre d'un systeme integre de detection precoce et d'alerte tirant parti des modeles precedents et articule autour d'un capteur video aeroporte dont les donnees sont transmises au sol en temps reel, d'un gps et d'un sig gerant et mettant les cartes a jour. Une validation en vraie grandeur de ce dispositif a ete effectuee en collaboration avec les services interesses au cours de l'ete 1996, dans le cadre de l'operation sadfeu
This research aims at improving fire risk forecast in mediterranean shrubs environment. It has been carried out in the hilly wildlands of aspres, in the french eastern pyrenees, a region which is, at regular intervals, devastated by wildfires. The research project was designed in order to achieve two purposes : - on the one hand, the effectiviness of early detection of fire risk by remote sensing, from fuel spectral responses charateristics, had to be checked and confirmed according to the range of observation scales, within a hierarchical approach. - on the other hand, the final purpose of the work was to implement a methodological and operational framework for forecasting and managing fire risk according to the needs of the fire-fighting authorities in relation to decision support. The first objective was carried through by means of coupling both ground and remotly sensed data and of modelling plant fire susceptibility, controlled by fuel inflammability and combustibility, from relationships between biological and plant water status parameters on the one hand and, on the other hand, the potentially dectectable spectral charateristics of fuel. The three spectral bands of the experimental video device were then put to the test. A fire susceptibility biological index (fisbi), worked from mir data, has been suggested. Modelling was realized according the growing observation scales, from elementary plant particle to plant and vegetation cover. The design of the early fire detection and warning system rest on the previous modelling features and was built from and airbone video sensor with real-time ground data transmission, a gps and a gis for managing and bringing up-to-and date the fire risk maps. A full-size validation was carried through in the aspres during the summer of 1996 with the regional fire-fighting authorities
APA, Harvard, Vancouver, ISO, and other styles
40

Li, Shuxian. "Modélisation spatio-temporelle pour l'esca de la vigne à l'échelle de la parcelle." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0313/document.

Full text
Abstract:
L'esca de la vigne fait partie des maladies de dépérissement incurables dont l'étiologie n'est pas complément élucidée. Elle représente un des problèmes majeurs en viticulture. L'objectif général de cette thèse est d'améliorer la compréhension des processus épidémiques et des facteurs de risque. Pour ce faire, nous avons mené une étude quantitative du développement spatio-temporel de l'esca à l'échelle de la parcelle. Dans un premier temps, pour détecter d'éventuelles corrélations spatiales entre les cas de maladie, des tests statistiques non paramétriques sont appliqués aux données spatio-temporelles d'expression foliaires de l'esca pour 15 parcelles du bordelais. Une diversité de profils spatiaux, allant d'une distribution aléatoire à fortement structurée est trouvée. Dans le cas de structures très agrégées, les tests n'ont pas montré d'augmentation significative de la taille des foyers, ni de propagation secondaire locale à partir de ceps symptomatiques, suggérant un effet de l'environnement dans l'explication de cette agrégation. Dans le but de modéliser l'occurrence des symptômes foliaires, nous avons développé des modèles logistiques hiérarchiques intégrant à la fois des covariables exogènes liées à l'environnement et des covariables de voisinage de ceps déjà malades mais aussi un processus latent pour l'auto-corrélation spatio-temporelle. Les inférences bayésiennes sont réalisées en utilisant la méthode INLA (Inverse Nested Laplace Approximation). Les résultats permettent de conforter l'hypothèse du rôle significatif des facteurs environnementaux dans l'augmentation du risque d'occurrence des symptômes. L'effet de propagation de l'esca à petite échelle à partir de ceps déjà atteints situés sur le rang ou hors rang n'est pas montré. Un modèle autologistique de régression, deux fois centré, qui prend en compte de façon plus explicite la structure spatio-temporelle de voisinage, est également développé. Enfin, une méthode géostatistique d'interpolation de données de nature anisotropique atypique est proposée. Elle permet d'interpoler la variable auxiliaire de résistivité électrique du sol pour estimer à l'échelle de chaque plante de la parcelle, la réserve en eau du sol disponible pour la vigne. Les méthodes géostatistique et spatio-temporelles développées dans cette thèse ouvrent des perspectives pour identifier les facteurs de risques et prédire le développement de l'esca de la vigne dans des contextes agronomiques variés
Esca grapevine disease is one of the incurable dieback disease with the etiology not completely elucidated. It represents one of the major threats for viticulture around the world. To better understand the underlying process of esca spread and the risk factors of this disease, we carried out quantitative analyses of the spatio-temporal development of esca at vineyard scale. In order to detect the spatial correlation among the diseased vines, the non-parametric statistical tests were applied to the spatio-temporal data of esca foliar symptom expression for 15 vineyards in Bordeaux region. Among vineyards, a large range of spatial patterns, from random to strongly structured, were found. In the vineyards with strongly aggregated patterns, no significant increase in the size of cluster and local spread from symptomatic vines was shown, suggesting an effect of the environment in the explanation of this aggregation. To model the foliar symptom occurrence, we developed hierarchical logistic regression models by integrating exogenous covariates, covariates of neighboring symptomatic vines already diseased, and also a latent process with spatio-temporal auto-correlation. The Bayesian inferences of these models were performed by INLA (Inverse Nested Laplace Approximation) approach. The results confirmed the effect of environmental factors on the occurrence risk of esca symptom. The secondary locally spread of esca from symptomatic vines located on the same row or out of row was not shown. A two-step centered auto-logistic regression model, which explicitly integrated the spatio-temporal neighboring structure, was also developed. At last, a geostatistical method was proposed to interpolate data with a particular anisotropic structure. It allowed interpolating the ancillary variable, electrical resistivity of soil, which were used to estimate the available soil water content at vine-scale. These geostatistical methods and spatio-temporal statistical methods developed in this thesis offered outlook to identify risk factors, and thereafter to predict the development of esca grapevine disease in different agronomical contexts
APA, Harvard, Vancouver, ISO, and other styles
41

Bimou, Charlotte. "Analyse de trajectoires, perte d'autonomie et facteurs prédictifs : Modélisation de trajectoires." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0030/document.

Full text
Abstract:
La poursuite du rythme d’augmentation de l’espérance de vie des générations issue du baby-boom dans les pays développés serait souvent accompagnée de limitations fonctionnelles, d’incapacité, de plus en plus observées dans la population gériatrique. L'objectif général de cette thèse était de contribuer à la connaissance de l’évolution de l’autonomie fonctionnelle des personnes âgées dans une population hétérogène. Il s’agissait dans un premier temps d'identifier des groupes homogènes dans une population hétérogène de personnes âgées suivant la même trajectoire d'autonomie fonctionnelle sur une période de deux ans, ainsi que des facteurs prédictifs potentiels. Dans un second temps, d’analyser les conséquences cliniques des trajectoires et la survie des patients sur la même période d’observation. Le SMAF (Système de Mesure de l’Autonomie Fonctionnelle) et les échelles ADL (Activities of Daily Living) ont été employés comme indicateurs d’évaluation de l’autonomie. Dans ce contexte, des données de 221 patients issues de la cohorte UPSAV (Unité de Prévention, de Suivi et d’Analyse du Vieillissement) ont été exploitées. Nous avons employé trois méthodes d’analyse de trajectoires dont le GBTM (Group-Based Trajectory Modeling), k-means et classification ascendante hiérarchique. Les résultats ont révélé trois trajectoires distinctes d’autonomie fonctionnelle : stable, stable pendant un temps puis détériorée, continuellement altérée. Les facteurs prédictifs des trajectoires obtenus à l’aide de la régression logistique sont des critères socio-démographiques, médicaux et biologiques. Les personnes âgées affectées à la trajectoire de perte d’autonomie (trajectoire continuellement altérée) ont montré de fortes proportions de chutes dommageables. A partir d’un modèle de Cox, les troubles neurocognitifs, l’insuffisance cardiaque, la perte de poids involontaire et l’alcool ont été révélés comme facteurs prédictifs de la survenue du décès. On conclut de ces travaux que l’analyse longitudinale sur deux ans de suivi a permis de trouver des sous-groupes homogènes de personnes âgées en termes d’évolution de l’indépendance fonctionnelle. Quel que soit le niveau d’autonomie, la prévention de l’UPSAV devient utile même si le niveau d’utilité n’est pas le même. La prévention et le dépistage de la perte d’autonomie de la personne âgée suivie sur son lieu de vie doivent être anticipés afin de retarder la dégradation et maintenir l’autonomie à domicile. Des analyses ultérieures devraient s’intéresser à l’exploration de plus larges cohortes de personnes âgées pour confirmer et généraliser notre travail
The increase in life expectancy of baby boom generations in developed countries would often be accompanied by functional limitations, disability, increasingly observed in the geriatric population. The general objective of this thesis was to contribute to the knowledge of the evolution of the functional independence of older people in a heterogeneous population. First, it was to identify homogeneous groups in a heterogeneous population of elderly people following the same functional independence trajectory over a two-year period, and potential predictive factors. Second, it was to analyze the clinical consequences of trajectories and patient survival over the same observation period. The SMAF (Système de Mesure de l'Autonomie Fonctionnelle) and ADL (Activities of Daily Living) scales were used as indicators for measuring independence. Analysis were performed from a sample of 221 patients of UPSAV (Unit for Prevention, Monitoring and Analysis of Aging) cohort. We used three methods including trajectory analysis including GBTM (Group-Based Trajectory Modeling), k-means and ascending hierarchical classification. The results suggest three distinct trajectories of functional independence: stable, stable then decline, continuously decline. The predictors of trajectories obtained using logistic regression are socio-demographic, medical and biological criteria. Patients assigned to the loss of independence trajectory (continuously altered trajectory) reported high proportions of injurious falls. Based on a Cox model, neurocognitive disorders, heart failure, involuntary weight loss and alcohol were revealed as predictors of death. We conclude from this work that the two-year longitudinal analysis identified homogeneous subgroups of elderly people in terms of changes in functional independence. The prevention of UPSAV becomes a useful even if the utility level is not the same. Prevention and screening of the loss of independence of the elderly person followed at home must be anticipated in order to delay the deterioration and to maintaining the autonomy. Future analyses should focus on exploring large cohorts of older people to confirm and generalize our research
APA, Harvard, Vancouver, ISO, and other styles
42

Pock, Michael. "A Hierarchical Modelling and Evaluation Technique for Safety Critical Systems." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0103.

Full text
Abstract:
Cette thèse présente une nouvelle approche pour la modélisation des systèmes de sécurité fonctionnelle qui prend en compte plusieurs modes de défaillance pour les composants et le système global. Les diagrammes de flux d'information (IFDs) ont été initialement développé dans un thèse précédent. Dans ce travail, l'évaluation si l'approche flux d'information être rendue plus efficace par utiliser les diagrammes de décision binaires (BDD).Cette thèse sera d'expliquer pourquoi ce modèle est nécessaire et pratique, suivie d'une explication détaillée des IFDs. Cela inclut sa structure hiérarchique et comment ce modèle peut être appliqué.La prochaine étape est la formalisation du modèle IFD original pour permettre l'utilisation des techniques d'évaluation plus efficaces. Il sera expliqué pourquoi ces étapes de formalisation ont été prises et les avantages de leur utilisation.Ensuite une explication détaillée des algorithmes développés est présenté. Ces algorithmes sont basés sur une combinaison de différentes techniques de BDD. Zero Suppressed BDDs (ZBDDs) sont combinées avec des Boolean Expression Diagrams (BEDs). En outre, la structure des IFD est utilisé pour construire un BDD global sur plusieurs petits BDDs. Cela augmente l'efficacité du processus d'évaluation.Les techniques présentées sont évaluées par l'analyse de plusieurs cas d'utilisation qui sont expliqués dans ce travail
This thesis presents a novel approach for modelling safety critical systems which takes into account several failure modes both for components and the global system. The so called Information Flow Diagrams (IFDs) were originally developed in a previous PhD-thesis. In this work, the evaluation if the IFD-approach should be made more efficient by using Binary Decision Diagrams (BDDs).This thesis will explain why such a model is necessary and practical, followed by a detailed explanation of the IFD-model. This includes its hierarchical structure and how this model can be applied. The next step is to formalise the original IFD-model in order to enable more efficient evaluation techniques. It will be explained why these formalisation steps were taken and what was gained by using them. Afterwards a detailed explanation of the developed algorithms is presented. These algorithms are based on a combination of different BDD-techniques. Zero Suppressed BDDs (ZBDDs) are combined with Boolean Expression Diagrams (BEDs). Furthermore, the structure of the IFDs is used in order to construct a large BDD out of several smaller BDDs. This increases the efficiency of the evaluation process.The presented techniques are evaluated by analysing several use cases which are explained in this work
APA, Harvard, Vancouver, ISO, and other styles
43

Maleki, Mohammad. "Modélisation hiérarchisée du comportement des sols." Ecully, Ecole centrale de Lyon, 1998. http://www.theses.fr/1998ECDL0052.

Full text
Abstract:
L'utilisation rationnelle des codes de calcul par éléments finis en géotechnique se heurte essentiellement à deux difficultés liées d'une part au choix du modelé, et d'autre part à la caractérisation de ses paramètres. Le travail présenté dans cette thèse a pour objectif de mettre en place un outil qui permet de réduire ces deux difficultés. Pour atteindre ce but, sur la base du modèle cjs, nous avons développé un modèle hiérarchisé c'est à dire comportant plusieurs niveaux de modélisation, qui permet de rendre plus facile et plus efficace le choix du modèle. Le modèle développé intègre cinq niveaux de modélisation : cjs1 : modèle élastique-parfaitement plastique, cjs2 : modèle élastoplastique avec écrouissage isotrope, cjs3 : modèle élastoplastique avec écrouissage cinématique, cjs4 : modèle élastoplastique avec écrouissage mixte, cjs5 : modèle élastoplastique-viscoplastique. Le niveau le plus simple est le modèle cjs1. Il se compare au modèle de Mohr-Coulomb avec dilatance. Le deuxième est un modèle élastoplastique simple qui permet de reproduire facilement le comportement non linéaire des sols pour des sollicitations monotones. Le troisième niveau permet de modéliser l'effet de l'anisotropie induite et le comportement cyclique des sols. Le quatrième niveau est construit pour améliorer la réponse de cjs3 sous sollicitation cyclique. Enfin le dernier modèle a été construit pour décrire le comportement visqueux des sols. Le passage d'un niveau à un autre niveau se fait en agissant sur les paramètres. L'identification des paramètres de différents modèles se fait à partir des résultats d'essais classiques en laboratoire. Pour enrichir l'identification des paramètres, des corrélations entre certains paramètres des modèles et les paramètres physico-mécaniques bien connus des sols sont présentées. Les validations pour les modèles de la partie élastoplastique (cjs1,2,3,4) sont faites sur les chemins homogènes monotones et cycliques, en condition drainée et non drainée, et sur des chemins non homogènes. Pour la validation de cjs5, nous avons utilisé des résultats d'essais triaxiaux non drainés et drainés.
APA, Harvard, Vancouver, ISO, and other styles
44

Garreta, Vincent. "Approche bayésienne de la reconstruction des paléoclimats à partir du pollen : Vers la modélisation des mécanismes écologiques." Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2010. http://tel.archives-ouvertes.fr/tel-00495890.

Full text
Abstract:
Le pollen conservé dans les sédiments lacustres constitue un indicateur essentiel pour reconstruire l'évolution de la végétation et du climat passés sur les continents. Actuellement, les reconstructions climatiques se basent sur des modèles statistiques décrivant le lien climat-pollen. Ces modèles posent des problèmes méthodologiques car ils sont tous basés sur l'hypothèse que la relation pollen-climat est constante au cours du temps, impliquant que les paramètres non climatiques déterminant cette relation aient une influence faible. Cela est contredit par les développements récents en écologie et en écophysiologie. C'est pourquoi, dans ce travail, nous développons une approche intégrant un modèle dynamique de végétation et les processus majeurs liant la végétation au pollen capté par les lacs. Le cadre bayésien fournit une base théorique ainsi que les outils pour inférer les paramètres des modèles et le climat passé. Nous utilisons ces nouveaux modèles pour reconstruire le climat de l'Holocène en différents sites européens. Cette approche qui permettra des reconstructions spatio-temporelles requiert encore des développements autour de l'inférence de modèles semi-mécanistes.
APA, Harvard, Vancouver, ISO, and other styles
45

Hoffmann, Sabine. "Approche hiérarchique bayésienne pour la prise en compte d’erreurs de mesure d’exposition chronique et à faible doses aux rayonnements ionisants dans l’estimation du risque de cancers radio-induits : Application à une cohorte de mineurs d’uranium." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS532/document.

Full text
Abstract:
En épidémiologie des rayonnements ionisants, les erreurs de mesure d’exposition et l’incertitude sur le calcul de la dose absorbée à l’organe constituent des sources d’incertitude importantes entrant en jeu dans la modélisation et l’estimation des relations dose-réponse d’intérêt. Celles-ci peuvent être de nature très complexes dans le cadre d’études de cohortes professionnelles et sont ainsi rarement prises en compte dans ce domaine. Pourtant, lorsque les erreurs de mesure d’exposition ne sont pas ou mal prises en compte, elles peuvent mener à des estimateurs de risque biaisés, à une perte de puissance statistique ainsi qu’à une déformation de ces relations dose-réponse. L’objectif de ce travail est de promouvoir l’utilisation de l’approche hiérarchique bayésienne pour la prise en compte explicite et simultanée des erreurs de mesure d’exposition et des incertitudes de dose intervenant dans les estimations de risques sanitaires radio-induits dans les études de cohortes professionnelles. Plus spécifiquement, des modèles hiérarchiques ont été proposés et inférés afin d’affiner l’estimation actuelle du risque de décès par cancer du poumon associé à une exposition chronique et à faibles doses au radon et ses descendants à vie courte à partir de données issues de la cohorte française des mineurs d’uranium. Ces modèles, connus pour leur souplesse et leur pertinence pour la prise en compte de sources d’incertitude multiples et complexes, sont basés sur une combinaison de sous-modèles probabilistes conditionnellement indépendants. Afin de quantifier l’impact de l’existence d’erreurs de mesure d’exposition partagées et non-partagées sur l’estimation du risque et sur la forme de la relation exposition-risque dans les études de cohortes professionnelles, une étude par simulations a été conduite dans laquelle différentes structures complexes mais réalistes d’erreurs de mesure (pouvant par ailleurs varier dans le temps) ont été considérées. Une élicitation de lois a priori reflétant l’incertitude relative au débit respiratoire - un paramètre important intervenant dans le calcul de la dose absorbée au poumon – a été conduite auprès de trois experts des conditions d’exposition dans les mines d’uranium française et des méthodes de combinaison de dires d’experts ont été mises en œuvre et comparées. Enfin, des algorithmes Monte-Carlo par Chaînes de Markov ont été implémentés sous Python pour mener l’inférence bayésiennes des différents modèles hiérarchiques proposés et ainsi, obtenir des estimations corrigées du risque de décès par cancer du poumon radio-induit dans la cohorte française des mineurs d’uranium
In radiation epidemiology, exposure measurement error and uncertain input parameters in the calculation of absorbed organ doses are among the most important sources of uncertainty in the modelling of the health effects of ionising radiation. As the structures of exposure and dose uncertainty arising in occupational cohort studies may be complex, these uncertainty components are only rarely accounted for in this domain. However, when exposure measurement is not or only poorly accounted for, it may lead to biased risk estimates, a loss in statistical power and a distortion of the exposure-response relationship. The aim of this work was to promote the use of the Bayesian hierarchical approach to account for exposure and dose uncertainty in the estimation of the health effects associated with exposure to ionising radiation in occupational cohorts. More precisely, we proposed several hierarchical models and conducted Bayesian inference for these models in order to obtain corrected risk estimates on the association between exposure to radon and its decay products and lung cancer mortality in the French cohort of uranium miners. The hierarchical appraoch, which is based on the combination of sub-models that are linked via conditional independence assumptions, provides a flexible and coherent framework for the modelling of complex phenomena which may be prone to multiple sources of uncertainty. In order to compare the effects of shared and unshared exposure uncertainty on risk estimation and on the exposure-response relationship we conducted a simulation study in which we supposed complex and potentially time-varying error structures that are likely to arise in an occupational cohort study. We elicited informative prior distributions for average breathing rate, which is an important input parameter in the calculation of absorbed lung dose, based on the knowledge of three experts on the conditions in French uranium mines. In this context, we implemented and compared three approaches for the combination of expert opinion. Finally, Bayesian inference for the different hierarchical models was conducted via a Markov chain Monte Carlo algorithm implemented in Python to obtain corrected risk estimates on the lung cancer mortality in the French cohort of uranium miners associated with exposure to radon and its progeny
APA, Harvard, Vancouver, ISO, and other styles
46

Delhumeau, Cécile. "Contribution à la modélisation des durées de séjour du CHU de Grenoble." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00004392.

Full text
Abstract:
Cette thèse propose une méthodologie permettant l'identification des groupes homogènes de malades (GHM) du Centre Hospitalier Universitaire (CHU) de Grenoble dont la durée de séjour (DS) s'écarte de la "référence nationale", mais aussi d'identifier la présence d'éventuels groupes d'"outliers" (patients avec des DS extrêmes) dans ces GHM. L'enjeu est de taille : des séjours longs entraînent une occupation des lits supérieure à ce que permet la valorisation financière correspondant à la pathologie prise en charge. Il est donc important de repérer ces GHM, responsables du coût élevé du point Indice Synthétique d'Activité (ISA), unité d'oeuvre des hôpitaux utilisée par le Programme de Médicalisation des Systèmes d'Information pour connaître leur activité, leur allouer le budget correspondant, et contraindre à une productivité optimale. Les écarts entre la distribution des DS des GHM grenoblois et celle de leurs homologues de la base nationale ont été comparés. Pour chaque GHM, un profil, fondé sur la comparaison des quartiles de DS des distributions nationales et grenobloises, deux à deux, a été construit. Des méthodes statistiques de classification (analyse en composantes principales, classification hiérarchique, analyse discriminante et modèles de mélange) ont été utilisées pour repérer aisément et sûrement les GHM économiquement coûteux. De manière empirique, les profils grenoblois semblent se structurer en 9 catégories. La classification hiérarchique identifie 4 catégories de GHM, dont une particulière comptant 16 GHM, dans laquelle un tiers des patients participe fortement à la dérive en points ISA du CHU, et pour qui la mise en place d'une action économiquement rentable serait aisée. Le modèle de mélange montre que les GHM se structurent en 3 catégories et permet de valider la classification issue de l'approche multidimensionnelle.
APA, Harvard, Vancouver, ISO, and other styles
47

Perret, Benjamin. "Caractérisation multibande de galaxies par hiérarchie de modèles et arbres de composantes connexes." Phd thesis, Université de Strasbourg, 2010. http://tel.archives-ouvertes.fr/tel-00559584.

Full text
Abstract:
Cette thèse propose une méthode de caractérisation morphologique multibande des galaxies. Ces dernières ont commencé à évoluer et à interagir très tôt dans l'histoire de l'Univers: leurs formes dans les différentes parties du spectre électromagnétique représentent donc un traceur important de cette histoire. Ce travail propose une organisation hiérarchique de modèles, allant de la description des structures dominantes (bulbe et disque) aux composantes les plus fines (bras spiraux, anneaux, ...). Elle permet d'aboutir à une description des galaxies de haut niveau sémantique, chaque modèle réalisant une décomposition multibande de l'image en composantes astrophysiques interprétables par les astronomes. Les modélisations proposées innovent par l'intégration d'un filtre adaptatif appliqué sur les observations, dont les paramètres sont estimés conjointement avec ceux des composantes de la galaxie. L'estimation des paramètres des modèles est effectuée dans un contexte bayésien et résolue à l'aide d'algorithmes d'optimisation stochastique (algorithmes de Monte Carlo par chaines de Markov). La rapidité des algorithmes est améliorée grâce à des techniques d'échelles et de directions adaptatives, ainsi qu'à une version multi-températures du recuit simulé. En outre, les développements concernant la théorie des arbres de composantes connexes permettent la mise au point d'algorithmes non paramétriques multibandes, efficaces et robustes pour la réalisation des pré-traitements nécessaires à la mise en oeuvre de la décomposition en structures. Cela a notamment abouti à des avancées dans la théorie des hyperconnexions et des représentations sous forme d'arbres de composantes hyperconnexes. Les performances des méthodes proposées ont été évaluées sur un ensemble conséquent d'environ 1 500 galaxies et discutées avec les astronomes: elles montrent clairement la pertinence et la robustesse de la méthode. Ces résultats ouvrent la voie à de nouvelles classifications prenant en compte la signature multibande des galaxies spatialement résolues.
APA, Harvard, Vancouver, ISO, and other styles
48

Pock, Michael. "A Hierarchical Modelling and Evaluation Technique for Safety Critical Systems." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0103/document.

Full text
Abstract:
Cette thèse présente une nouvelle approche pour la modélisation des systèmes de sécurité fonctionnelle qui prend en compte plusieurs modes de défaillance pour les composants et le système global. Les diagrammes de flux d'information (IFDs) ont été initialement développé dans un thèse précédent. Dans ce travail, l'évaluation si l'approche flux d'information être rendue plus efficace par utiliser les diagrammes de décision binaires (BDD).Cette thèse sera d'expliquer pourquoi ce modèle est nécessaire et pratique, suivie d'une explication détaillée des IFDs. Cela inclut sa structure hiérarchique et comment ce modèle peut être appliqué.La prochaine étape est la formalisation du modèle IFD original pour permettre l'utilisation des techniques d'évaluation plus efficaces. Il sera expliqué pourquoi ces étapes de formalisation ont été prises et les avantages de leur utilisation.Ensuite une explication détaillée des algorithmes développés est présenté. Ces algorithmes sont basés sur une combinaison de différentes techniques de BDD. Zero Suppressed BDDs (ZBDDs) sont combinées avec des Boolean Expression Diagrams (BEDs). En outre, la structure des IFD est utilisé pour construire un BDD global sur plusieurs petits BDDs. Cela augmente l'efficacité du processus d'évaluation.Les techniques présentées sont évaluées par l'analyse de plusieurs cas d'utilisation qui sont expliqués dans ce travail
This thesis presents a novel approach for modelling safety critical systems which takes into account several failure modes both for components and the global system. The so called Information Flow Diagrams (IFDs) were originally developed in a previous PhD-thesis. In this work, the evaluation if the IFD-approach should be made more efficient by using Binary Decision Diagrams (BDDs).This thesis will explain why such a model is necessary and practical, followed by a detailed explanation of the IFD-model. This includes its hierarchical structure and how this model can be applied. The next step is to formalise the original IFD-model in order to enable more efficient evaluation techniques. It will be explained why these formalisation steps were taken and what was gained by using them. Afterwards a detailed explanation of the developed algorithms is presented. These algorithms are based on a combination of different BDD-techniques. Zero Suppressed BDDs (ZBDDs) are combined with Boolean Expression Diagrams (BEDs). Furthermore, the structure of the IFDs is used in order to construct a large BDD out of several smaller BDDs. This increases the efficiency of the evaluation process.The presented techniques are evaluated by analysing several use cases which are explained in this work
APA, Harvard, Vancouver, ISO, and other styles
49

Yirci, Murat. "Arrangements 2D pour la Cartographie de l’Espace Public et des Transports." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1075/document.

Full text
Abstract:
Cette thèse porte sur le développement facilité d'applications de cartographie et de transport, plus particulièrement sur la génération de réseaux piétonniers pour des applications telles que la navigation, le calcul d'itinéraires, l'analyse d'accessibilité et l'urbanisme. Afin d'atteindre ce but, nous proposons un modèle de données à deux couches qui cartographie l'espace public dans une hiérarchie d'objets géospatiaux sémantisés. A bas niveau, la géométrie 2D des objets géospatiaux est représentée par une partition planaire, modélisée par une structure topologique d'arrangement 2D. Cette représentation permet des traitements géométriques efficaces et efficients, ainsi qu'une maintenance et une validation aisée au fur et à mesure des éditions lorsque la géométrie ou la topologie d'un objet sont modifiées. A haut niveau, les aspects sémantiques et thématiques des objets géospatiaux sont modélisés et gérés. La hiérarchie entre ces objets est maintenue à travers un graphe dirigé acyclique dans lequel les feuilles correspondent à des primitives géométriques de l'arrangement 2D et les noeuds de plus haut niveau représentent les objets géospatiaux sémantiques plus ou moins aggrégés. Nous avons intégré le modèle de données proposé dans un framework SIG nommé StreetMaker en complément d'un ensemble d'algorithmes génériques et de capacités SIG basiques. Ce framework est alors assez riche pour générer automatiquement des graphes de réseau piétonnier. En effet, dans le cadre d'un projet d'analyse d'accessibilité, le flux de traitement proposé a permis de produire avec succès sur deux sites un graphe de réseau piétonnier à partir de données en entrées variées : des cartes vectorielles existantes, des données vectorielles créées semi-automatiquement et des objets vectoriels extraits d'un nuage de points lidar issu d'une acquisition de cartographie mobile.Alors que la modélisation 2D de la surface du sol est suffisante pour les applications SIG 2D, les applications SIG 3D nécessitent des modèles 3D de l'environnement. La modélisation 3D est un sujet très large mais, dans un premier pas vers cette modélisation 3D, nous nous sommes concentrés sur la modélisation semi-automatique d'objets de type cylindre généralisé (tels que les poteaux, les lampadaires, les troncs d'arbre, etc) à partir d'une seule image. Les méthodes et techniques développées sont présentées et discutées
This thesis addresses easy and effective development of mapping and transportation applications which especially focuses on the generation of pedestrian networks for applications like navigation, itinerary calculation, accessibility analysis and urban planning. In order to achieve this goal, we proposed a two layered data model which encodes the public space into a hierarchy of semantic geospatial objects. At the lower level, the 2D geometry of the geospatial objects are captured using a planar partition which is represented as a topological 2D arrangement. This representation of a planar partition allows efficient and effective geometry processing and easy maintenance and validation throughout the editions when the geometry or topology of an object is modified. At the upper layer, the semantic and thematic aspects of geospatial objects are modelled and managed. The hierarchy between these objects is maintained using a directed acyclic graph (DAG) in which the leaf nodes correspond to the geometric primitives of the 2D arrangement and the higher level nodes represent the aggregated semantic geospatial objects at different levels. We integrated the proposed data model into our GIS framework called StreetMaker together with a set of generic algorithms and basic GIS capabilities. This framework is then rich enough to generate pedestrian network graphs automatically. In fact, within an accessibility analysis project, the full proposed pipeline was successfully used on two sites to produce pedestrian network graphs from various types of input data: existing GIS vector maps, semi-automatically created vector data and vector objects extracted from Mobile Mapping lidar point clouds.While modelling 2D ground surfaces may be sufficient for 2D GIS applications, 3D GIS applications require 3D models of the environment. 3D modelling is a very broad topic but as a first step to such 3D models, we focused on the semi-automatic modelling of objects which can be modelled or approximated by generalized cylinders (such as poles, lampposts, tree trunks, etc.) from single images. The developed methods and techniques are presented and discussed
APA, Harvard, Vancouver, ISO, and other styles
50

Chiron, Guillaume. "Système complet d’acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés : application à la surveillance apicole." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS030/document.

Full text
Abstract:
Ce manuscrit propose une approche méthodologique pour la constitution d’une chaîne complète de vidéosurveillance pour des environnements naturellement encombrés. Nous identifions et levons un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à l’acquisition de séquences vidéo en milieu naturel, 2) au traitement d’images, 3) au suivi multi-cibles, 4) à la découverte et la modélisation de motifs comportementaux récurrents, et 5) à la fusion de données. Le contexte applicatif de nos travaux est la surveillance apicole, et en particulier, l’étude des trajectoires des abeilles en vol devant la ruche. De ce fait, cette thèse se présente également comme une étude de faisabilité et de prototypage dans le cadre des deux projets interdisciplinaires EPERAS et RISQAPI (projets menées en collaboration avec l’INRA Magneraud et le Muséum National d’Histoire Naturelle). Il s’agit pour nous informaticiens et pour les biologistes qui nous ont accompagnés, d’un domaine d’investigation totalement nouveau, pour lequel les connaissances métiers, généralement essentielles à ce genre d’applications, restent encore à définir. Contrairement aux approches existantes de suivi d’insectes, nous proposons de nous attaquer au problème dans l’espace à trois dimensions grâce à l’utilisation d’une caméra stéréovision haute fréquence. Dans ce contexte, nous détaillons notre nouvelle méthode de détection de cibles appelée segmentation HIDS. Concernant le calcul des trajectoires, nous explorons plusieurs approches de suivi de cibles, s’appuyant sur plus ou moins d’a priori, susceptibles de supporter les conditions extrêmes de l’application (e.g. cibles nombreuses, de petite taille, présentant un mouvement chaotique). Une fois les trajectoires collectées, nous les organisons selon une structure de données hiérarchique et mettons en œuvre une approche Bayésienne non-paramétrique pour la découverte de comportements émergents au sein de la colonie d’insectes. L’analyse exploratoire des trajectoires issues de la scène encombrée s’effectue par classification non supervisée, simultanément sur des niveaux sémantiques différents, et où le nombre de clusters pour chaque niveau n’est pas défini a priori mais est estimé à partir des données. Cette approche est dans un premier temps validée à l’aide d’une pseudo-vérité terrain générée par un Système Multi-Agents, puis dans un deuxième temps appliquée sur des données réelles
This manuscript provides the basis for a complete chain of videosurveillence for naturally cluttered environments. In the latter, we identify and solve the wide spectrum of methodological and technological barriers inherent to : 1) the acquisition of video sequences in natural conditions, 2) the image processing problems, 3) the multi-target tracking ambiguities, 4) the discovery and the modeling of recurring behavioral patterns, and 5) the data fusion. The application context of our work is the monitoring of honeybees, and in particular the study of the trajectories bees in flight in front of their hive. In fact, this thesis is part a feasibility and prototyping study carried by the two interdisciplinary projects EPERAS and RISQAPI (projects undertaken in collaboration with INRA institute and the French National Museum of Natural History). It is for us, computer scientists, and for biologists who accompanied us, a completely new area of investigation for which the scientific knowledge, usually essential for such applications, are still in their infancy. Unlike existing approaches for monitoring insects, we propose to tackle the problem in the three-dimensional space through the use of a high frequency stereo camera. In this context, we detail our new target detection method which we called HIDS segmentation. Concerning the computation of trajectories, we explored several tracking approaches, relying on more or less a priori, which are able to deal with the extreme conditions of the application (e.g. many targets, small in size, following chaotic movements). Once the trajectories are collected, we organize them according to a given hierarchical data structure and apply a Bayesian nonparametric approach for discovering emergent behaviors within the colony of insects. The exploratory analysis of the trajectories generated by the crowded scene is performed following an unsupervised classification method simultaneously over different levels of semantic, and where the number of clusters for each level is not defined a priori, but rather estimated from the data only. This approach is has been validated thanks to a ground truth generated by a Multi-Agent System. Then we tested it in the context of real data
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography