To see the other types of publications on this topic, follow the link: Modèle de distribution.

Dissertations / Theses on the topic 'Modèle de distribution'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle de distribution.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bohrer, Ávila Rafael. "Un modèle de distribution du serveur de fichiers pour Grappes." Grenoble INPG, 2005. http://www.theses.fr/2005INPG0042.

Full text
Abstract:
L'utilisation de grappes d'ordinateurs de grande taille comme plateforme pour le calcul parallèle trouve dans la gestion d'entrèe/sortie l'un de ces principaux problèmes. L'emploi de solutions centralisés traditionnelles comme NFS forme des goulots d'étranglement qui ne sont pas acceptables sur le système de fichiers. Plusieurs solutions pour ce problème ont été proposées, aussi bien par l'utilisation de technologies comme le RAID ou la fibre optique que par la distribution des fonctions du serveur de fichiers. Suivant cette approche, NFSP est un projet qui vise à l'augmentation de la performance et du passage à l'échelle des opérations de lecture sur un serveur NFS standard tout en bénéficiant de ses aspects de stabilité et de procédures de gestion bien connues. Le modèle présenté dans cette thèse, dNFSP, est une extension de NFSP dont l'objeticf est l'amélioration de la performance des applications présentant aussi bien des opérations de lecture que celles d'écriture de données. L'extension proposée s'appuie sur deux points principaux : la gestion distribuée de métadonnées, ce qui favorise le passage à l'échelle et réduit la charge sur le serveur unique d'origine, et un mécanisme lache de maintien de cohérence basé sur LRC (Lazy Release Consistency), qui minimise le coût de synchronisation d'informations. Un prototype de ce modèle a été implémenté et évalué avec un ensemble de tests, benchmarks et applications. Les résultats obtenus confirment l'augmentation de la performance des applications sans abdiquer de la compatibilité avec les procédures standards de gestion
The evolution of Cluster Computing has led to the construction of each time larger and larger parallel machines, in which one of the main problems is the management of I/0, since centralised file storage solutions like NFS rapidly become the bottleneck of this part of the system. Over the last years, many solutions to this problem have been proposed, both making use of specialised hardware such as RAID and fibre optics as weil as by distributing the functionalities of the file server. Following this second trend, NFSP is a proposal which extends the standard NFS server in order to provide improved read performance and scalability while taking benefit from its stability and well-known management practices. The proposal presented in this thesis, referred to as dNFSP, is an extension of NFSP with the main goal of providing better performance to applications exploring both read and write operations. The basis for the proposed system is a distributed metadata management model, which allows for better scalability and reduces the computational cost on the original NFSP metaserver, and also a relaxed mechanism for maintaining metadata coerence based on LRC (Lazy Release Consistency), which enables the distribution of the service without incurring in costly data sinchronization operations. A prototype of the dNFSP model has been implemented and evaluated by means of a series of tests, benchmarks and applications. The obtained results confirm that the model can provide better performance to applications and at the same time keep a high degree of compatibility with standard tools and procedures
APA, Harvard, Vancouver, ISO, and other styles
2

Ding, Ni. "Load models for operarion and planning of electricity distribution networks with metering data." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00862879.

Full text
Abstract:
En 2010, ERDF (le distributeur d'électricité Français) a entamé la mise en place du projet " Linky " dont l'objectif est d'installer 35 millions de compteurs intelligents en France. Ces compteurs permettront de collecter les données de consommation en " temps réel ", avec lesquelles des modèles de charge plus précis pourront être envisagés. Dans ce contexte, cette thèse définit deux objectifs: la définition de modèles prédictifs de charge pour la conduite et la conception de modèles d'estimation de charge pour la planification. En ce qui concerne la conduite, nous avons développés deux modèles. Le premier exploite le formalisme mathématique des séries chronologiques ; le second est basé sur le réseau de neurones. Les deux modèles cherchent à prévoir la charge des jours " J+1 " et " J+2 " à partir des informations collectées jusqu'au jour " J ". Quand à la planification, un modèle non paramétrique est proposé et comparé avec le modèle actuel " BAGHEERA " d'EDF. Le modèle non paramétrique est un modèle individuel configuré par les relevées compteurs. Trois régresseurs non paramétriques (Nadaraya Watson, Local Linear et Local Linear adapted) sont proposés. Les scénarios de validation montrent que le modèle non paramétrique est plus précis que le modèle " BAGHEERA ". Ces nouveaux modèles ont été conçus et validés sur de vraies données collectées sur le territoire français.
APA, Harvard, Vancouver, ISO, and other styles
3

Tremblay, Marie. "Estimation des paramètres des modèles de culture : application au modèle STICS Tournesol." Toulouse 3, 2004. http://www.theses.fr/2004TOU30020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hernandez, Freddy. "Fluctuations à l'équilibre d'un modèle stochastique non gradient qui conserve l'énergie." Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090029.

Full text
Abstract:
En cette thèse nous étudions le champ de fluctuations à l'équilibre de l'énergie d'un modèle non gradient réversible. Nous établissons la convergence en loi vers un processus d'Ornstein-Uhlenbeck généralisé. En adaptant la méthode non gradient introduite par S. R. S Varadhan, nous identifions le terme de diffusion, ce qui nous permet de déduire le principe de Boltzmann-Gibbs. Ceci est le point essentiel pour montrer que les lois fini dimensionnelles du champ de fluctuations, convergent vers les lois fini dimensionnelles d'un processus généralisé d'Ornstein-Uhlenbeck. De plus, en utilisant à nouveau le principe de Boltzmann-Gibbs nous obtenons aussi la tension du champ de fluctuations de l'énergie dans un certain espace de Sobolev, ce qui avec la convergence des lois fini dimensionnelles implique la convergence en loi vers le processus généralisé d'Ornstein-Uhlenbeck (mentionné ci-dessus). Le fait que la quantité conservée n'est soit pas une forme linéaire des coordonnées du système, introduit des difficultés supplémentaires de nature géométrique lors de l'application de la méthode non gradient de Varadhan
In this thesis we study the equilibrium energy fluctuation field of a one-dimensional reversible non gradient model. We prove that the limit fluctuation process is governed by a generalized Ornstein-Uhlenbeck process. By adapting the non gradient method introduced by S. R. S Varadhan, we identify the correct diffusion term, which allows us to derive the Boltzmann-Gibbs principle. This is the key point to show that the energy fluctuation field converges in the sense of finite dimensional distributions to a generalized Ornstein-Uhlenbeck process. Moreover, using again the Boltzmann-Gibbs principle we also prove tightness for the energy fluctuation field in a specified Sobolev space, which together with the finite dimensional convergence implies the convergence in distribution to the generalized Ornstein-Uhlenbeck process mentioned above. The fact that the conserved quantity is not a linear functional of the coordinates of the system, introduces new difficulties of geometric nature in applying Varadhan's non gradient method
APA, Harvard, Vancouver, ISO, and other styles
5

Ding, Ni. "Load models for operation and planning of electricity distribution networks with smart metering data." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT092/document.

Full text
Abstract:
En 2010, ERDF (Electricité Réseau Distribution France) a entamé la mise en place du projet « Linky » dont l'objectif est d'installer 35 millions de compteurs intelligents en France. Ces compteurs permettront de collecter les données de consommation en « temps réel », avec lesquelles des modèles de charge plus précis pourront être envisagés. Dans ce contexte, cette thèse définit deux objectifs: la définition de modèles prédictifs de charge pour la conduite et la conception de modèles d'estimation de charge pour la planification. En ce qui concerne la conduite, nous avons développés deux modèles. Le premier exploite le formalisme mathématique des séries chronologiques ; le second est basé sur un réseau de neurones. Les deux modèles cherchent à prévoir la charge des jours « J+1 » et « J+2 » à partir des informations collectées jusqu'au jour « J ». Le modèle « série chronologique » repose sur les propriétés temporelles des courbes de charge. Ainsi on découpe la courbe de charge en trois parties : la tendance, la périodicité et le résidu. Les premiers deux sont déterministes et indépendamment développés en deux modèles : le modèle de tendance et le modèle de cyclicité. La somme de la prévision de ces deux modèles est la prévision finale. Le résidu quant à lui capture les phénomènes aléatoires que présente la courbe de charge. Le modèle de prédiction ainsi développé s'aide de nombreux outils statistiques (e.g., test de stationnarité, test ANOVA, analyse spectrale, entres autres) pour garantir son bon fonctionnement. Enfin, modèle « série chronologique » prend en compte plusieurs facteurs qui expliquent la variation dans la courbe de consommation tels que la température, les cyclicités, le temps, et le type du jour, etc. En ce qui concerne le modèle à base de réseaux de neurones, nous nous focalisons sur les stratégies de sélection de la structure pour un modèle optimal. Les choix des entrées et du nombre de neurones cachés sont effectués à travers les méthodes dites de «régression orthogonale » et de « leave-one-out-virtuel ». Les résultats montrent que la procédure proposée permet de choisir une structure de réseau de neurones qui garantisse une bonne précision de prédiction. En ce qui concerne la planification, un modèle non paramétrique est proposé et comparé avec le modèle actuel « BAGHEERA » d'EDF. Avec l'ouverture du marché d'électricité, la relation entre les fournisseurs, les clients et les distributeurs devient flexible. Les informations qualitatives d'un client particulier telles que sa puissance souscrite, son code d'activité, ses tarifs etc. sont de moins en moins disponibles. L'évolution du modèle BAGHEERA qui dépend ces informations pour classer les clients dans différentes catégories est devenue indispensable. Le modèle non paramétrique est un modèle individuel centré sur le relevé des compteurs. Trois variables de régression non paramétriques : Nadaraya Watson, Local Linear et Local Linear adapted ont été analysées et comparées. Les scénarios de validation montrent que le modèle non paramétrique est plus précis que le modèle « BAGHEERA ». Ces nouveaux modèles ont été conçus et validés sur de vraies données collectées sur le territoire français
From 2010, ERDF (French DSO) started the “Linky” project. The project aims at installing 35 millions smart meters in France. These smart meters will collect individual client's consumption data in real time and transfer these data to the data center automatically in a certain frequency. These detailed consumption information provided by the smart metering system enables the designs of more accurate load models. On this purpose, two distinctive objectives are defined in this dissertation: the forecasting load models for the operation need and the estimation load models for the planning need. For the operation need, two models are developed, respectively relying on the “time series” and the “neural network” principals. They are both for the objective of predicting the loads in “D+1” and “D+2” days based on the historical information till “D” day. The “time series” model divides the load curve into three components: the trend, the cyclic, and the residual. The first two parts are deterministic, from which two models named the trend model and the cyclic model are made. The sum of the prevision of these two models is the final prediction result. For a better precision, numerous statistical tools are also integrated such that the stationary test, the smoothed periodogram, the ANOVA test and the gliding window estimation, etc. The time series model can extract information from the influence factors such as the time, the temperature, the periodicities and the day type, etc. Being the most popular non linear model and the universal approximator, the neural network load forecasting model is also studied in this dissertation. We focus on the strategy of the structure selection. The work is in collaboration with Prof. Dreyfus (SIGMA lab), a well known expert in the machine learning field. Input selection and model selection are performed by the “orthogonal forward regression” and the “virtual-leave-one-out” algorithms. Results show that the proposed procedure is efficient and guarantees the chosen model a good accuracy on the load forecasting. For the planning, a nonparametric model is designed and compared with the actual model “BAGHEERA” of the French electricity company EDF. With the opening of the electricity market, the relationship among the regulators, suppliers and clients is changing. The qualitative information about a particular client such as his subscribed power, his activity code and his electricity tariffs becomes less and less available. The evolution from the BAGHEERA model to a data-driven model is unavoidable, since the BAGHEERA model depends on these information to attribute every client in the French territory into a pre-defined category. The proposed nonparametric model is individualized and can deal with both temperature sensitive (possessing an electrical heater) and temperature insensitive clients. Three nonparametric regressors are proposed: the Nadaraya Watson, the local linear, and the local linear adapted. The validation studies show that the nonparametric model has a better estimation precision than the BAGHEERA model. These novel models are designed and validated by the real measurements collected in the French distribution network
APA, Harvard, Vancouver, ISO, and other styles
6

Akrout, Fathi. "Analyse macromarketing de la dynamique des circuits de distribution : construction et test d'un modèle intégré." Rennes 1, 1996. http://www.theses.fr/1996REN1A006.

Full text
Abstract:
Ce travail a pour objectif ultime de comprendre comment et pourquoi évoluent les circuits de distribution. L'objectif est très ambitieux car aucun auteur de langue française n'a essayé à ce jour de prendre en compte tous les éléments internes (organisation) et externes (environnement) des circuits pour expliquer le sens de leur dynamique. En fait, deux tentatives américaines peuvent seulement être citées allant dans le même sens, mais très souvent en ignorant volontairement certaines dimensions pourtant parfaitement identifiées dans des analyses antérieures plus centrées. La première partie de la thèse est consacrée à la présentation des concepts théoriques pertinents pour éclairer la dynamique des canaux de distribution autour des champs constitués par l'économie interne du circuit, la politique interne, l'économie politique externe du circuit et la performance dans le circuit, pour s'achever sur la construction large d'un modèle intégratif. La seconde partie est réservée à la mise en place de la recherche de terrain nécessaire pour valider le modèle créé
APA, Harvard, Vancouver, ISO, and other styles
7

Bélanger, Valérie. "Analyse d'un réseau d'approvisionnement et de distribution : conception d'un modèle de simulation." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24851/24851.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Saada, Estelle. "Différenciation du produit et concurrence spatiale : contributions au modèle de la ville-circulaire." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX24008.

Full text
Abstract:
Les récentes mesures adoptées par la France, notamment depuis l'ordonnance de 1986, comme le gel des implantations commerciales de plus de 300 m2, traduisent indéniablement une volonté de protéger le petit commerce. Le but de cet article est de proposer un cadre d'analyse des perturbations engendrées par l'arrivée d'une entreprise plus efficiente que les autres, appelée "grande surface", sur un marché non-cooperatif, composé de "petits commerces". Il illustre les phénomènes de concurrence en prix entre petits commerces et grande surface. Il a vocation à expliquer comment une structure de marché est influencée par l'arrivée d'une grande surface, en terme d'effet-prix. Le modèle que nous proposons met en avant les conditions qui font des grandes surfaces une véritable nuisance pour le petit commerce mais aussi pour la qualité de la vie urbaine (disparition des commerces de proximité, coût de transport, prix pouvant être plus élevés,. . . ). Parallèlement il permet de dégager des niveaux de contraintes, essentiellement d'ordre technique pouvant rendre leur implantation bénéfique pour l'ensemble de la société.
APA, Harvard, Vancouver, ISO, and other styles
9

Sellami, Sami. "Comportements hydrodynamiques d'un modèle non gradient : l'exclusion simple généralisée." Rouen, 1998. http://www.theses.fr/1998ROUES083.

Full text
Abstract:
Cette thèse est constituée de deux parties. Dans la première partie, nous étudions le champ de fluctuations à l'équilibre de la densité d'un modèle non gradient réversible. Nous établissons tout d'abord le principe de Boltzmann-Gibbs pour l'exclusion simple généralisée. Ce principe, introduit pour la première fois par Brox et Rost, constitue l'étape essentielle qui nous permet ensuite d'obtenir la convergence en loi vers un processus d'Ornstein-Uhlenbeck généralisé, en suivant la théorie de Holley-Stroock. Dans la deuxième partie, réalisée en collaboration avec C. Landim et M. Mourragui, nous considérons un système de particules non gradient dont le comportement macroscopique est décrit par une équation parabolique non linéaire sur une boîte d-dimensionnelle avec des conditions aux bords. En supposant que les coefficients de diffusion sont lipschitziens, nous prouvons que le champ de densité converge vers l'unique solution faible de l'équation parabolique
This thesis is constituted by two parts. In the first one, we study the equilibrium density fluctuation field of a one-dimensional reversible nongradient model. We prove, for the generalized exclusion process, the Boltzmann-Gibbs principle. This principle, first introduced by Brox and Rost, is the basic stage which enables us to show afterwards that our process converges in law to a generalized Ornstein-Uhlenbeck process, by applying Holley and Stroock's theory. In the second part, made in collaboration with C. Landim and M. Mourragui, we consider a nonlinear parabolic equation on a square with boundary conditions. Assuming that the diffusion coefficient is Lipschitz, we prove that the rescaled density field converges to the unique weak solution of the parabolic equation
APA, Harvard, Vancouver, ISO, and other styles
10

Picard, Nicolas. "Passage d'un modèle individuel à un modèle de distribution de la dynamique forestière. Application à une forêt dense tropicale humide de Guyane française." Phd thesis, ENGREF (AgroParisTech), 1999. http://tel.archives-ouvertes.fr/tel-00145095.

Full text
Abstract:
Un modèle de dynamique forestière, considéré comme un outil d'aide à l'aménagement forestier, peut reposer sur différents niveaux de description du peuplement : arbre, distribution ou peuplement. Une approche est recherchée pour construire un modèle à un niveau de description intermédiaire entre l'arbre et le peuplement, en s'appuyant sur les données du dispositif sylvicole de Paracou en Guyane française. Dans un premier temps la possibilité de construire un modèle de trouées est évaluée sous deux angles : d'une part en regardant si la variable d'interaction des modèles de trouées permet d'expliquer les accroissements observés à Paracou, d'autre part en testant si le peuplement peut être découpé en placettes indépendantes. Dans les deux cas les résultats n'encouragent pas à la construction d'un modèle de trouées. Néanmoins un modèle arbre dépendant des distances, qui ne tient compte que de la compétition pour la lumière est obtenu ; ce modèle permet de reproduire les distributions diamétriques et en hauteur ainsi que la répartition spatiale à grande échelle (< 10 m) observées à Paracou. Dans un deuxième temps des méthodes pour changer de niveau de description sont établies, en suivant deux approches : la première est une approche méthodologique permettant de transposer les équations d'un modèle arbre en un modèle de distribution en utilisant des techniques issues de la physique (théorème de Liouville, approximation du champs moyen, méthode des moments). Cette methodologie est appliquée au modèle arbre construit dans la première partie. Il en ressort que l'espace joue dans ce modèle un rôle qui ne peut etre négligé. Dans une deuxième approche un modèle qui mélange le niveau individuel et le niveau distribution est construit, la transition de la composante distribution à la composante individuelle s'effectuant au diamètre de 40 cm. Ce modèle met en évidence la variabilité stochastique liée à la démographie des arbres de grande taille.
APA, Harvard, Vancouver, ISO, and other styles
11

Wu, Shuang. "Algebraic area distribution of two-dimensional random walks and the Hofstadter model." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS459/document.

Full text
Abstract:
Cette thèse porte sur le modèle de Hofstadter i.e., un électron qui se déplace sur un réseau carré couplé à un champ magnétique homogène et perpendiculaire au réseau. Son spectre en énergie est l'un des célèbres fractals de la physique quantique, connu sous le nom "le papillon de Hofstadter". Cette thèse consiste en deux parties principales: la première est l'étude du lien profond entre le modèle de Hofstadter et la distribution de l’aire algébrique entourée par les marches aléatoires sur un réseau carré bidimensionnel. La seconde partie se concentre sur les caractéristiques spécifiques du papillon de Hofstadter et l'étude de la largeur de bande du spectre. On a trouvé une formule exacte pour la trace de l'Hamiltonien de Hofstadter en termes des coefficients de Kreft, et également pour les moments supérieurs de la largeur de bande.Cette thèse est organisée comme suit. Dans le chapitre 1, on commence par la motivation de notre travail. Une introduction générale du modèle de Hofstadter ainsi que des marches aléatoires sera présentée. Dans le chapitre 2, on va montrer comment utiliser le lien entre les marches aléatoires et le modèle de Hofstadter. Une méthode de calcul de la fonction génératrice de l'aire algébrique entourée par les marches aléatoires planaires sera expliquée en détail. Dans le chapitre 3, on va présenter une autre méthode pour étudier ces questions en utilisant le point de vue "point spectrum traces" et retrouver la trace de Hofstadter complète. De plus, l'avantage de cette construction est qu'elle peut être généralisée au cas de "l'amost Mathieu opérateur". Dans le chapitre 4, on va introduire la méthode développée par D.J.Thouless pour le calcul de la largeur de bande du spectre de Hofstadter. En suivant la même logique, on va montrer comment généraliser la formule de la largeur de bande de Thouless à son n-ième moment, à définir plus précisément ultérieurement
This thesis is about the Hofstadter model, i.e., a single electron moving on a two-dimensional lattice coupled to a perpendicular homogeneous magnetic field. Its spectrum is one of the famous fractals in quantum mechanics, known as the Hofstadter's butterfly. There are two main subjects in this thesis: the first is the study of the deep connection between the Hofstadter model and the distribution of the algebraic area enclosed by two-dimensional random walks. The second focuses on the distinctive features of the Hofstadter's butterfly and the study of the bandwidth of the spectrum. We found an exact expression for the trace of the Hofstadter Hamiltonian in terms of the Kreft coefficients, and for the higher moments of the bandwidth.This thesis is organized as follows. In chapter 1, we begin with the motivation of our work and a general introduction to the Hofstadter model as well as to random walks will be presented. In chapter 2, we will show how to use the connection between random walks and the Hofstadter model. A method to calculate the generating function of the algebraic area distribution enclosed by planar random walks will be explained in details. In chapter 3, we will present another method to study these issues, by using the point spectrum traces to recover the full Hofstadter trace. Moreover, the advantage of this construction is that it can be generalized to the almost Mathieu operator. In chapter 4, we will introduce the method which was initially developed by D.J.Thouless to calculate the bandwidth of the Hofstadter spectrum. By following the same logic, I will show how to generalize the Thouless bandwidth formula to its n-th moment, to be more precisely defined later
APA, Harvard, Vancouver, ISO, and other styles
12

Huneeus, Nicolas. "Assimilation variationnelle d'observations satellitaires dans un modèle atmosphérique d'aérosols." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Huneeus.pdf.

Full text
Abstract:
Le lidar CALIOP (à bord du satellite CALIPSO) et le radiomètre MODIS (à bord du satellite AQUA) font partie de « l'A-train ». Ils fournissent des mesures simultanées en donnant une occasion unique d'améliorer notre connaissance sur les propriétés des aérosols et leur distribution spatiale. Nous étudions dans quelle mesure la distribution verticale du coefficient d'extinction des aérosols et leur distribution en taille peuvent être restituée par la synergie du signal lidar et des mesures spectrales de réflectance. À cet effet un schéma variationnel d'inversion basé sur un modèle de transfert radiatif a été développé. Ce schéma prend en compte le profil de rétrodiffusion atténué du signal lidar à deux longueurs d'onde et la réflectance à six longueurs d'onde. Notre méthode vise à minimiser une fonction coût qui mesure le départ de la solution aux observations et à une ébauche donnée. La méthode de l'adjoint a été appliquée pour trouver le gradient de la fonction coût par rapport aux paramètres d'entrée. Le schéma d'inversion a été examiné d'abord sous des observations synthétiques et puis avec de vraies mesures prises pendant la campagne FRENCH. La restitution des profils de coefficient d'extinction pour les modes fins et grossiers a une meilleure performance quand les aérosols fins dominent. Si les particules grossières dominent, le schéma trouve le profil total du coefficient d'extinction avec une confiance plus élevée que celui du mode fin. Les résultats indiquent également qu'il y a une certaine perspective pour l'amélioration de la qualité de l'inversion en incluant d'autres sources d'information indépendantes telles que les mesures POLDER.
APA, Harvard, Vancouver, ISO, and other styles
13

Hanak, Anne-Sophie. "Pharmacocinétique et toxicité neurocomportementale du lithium chez le rat : étude de la variabilité en fonction du modèle d’intoxication." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC142.

Full text
Abstract:
Le lithium est le traitement de référence du trouble bipolaire. Cependant, il peut être responsable d’intoxications dont trois profils différents sont décrits chez l’homme, caractérisés par une expression variable encore inexpliquée de la neurotoxicité. Les objectifs de cette thèse étaient d’étudier la distribution cérébrale du lithium dans trois modèles de rats Sprague-Dawley reproduisant les modes d’intoxication au lithium chez l’homme et de déterminer son implication dans la survenue des complications neurologiques au moyen de tests comportementaux et d’une analyse électroencéphalographique. Dans ce contexte, une étude des relations effet/concentrations du lithium suivant le modèle d’intoxication a été conduite. Enfin, un protocole d’imagerie ex vivo permettant d’explorer la distribution intracérébrale du lithium a été mis en place chez le rat par résonance magnétique nucléaire du lithium-7. Ainsi, nous avons montré que les trois formes d’intoxication au lithium chez le rat diffèrent en termes de pharmacocinétique sanguine et cérébrale, mais aussi en termes d’intensité et de durée des effets neurocomportementaux. Nous avons mis en évidence une accumulation cérébrale de lithium significativement plus élevée suite à un prétraitement répété par lithium et majorée après induction d’une insuffisance rénale. Le surdosage de lithium était constamment à l’origine d’une hypolocomotion chez le rat, dont la profondeur et l’étendue apparaissaient être liées à la durée de l’exposition au lithium, et d’une encéphalopathie dont la sévérité apparaissait plutôt dépendre de la quantité de lithium cérébral accumulée. Ainsi, l’accumulation cérébrale de lithium pourrait engendrer des effets neurotoxiques directs et/ou indirects par modification de l’expression de cibles cérébrales spécifiques du lithium. Enfin, nous avons démontré la faisabilité et la fiabilité de notre technique d’imagerie ex vivo pour explorer la distribution cérébrale du lithium chez le rat, ouvrant dès lors des perspectives à son utilisation future chez l’homme
Lithium is the cornerstone treatment of bipolar disorder. However, lithium may be responsible for poisoning with three various profiles reported in humans and characterized by unexplained variable resulting neurotoxicity. Our objectives were to investigate brain lithium distribution in three Sprague-Dawley rat models mimicking the human intoxication patterns and define its involvement in the occurrence of neurological disorders using behavioral tests and electroencephalographic analysis. The effect/concentration relationships were studied according to the poisoning model. Finally, an ex vivo imaging protocol was established in the rat to investigate brain lithium distribution using the nuclear magnetic resonance of lithium-7. We showed significant differences between the three lithium poisoning patterns in the rat regarding the blood and brain lithium pharmacokinetics as well as the intensity and duration of lithium-induced neurobehavioural effects. We found significantly more marked brain lithium accumulation after an overdose following repeated lithium administration, enhanced after the induction of renal failure. In the rat, lithium overdose consistently induced hypolocomotion whose intensity was related to the duration of lithium exposure and encephalopathy whose severity rather depended on the lithium amount accumulated in the brain. Brain lithium accumulation seems thus able to generate direct and/or indirect neurotoxic effects mediated by the alteration of specific brain lithium target expression. Finally, we demonstrated the feasibility and reliability of our ex vivo imaging technique to investigate brain lithium distribution in the rat, supporting a possible future use in humans
APA, Harvard, Vancouver, ISO, and other styles
14

Moutault, Sébastien. "Définition et implémentation d'un modèle causal d'exécution temps-réel distribuée." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00667238.

Full text
Abstract:
Ces travaux s'inscrivent dans le cadre du projet AROS (Automotive Robust Operating Services). Il a pour objectif de proposer un outil de prototypage rapide d'applications dynamiques distribuées temps-réel, principalement dans le domaine de l'automobile et de la robotique. Les applications distribuées temps-réel sont traditionnellement développées selon deux approches. La première, l'ordonnancement temporel, est basée sur l'analyse du pire temps d'exécution (worst execution time). Un partage du temps entre les différentes tâches de l'application est établi de façon statique. Cette technique offre une grande sureté de fonctionnement au prix d'une analyse temporelle parfois difficile à mener. La seconde, l'ordonnancement par priorité, est basée sur l'attribution à chaque tâche d'un niveau de priorité qui permet d'établir l'ordre d'exécution en fonction des évènements reçus par le système. Cette seconde technique, plus souple à mettre en œuvre, offre moins de garanties et conduit à un comportement non déterministe de l'application. La structure des applications AROS étant dynamique, l'approche temporelle est exclue car elle demande une analyse statique qu'il est impossible de produire. L'approche basée sur les priorités d'exécution est également exclue à cause de son non déterminisme comportemental. Nous proposons une approche basée sur un ordonnancement évènementiel causal inspirée des techniques d'ordonnancement des simulateurs évènementiels distribués. Tout en étant relativement simple à utiliser pour le concepteur d'application, cette technique produit des applications dont le comportement est parfaitement déterministe. Deux principales difficultés sont à surmonter : la synchronisation en temps-réel du moteur d'exécution et le respect des contraintes temps-réel.
APA, Harvard, Vancouver, ISO, and other styles
15

Lapoule, Paul. "Le succès des marques terroir des distributeurs : un modèle par les compétences." Paris, CNAM, 2007. http://www.theses.fr/2007CNAM0562.

Full text
Abstract:
Cette recherche qualitative s'intéresse à comprendre les liens entre le succès des marques terroir des distributeurs et les compétences développées par leurs gestionnaires. Le terroir est un marché croissant en volume et en valeur sans acteur fabriquant majeur. Notre méthodologie s'articule autour de trois principales parties : une investigation empirique, l'étude et l'analyse d'un cas anglais et de deux études de cas français ; une revue des littératures en management stratégique et en marketing ; la triangulation des propositions aux concepts par plusieurs groupes de praticiens qui génèrent et justifient un modèle théorique et des résultats. Le succès des marques terroir des distributeurs est d'abord lié à l'apprentissage sur la gestion de la coopération, apprentissage susceptible d'être tranféré dans des coopérations ultérieures. Les compétences dynamiques relationnelles sont des actifs stratégiques à l'origine d'un avantage concurrentiel durable
The purpose of this qualitative research is to understand the relationship between the success of regional retail brands and the competencies necessary to manage them. The market for "terroir" or regional products is growing in volume as well as in value, despite the fact that no major producer has emerged. This study is divided into three main areas : an empirical research, through the study of one English and two French cases ; a review of Strategic Management and Marketing literature ; several groups of practitionners were asked to triangulate their propositions in relation to the concepts in order to create and justify a theoretical model, as well as the results. The success of regional distributors'brands is first of all based on fostering a spirit of cooperation among distributors, which can be applied to further partnerships. Dynamic relational skills are among the main strategic assets necessary to gain sustainable competitive advantage
APA, Harvard, Vancouver, ISO, and other styles
16

Fallu, Marie-Andrée. "Distribution des diatomées d'eau douce en Jamésie-Hudsonie, Québec, et développement d'un modèle de reconstitution paléoclimatique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq33631.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Huynh, Olivier. "Application du Modèle à Distribution de Points au corps humain pour la ré-identification de personnes." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM032/document.

Full text
Abstract:
L'essor des systèmes mobiles pose de nouvelles problématiques dans le domaine de vision par ordinateur. Les techniques de ré-identification s'appuyant sur un réseau de caméras fixes doivent être repensées afin de s'adapter à un décor changeant. Pour répondre à ces besoins, cette thèse explore, dans le cadre du corps humain, l'utilisation d'un modèle structurel habituellement employé pour de la reconnaissance faciale. Il s'agit de l'alignement d'un modèle à distribution de points (Point Distribution Model ou PDM). L'objectif de ce pré-traitement avant la ré-identification est triple, segmenter la personne du décor, améliorer la robustesse vis-à-vis de sa pose et extraire des points clés spatiaux pour construire une signature basée sur son comportement.Nous concevons et évaluons un système complet de ré-identification, découpé en trois modules mis en séquence. Le premier de ces modules correspond à la détection de personnes. Nous proposons de nous baser sur une méthode de l'état de l'art utilisant les Channel Features avec l'algorithme AdaBoost.Le second module est l'alignement du PDM au sein de la boîte englobante fournie par la détection. Deux approches sont présentées dans cette thèse. La première s'appuie sur une formulation paramétrique du modèle de forme. L'alignement de ce modèle est guidé par la maximisation d'un score d'un modèle d'apparence GentleBoost utilisant des caractéristiques locales de type histogrammes de gradients orientés. La seconde approche exploite une technique de cascade de régressions de forme. L'idée principale est le regroupement de déformations homogènes en clusters et la classification de ces derniers dans le but d'aligner le PDM itérativement.Enfin, le troisième module est celui de la ré-identification. Nous montrons que l'utilisation d'un PDM en support permet d'améliorer les résultats de ré-identification. Nos expérimentations portent sur des signatures d'apparence classique, les histogrammes de couleurs, et sur un descripteur de forme, le Shape Context. L'évaluation de ce dernier fournit des résultats encourageants pour une perspective d'utilisation des PDM au sein d'une reconnaissance de démarches
The emergence of mobile systems brings new problematics in computer vision. Static camera-based methods for re-identification need to be adapted in this new context. To deal with dynamical background, this thesis proposes to employ the well known Point Distribution Model (PDM), usually applied for face alignment, on the human body. Three advantages come from this pre-processing before re-identification, segment the person from background, enhance robustness to the person pose and extract spatial key points to build a behavioural-based signature.We implement and evaluate a complete framework for re-identification, divided in three sequential modules. The first one corresponds to the pedestrian detection. We use an efficient method of the state of the art employing the Channel Features with the algorithm AdaBoost.The second one is the PDM alignment within the bounding box provided by the detection step. Two distinct approaches are presented in this thesis. The first method relies on a parametric formulation to describe the shape, similar to the ASM or AAM. To fit this shape model, we maximize the score of an appearance model defined by GentleBoost, which employs local histograms of oriented gradients. The second approach is based on the cascade regression shape scheme. The main idea is the approximation for each step into a classification of homogeneous deformations, grouped by unsupervised clustering.The third module is the re-identfication one. We show that employing a PDM as a structural support improves re-identification results. We experiment classic appearance-based signatures, color histograms and the shape descriptor Shape Context. The results are encouraging for application perspective of PDM for the gait recognition
APA, Harvard, Vancouver, ISO, and other styles
18

Siala, Beji Mariem. "Un modèle distribué pour la gestion du stock disponible dans les réseaux de distribution multi-niveaux." Lyon, INSA, 2008. http://www.theses.fr/2008ISAL0031.

Full text
Abstract:
La fonction Available-To-Promise (ATP) se situe au cœur de la relation entre une compagnie et ses clients ou prospects. Le rôle de cette fonction est de fournir, en réponse à des requêtes clients, des informations sur la disponibilité des produits. Le but de cette thèse est d’améliorer cette fonction ATP, dans le cadre d’un réseau de distribution multi-niveaux. Le modèle proposé est un modèle distribué basé sur les horizons. Pour l’horizon court terme, nous proposons la fonction ATP Effectif (ATPE). Cette fonction assure une meilleure gestion du stock local au sein des différentes entités du réseau de distribution. Pour l’horizon moyen terme, nous proposons la fonction ATPE Coopératif (ATPE-C) qui se base sur une approche multi-agent, utilisant le protocole « Contract Net », pour assurer le redéploiement des stocks entre les différentes entités du réseaux de distribution. Pour évaluer ces fonctions, nous avons développé un outil de simulation qui a servi non seulement à montrer l’efficacité des fonctions proposées mais aussi à étudier l’influence du degré de coopération du système et des agents sur les performances globales et individuelles
The Available-to-Promise (ATP) fonction is an important element to manage the relationship between a company and its current and prospective customers. The initial role of this fonction is to provide product availability information in order to promise customers' order requests. The purpose of the present thesis is to improve this A TP fonction, within a multi-echelon distribution network. The suggested model is a distributed mode! based on horizons. For the short-term horizon, we suggest the Effective A TP fonction (ATPE). This fonction provides a better local stock management within the different entities of the distribution network. For the medium-term horizon, we suggest the Cooperative ATPE fonction (ATPE-C) which is based on a multi-agent approach, using the "Contract Net" protocoJ to assure the inventory redeployment between the different entities of the distribution network. In order to assess these fonctions we have developed a simulation tool which allowed us to show the e:fficiency of the suggested functi. Ons as weil as to study the impact of the system and the agents' cooperation degree on the global and individual performances
APA, Harvard, Vancouver, ISO, and other styles
19

Legendre, Anaïs. "Du premier centre distributeur au Mouvement E. Leclerc : invention d’un modèle original de distribution (1949-2003)." Thesis, Paris 4, 2017. http://www.theses.fr/2017PA040225.

Full text
Abstract:
En moins de 50 ans, le Mouvement Leclerc, créé en 1949, s'est imposé comme un acteur majeur de la grande distribution. Notre travail, réalisé à partir des archives du groupe, est centré sur l'analyse du modèle qu'il constitue et de sa dynamique d'expansion. D'une part, le discount, l'existence d'un leader charismatique et d'outils fonctionnant sur le mode coopératif sont les traits permanents de l'identité du Mouvement. D'autre part, l'expansion du réseau de magasins et la transformation des points de vente – initialement de petites épiceries devenues des hypermarchés – ont impliqué la mise en place de structures et de mécanismes spécifiques. Le Mouvement s'est initialement construit sur l'indépendance pleine et entière des magasins qui implique une organisation a minima et fortement décentralisée. Toutefois, si cette dernière s'est d'abord révélée efficace, au fur et à mesure que le Mouvement a grossi et s'est diversifié, elle a révélé ses limites, le maintien de la performance locale impliquant la mutualisation ou la nationalisation des achats d'abord, puis de certains éléments de gestion. Enfin, l'expansion du groupe et la préservation de son parc de magasins ont impliqué la création de mécanismes reposant sur la constitution de liens entre les adhérents
In less than 50 years, the Leclerc Movement, founded in 1949, has established a position as one of the nation's leading large retailers. Our study, undertaken from the company archives, is focused on an analysis of its model and the dynamic of the group's development.On one hand, the notion of discount, the presence of a charismatic leader and the cooperative structure of the organization make up the permanent foundations of the Movement's identity.On another hand, the expansion of the network of stores and the transformation of the retailers – from small groceries to supermarkets – necessitated the creation of specific structures and mechanisms.The Movement was initially built on the autonomy and independence of each shop. Management was by definition a minima and largely decentralized.However, if the structure of this organization proved to be self-sufficient at first, when the Movement grew and diversified, it revealed its limits. To maintain performance at a local level, it became essential to consolidate and centralize first the purchasing of produce, and subsequently certain elements of management.This latter phase in the company's growth and the protection of its network of shops has led to the constitution of enduring links between its members
APA, Harvard, Vancouver, ISO, and other styles
20

Nguyen, Thi Huong An. "Contribution to the statistical analysis of compositional data with an application to political economy." Thesis, Toulouse 1, 2019. http://www.theses.fr/2019TOU10032/document.

Full text
Abstract:
L’objectif de cette thèse est d’étudier le résultat d’élections et l’impact des facteurs socio-économiques sur les parts de vote dans le système multipartite d’un point de vue mathématique. Les votes de l’élection départementale en France en 2015 forment un vecteur appelé composition. Ainsi, le modèle de régression classique ne peut pas être utilisé directement pour modéliser ces parts de vote en raison de contraintes de données de composition. Au chapitre 2, nous présentons un modèle de régression dans lequel la variable dépendante est une variable de composition et les variables explicatives contiennent à la fois des variables classiques et des variables de composition. Nous analysons les impacts des facteurs socio-économiques sur l’issue de l’élection en prédisant les parts de vote en fonction d’une variable explicative classique ou d’une variable explicative de composition. Quelques techniques graphiques sont également présentées. Néanmoins, il serait plus judicieux d’interpréter les coefficients du modèle de régression sur le simplexe. Par ailleurs, certains auteurs montrent que les données électorales présentent souvent un comportement extrême. Nous proposons donc de remplacer la distribution Normale par la distribution de Student. Cependant, il existe deux versions de la distribution Student : la distribution Student non corrélée (UT) et la distribution Independent Student(IT). Dans la troisième partie, nous présentons un résumé complet de la distribution Student, comprenant les distributions Student univariée et multivariée, IT et UT à degrés de liberté fixes. Nous prouvons que l’estimateur de maximum de vraisemblance de la matrice de covariance dans le modèle UT est asymptotiquement biaisé. Nous fournissons également un algorithme itératif repondéré pour calculer l’estimateur du maximum de vraisemblance du paramètre du modèle IT. Une simulation est fournie et certains tests de Kolmogorov – Smirnov basés sur la distance de Mahalanobis sont effectués pour sélectionner le bon modèle. Cependant, cela ne fonctionne pas pour le modèle UT en raison d’une seule réalisation de n observations de la distribution multivariée. Enfin, nous étudions l’hypothèse d’indépendance statistique entre unités territoriales, qui peut être mise en doute du fait de l’autocorrélation spatiale potentielle des données de composition. Nous développons un modèle autorégressif spatial simultané pour les données de composition qui permet à la fois la corrélation spatiale et les corrélations entre équations en utilisant des méthodes de moindres carrés à deux étages et à trois étages. Nous présentons une étude de simulation pour illustrer ces méthodes. Une application à un ensemble de données de l’élection départementale française de 2015 est également présentée. Il reste encore du travail à faire pour surmonter le problème des zéros dans les parts de vote. Ce problème est déjà présent pour les élections départementales françaises au niveau cantonal lorsque l’on regroupe les partis électoraux en trois catégories. Cela aurait été encore plus grave si l’on considérait les partis politiques d’origine sans agrégation. En outre, une autre direction consiste à examiner la distribution multivariée de Student pour le modèle spatial
The objective of this thesis is to investigate the outcome of an election and the impacts of the socio-economics factors on the vote shares in the multiparty system from mathematical point of view. The vote shares of the departmental election in France in 2015 form a vector called composition. Thus, the classical regression model cannot be used directly to model these vote shares because of contraints of compositional data. In Chapter 2, we present a regression model in which the dependent variable is a compositional variable and the set of explanatory variables contains both classical variables and compositional variables. We analyze the impacts of socio-economic factors on the outcome of the election through predicting the vote shares according to either a classical explanatory variable or a compositional explanatory variable. Some graphical techniques are also presented. However, it would be more appreciated to interpret the coefficients of regression model on the simplex. Furthermore, some authors show that electoral data often exhibit heavy tail behavior. Thus, we propose to replace the Normal distribution by the Student distribution. However, there are two versions of the Student distribution: the uncorrelated Student(UT) distribution and the independent Student (IT) distribution. In Chapter 3, we present a complete summary for the Student distributions which includes the univariate and multivariate Student, the IT and the UT distribution with fixed degrees of freedom. We prove that the maximum likelihood estimator of the covariance matrix in the UTmodel is asymptotically biased. We also provide an iterative reweighted algorithm to compute the maximum likelihood estimator of parameter of the IT model. A simulation is provided and some Kolmogorov–Smirnov tests based on the Mahalanobis distance are carried out to select the right model. However, this does not work for the UT model because of a single realization of n observation of the multivariate distribution. In Chapter 4, we apply the multivariate Student (IT) regression model to our political economy data. We then compare this model to the multivariate Normal regression model. We also apply the Kolmogorov–Smirnov tests based on the Mahalanobis distance which is proposed in chapter 3 to select a better model. Finally, we investigate the assumption of statistical independence across territorial units which may be questionable due to potential spatial autocorrelation for compositional data. We develop a simultaneous spatial autoregressive model for compositional data which allows for both spatial correlation and correlations across equations by using two-stage and three-stage least squares methods. We present a simulation study to illustrate these methods. An application to a data set from the 2015 French departmental election are also showed. There is still work to continue in the direction of overcoming the problem of zeros in vote shares. This problem is already present for the departmental French elections at the canton level when aggregating the electoral parties in three categories. It would have been even more serious when considering the original political parties with no aggregation. Besides, another direction consists in considering the multivariate Student distribution for a spatial model
APA, Harvard, Vancouver, ISO, and other styles
21

Braun, Mathias. "Reduced Order Modelling and Uncertainty Propagation Applied to Water Distribution Networks." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0050/document.

Full text
Abstract:
Les réseaux de distribution d’eau consistent en de grandes infrastructures réparties dans l’espace qui assurent la distribution d’eau potable en quantité et en qualité suffisantes. Les modèles mathématiques de ces systèmes sont caractérisés par un grand nombre de variables d’état et de paramètres dont la plupart sont incertains. Les temps de calcul peuvent s’avérer conséquents pour les réseaux de taille importante et la propagation d’incertitude par des méthodes de Monte Carlo. Par conséquent, les deux principaux objectifs de cette thèse sont l’étude des techniques de modélisation à ordre réduit par projection ainsi que la propagation spectrale des incertitudes des paramètres. La thèse donne tout d’abord un aperçu des méthodes mathématiques utilisées. Ensuite, les équations permanentes des réseaux hydrauliques sont présentées et une nouvelle méthode de calcul des sensibilités est dérivée sur la base de la méthode adjointe. Les objectifs spécifiques du développement de modèles d’ordre réduit sont l’application de méthodes basées sur la projection, le développement de stratégies d’échantillonnage adaptatives plus efficaces et l’utilisation de méthodes d’hyper-réduction pour l’évaluation rapide des termes résiduels non linéaires. Pour la propagation des incertitudes, des méthodes spectrales sont introduites dans le modèle hydraulique et un modèle hydraulique intrusif est formulé. Dans le but d’une analyse plus efficace des incertitudes des paramètres, la propagation spectrale est ensuite évaluée sur la base du modèle réduit. Les résultats montrent que les modèles d’ordre réduit basés sur des projections offrent un avantage considérable par rapport à l’effort de calcul. Bien que l’utilisation de l’échantillonnage adaptatif permette une utilisation plus efficace des états système pré-calculés, l’utilisation de méthodes d’hyper-réduction n’a pas permis d’améliorer la charge de calcul. La propagation des incertitudes des paramètres sur la base des méthodes spectrales est comparable aux simulations de Monte Carlo en termes de précision, tout en réduisant considérablement l’effort de calcul
Water distribution systems are large, spatially distributed infrastructures that ensure the distribution of potable water of sufficient quantity and quality. Mathematical models of these systems are characterized by a large number of state variables and parameter. Two major challenges are given by the time constraints for the solution and the uncertain character of the model parameters. The main objectives of this thesis are thus the investigation of projection based reduced order modelling techniques for the time efficient solution of the hydraulic system as well as the spectral propagation of parameter uncertainties for the improved quantification of uncertainties. The thesis gives an overview of the mathematical methods that are being used. This is followed by the definition and discussion of the hydraulic network model, for which a new method for the derivation of the sensitivities is presented based on the adjoint method. The specific objectives for the development of reduced order models are the application of projection based methods, the development of more efficient adaptive sampling strategies and the use of hyper-reduction methods for the fast evaluation of non-linear residual terms. For the propagation of uncertainties spectral methods are introduced to the hydraulic model and an intrusive hydraulic model is formulated. With the objective of a more efficient analysis of the parameter uncertainties, the spectral propagation is then evaluated on the basis of the reduced model. The results show that projection based reduced order models give a considerable benefit with respect to the computational effort. While the use of adaptive sampling resulted in a more efficient use of pre-calculated system states, the use of hyper-reduction methods could not improve the computational burden and has to be explored further. The propagation of the parameter uncertainties on the basis of the spectral methods is shown to be comparable to Monte Carlo simulations in accuracy, while significantly reducing the computational effort
APA, Harvard, Vancouver, ISO, and other styles
22

Christophe, Claire. "Modélisation aléatoire de l'activité des lymphocytes T cytotoxiques." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2548/.

Full text
Abstract:
Ce travail de thèse étudie des propriétés probabilistes et statistiques de la dynamique entre des cellules immunitaires, plus spécialement des Lymphocytes T Cytotoxiques (CTL), et un nodule tumoral. Il se situe en étroite collaboration avec l'équipe de Salvatore Valitutti de l'INSERM à l'hôpital Purpan. Motivé par le constat qu'il est difficile pour les biologistes de reproduire in vitro un nodule tumoral, et qu'il est encore plus difficile d'appréhender l'interaction de ce dernier avec des CTL, nous proposons un modèle agent centré pour modéliser cette interaction. Notre travail a mis en évidence l'existence de 2 paramètres importants dans la réponse immunitaire apportée par les CTL, notamment aux travers d'expériences numériques. Le premier est le déplacement des CTL. Plus précisement, diriger les CTL vers le nodule plutôt qu'un déplacement non orienté, rend la réponse immunitaire plus efficace. En outre, le nombre de cellules tumorales éliminées par un seul CTL est le second paramètre, plus ce dernier est grand plus la réponse est efficace. Nous proposons un système couplé d'EDO afin d'en déduire, d'une analyse microscopique de processus stochastiques, le comportement d'un nodule tumoral soumis ou non à une immunothérapie qui consiste à attirer les CTL vers le nodule. Nous proposons alternativement un mouvement Brownien pour le déplacement non dirigé des CTL ou un processus d'Ornstein-Uhlenbeck pour des CTL dirigés. En utilisant des outils de temps d'atteinte et de mesures quasi-stationnaires, nous mettons en évidence une transition de phase dans le nombre de CTL menant à l'éradication d'un nodule et que cette transition se produit avec moins de CTL sous immunothérapie. Dans l'étude de l'activité cytolytique d'un CTL, nous proposons un modèle de mélange de lois de Poisson pour décrire le nombre de cellules cibles éliminées par un seul CTL. L'algorithme EM est mis en place pour estimer les paramètres d'un tel mélange. Nous proposons alors un critère pénalisé non asymptotique pour estimer le nombre de lois composant le mélange. Cela a mis en évidence l'existence de deux sous-populations de CTL, celle qui élimine beaucoup de cellules cibles et ceux qui en élimine peu
This thesis studies some statistical and probability properties of the dynamic of Cytotoxic T Lym- phocyte (CTL, immune cells) and a tumor nodule. This work is in close collaboration with Salvatore Valitutti team at INSERM. Considering the complexity of developing an in vitro tumor nodule, we develop an agent based model to describe and understand the interaction between CTL and tumor. Numerical experiments highlight two important parameters in CTL immune response against tumor mass. Primarily the CTL displacement, in other words, direct CTL towards the nodule is in favor of the immune system rather than non oriented displacement. Moreover, the maximal number of tumor cells killed by one CTL is the second parameter, in this manner, the higher this number, the higher the probability to eradicate the nodule. To decipher the tumor nodule behavior during an immunotherapy process that consists direct- ing CTL toward tumor mass, a system of ODE, deduce from a microscopic analysis of stochastic processes, is developed. A Brownian motion describes the non-directed CTL displacement and a Ornstein-Uhlenbeck process is proposed for biased displacement of CTL. Using hitting time and quasi- stationary distribution, we identify a phase transition in CTL number leading to tumor eradication, this number is lower under simulated immunotherapy (with a self-attracting CTL population). In the study of cytolytic activity of the CTL, we suggest a mixture model of Poisson distributions, to describe the number of target cells killed by one CTL. The EM algorithm is implemented to estimate the parameter of such mixture. A non asymptotic penalized criteria is proposed to estimate the number of components of the mixture. With such theoretical study applied on real dataset, we highlight the existence of two CTL subpopulations, one that kills on average many target cells, and a second which kill a few number of target cells
APA, Harvard, Vancouver, ISO, and other styles
23

Barrué, Magali. "Conception et développement d'un modèle pour les interactions environnement-aménagement : application au réseau électrique de transport." Bordeaux 3, 1999. http://www.theses.fr/1999BOR30021.

Full text
Abstract:
L'environnement est aujourd'hui une des priorites d'electricite de france pour l'implantation de lignes electriques de transport. C'est dans ce cadre que s'inscrit la conception et le developpement d'un modele pour les interactions environnement amenagements et son application au reseau electrique de transport. A partir d'une definition schematique des deux termes environnement et amenagement, etde leurs interactions, et de la lecture de la loi concernant les conditions d'implantation d'un nouvel ouvrage, un certain nombre de donnees ont ete analysees quant a leur interet dans l'etude theorique et pratique de l'interaction entre environnement et reseau electrique. Une analyse de leur pertinence, de leur fiabilite et de leur precision a ete effectuee. C'est a partir des donnees retenues qu'a ete developpe un modele theorique tenant compte a la fois de l'etendue des interactions, du type de contraintes environnementales et de l'interet local de l'amenagement. Ce modele theorique a ete implante dans un systeme d'information geographique informatique utilisant le logiciel arc/info afin de determiner, sur un territoire donne, un fuseau de moindre cout environnemental pour le passage d'une ligne electrique de transport. L'ensemble de l'outil a ete teste sur un site ou une ligne etait deja construite, donnant des resultats proches de ceux obtenus apres l'etude d'impact effectuee a l'epoque de sa realisation.
APA, Harvard, Vancouver, ISO, and other styles
24

Kon, Kam King Guillaume. "Revisiting Species Sensitivity Distribution : modelling species variability for the protection of communities." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10194/document.

Full text
Abstract:
La SSD (Species Sensitivity Distribution) est une méthode utilisée par les scientifiques et les régulateurs de tous les pays pour fixer la concentration sans danger de divers contaminants sources de stress pour l'environnement. Bien que fort répandue, cette approche souffre de diverses faiblesses sur le plan méthodologique, notamment parce qu'elle repose sur une utilisation partielle des données expérimentales. Cette thèse revisite la SSD actuelle en tentant de pallier ce défaut. Dans une première partie, nous présentons une méthodologie pour la prise en compte des données censurées dans la SSD et un outil web permettant d'appliquer cette méthode simplement. Dans une deuxième partie, nous proposons de modéliser l'ensemble de l'information présente dans les données expérimentales pour décrire la réponse d'une communauté exposée à un contaminant. A cet effet, nous développons une approche hiérarchique dans un paradigme bayésien. A partir d'un jeu de données décrivant l'effet de pesticides sur la croissance de diatomées, nous montrons l'intérêt de la méthode dans le cadre de l'appréciation des risques, de par sa prise en compte de la variabilité et de l'incertitude. Dans une troisième partie, nous proposons d'étendre cette approche hiérarchique pour la prise en compte de la dimension temporelle de la réponse. L'objectif de ce développement est d'affranchir autant que possible l'appréciation des risques de sa dépendance à la date de la dernière observation afin d'arriver à une description fine de son évolution et permettre une extrapolation. Cette approche est mise en œuvre à partir d'un modèle toxico-dynamique pour décrire des données d'effet de la salinité sur la survie d'espèces d'eau douce
Species Sensitivity Distribution (SSD) is a method used by scientists and regulators from all over the world to determine the safe concentration for various contaminants stressing the environment. Although ubiquitous, this approach suffers from numerous methodological flaws, notably because it is based on incomplete use of experimental data. This thesis revisits classical SSD, attempting to overcome this shortcoming. First, we present a methodology to include censored data in SSD with a web-tool to apply it easily. Second, we propose to model all the information present in the experimental data to describe the response of a community exposed to a contaminant. To this aim, we develop a hierarchical model within a Bayesian framework. On a dataset describing the effect of pesticides on diatom growth, we illustrate how this method, accounting for variability as well as uncertainty, provides benefits to risk assessment. Third, we extend this hierarchical approach to include the temporal dimension of the community response. The objective of that development is to remove the dependence of risk assessment on the date of the last experimental observation in order to build a precise description of its time evolution and to extrapolate to longer times. This approach is build on a toxico-dynamic model and illustrated on a dataset describing the salinity tolerance of freshwater species
APA, Harvard, Vancouver, ISO, and other styles
25

Jalbert, Jonathan. "Développement d'un modèle statistique non stationnaire et régional pour les précipitations extrêmes simulées par un modèle numérique de climat." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAU032/document.

Full text
Abstract:
Les inondations constituent le risque naturel prédominant dans le monde et les dégâts qu'elles causent sont les plus importants parmi les catastrophes naturelles. Un des principaux facteurs expliquant les inondations sont les précipitations extrêmes. En raison des changements climatiques, l'occurrence et l'intensité de ces dernières risquent fort probablement de s'accroître. Par conséquent, le risque d'inondation pourrait vraisemblablement s'intensifier. Les impacts de l'évolution des précipitations extrêmes sont désormais un enjeu important pour la sécurité du public et pour la pérennité des infrastructures. Les stratégies de gestion du risque d'inondation dans le climat futur sont essentiellement basées sur les simulations provenant des modèles numériques de climat. Un modèle numérique de climat procure notamment une série chronologique des précipitations pour chacun des points de grille composant son domaine spatial de simulation. Les séries chronologiques simulées peuvent être journalières ou infra-journalières et elles s'étendent sur toute la période de simulation, typiquement entre 1961 et 2100. La continuité spatiale des processus physiques simulés induit une cohérence spatiale parmi les séries chronologiques. Autrement dit, les séries chronologiques provenant de points de grille avoisinants partagent souvent des caractéristiques semblables. De façon générale, la théorie des valeurs extrêmes est appliquée à ces séries chronologiques simulées pour estimer les quantiles correspondants à un certain niveau de risque. La plupart du temps, la variance d'estimation est considérable en raison du nombre limité de précipitations extrêmes disponibles et celle-ci peut jouer un rôle déterminant dans l'élaboration des stratégies de gestion du risque. Par conséquent, un modèle statistique permettant d'estimer de façon précise les quantiles de précipitations extrêmes simulées par un modèle numérique de climat a été développé dans cette thèse. Le modèle développé est spécialement adapté aux données générées par un modèle de climat. En particulier, il exploite l'information contenue dans les séries journalières continues pour améliorer l'estimation des quantiles non stationnaires et ce, sans effectuer d'hypothèse contraignante sur la nature de la non-stationnarité. Le modèle exploite également l'information contenue dans la cohérence spatiale des précipitations extrêmes. Celle-ci est modélisée par un modèle hiérarchique bayésien où les lois a priori des paramètres sont des processus spatiaux, en l'occurrence des champs de Markov gaussiens. L'application du modèle développé à une simulation générée par le Modèle régional canadien du climat a permis de réduire considérablement la variance d'estimation des quantiles en Amérique du Nord
Precipitation extremes plays a major role in flooding events and their occurrence as well as their intensity are expected to increase. It is therefore important to anticipate the impacts of such an increase to ensure the public safety and the infrastructure sustainability. Since climate models are the only tools for providing quantitative projections of precipitation, flood risk management for the future climate may be based on their simulations. Most of the time, the Extreme value theory is used to estimate the extreme precipitations from a climate simulation, such as the T-year return levels. The variance of the estimations are generally large notably because the sample size of the maxima series are short. Such variance could have a significant impact for flood risk management. It is therefore relevant to reduce the estimation variance of simulated return levels. For this purpose, the aim of this paper is to develop a non-stationary and regional statistical model especially suited for climate models that estimates precipitation extremes. At first, the non-stationarity is removed by a preprocessing approach. Thereafter, the spatial correlation is modeled by a Bayesian hierarchical model including an intrinsic Gaussian Markov random field. The model has been used to estimate the 100-year return levels over North America from a simulation by the Canadian Regional Climate Model. The results show a large estimation variance reduction when using the regional model
APA, Harvard, Vancouver, ISO, and other styles
26

Doré-Savard, Louis. "Évaluation comportementale et imagerie d'un nouveau modèle murin de douleur cancéreuse osseuse et exploration du potentiel analgésique des agonistes des récepteurs neurotensinergiques dans ce modèle." Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6647.

Full text
Abstract:
Une personne sur trois sera diagnostiquée d'un cancer au cours de sa vie. Malgré les progrès importants dans le développement de traitements anti-cancéreux, de nombreux défis restent à relever pour les scientifiques. Certains des cancers les plus fréquents (sein, prostate, poumon) produisent souvent des métastases osseuses lorsqu'ils atteignent un stade avancé. En plus d'être associées à un pronostic pauvre, ces métastases provoquent chez les patients des douleurs qui figurent parmi les plus difficiles à traiter. Notre étude visait à développer un modèle animal qui serait le plus représentatif possible de la réalité clinique et ce, afin d'évaluer le potentiel de nouveaux traitements anti-douleurs. Nous avons donc mis au point un modèle d'injection de cellules mammaires syngéniques dans le fémur du rat. La tumeur s’est développée sur une période de 3 semaines et sa progression a été suivie à l'aide d’une évaluation comportementale et de différentes techniques d’imagerie (pCT, IRM et TEP). Nous avons pu détecter l'apparition de douleur à l'aide de plusieurs tests comportementaux à partir du jour 14 après l'implantation des cellules tumorales. L'imagerie par résonance magnétique nous a cependant permis de détecter l'apparition d'une tumeur dans la moelle osseuse à partir du jour 8 et la tomodensitométrie a permis de suivre la progression de la dégradation osseuse à partir de ce stade précoce. L’utilisation de divers traceurs de l'activité métabolique tumorale et osseuse en TEP a également permis d'analyser les effets du développement de la tumeur sur l’environnement osseux. Le volume de la tumeur et l'état de dégradation de l'os extraits de la prise d'image ont été corrélés aux niveaux de douleur mesurés chez les animaux. La mise en place de ces outils ouvre la voie à une évaluation améliorée du potentiel de traitements analgésiques ou anticancéreux dans ce modèle. Nous avons donc amorcé une étude portant sur la neurotensine et ses récepteurs NTS1 et NTS2. Nous avons pu observer que l’injection intrathécale de plusieurs analogues de la neurotensine a un bon potentiel analgésique dans notre modèle. Ces analogues et d'autres qui seront testés dans l'avenir pourraient représenter une avenue intéressante pouvant servir de complément aux thérapies actuelles. [symboles non conformes]
APA, Harvard, Vancouver, ISO, and other styles
27

Dupraz, Marlène. "Convergence dans l'évolution de la spécialisation d'hôte chez des tiques : modèle tiques-oiseaux de mer à distribution mondiale." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT124/document.

Full text
Abstract:
Les interactions intimes et répétées entre hôtes et parasites peuvent engendrer la spécialisation d’un parasite à son hôte, grâce à des adaptations comportementales, morphologiques et/ou génétiques, combinées avec un flux de gènes limité. C’est un processus clef car il participe à l’évolution de la biodiversité parasitaire et peut ainsi permettre de mieux comprendre l’émergence d’organismes pathogènes. Encore peu étudié, une spécialisation d’hôtes a néanmoins été démontré lors de précédentes études chez deux espèces de tiques nidicoles : chez Ixodes uriae une tique dure, parasite des oiseaux marins coloniaux en zone arctique, et dans un complexe de tiques molles Ornithodoros capensis sensu lato, parasitant aussi de nombreuses espèces d’oiseaux marins, mais cette fois-ci en zones tempérées et tropicales. Ces deux espèces sont vectrices d’une grande diversité d’agents pathogènes incluant des virus, des bactéries et des protozoaires. Cependant, les facteurs impliqués dans le phénomène de spécialisation d’hôte restent inconnus. Dans ce cadre, le but de ma thèse était donc de déterminer 1) si l’évolution des divergences en fonction des hôtes est toujours accompagnée par les mêmes changements phénotypiques et 2) si ces changements pourraient permettre d’identifier les facteurs de sélection sous-jacents. Dans ce contexte, des campagnes d’échantillonnage de tiques ont été menées durant la période de reproduction des hôtes oiseaux dans les différentes zones de leur répartition et nous avons réalisé des analyses morphométriques, basées sur l’utilisation de landmarks et de contours sur chaque individu tique et des analyses phylogénétiques et génétiques des populations sur les mêmes individus. L’ensemble de ces résultats suggère la présence de convergences morphologiques au sein de ces systèmes et souligne un rôle de la sélection dans ce processus de divergence. En effet, les caractéristiques écologiques des hôtes mais aussi le micro-habitat exercent des pressions sélectives importantes dans ces deux systèmes pouvant être à l’origine de la divergence observée entre les populations. De plus, les caractéristiques biologiques de chaque espèce de tiques, telle que la capacité de dispersion, entrent également en jeu et peuvent fortement modifier l’épidémiologie des agents infectieux dont elles sont vectrices.Mots clés : Argasidae, écologie de la transmission, évolution convergente, interactions hôte-parasite, Ixodidae, oiseaux marins
Intimate and repeated interactions between hosts and parasites can lead to parasite specialization to a given host via behavioral, morphological and/or genetic adaptations that act in combination with restricted gene flow. Specialization is a key process leading to the generation of parasite biodiversity and can help us understand the emergence of pathogenic organisms. Although little studied, host specialization has already been demonstrated to occur in previous studies of two nidicolous tick species: Ixodes uriae a hard tick parasitizing colonial seabirds in polar regions, and soft ticks of the complex Ornithodoros capensis sensu lato, that also exploit colonial seabirds, but this time in temperate and tropical zones. Both of these species act as vector to a wide variety of pathogenic organisms, including viruses, bacteria and protozoa. However, the factors involved in host specialization remain unknown. In this context, the aim of my thesis was to determine 1) whether the evolution of host specialization is always accompanied by the same phenotypic changes and 2) whether these changes could help to identify the selective factors that influence this phenomenon. In this context, tick collections were conducted during the breeding period of the host birds in different areas of their distribution and morphometric analyses, based on landmark and contour methods, were performed on each individual tick. Phylogenetic and population genetic analyses were also carried out using the same individuals. Overall, the results demonstrate that morphological convergence occurs within these systems, highlighting the role of selection in the divergence process. Indeed, the ecological characteristics of the hosts, but also their micro-habitat, may exert significant selective pressures on ticks and may cause the observed divergence among populations. Likewise, the biological characteristics of each tick species, particularly in relation to dispersal capacity, may also come into play and will greatly modify the epidemiology of associated infectious agents.Keywords: Argasidae, convergent evolution, host-parasite interactions, Ixodidae, transmission ecology, seabirds
APA, Harvard, Vancouver, ISO, and other styles
28

Munoz, François Julien. "Distribution régionale des espèces et dynamique des métapopulations : modèle hiérarchique d'habitat et inférence du taux relatif extension/colonisation." Montpellier 2, 2006. http://www.theses.fr/2006MON20012.

Full text
Abstract:
Une espèce ne peut survivre que si elle rencontre des conditions conformes à ses besoins biologiques, à sa niche. Mais à cause de la nature stochastique de leur propre dynamique et de celle de leur environnement, les populations sont vouées à s'éteindre. La survie d'une métapopulation, dès lors, dépend du balancier entre l'inéluctable extinction locale et la colonisation incessante de nouveaux espaces. Dans ce travail, nous considérons l'atlas floristique de la Drôme de Luc Garraud comme support à notre réflexion sur la dynamique spatiale des populations. Nous choisissons de concevoir la distribution d'une espèce comme le résultat de la dynamique d'une seule métapopulation. Nous avons montré l'importance des structures auto-organisées dans le temps et dans l'espace, ainsi que l'existence de mesures spatiales pertinentes, issues de l'analyse spectrale, pour étudier la dynamique des métapopulations. En définitive, nous proposons une méthode d'inférence pour estimer conjointement la niche et la dynamique spatiale des espèces. Nous avons pu établir par ce moyen quelques repères généraux sur la dynamique des plantes dans la Drôme. Finalement nous mettons en exergue quelques principes qui ont déterminé le succès de la démarche. Le principe d'incertitude souligne que l'imprécision de mesure spatiale peut mener à la pertinence écologique, en occultant l'empreinte locale des structures contingentes. En outre l'inférence des processus locaux, sans être globale, doit se faire à une échelle intermédiaire au regard des structures spatiales émergentes. L'étude spatiale de la niche, en terme d'habitat, est le point de rencontre de ces concepts, et leur alliance nouvelle offre ici des perspectives inédites en écologie des populations et des communautés
A species cannot survive locally unless its biological requirements are met (niche concept). However, because of the stochasticity of its own dynamics and of the dynamics of its environment, every population is doomed to go extinct. Hence the fate of a metapopulation depends on the balance between colonization and extinction of individual populations. The floristic atlas of the French Drôme district by Luc Garraud is the basis and the motivation of our research on this topic. We consider a species' distribution as the spatial map of a single metapopulation. A global theoretical investigation of the processes involved allows us to propose new developments. We show that self-organized spatial and temporal structures are of importance. We also demonstrate that appropriate spatial statistics using spectral analysis allow to evidence metapopulation dynamics. Finally we propose an inference framework that sequentially estimates niche properties and metapopulation features. We use this framework to establish some general ecological features of plant dynamics in the Drôme district. We highlight some principles that are of importance to infer ecological processes from spatial occurrence data. The uncertainty principle means that less precise indexes of spatial structure can provide more relevant ecological information, because they filter out local contingent structures. Also, local processes should be inferred using observations at an intermediate scale and not at the scale of the overall system: this allows taking into account the effect of emergent structures. The niche concept and its spatial counterpart, the habitat, are at the meeting point of such ideas. The perspectives we propose in our work offer interesting and promising milestones in the fields of population and community ecology
APA, Harvard, Vancouver, ISO, and other styles
29

Coffo, Mieke Ineke Rik. "Contribution à la modélisation, à l’optimisation et à l’étude expérimentale d’un lanceur à rails augmenté et du projectile." Thesis, Besançon, 2011. http://www.theses.fr/2011BESA2010/document.

Full text
Abstract:
Cette thèse a été dirigée par le Professeur Kauffmann de l’Université de Franche-Comté. Le co-directeur de l’Ecole Royale Militaire était le Docteur Johan Gallant et les essais à l’Institut franco-allemande de recherches de Saint-Louis (ISL) étaient encadrés par le Docteur Markus Schneider.Un lanceur à rails conventionnel est composé de deux rails conducteur connecté par un projectile. L’interaction entre le champ magnétique induit par le courant dans les rails et le courant dans le projectile résulte en une force électromagnétique accélérant. Dans cette thèse on utilise un projectile avec deux ponts de courant. Pour un lanceur à rails conventionnel la méthode la plus efficace pour augmenter la force sur le projectile est d’augmenter le courant dans les rails. Mais la densité de courant est limitée. L’échauffement des contacts entre les rails et les ponts de courant par l’effet Joule et la force de frottement, peut résulter dans la transformation d’un contact solide dans un contact plasma, ce qui est à éviter. Une possibilité d’adresser ce problème est d’ajouter des ponts de courant pour améliorer la distribution de courant. Une autre possibilité est d’appliquer un champ magnétique extérieur généré par un circuit extérieur qui nous permet d’augmenter la force électromagnétique sans augmenter le courant dans le circuit intérieur. Dans cette thèse l’objectif est d’étudier la distribution de courant et de température dans un projectile à deux ponts de courant pour un lanceur augmenté. Comme les deux ponts de courants et les rails du circuit intérieur forment un circuit fermé, le champ augmenté va induire un courant de circulation qui influence la distribution de courant entre les brosses. Le premier modèle de simulation est un modèle global du lanceur en PSpice qui nous permet de déterminer les courants globaux, la force électromagnétique, la position et la vitesse du projectile et la température moyenne des brosses. Le modèle global prend en compte l’effet de peau dû à la vitesse et est validé par des résultats expérimentaux. Le deuxième modèle est un modèle local en ANSYS, un code à éléments finis, pour un projectile fixe. Ce modèle permet une étude locale de la distribution de courant et de température. Un modèle pour la zone de contact entre les rails et la brosse est introduit. Le modèle local est utilisé pour calculer les coefficients de l’équation de force dans le modèle global. Les résultats des deux modèles de simulation sont cohérents.Le lanceur LARA, utilisé pour les essais, a une longueur de 1.5 m et un calibre de 15 mm. On disposait de trois bancs de condensateurs pour l’alimentation du lanceur en configuration non-augmenté et augmenté. Les vitesses à la bouche obtenues varient entre 48 et 214 m/s. Pour la détermination de la distribution de courant nous avons utilisé une méthode proposée par [SCH05a]. Cette méthode est une combinaison d’une mesure de tension entre deux pins dans les rails et dans une boucle. Nous avons constaté que les signaux obtenus avec cette méthode, appliquée dans ce régime de vitesse, sont perturbés par les courants de Foucault induits avant le projectile et les résultats ne répondent pas à nos attentes. Une méthode analytique basée sur la mesure de tension dans la boucle a été développée. Les résultats expérimentaux sont comparés avec les simulations. Nous avons constaté une bonne correspondance entre les valeurs des courants maximaux dans les rails calculés avec PSpice et les valeurs expérimentales, mais le courant calculé avec PSpice est plus faible dans la phase décroissante du courant. Les erreurs sur la vitesse sont inférieures à 10 %. Les deux modèles de simulation et les essais montrent que la brosse avant porte la plus grande partie du courant. La dernière partie de cette thèse est une étude paramétrique avec ANSYS pour l’avant-projet du circuit intérieur d’un lanceur à rail existant
This thesis was supervised by Professor Jean-Marie Kauffmann of the University of Franche-Comté. The co-director at the Royal Military Academy was Dr. Johan Gallant and the experiments at Franch-German Research Institute ISL were directed by Dr. Markus Schneider. A conventional electromagnetic railgun is composed of two conducting rails connected by a projectile. The magnetic field generated by the current in the rails interacts in the projectile resulting in an electromagnetic force accelerating the projectile. The projectile used in this thesis is two brush projectile. For a conventional railgun the most efficient way to increase the force on the projectile is to increase the current in the rails. But the current density is limited. The heating of the sliding contacts between the brushes and the rails due to the Joule losses and the friction can cause the contacts and can result in contact transition which we want to avoid. One way to reduce the heating is to add more current brushes to obtain a better current distribution between the brushes. Another way is to add an extra pair of rails and create an additional magnetic field. This augmenting field allows us to increase the electromagnetic force without increasing the current through the projectile. In this thesis the current and heat distribution in a two brush projectile in a parallel augmented railgun is studied through simulations and experiments. Because the current brushes and the inner rails form a closed loop, the augmenting field will induce a loop current and influence the current distribution between the brushes. The first simulation model is a global model of the railgun in PSice which allows us to predict the global currents as well as the average temperature in the brushes, the force on the projectile and the position and the velocity of the projectile. The model takes into account the velocity skin effect and was validated based on experiments. The second model is a finite element model in ANSYS for a fixed projectile. This model allows a local study of the current and temperature distribution in the projectile. A model for the contact between the rails and the projectile is introduced. The local model is used to calculate the time-dependent coefficients for the force equation used in the global model. Both simulation models are compared and a good correspondence is found. The LARA railgun of ISL with a length of 1.5 m and a square caliber of 15 mm has been used for the experiments. A maximum of three capacitor banks was used for the non-augmented and the augmented configuration. The muzzle velocities obtained in the experiments vary between 48 and 214 m/s. To determine the current distribution between the brushes a technique proposed by [SCH05a] has been used. It is based on the measurement of the voltage between two pins in the rails in combination with the voltage in a loop. When applied to this velocity range, the eddy currents in front of the projectile hamper the interpretation of the signals and the results are not what we expected. An analytical method for the determination of the current distribution based on the voltage in the loop was introduced. The results are then compared with the results of the simulations. The maximum current in the rails found with PSpice shows a good correspondence with the experiments, the calculated decrease of the current is slightly overestimated. The errors on the velocities are less than 10%. Both simulation models and experiments show that the brush towards the breech carries the greater part of the current for the non-augmented as well as the augmented railgun. In the last part a parametric study is carried out with ANSYS for the preliminary design of an augmenting circuit for an existing railgun
APA, Harvard, Vancouver, ISO, and other styles
30

Koladjo, Babagnidé François. "Estimation non paramétrique du nombre d'espèces : Application à l'étude de la faune ichtyologique du bassin du fleuve Ouëmé." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112153.

Full text
Abstract:
Ce manuscrit est structuré en deux parties. La première partie composée des chapitres 2à 4 aborde le problème d'estimation du nombre de classes dans une population avec une application en écologie. La deuxième partie, correspondant au chapitre 5,concerne la mise en oeuvre de méthodes statistiques pour analyser des données de pêche. Dans la première partie, nous considérons une population hétérogène subdiviséeen plusieurs classes. À partir d'un échantillon, les effectifs d'individus observés parclasse, encore appelés abondances, sont utilisés pour estimer le nombre total declasses dans la population. Dans la littérature consacrée à l'estimation du nombrede classes, les méthodes basées sur un mélange de distributions de Poisson semblentêtre les plus performantes (voir par exemple les travaux de Chao and Bunge (2002)dans le cadre paramétrique et celui de Wang and Lindsay (2005) dans un cadrenon paramétrique). La mise en oeuvre de ces approches sur des données réellesmet en évidence que la distribution des abondances peut être approchée par unedistribution convexe. Nous proposons une approche non paramétrique pour estimerla distribution des abondances sous contrainte de convexité. Cette contrainte définitun cadre théorique d'estimation d'une densité discrète. Le problème d'estimation dunombre de classes est donc abordé en deux volets. Nous montrons d'une part l'existenceet l'unicité d'un estimateur d'une densité discrète sous la contrainte de convexité.Sous cette contrainte, nous démontrons qu'une densité discrète s'écrit comme un mélange de densités triangulaires. À partir de l'algorithme de réduction du supportproposé par Groeneboom et al. (2008), nous proposons un algorithme exact pourestimer les proportions dans le mélange. D'autre part, la procédure d'estimationd'une densité discrète convexe nous sert de cadre pour l'estimation de la distributiontronquée en zéro des observations d'abondance. L'estimation de la loi tronquée obtenue est ensuite prolongée en zéro pour estimer la probabilité qu'une classe ne soit pasobservée. Ce prolongement en zéro est fait de façon à annuler la proportion dela première composante dans le mélange de densités triangulaires. Nousaboutissons à une estimation du nombre de classes à l'aide d'un modèle binomial ensupposant que chaque classe apparaît dans un échantillon par une épreuve deBernoulli. Nous montrons la convergence en loi de l'estimateur proposé. Sur le plan pratique, une application aux données réelles en écologie est présentée. La méthode est ensuite comparée à d'autres méthodes concurrentes à l'aide de simulations. La seconde partie présente l'analyse des données de pêche collectées dans le fleuveOuémé au Bénin. Nous proposons une démarche statistique permettant de regrouperles espèces selon leur profil temporel d'abondances, d'estimer le stock d'une espèceainsi que leur capturabilité par les engins de pêche artisanale
This manuscript is structured in two parts. The #rst part composed of Chapters 2to 4 deals with the problem of estimating the number of classes in a population withan application in ecology. The second part, corresponding to Chapter 5, concernsthe application of statistical methods to analyze fisheries data.In the first part, we consider a heterogeneous population split into several classes.From a sample, the numbers of observed individuals per class, also called abun-dances, are used to estimate the total number of classes in the population. In theliterature devoted to the number of classes estimation, methods based on a mix-ture of Poisson distributions seem to be the most effcient (see for example the workof Chao and Bunge (2002) in the parametric framework and that of Wang and Lind-say (2005) in a non-parametric framework). Applications of these approaches to realdata show that the distribution of abundances can be approximated by a convexdistribution. We propose a non-parametric approach to estimate the distribution ofabundances under the constraint of convexity. This constraint defines a theoreticalframework for estimating a discrete density. The problem of estimating the numberof classes is then tackled in two steps.We show on the one hand the existence and uniqueness of an estimator of adiscrete density under the constraint of convexity. Under this constraint, we provethat a discrete density can be written as a mixture of triangular distributions. Usingthe support reduction algorithm proposed by Groeneboom et al. (2008), we proposean exact algorithm to estimate the proportions in the mixture.On the other hand, the estimation procedure of a discrete convex density is usedto estimate the zero-truncated distribution of the observed abundance data. Thezero-truncated distribution estimate is then extended at zero to derive an estimateof the probability that a class is not observed. This extension is made so as tocancel the first component in the mixture of triangular distributions. An estimateof the total number of classes is obtained through a binomial model assuming thateach class appears in a sample by a Bernoulli trial. We show the convergence inlaw of the proposed estimator. On practical view, an application to real ecologicaldata is presented. The method is then compared to other concurrent methods usingsimulations.The second part presents the analysis of fisheries data collected on the Ouémériver in Benin. We propose a statistical approach for grouping species accordingto their temporal abundance profile, to estimate the stock of a species and theircatchability by artisanal fishing gears
APA, Harvard, Vancouver, ISO, and other styles
31

Besnard, Aurélien. "Distribution et sélection d’habitat des passereaux prairiaux en plaine d’inondation." Thesis, Angers, 2014. http://www.theses.fr/2014ANGE0022/document.

Full text
Abstract:
L’intensification des pratiques agricoles de ces dernières décennies a engendré des modifications profondes des écosystèmes agricoles. Les oiseaux prairiaux sont particulièrement concernés par ces changements et ont fortement décliné. La mise en place de Mesures Agro-Environnementales (MAE) n’ont pas permis d’enrayer ce déclin et une évaluation de leur efficacité passe au préalable par une compréhension affinée des réponses écologiques des espèces dans l’écosystème considéré. Nous avons ainsi tenté de mieux comprendre la distribution et la sélection d’habitat des oiseaux prairiaux dans les plaines d’inondation du bassin de la Loire dans l’ouest de la France. Cette étude visait à construire et à tester à l’échelle de la zone d’étude des prédicteurs environnementaux pertinents d’humidité, de climat, de végétation et de paysage. Il a ainsi été possible d’établir la réponse des espèces à ces prédicteurs et de construire des modèles de distribution locaux. Cette étude a permis de confirmer le rôle structurant du gradient d’humidité pour les populations d’oiseaux prairiaux en plaine alluviale. Ce gradient conditionne la qualité de l’habitat pour ces espèces en contrôlant notamment la végétation présente. Il contrôle en outre la phénologie des fauches qui est le facteur-clé dont dépend le succès reproducteur. Enfin, il est largement déterminé par la susceptibilité à l’inondation, qui peut affecter la distribution lorsqu’elle intervient au printemps induisant ainsi un découplage spatial entre les MAE et la distribution des espèces prairiales en milieu alluvial. Nous avons également mis en évidence l’évitement par les oiseaux prairiaux du bocage qui concentre par ailleurs des enjeux importants de conservation de la biodiversité. Enfin, nous avons utilisé les prédicteurs environnementaux pour modéliser la distribution des oiseaux prairiaux lesquels mettent en évidence des différences d’utilisation de l’habitat prairial entre les espèces. Ces résultats mettent en avant la nécessité de redéfinir les priorités de conservation à l’échelle du paysage. Ils pourraient également être pris en considération pour améliorer l’efficacité des MAE
The intensification of agricultural practices in the last decades profoundly changed agricultural ecosystems. Grassland birds are particularly affected by these changes and have been declining sharply. The implementation of Agro-Environmental Schemes (AES) failed to halt this decline. Assessing their effectiveness requires a better understanding of the ecological responses of species in the ecosystem. We attempted to quantify and analyze the distribution and habitat selection of grassland birds in the floodplains of the Loire basin in Western France. This study aimed at building and testing relevant environmental predictors of moisture, climate, vegetation and landscape. Then, we established species response to these predictors and built local distribution models. This study confirmed the prominent rôle of moisture gradient for grassland bird populations in floodplains. The location on the gradient determines habitat quality for these species especially by affecting vegetation composition. It also controls the phenology of mowing, a key factor for reproductive success. Finally, this gradient is largely determined by flooding susceptibility, which may affect bird distribution when flood occurs in spring. In such years, we observed a spatial mismatch between AES and grassland bird distributions in floodplain. We also highlighted the avoidance of hedgerows by grassland birds, which stresses the incompatibility at fine scale between two objects of biodiversity conservation. Finally, we used the environmental predictors to model the distributions the main grassland birds, which models highlighted differences in habitat use between grassland species. These results emphasize the need to redefine the priorities of conservation at the landscape scale. They could also be considered to improve the efficiency of AES
APA, Harvard, Vancouver, ISO, and other styles
32

Renno, Jean-François. "Génétique des populations et biogéographie de l'ichtyofaune néotropicale : le modèle Leporinus de Guyane." Montpellier 2, 1989. http://www.theses.fr/1989MON20219.

Full text
Abstract:
Les causes de la diversite de l'ichtyofaune neotropicale sont abordees a travers plusieurs niveaux de perception: genetique, morphologie, ecologie et zoogeographie, dans l'etude du genre leporinus (anostomidae). L'isolement reproductif entre sept especes de leporinus a ete confirme en guyane. L'etude intraspecifique a ete entreprise ches l. Friderici, espece largement distribuee en amerique du sud. Cette espece constitue un groupe monophyletique dans le genre leporinus en guyane, mais apparait comme un groupe paraphyletique a l'echelle de l'amerique du sud. La differenciation genetique (electromorphes de proteines et patrons de restriction de l'adn mitochondrial) a ete confrontee a la differenciation morphologique de l. Riderici. En guyane, la structure genetique intraspecifique de l. Friderici est en accord avec la structure zoogeographique de deux grandes familles de poissons neotropicaux, les serrasalmides et les anostomides et celle de groupes d'organismes autres que les poissons. La faune est structuree en deux ensembles: un ensemble oriental qui est sous l'influence de la faune amazonienne et un ensemble occidental dont l'endemisme est plus prononce. Les resultats mis en evidence par les differentes approches sont congruents et renforcent l'hypothese de l'existence de refuges aquatiques, qui auraient joue un role dans la speciation de l'ichtyofaune neotropicale lors des bouleversements paleoecologiques durant l'ere quaternaire. Un guide dans la constitution des souches d'elevage est propose base sur l'analyse de la structure genetique de l. Friderici espece d'interet aquacole
APA, Harvard, Vancouver, ISO, and other styles
33

Binot, Ferréol. "Modélisation et estimation de paramètres des réseaux de distribution basse tension." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST024.

Full text
Abstract:
Le développement des nouveaux usages, poussé par des exigences de transition énergétique, principalement sur les réseaux basse tension (BT) nécessite de développer des outils toujours plus innovants de conduite et de planification des réseaux. Le développement de ces nouveaux outils nécessite une très bonne connaissance de l’état et des paramètres réels des réseaux BT. Les travaux de cette thèse se focalisent donc sur le développement d’algorithmes d’estimation d’état (EE) et de paramètres (EP) dédiés aux réseaux BT.Pour mener à bien le développement de ces algorithmes, nous avons amélioré la caractérisation et la modélisation des câbles BT en prenant en compte l’impact des paramètres extérieurs sur la matrice d’impédance et sur le plan de tension. Ce modèle utilise la matrice d’impédance 4×4 et prend en compte les résistances de mise à la terre. Cette étude servira de brique de base pour les deux algorithmes.L’algorithme d’EE s’appuie sur l’algorithme des WLS et de la méthode de la matrice augmentée. Pour son développement, nous avons adapté ses grandeurs pour qu’elles prennent en compte les particularités des réseaux BT. Cet algorithme permet d’obtenir une précision accrue du plan de tension (incluant la tension neutre-terre) du réseau et donne de résultats précis même en cas d’erreurs ou de suppressions de mesure. L’algorithme va permettre d’améliorer la conduite des réseaux BT. L’algorithme d’EP, qui s’appuie sur l’algorithme du vecteur augmenté, permet d’estimer à la fois les longueurs des liaisons mais aussi directement les conditions extérieures (température du conducteur). Cet algorithme permet ainsi de corriger les données présentes dans les systèmes d’information géographique et de parfaitement connaître la topologie du réseau. Ainsi, la planification et la conduite des réseaux BT seront plus aisées même avec le développement des nouveaux usages
The development of new uses, driven by energy transition requirements, mainly on low-voltage (LV) networks, requires the development of more innovative tools for network management and planning. The development of these new tools requires a very good knowledge of the actual state and parameters of LV networks. The work of this thesis focuses on the development of state (SE) and parameter (PE) estimation algorithms dedicated to LV networks.To carry out the development of these algorithms, we have improved the characterization and modelling of LV cables by taking into account the impact of external parameters on the impedance matrix and the voltage profile. This model uses the 4×4 impedance matrix and takes into account the earthing resistances. This study will serve as a building block for both algorithms.The SE algorithm is based on the WLS algorithm and the augmented matrix method. For its development, we have adapted its quantities by taking into account the particularities of LV networks. This algorithm allows to obtain an increased accuracy of the network voltage profile (including the neutral to earth voltage) and gives accurate results even in case of errors or suppressed measurements. The algorithm will improve the operation of LV networks. The PE algorithm, which is based on the augmented vector algorithm, estimates both the lengths of the links and also directly the external conditions (conductor temperature). Thus, this algorithm corrects the data present in geographical information systems and gives a perfect knowledge of the network topology. The planning and operation of LV networks will be easier even with the development of new uses
APA, Harvard, Vancouver, ISO, and other styles
34

Maxit, Laurent. "Extension et reformulation du modèle SEA par la prise en compte de la répartition des énergies modales." Phd thesis, INSA de Lyon, 2000. http://tel.archives-ouvertes.fr/tel-00777764.

Full text
Abstract:
Résumé Dans cette thèse, on propose une approche permettant d'étendre le domaine de validité de la méthode SEA (Statistical Energy Analysis). Elle repose sur une double formulation modale et une reformulation du modèle SEA en ne posant pas l'hypothèse d'équirépartition des énergies modales. La double formulation modale qui est décrite dans le cas général du couplage de systèmes continus tridimensionnels, consiste en une décomposition modale non standard faisant intervenir une double formulation contrainte-déplacement. Les équations modales obtenues sont alors en cohérence avec le modèle supposé de la SEA et se caractérisent à partir des modes des sous-systèmes découplés. Le modèle SmEdA qui découle de la reformulation de la SEA permet d'améliorer la qualité de la prédiction, notamment quand le recouvrement modal est faible ou quand les sous-systèmes sont excités localement. Un des points forts de l'approche proposée est qu'elle peut être facilement associée à une démarche SEA. Il est possible d'appliquer le modèle SmEdA uniquement pour les couplages des sous-systèmes où une amélioration de la prédiction peut être présumée obtenue, et utiliser le modèle SEA pour les autres couplages. L'application du modèle SmEdA à des structures industrielles est possible grâce à l'utilisation de modèles Eléments Finis des sous-systèmes. En supposant l'hypothèse d'équirépartition respectée, il découle de cette approche une nouvelle technique de calcul des facteurs de perte par couplage SEA. Celle-ci ne requière que le calcul des modes des sous-systèmes découplés par Éléments Finis. Les facteurs SEA sont alors obtenus par identification des coefficients des équations modales, sans les résoudre.
APA, Harvard, Vancouver, ISO, and other styles
35

Piboule, Alexandre. "Influence de la structure du peuplement forestier sur la distribution de l'éclairement sous couvert. Cas d'une forêt hétérogène feuillue sur plateau calcaire." Phd thesis, ENGREF (AgroParisTech), 2005. http://pastel.archives-ouvertes.fr/pastel-00001666.

Full text
Abstract:
Les modèles de lumière simulent l'éclairement sous couvert à partir de la caractérisation géométrique des houppiers. Nous avons cherché dans ce travail à minimiser le jeu de données nécessaire. Nous avons alimenté le modèle de lumière tRAYci dans un peuplement feuillu hétérogène. Nous avons établi des relations entre les variables caractéristiques du houppier et diamètre à 1,30 m des arbres. Nous avons élaboré un algorithme pour reconstruire l'extension latérale du houppier d'un arbre en tenant compte de ses voisins à partir de son essence, son diamètre à 1,30 m et sa position. Nous avons comparé cette méthode de reconstruction anisotrope à une méthode isotrope, du point de vue la qualité de la distribution de l'éclairement obtenue. Seule l'approche anisotrope a permis d'obtenir une simulation non biaisée. Nous avons aussi testé des indices dendrométriques basés sur la distribution de la surface terrière, mais ils se sont montrés incapables de prédire la distribution de l'éclairement.
APA, Harvard, Vancouver, ISO, and other styles
36

Kochrad, Nidal. "Modèle de performance système du cycle thermodynamique récupéré opérant avec une turbine en céramique renversée." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/9904.

Full text
Abstract:
La production d'énergie décentralisée peut réduire à la fois les émissions, le coût énergétique, les pertes de transmission et de distribution associés aux grandes centrales énergétiques. Les microturbines, turbines à gaz inférieures à 1 MW, peuvent se développer dans le marché de la décentralisation à condition d'augmenter significativement leur efficacité. L’approche poursuivie est l’augmentation de la température de combustion de 1200 à 1600K dans un cycle récupéré. Le refroidissement de pales métalliques pour des microturbines récupérées nécessiterait une grande quantité d’air et réduirait l’efficacité. Le passage vers des matériaux réfractaires comme la céramique est nécessaire. Pour augmenter la fiabilité des turbines en céramique, les pales sont maintenues en compression par une jante en polymère renforcé de fibres de carbone dans un rotor renversé. La protection thermique du plastique est assurée par l'action combinée d'ailettes de refroidissement placées entre les pales et la jante et par un flux d'air froid purgé du compresseur vers les ailettes. L'étude présentée ici prédit les performances de cycle pour les turbines en céramique renversées. Un modèle numérique est construit à partir du cycle de Brayton dans lequel le bilan thermodynamique pour la turbine inclut les pertes énergétiques associées au concept. Les pertes modélisées sont les pertes de chaleur dans la turbine, la friction aérodynamique du rotor, les fuites d’air et de gaz, le pompage d’air de refroidissement. Les résultats montrent que l'efficacité du moteur peut atteindre 45% (avec un écart type de 1%), ce qui représente près de 8 points de gain sur les efficacités des microturbines commerciales (tous cycles thermodynamiques confondus). Les pertes associées au concept de turbine renversée ne dépassent pas 15 kW pour un moteur de 240 kW. Le débit d'air pour maintenir la jante à 600 K ne dépasse pas 6% de l'écoulement principal et la jante est soumise à 75% de la tension maximale tolérable par la fibre. Une turbine renversée est donc un concept qui offre le potentiel de révolutionner la production d'énergie distribuée en permettant d'égaler l'efficacité des génératrices Diesel.
APA, Harvard, Vancouver, ISO, and other styles
37

Makassikis, Constantinos. "Conception d'un modèle et de frameworks de distribution d'applications sur grappes de PCs avec tolérance aux pannes à faible coût." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00591083.

Full text
Abstract:
Les grappes de PCs constituent des architectures distribuées dont l'adoption se répand à cause de leur faible coût mais aussi de leur extensibilité en termes de noeuds. Notamment, l'augmentation du nombre des noeuds est à l'origine d'un nombre croissant de pannes par arrêt qui mettent en péril l'exécution d'applications distribuées. L'absence de solutions efficaces et portables confine leur utilisation à des applications non critiques ou sans contraintes de temps. MoLOToF est un modèle de tolérance aux pannes de niveau applicatif et fondée sur la réalisation de sauvegardes. Pour faciliter l'ajout de la tolérance aux pannes, il propose une structuration de l'application selon des squelettes tolérants aux pannes, ainsi que des collaborations entre le programmeur et le système de tolérance des pannes pour gagner en efficacité. L'application de MoLOToF à des familles d'algorithmes parallèles SPMD et Maître-Travailleur a mené aux frameworks FT-GReLoSSS et ToMaWork respectivement. Chaque framework fournit des squelettes tolérants aux pannes adaptés aux familles d'algorithmes visées et une mise en oeuvre originale. FT-GReLoSSS est implanté en C++ au-dessus de MPI alors que ToMaWork est implanté en Java au-dessus d'un système de mémoire partagée virtuelle fourni par la technologie JavaSpaces. L'évaluation des frameworks montre un surcoût en temps de développement raisonnable et des surcoûts en temps d'exécution négligeables en l'absence de tolérance aux pannes. Les expériences menées jusqu'à 256 noeuds sur une grappe de PCs bi-coeurs, démontrent une meilleure efficacité de la solution de tolérance aux pannes de FT-GReLoSSS par rapport à des solutions existantes de niveau système (LAM/MPI et DMTCP).
APA, Harvard, Vancouver, ISO, and other styles
38

Bertheloot, Jessica. "Distribution de l'azote chez le blé (Triticum aesticum L.) après la floraison:un modèle dynamique fondé sur une approche structure-fonction." Phd thesis, AgroParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005134.

Full text
Abstract:
L'azote est une ressource importante pour la croissance des plantes, et pour les pathogènes des cultures. L'objectif de cette thèse est de proposer une modélisation mécaniste des dynamiques d'azote dans une plante de blé en post-floraison. Pour cela, une approche structure-fonction a été mise en oeuvre. Des expérimentations ont permis de caractériser les dynamiques spatio-temporelles d'azote dans la tige feuillée. La masse d'azote surfacique des limbes et des gaines diminuait avec la distance depuis le sommet du couvert, mais elle était homogène le long d'un limbe ou d'une gaine. Les dynamiques temporelles étaient identiques pour les gaines et les limbes suggérant que ces deux entités répondent de la même manière à la lumière interceptée et à l'état azoté de la plante. De plus, les dynamiques étaient synchrones pour tous les phytomères et identiques à un facteur d'échelle près. En période d'absence d'absorption d'azote racinaire, ces dynamiques suivaient une cinétique d'ordre un. Ces résultats ont permis de développer un modèle structure-fonction des dynamiques d'azote au sein de la structure botanique d'une tige feuillée. Les principales hypothèses de ce modèle sont: (i) la teneur en azote d'un limbe est déterminée par le turnover des protéines de l'appareil photosynthétique; (ii) les différentes entités de la tige feuillée partagent un pool commun d'azote mobile. Ce modèle a été validé sur une gamme contrastée de conditions environnementales avec un jeu unique de six paramètres. Les relations azote-éclairement sont une propriété émergente des processus décrits à l'échelle locale. Ce travail ouvre des perspectives pour simuler la régulation des dynamiques d'azote dans des modèles individus-centrés de peuplements végétaux.
APA, Harvard, Vancouver, ISO, and other styles
39

Masmoudi, Nesrine. "Modèle bio-inspiré pour le clustering de graphes : application à la fouille de données et à la distribution de simulations." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMLH26/document.

Full text
Abstract:
Dans ce travail de thèse, nous présentons une méthode originale s’inspirant des comportements des fourmis réelles pour la résolution de problème de classification non supervisée non hiérarchique. Cette approche créée dynamiquement des groupes de données. Elle est basée sur le concept des fourmis artificielles qui se déplacent en même temps de manière complexe avec les règles de localisation simples. Chaque fourmi représente une donnée dans l’algorithme. Les mouvements des fourmis visent à créer des groupes homogènes de données qui évoluent ensemble dans une structure de graphe. Nous proposons également une méthode de construction incrémentale de graphes de voisinage par des fourmis artificielles. Nous proposons deux méthodes qui se dérivent parmi les algorithmes biomimétiques. Ces méthodes sont hybrides dans le sens où la recherche du nombre de classes, de départ, est effectuée par l’algorithme de classification K-Means, qui est utilisé pour initialiser la première partition et la structure de graphe
In this work, we present a novel method based on behavior of real ants for solving unsupervised non-hierarchical classification problem. This approach dynamically creates data groups. It is based on the concept of artificial ants moving complexly at the same time with simple location rules. Each ant represents a data in the algorithm. The movements of ants aim to create homogenous data groups that evolve together in a graph structure. We also propose a method of incremental building neighborhood graphs by artificial ants. We propose two approaches that are derived among biomimetic algorithms, they are hybrid in the sense that the search for the number of classes starting, which are performed by the classical algorithm K-Means classification, it is used to initialize the first partition and the graph structure
APA, Harvard, Vancouver, ISO, and other styles
40

Vidot, Kevin. "Distribution et fonction des ions métalliques et des composés phénoliques dans les parois de fruits charnus : modèle pomme et raisin." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4020/document.

Full text
Abstract:
La couleur, la fermeté, la saveur, ou l’aptitude à la conservation, sont les principaux critères de qualité qui déterminent le choix du consommateur, les procédés de transformation et la stabilité des fruits charnus. Ces critères dépendent des mécanismes déterminants la qualité des productions, faisant intervenir les ions métalliques, les composés phénoliques et les parois cellulaires. Pour appréhender ces mécanismes, les travaux ont été réalisés sur deux variétés de pommes à cidre et étendus aux variétés de raisins de cuve. Le développement de méthodes de cryo-microscopie associées à la fluorescence X et UV a permis l’identification et la distribution tissulaire des ions métalliques et des composés phénoliques. Les métaux de transition et les flavanols sont retrouvés majoritairement dans la cuticule alors que le calcium, le magnésium et les pigments phénoliques sont co-localisés dans les couches sous-cuticulaires. Une distribution homogène du potassium est observée de la couche sous-cuticulaire au cortex externe, zones riches en acides phénoliques. Parmi ces acides, les acides hydroxycinnamiques sont potentiellement estérifiés dans les parois cellulaires. L’impact de ces composés sur la qualité des fruits lors de leur consommation ou transformation a été abordé par l’étude des interactions entre les ions métalliques, la pectine des parois cellulaires et les composés phénoliques en présence de peroxyde d’hydrogène. L’ensemble des résultats : distribution des ions métalliques et composés phénoliques, ainsi que les interactions et les mécanismes réactionnels possibles est résumé dans un modèle conceptuel qui servira de base pour de futurs travaux visant à un meilleur contrôle des propriétés organoleptiques des fruits frais et transformés
Colour, firmness, taste and long storage ability, are the main quality parameters that define consumer choice, processing and shelf-life of fleshy fruits. These quality criteria rely on physiological and physicochemical mechanisms that involve metallic ions, phenolic compounds and cell wall. To better understand these mechanisms, the thesis study was realised on two cider apples varieties and extended to wine grapes. The development of cryo-microscopy methods associated to X-ray and deep UV fluorescence highlighted the identification and distribution at the tissue scale of metallic ions and phenolic compounds. Transition metals and flavanols were mostly found in the cuticle while calcium, magnesium and phenolic pigments were co-localised in the sub-cuticle tissue layers. A homogeneous distribution of potassium was observed from the sub-cuticle to the outer cortex cell layers, a region that is rich in phenolic acids. Among these acids, hydroxycinnamic acids were found to be potentially esterified within cell wall. The impact of these compounds on the quality of fruit during consumption or processing was considered by studying the interactions between metal ions, cell wall pectin and phenolic compounds in the presence of hydrogen peroxide. All results: distribution of metal ions and phenolic compounds, as well as possible interactions and mechanisms of reaction, are summarized in a conceptual model that will serve as a basis for future work aiming at better controlling the organoleptic properties of fresh and processed fruit
APA, Harvard, Vancouver, ISO, and other styles
41

Mahdi, Khouloud. "Modèle d'exploitation de flux d'événements complexes (CEP) par des patrons spatiotemporels agrégés dans un contexte de réseau de distribution énergétique." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29754.

Full text
Abstract:
Dans le domaine de l’internet des objets, nos recherches se sont focalisées sur l’étude des corrélations entre les données générées par des réseaux de capteurs. Ces données sont généralement collectées par des systèmes d’acquisition et se caractérisent par une grande vélocité et un fort volume. Les décideurs ont besoin d’outils permettant de détecter les situations d’intérêt au meilleur moment pour la prise de décision. Nous partons des travaux de doctorat de F.Barouni (2016) qui a proposé une extension du modèle et des outils de traitement d’événements complexes (CEP) pour répondre aux enjeux relatifs à la vélocité et au volume de ces données. Barouni a proposé une approche de représentation et de détection de patrons spatiotemporels pour représenter les situations d’intérêt. Notre but est de concevoir un outil destiné à gérer ces données et à fouiller des corrélations potentielles entre elles, en tenant compte des données contextuelles. Dans ce mémoire, nous proposons une approche théorique qui utilise les graphes conceptuels afin d’améliorer l’approche de Barouni en permettant de modéliser plusieurs types de relations spatiales. Dans ce contexte, nous avons proposé une extension des relations spatiales en tenant compte des éléments composant un réseau en lien avec l’espace géographique sous-jacent. En effet, notre modèle prend en compte, la représentation spatiale du réseau, la projection du réseau dans l’espace géographique sous-jacent et toutes les relations spatiales qui en découlent. Nous proposons aussi une extension au formalisme de représentation des patrons en ajoutant une structure du résumé et de contraintes du patron (graphes conceptuels) pour pouvoir modéliser des relations spatiales entre des patrons de complexité croissante. Nous avons développé un outil de détection de patrons en utilisant une approche de CEP itérative. Notre outil utilise plusieurs CEPs pour pouvoir détecter des patrons de différents degrés de complexité. Nous avons démontré la pertinence de notre approche par l’étude des événements de reconfiguration dans un réseau de distribution électrique. Notre approche est assez générique pour être applicable dans d’autres domaines d’application, tels que les réseaux de fibres optiques.
APA, Harvard, Vancouver, ISO, and other styles
42

Diop, Fallilou. "Analyses probabilistes pour l'étude des réseaux électriques de distribution." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC055/document.

Full text
Abstract:
Les mutations observées sur le système électrique (production décentralisée, véhicules électriques, stockage, micro réseau...) font émerger des problématiques d'ordres économiques et techniques dans la gestion de ce dernier. Parmi eux, l'impact sur les niveaux de tension et de courant de neutre des réseaux de distribution. Le but de cette thèse est d'étudier des modèles probabilistes pour estimer ces impacts. L'incertitude sur la puissance PV produite et sur l'utilisation des VEs implique la nécessité de développer des modèles probabilistes de consommation et de production d'électricité. Deux modèles différents de production et de consommation ont été étudiés : L'un basé sur l'approximation de données historiques par une densité de probabilité, l'autre reposant sur la répartition des données en groupes définis par un profil type et une probabilité d'occurrence. Des techniques de load flow probabilistes ont été étudiées dans cette thèse pour prendre en compte l'effet intermittente de la production PV et l'incertitude sur la consommation. Une technique basée sur la méthode de simulation Monte Carlo, une deuxième basée sur l'approximation PEM et une dernière basée sur l'utilisation du clustering appelée méthode pseudo Monte Carlo. Après avoir comparé la pertinence des méthodes sur deux réseaux test, la méthode pseudo Monte Carlo est appliquée, pour son gain en temps de simulation et son adaptabilité, dans un cas d'application qui porte sur l'estimation de la probabilité de dépassement des limites du courant de neutre en fonction du déséquilibre de production PV installée
The current changes on the electrical system bring out economic and technical issues in the management of the latter. Among these issues, the impact of distributed generation and VEs on the technical constraints of the distribution network. The aim of this thesis is to study probabilistic models to estimate the impacts of photovoltaic production and electrical vehicles on medium and low voltage distribution networks. Two different probabilistic models of production and consumption were studied : one based on the fitting of historical data by one probability density function, the other one based on the data clustered in groups defined by a standard profile and a probability of occurrence. Three probabilistic load flow technics have been studied in this thesis. The first is based on the Monte Carlo simulation method, the second is based on the PEM approximation method and the last, based on the use of clustering, is called pseudo Monte Carlo method
APA, Harvard, Vancouver, ISO, and other styles
43

Cornea, Adriana. "Bootstrap raffiné pour les lois stables parétiennes avec applications aux rendements des actifs financiers." Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX24023.

Full text
Abstract:
La suprématie des distributions stables parétiennes par rapport à la distribution Gaussienne est d'or et déjà considérée comme un fait stylisé dans la pratique et la théorie financière. Il est devenu évident que l'inférence asymptotique pour les rendements espérés des actifs financiers n'est pas toujours fiable et que le bootstrap non paramétrique peut être utilisé comme alternative. Cependant, différentes études ont mis en évidence l'invalidité du bootstrap non paramétrique pour les variables aléatoires telles que les rendements espérés issues des distributions stables parétiennes. La raison pour laquelle le bootstrap non paramétrique n'est pas valide est liée au fait que les rendements sont influencés par le risque des opportunités d'investissement, risque qui est supérieur sur un marché stable parétien que sur un marché financier gouverné par la loi Gaussienne. La solution la plus connue pour pallier à cette difficulté est le bootstrap non paramétrique avec une taille d'échantillon bootstrap inférieure à la taille de l'échantillon d'origine. Néanmoins, cette dernière technique bootstrap est moins fiable que le bootstrap non paramétrique. C'est pourquoi dans cette thèse, une nouvelle méthode bootstrap est introduite, le bootstrap raffiné, qui permet de supprimer les inconvénients du bootstrap non paramétrique et du bootstrap ayant une taille d'échantillon inférieure à la taille de l'échantillon d'origine. Enfin, le comportement du bootstrap raffiné est étudié à l'aide de simulations et sa performance est illustrée à travers les rendements des fonds de couverture et les sauts de rendements du marché à long terme basé sur l'indice S&P500
The supremacy of the stable Paretian distributions over the Gaussian distributions is by now a stylized fact in the financial theory and pratice. It is well known that the asymptotic inference about the expected returns is not always reliable and the nonparametric bootstrap can be used as an alternative. However, several studies have emphazide the fact that the nonparametric bootstrap is invalid foe the stable Paretian distributions. The reason is that the expected returns are highly influenced by the risk of the investement opportunities, risk which is always greater in stable Paretian financial market than in a Gaussian market. The widely accepted solution to the nonparametric bootstrap failure is the m out of n bootstrap. But, in this thesis it is shown that the m out of n bootstrap can also fail to provide valid inference results in small sample and can perform worse. Than the nonparametric bootstrap. In addition, in this dissertation a refined bootstrap method that overcomes the drawbacks of both of the nonparametric bootstrap and the m out of m bootstrap, is introduced. Then, the behavior of the refined boostrap is investigated through a simulation study. Finally, its performance is illustrated using returns of hedge funds and jumps of the futures S&P500 index
APA, Harvard, Vancouver, ISO, and other styles
44

Cunha, Lima Cintra Francisco. "Croissance et distribution des revenus au Brésil : approches théorique et historique." Paris 1, 2012. https://tel.archives-ouvertes.fr/tel-00796523.

Full text
Abstract:
L’énorme disparité qui caractérise la distribution des revenus au Brésil représente une remarquable dette sociale à combler, car il est inacceptable qu'un pays aussi riche que le Brésil soit si inégalitaire et si injuste pour la majorité de ses citoyens. Malgré le changement de la politique socio-économique intervenu dans les deux dernières décennies et ciblant une politique sociale plus active et dirigée vers la redistribution du revenu, l'inégalité de la société brésilienne reste criante. L'étude du développement du. Capitalisme national, à travers ses racines, implantées dès la colonisation, est indispensable si l'on veut comprendre comment la nation est parvenue à une telle situation. La formation structurelle et institutionnelle du capitalisme brésilien a engendré plusieurs distorsions dans le partage de la richesse et les politiques économiques et sociales adoptées n'ont pas été capables de construire une société juste pour l'ensemble de la population. Une analyse détaillée de l'historique de la croissance économique et de l'accumulation du capital dans l'économie brésilienne montre la trajectoire de la concentration du revenu, et souligne la responsabilité des politiques gouvernementales, peu favorables à un partage plus équitable de la richesse nationale. Les élites dominantes ont pris les rênes de la machine gouvernementale pour maintenir leurs privilèges et s'approprier la richesse nationale produite, en l'absence de toute volonté politique d'améliorer la distribution du revenu dans l'ensemble de la nation. Le principal objectif ici est donc d'étudier les effets des politiques gouvernementales dans l'accumulation du capital et dans la distribution du revenu au Brésil, en tenant compte de l'insertion brésilienne dans le système capitaliste et des résultats des politiques publiques nationales. La méthode de l'économie politique, fondée sur la théorie de distribution du revenu de Kalecki, est présente tout au long de l’analyse.
APA, Harvard, Vancouver, ISO, and other styles
45

Cartiser, Nathalie. "Intérêts et limites de l'analyse de la moelle osseuse en toxicologie médicolégale : contribution à l'interprétation quantitative des concentrations médullaires." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00847114.

Full text
Abstract:
L'objectif de cette thèse était de faire le point sur la place de l'analyse de la moelle osseuse (MO) en tant que matrice alternative au sang en toxicologie médicolégale. Une méthode analytique a été développée et validée pour la quantification du citalopram, du diazepam et ses métabolites (nordazepam, temazepam, oxazepam) dans la MO et 10 autres matrices d'intérêt médicolégal. Cette procédure a été appliquée avec succès dans des cas réels pour l'analyse de matrices dégradées et a permis l'établissement d'une cinétique tissulaire chez l'animal au cours d'une étude pharmacocinétique. Cette cinétique animale a été intégrée dans une modélisation PBPK afin de prédire chez l'homme la distribution tissulaire du citalopram, du diazepam et son métabolite principal, le nordazepam, après administration orale thérapeutique. Ces simulations donnent des clefs intéressantes pour l'interprétation quantitative des concentrations tissulaires en toxicologie médicolégale. Une étude a été conduite pour déterminer l'influence du site de prélèvement sur la détermination des concentrations médullaires de caféine et sur la corrélation de ces concentrations avec les dosages sanguins. Elle montre que le site de prélèvement de MO est un paramètre important à prendre en considération dans l'interprétation quantitative des analyses de MO. L'ensemble de ce travail confirme l'intérêt de la MO en toxicologie médicolégale. Des études expérimentales ont permis d'approfondir les connaissances de cette matrice autour des problématiques du prélèvement, de l'analyse et de la distribution ante mortem afin de contribuer à l'interprétation qualitative et quantitative des analyses réalisées sur la MO
APA, Harvard, Vancouver, ISO, and other styles
46

Bertheloot, Jessica. "Distribution de l'azote chez le blé (Triticum aesticum L. ) après la floraison : un modèle dynamique fondé sur une approche structure-fonction." Paris, AgroParisTech, 2009. http://pastel.paristech.org/5134/01/These_Jessica_Bertheloot_2009.pdf.

Full text
Abstract:
L’azote est une ressource importante pour la croissance des plantes, et pour les pathogènes des cultures. L’objectif de cette thèse est de proposer une modélisation mécaniste des dynamiques d’azote dans une plante de blé en post-floraison. Pour cela, une approche structure-fonction a été mise en oeuvre. Des expérimentations ont permis de caractériser les dynamiques spatio-temporelles d’azote dans la tige feuillée. La masse d’azote surfacique des limbes et des gaines diminuait avec la distance depuis le sommet du couvert, mais elle était homogène le long d’un limbe ou d’une gaine. Les dynamiques temporelles étaient identiques pour les gaines et les limbes suggérant que ces deux entités répondent de la même manière à la lumière interceptée et à l’état azoté de la plante. De plus, les dynamiques étaient synchrones pour tous les phytomères et identiques à un facteur d’échelle près. En période d’absence d’absorption d’azote racinaire, ces dynamiques suivaient une cinétique d’ordre un. Ces résultats ont permis de développer un modèle structure-fonction des dynamiques d’azote au sein de la structure botanique d’une tige feuillée. Les principales hypothèses de ce modèle sont: (i) la teneur en azote d’un limbe est déterminée par le turnover des protéines de l’appareil photosynthétique; (ii) les différentes entités de la tige feuillée partagent un pool commun d’azote mobile. Ce modèle a été validé sur une gamme contrastée de conditions environnementales avec un jeu unique de six paramètres. Les relations azote-éclairement sont une propriété émergente des processus décrits à l’échelle locale. Ce travail ouvre des perspectives pour simuler la régulation des dynamiques d’azote dans des modèles individus-centrés de peuplements végétaux
APA, Harvard, Vancouver, ISO, and other styles
47

Boufayed, Fakher. "Simulation du transport électrique dans un polyéthylène pour câble d'énergie par un modèle de conduction bipolaire avec distribution exponentielle de pièges." Toulouse 3, 2006. http://www.theses.fr/2006TOU30004.

Full text
Abstract:
Ce travail de thèse s'inscrit dans le cadre d'un projet Européen, HVDC, visant à évaluer les avantages environnementaux, économiques et opérationnels de développer les transmissions THT sous contrainte continue. La contribution de la thèse à ce projet porte sur l'élaboration d'un modèle de conduction bipolaire dissymétrique destiné à rendre compte de l'évolution spatiale et temporelle de la charge d'espace engendrée par l'injection de particules chargées dans le LDPE et le XLPE soumis à une contrainte continue. Une distribution exponentielle et un niveau maximal de profondeur de pièges sont adoptés pour le modèle. Cette étude allie étroitement la modélisation numérique à des mesures expérimentales menées à bien par nos partenaires dans le projet. Une étude de criticité minutieuse sur les paramètres du modèle a été effectuée, ce qui nous a permis de choisir un jeu unique de paramètres pour la validation du modèle. Les résultats de simulation ont été comparés à des mesures expérimentales, à savoir l'évolution spatio-temporelle des densités de charge interne et les transitoires de courant
This thesis work has been developed in the framework of a European Project, HVDC, aimed at evaluating environmental, economic and operational benefits to develop HV transmission under DC stress. The contribution of the thesis to this project consists in the development of a dissymmetric bipolar model of transport intended to account for the space and temporal evolution of the space charge generated by the injection of charged particles in Polyethylene materials subjected to a DC stress. An exponential distribution and a maximum level of trap depth have been adopted for the model. This study closely associates numerical modeling and experimental measurements carried out by our partners in the project. A detailed study on the criticality of the parameters of the model was carried out, which enabled us to choose a single set of parameters for the validation of the model. Simulation results were compared with experimental measurements resorting to the time- and space- evolution of internal charge density and to current transients
APA, Harvard, Vancouver, ISO, and other styles
48

Brazey, Denis. "Reconnaissance de formes et suivi de mouvements en 4D temps-réel : Restauration de cartes de profondeur." Thesis, Rouen, INSA, 2014. http://www.theses.fr/2014ISAM0019.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à plusieurs problématiques liées au traitement de données 3D. La première concerne la détection et le suivi de personnes dans des séquences d'images de profondeur. Nous proposons une amélioration d'une méthode existante basée sur une étape de segmentation, puis de suivi des personnes. La deuxième problématique abordée est la détection et la modélisation de têtes dans un nuage de points 3D. Pour cela, nous adoptons une approche probabiliste basée sur un nouveau modèle de mélange sphérique. La dernière application traitée est liée à la restauration d'images de profondeur présentant des données manquantes. Nous proposons pour cela d'utiliser une méthode d'approximation de surface par Dm-splines d'interpolation avec changements d'échelle pour approximer et restaurer les données. Les résultats présentés illustrent l'efficacité des algorithmes développés
In this dissertation, we are interested in several issues related to 3D data processing. The first one concerns people detection and tracking in depth map sequences. We propose an improvement of an existing method based on a segmentation stage followed by a tracking module. The second issue is head detection and modelling in 3D point clouds. In order to do this, we adopt a probabilistic approach based on a new spherical mixture model. The last considered application deals with the restoration of deteriorated depth maps. To solve this problem, we propose to use a surface approximation method based on interpolation Dm-splines with scale transforms to approximate and restore the image. Presented results illustrate the efficiency of the developed algorithms
APA, Harvard, Vancouver, ISO, and other styles
49

Leca, Jérôme. "Cinématique et dynamique galactiques." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAE003/document.

Full text
Abstract:
Les modèles galactiques auto-cohérents sont nécessaires pour analyser et interpréter les comptages d’étoiles, les distributions de densité stellaire et la cinématique stellaire, dans le but de comprendre la formation et l’évolution de notre Galaxie. Cette thèse a pour but de modifier et améliorer l’auto-cohérence dynamique du modèle galactique de Besançon (BGM) dans le cas d’un potentiel gravitationnel stationnaire et axisymétrique. Chaque orbite stellaire est modélisée en déterminant une troisième intégrale du mouvement de Stäckel. Une fonction de distribution de Shu généralisée avec trois intégrales du mouvement est utilisée pour modéliser la fonction de distribution stellaire. Cette nouvelle version du BGM est comparée avec la précédente version axisymétrique BGM2014 et nous trouvons que les deux versions ont des densités similaires pour chaque composante. L’auto-cohérence dynamique est améliorée et peut être testée en retrouvant les forces et le potentiel via les équations de Jeans appliquées à chaque fonction de distribution stellaire. Les forces sont retrouvées avec une précision meilleure que 1 % sur la plupart du volume galactique
Dynamically self-consistent galactic models are necessary for analysing and interpreting star counts, stellar density distributions, and stellar kinematics in order to understand the formation and the evolution of our Galaxy. This thesis aims to modify and improve the dynamical self-consistency of the Besançon Galaxy model in the case of a stationary and axisymmetric gravitational potential. Each stellar orbit is modelled by determining a Stäckel approximate integral of motion. Generalised Shu distribution functions (DFs) with three integrals of motion are used to model the stellar distribution functions. This new version of the Besançon model is compared with the previous axisymmetric BGM2014 version and we find that the two versions have similar densities for each stellar component. The dynamically self-consistency is improved and can be tested by recovering the forces and the potential through the Jeans equations applied to each stellar distribution function. Forces are recovered with an accuracy better than 1 % over most of the volume of the Galaxy
APA, Harvard, Vancouver, ISO, and other styles
50

Moua, Yi. "Correction de l’effet du biais d’échantillonnage dans la modélisation de la qualité des habitats écologiques : application au principal vecteur du paludisme en Guyane française." Thesis, Guyane, 2017. http://www.theses.fr/2017YANE0002/document.

Full text
Abstract:
Les modèles de distribution d’espèces ont été identifiées comme pertinents pour cartographier et caractériser la qualitéd’habitat des moustiques vecteurs du paludisme, Anopheles, afin de participer à l’estimation du risque de transmission decette maladie et à la définition de stratégies de lutte anti-vectorielle ciblées. La transmission du paludisme dépend de laprésence et de la distribution des vecteurs, qui dépendent elles-mêmes des conditions environnementales définissant laqualité des habitats écologiques des Anopheles. Cependant, dans certaines régions, les données de captures d’Anophelessont rares, et rend difficile la cartographie de leurs habitats. De plus, le recueil de ces données est très souvent soumis à desbiais d’échantillonnage.Cette thèse fournit une solution à la cartographie des vecteurs du paludisme, en considérant deux aspects très peu étudiésdans la modélisation : le faible nombre de sites de présence disponibles et l’existence d’un biais d’échantillonnage. Uneméthode originale de correction de l’effet du biais d’échantillonnage est proposée puis appliquée à des données de présencedu principal vecteur du paludisme en Guyane, Anopheles darlingi. Un modèle de distribution d’An. darlingi a ensuite étéconstruit, permettant d’obtenir une carte de qualité d’habitat en cohérence avec la connaissance des entomologistes etfournissant des performances de prédiction élevées. La méthode de correction proposée a ensuite été comparée auxméthodes existantes dans un contexte applicatif caractérisé par la rareté des données d’occurrence de l’espèce et laprésence d’un biais d’échantillonnage. Les résultats montrent que la méthode développée est adaptée aux cas où le nombrede sites de présence est faible. Cette thèse contribue, d’une part, à combler les lacunes théoriques et d’applicabilité desméthodes actuelles visant à corriger l’effet des biais d’échantillonnage et, d’autre part, à compléter la connaissance sur ladistribution spatiale et la bioécologie du principal vecteur du paludisme en Guyane française
Species distribution models are identified as relevant to map and characterize the habitat quality of Anopheles genusmosquitoes, transmitting malaria, and thus to both participate in the estimation of the transmission risk of this disease and inthe definition of targeted vector control actions. The malaria transmission depends on the presence and distribution of thevectors, which are themselves dependent on the environmental conditions that define the quality of the ecological habitats of the Anopheles. However, in some areas, Anopheles collection data remain scarce, making it difficult to model these habitats. In addition, the collection of these data is very often subjected to significant sampling biases, due, in particular, to unequal accessibility to the entire study area. This thesis provides a solution to the mapping of malaria vectors, considering two very few studied aspects in modeling: the low number of available presence sites and the existence of a sampling bias. An original method for correcting the effect of the sampling bias is proposed and then applied to presence data of Anopheles darlingi species - the main vector of malaria in South America - in French Guiana. Then, a distribution model of An. darlingi was built to obtain a map of habitat quality consistent with entomologists’ knowledge and providing high prediction performances. The proposed correction method was then compared to existing methods in an application context characterized by the scarcity of the species occurence data and the presence of a sampling bias. The results show that the developed method is adapted to cases where the number of sites of presence is low. This thesis contributes, on the one hand, to fill theoretical and applicability lacuna of current methods intended to correct the effect of the sampling bias and, on the other hand, to supplement the knowledge on both the spatial distribution and the bio-ecology of the main malaria vector in French Guiana
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography