To see the other types of publications on this topic, follow the link: Approche déterministe.

Dissertations / Theses on the topic 'Approche déterministe'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Approche déterministe.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zeriab, Mohamed Zeriab. "Contribution à l'optimisation globale : approche déterministe et stochastique et application." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00560887.

Full text
Abstract:
Dans les situations convexes, le problème d'optimisation globale peut être abordé par un ensemble de méthodes classiques, telles, par exemple, celles basées sur le gradient, qui ont montré leur efficacité en ce domaine. Lorsque la situation n'est pas convexe, ces méthodes peuvent être mises en défaut et ne pas trouver un optimum global. La contribution de cette thèse est une méthodologie pour la détermination de l'optimum global d'une fonction non convexe, en utilisant des algorithmes hybrides basés sur un couplage entre des algorithmes stochastiques issus de familles connues, telles, par exemple, celle des algorithmes génétiques ou celle du recuit simulé et des algorithmes déterministes perturbés aléatoirement de façon convenable. D'une part, les familles d'algorithmes stochastiques considérées ont fait preuve d'efficacité pour certaines classes de problèmes et, d'autre part, l'adjonction de perturbations aléatoires permet de construire des méthodes qui sont en théorie convergents vers un optimum global. En pratique, chacune de ces approches a ses limitations et insuffisantes, de manière que le couplage envisagé dans cette thèse est une alternative susceptible d'augmenter l'efficacité numérique. Nous examinons dans cette thèse quelques unes de ces possibilités de couplage. Pour établir leur efficacité, nous les appliquons à des situations test classiques et à un problème de nature stochastique du domaine des transports.
APA, Harvard, Vancouver, ISO, and other styles
2

Es-Sadek, Mohamed Zeriab. "Contribution à l'optimisation globale : approche déterministe et stochastique et application." Thesis, Rouen, INSA, 2009. http://www.theses.fr/2009ISAM0010/document.

Full text
Abstract:
Dans les situations convexes, le problème d'optimisation globale peut être abordé par un ensemble de méthodes classiques, telles, par exemple, celles basées sur le gradient, qui ont montré leur efficacité en ce domaine. Lorsque la situation n'est pas convexe, ces méthodes peuvent être mises en défaut et ne pas trouver un optimum global. La contribution de cette thèse est une méthodologie pour la détermination de l'optimum global d'une fonction non convexe, en utilisant des algorithmes hybrides basés sur un couplage entre des algorithmes stochastiques issus de familles connues, telles, par exemple, celle des algorithmes génétiques ou celle du recuit simulé et des algorithmes déterministes perturbés aléatoirement de façon convenable. D'une part, les familles d'algorithmes stochastiques considérées ont fait preuve d'efficacité pour certaines classes de problèmes et, d'autre part, l'adjonction de perturbations aléatoires permet de construire des méthodes qui sont en théorie convergents vers un optimum global. En pratique, chacune de ces approches a ses limitations et insuffisantes, de manière que le couplage envisagé dans cette thèse est une alternative susceptible d'augmenter l'efficacité numérique. Nous examinons dans cette thèse quelques unes de ces possibilités de couplage. Pour établir leur efficacité, nous les appliquons à des situations test classiques et à un problème de nature stochastique du domaine des transports<br>This thesis concerns the global optimization of a non convex function under non linear restrictions, this problem cannot be solved using the classic deterministic methods like the projected gradient algorithm and the sqp method because they can solve only the convex problems. The stochastic algorithms like the genetic algorithm and the simulated annealing algorithm are also inefficients for solving this type of problems. For solving this kind of problems, we try to perturb stocasicly the deterministic classic method and to combine this perturbation with genetic algorithm and the simulated annealing. So we do the combination between the perturbed projected gradient and the genetic algorithm, the perturbed sqp method and the genetic algorithm, the perturbed projected gradient and the simulated annealing, the Piyavskii algorithm and the genetic algorithm. We applicate the coupled algorithms to different classic examples for concretited the thesis. For illustration in the real life, we applicate the coupled perturbed projected gradient end the genetic algorithm to logistic problem eventuelly transport. In this view, we sold the efficient practices
APA, Harvard, Vancouver, ISO, and other styles
3

Ghilardi, Jean-Pierre. "Optimisation de la représentation de graphes par approche hybride déterministe et stochastique." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30032.

Full text
Abstract:
Dans le domaine de la bibliométrie il est courant d'avoir à retraiter des corpus d'informations importants difficiles à interpréter par lecture directe. Des outils, intégrant des traitements mathématiques complexes, ont été développés pour traiter l'information massive structurée et en extraire l'information pertinente susceptible d'alimenter les processus de prise de décision. Le Centre de Recherche Rétrospective de Marseille s'est depuis de nombreuses années spécialisé en traitement de l'information et a développé des outils informatiques basés sur la représentation graphique de relations reliant des entités : les graphes de paires. S'inscrivant dans cette démarche, ce travail de recherche a permis de définir des traitements innovants s'appuyant sur la théorie des graphes, les algorithmes de recuit simulé et les algorithmes génétiques qui permettent d'aboutir à une expression géométrique organisée des graphes de paire et ainsi d'en faciliter l'exploitation par le plus grand nombre<br>In bibliometrie scope, we frequently have to compute database which constitute a quantitive information corpus, difficult to interpret by direct reading. That's the reason why some tools with complex mathematic treatments have been created, this is how structured data bank can be processing to obtain relevant information available for decision makers. The Centre de Recherche Rétrospective de Marseille is specialized in information processing for a long time. Automatic tools based on geometrical representation of relationship between entities have been developed. During this research, an innovant data processing implemented to automatically produce an organized representation of graph easily understandable have been defined. The treatment chain is based on two different approach, a determinist approach issuing from graph theory and a stochastic approach composed of simulated annealing algorithm and genetic algorithm, which allow to make easier graph reading
APA, Harvard, Vancouver, ISO, and other styles
4

Marchand, Didier. "Modélisation fonctionnelle du bilan hydrique sur sol cultivé : approche déterministe ou stochastique ?" Grenoble 1, 1988. http://www.theses.fr/1988GRE10130.

Full text
Abstract:
Etude realisee dans le but d'une aide a la decision agricole en zones tropicales seches. Examen de la litterature. Interet de l'approche fonctionnelle. Validation deterministe sur les sites de thysse-kaymor (senegal et de bouake - cote d'ivoire)pour mil, arachide et riz fluvial. Prise en compte de la variabilite spatiale a l'echelle parcellaire des resultats. Determination par simulations (monte-carlo, realisations optimales) de l'influence de la variabilite spatiale des parametres d'entree sur les sorties
APA, Harvard, Vancouver, ISO, and other styles
5

Hoerlé, Stéphane. "Chaos déterministe dans les phénomènes de piqûration des alliages passivables." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0135.

Full text
Abstract:
L'etude des signaux de bruit electrochimique a montre qu'ils presentaient des caracteristiques deterministes (parfois chaotiques) en presence de piqures propageantes. Les conditions d'apparition des comportements deterministes dependent de la severite du couple materiaux/solution. Ainsi, la composition de l'electrolyte (rapport cl#/no#3#, ph), l'epaisseur du film passif ou la composition de l'alliage permettent-ils de modifier les caracteristiques des comportements deterministes. La presence d'une seule piqure stable suffit a observer des comportements deterministes. Les signaux de bruit electrochimique sont non stationnaires, ce qui traduit une modification du comportement de la piqure (vitesse ou mode de propagation) au cours du temps. Par la modification de la composition de l'electrolyte, des transitions entre regimes aleatoires et deterministes sont mises en evidence. Des transitions spontanees entre regimes deterministes de caracteristiques differentes sont egalement observables (bifurcations). Ces bifurcations revelent differents modes d'apparition des comportements chaotiques. Les modes d'apparition du chaos observes, ainsi que les caracteristiques des signaux chaotiques offrent une base pour proposer des modelisations (modeles continus ou discrets) des phenomenes electrochimiques a l'interieur de la piqure, qui permettent de retrouver les comportements observes experimentalement ainsi que l'effet des differents parametres. L'analyse des comportements chaotiques d'une piqure permet de mieux comprendre les mecanismes de propagation d'une piqure et donne des outils pour controler (empecher ou diriger) le developpement des piqures stables.
APA, Harvard, Vancouver, ISO, and other styles
6

Pop, Antoniu. "Exploitation du streaming pour la parallélisation déterministe : approche langage, compilateur et système de runtime intégrée." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00712006.

Full text
Abstract:
La performance des unités de calcul séquentiel a atteint des limites technologiques qui ont conduit à une transition de la tendance à l'accélération des calculs séquentiels vers une augmentation exponentielle du nombre d'unités de calcul par microprocesseur. Ces nouvelles architectures ne permettent d'augmenter la vitesse de calcul que proportionnellement au parallélisme qui peut être exploité, soit via le modèle de programmation soit par un compilateur optimiseur. Cependant, la disponibilité du parallélisme en soi ne suffit pas à améliorer les performances si un grand nombre de processeurs sont en compétition pour l'accès à la mémoire. Le modèle de streaming répond à ce problème et représente une solution viable pour l'exploitation des architectures à venir. Cette thèse aborde le streaming comme un modèle général de programmation parallèle, plutôt qu'un modèle dédié à une classe d'applications, en fournissant une extension pour le streaming à un langage standard pour la programmation parallèle avec mémoire partagée, OpenMP. Un nouveau modèle formel est développé, dans une première partie, pour étudier les propriétés des programmes qui font appel au streaming, sans les restrictions qui sont généralement associées aux modèles de flot de données. Ce modèle permet de prouver que ces programmes sont déterministes à la fois fonctionnellement et par rapport aux deadlocks, ce qui est essentiel pour la productivité des programmeurs. La deuxième partie de ce travail est consacrée à l'exploitation efficace de ce modèle, avec support logiciel à l'exécution et optimisations de compilation, à travers l'implantation d'un prototype dans le compilateur GCC.
APA, Harvard, Vancouver, ISO, and other styles
7

Dargelas, Alain. "Approche multi-stratégique pour la génération déterministe de vecteurs de test de circuits séquentiels synchrones." Montpellier 2, 1997. http://www.theses.fr/1997MON20033.

Full text
Abstract:
Cette these propose une etude bibliographique exhaustive des techniques deterministes de generation de vecteurs de test pour circuits combinatoires et sequentiels synchrones. Une description exhaustive des difficultes specifique du test des circuits combinatoires et sequentiels est faite. Une approche pragmatique est menee pour repondre aux exigences industrielles de la generation de vecteurs de test pour les circuits combinatoires et sequentiels. Des methodes originales, visant les couches algorithmiques de haut niveau, telles que les strategies multiples de recherche structurelle ou les strategies multiples de recherche temporelle sont introduites. D'autres mecanismes de bas niveau tels que les mecanismes de remise en cause ou d'ordonnancement de decisions sont discutes. Une demonstration de l'efficacite des methodes proposees est faite par comparaison avec les meilleurs outils industriels. Cette efficacite se mesure par rapport au taux de couverture de fautes atteint, a la reduction du temps de generation et a la reduction des longueurs de sequences de test. Finalement, une ouverture des techniques utilisees par les generateurs de vecteurs de test vers d'autres disciplines de la microelectronique est exposee
APA, Harvard, Vancouver, ISO, and other styles
8

Ravelomanantsoa, Andrianiaina. "Approche déterministe de l'acquisition comprimée et la reconstruction des signaux issus de capteurs intelligents distribués." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0136/document.

Full text
Abstract:
Le réseau sans fil sur le corps humain ou « wireless body area network (WBAN) » est une nouvelle technologie de réseau sans fil dédié à la surveillance des paramètres physiologiques d’une personne. Le réseau est composé de dispositifs électroniques miniatures, appelés nœuds, disposés aux alentours ou à l’intérieur du corps humain. Chaque nœud est doté d’un ou plusieurs capteurs mesurant les paramètres physiologiques de la personne, comme l’électrocardiogramme ou bien la température du corps, et les caractéristiques de l’environnement qui l’entoure. Ces nœuds sont surtout soumis à une contrainte énergétique importante puisque la miniaturisation a réduit les dimensions de leurs batteries. Puisque les nœuds consomment la majorité de l’énergie pour transmettre les données, une solution pour diminuer leur consommation consisterait à compresser les données avant la transmission. Les méthodes classiques de compression ne sont pas adaptées pour le WBAN particulièrement à cause de la puissance de calcul requise et la consommation qui en résulterait. Dans cette thèse, pour contourner ces problèmes, nous utilisons une méthode à base de l’acquisition comprimée pour compresser et reconstruire les données provenant des nœuds. Nous proposons un encodeur simple et facile à mettre en œuvre pour compresser les signaux. Nous présentons aussi un algorithme permettant de réduire la complexité de la phase de reconstruction des signaux. Un travail collaboratif avec l’entreprise TEA (Technologie Ergonomie Appliquées) nous a permis de valider expérimentalement une version numérique de l’encodeur et l’algorithme de reconstruction. Nous avons aussi développé et validé une version analogique de l’encodeur en utilisant des composants standards<br>A wireless body area network (WBAN) is a new class of wireless networks dedicated to monitor human physiological parameters. It consists of small electronic devices, also called nodes, attached to or implanted in the human body. Each node comprises one or many sensors which measure physiological signals, such as electrocardiogram or body heat, and the characteristics of the surrounding environment. These nodes are mainly subject to a significant energy constraint due to the fact that the miniaturization has reduced the size of their batteries. A solution to minimize the energy consumption would be to compress the sensed data before wirelessly transmitting them. Indeed, research has shown that most of the available energy are consumed by the wireless transmitter. Conventional compression methods are not suitable for WBANs because they involve a high computational power and increase the energy consumption. To overcome these limitations, we use compressed sensing (CS) to compress and recover the sensed data. We propose a simple and efficient encoder to compress the data. We also introduce a new algorithm to reduce the complexity of the recovery process. A partnership with TEA (Technologie Ergonomie Appliquées) company allowed us to experimentally evaluate the performance of the proposed method during which a numeric version of the encoder has been used. We also developed and validated an analog version of the encoder
APA, Harvard, Vancouver, ISO, and other styles
9

Ravelomanantsoa, Andrianiaina. "Approche déterministe de l'acquisition comprimée et la reconstruction des signaux issus de capteurs intelligents distribués." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0136.

Full text
Abstract:
Le réseau sans fil sur le corps humain ou « wireless body area network (WBAN) » est une nouvelle technologie de réseau sans fil dédié à la surveillance des paramètres physiologiques d’une personne. Le réseau est composé de dispositifs électroniques miniatures, appelés nœuds, disposés aux alentours ou à l’intérieur du corps humain. Chaque nœud est doté d’un ou plusieurs capteurs mesurant les paramètres physiologiques de la personne, comme l’électrocardiogramme ou bien la température du corps, et les caractéristiques de l’environnement qui l’entoure. Ces nœuds sont surtout soumis à une contrainte énergétique importante puisque la miniaturisation a réduit les dimensions de leurs batteries. Puisque les nœuds consomment la majorité de l’énergie pour transmettre les données, une solution pour diminuer leur consommation consisterait à compresser les données avant la transmission. Les méthodes classiques de compression ne sont pas adaptées pour le WBAN particulièrement à cause de la puissance de calcul requise et la consommation qui en résulterait. Dans cette thèse, pour contourner ces problèmes, nous utilisons une méthode à base de l’acquisition comprimée pour compresser et reconstruire les données provenant des nœuds. Nous proposons un encodeur simple et facile à mettre en œuvre pour compresser les signaux. Nous présentons aussi un algorithme permettant de réduire la complexité de la phase de reconstruction des signaux. Un travail collaboratif avec l’entreprise TEA (Technologie Ergonomie Appliquées) nous a permis de valider expérimentalement une version numérique de l’encodeur et l’algorithme de reconstruction. Nous avons aussi développé et validé une version analogique de l’encodeur en utilisant des composants standards<br>A wireless body area network (WBAN) is a new class of wireless networks dedicated to monitor human physiological parameters. It consists of small electronic devices, also called nodes, attached to or implanted in the human body. Each node comprises one or many sensors which measure physiological signals, such as electrocardiogram or body heat, and the characteristics of the surrounding environment. These nodes are mainly subject to a significant energy constraint due to the fact that the miniaturization has reduced the size of their batteries. A solution to minimize the energy consumption would be to compress the sensed data before wirelessly transmitting them. Indeed, research has shown that most of the available energy are consumed by the wireless transmitter. Conventional compression methods are not suitable for WBANs because they involve a high computational power and increase the energy consumption. To overcome these limitations, we use compressed sensing (CS) to compress and recover the sensed data. We propose a simple and efficient encoder to compress the data. We also introduce a new algorithm to reduce the complexity of the recovery process. A partnership with TEA (Technologie Ergonomie Appliquées) company allowed us to experimentally evaluate the performance of the proposed method during which a numeric version of the encoder has been used. We also developed and validated an analog version of the encoder
APA, Harvard, Vancouver, ISO, and other styles
10

Oquendo, Luciano. "Dorb : une approche déterministe pour la prise en compte d'applications temps réel distribués selon l'architecture CORBA." Chambéry, 2000. http://www.theses.fr/2000CHAMS020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Enjalbert, Jean-Michel. "Optimisation des manoeuvres orbitales pour la mise à poste des satellites géostationnaires : approche déterministe et stochastique." Toulouse, INSA, 1989. http://www.theses.fr/1989ISAT0026.

Full text
Abstract:
Une approche a deux niveaux integrant des methodes d'optimisation globale et locale est developpee et validee a travers son application a une classe de problemes d'optimisation parametrique complexe. Le probleme etudie porte sur l'optimisation des manuvres orbitales intervenant lors de la mise a poste principale d'un satellite geostationnaire. C'est un probleme de commande optimale sous contraintes ou il s'agit de determiner le nombre de poussees a effectuer et leurs parametres respectifs. Sa resolution est basee sur une decomposition a deux niveaux du probleme. Au premier niveau, un modele impulsionnel agrege est defini et resolu par programmation dynamique. Les resultats obtenus permettent de fournir une initialisation au probleme reel pour lequel plusieurs methodes d'optimisation sont proposees (programmation dynamique iterative et methode du simplexe de nelder et mead). La complexite de ce probleme se trouve singulierement accrue par la prise en compte de termes perturbateurs intervenant de maniere multiplicative sur les parametres de commande (poussee du moteur d'apogee). Pour resoudre ce probleme deux approches sont developpees et comparees; la premiere est basee sur la programmation dynamique stochastique et la seconde sur la these d'un regulateur. Pour cette derniere, un regulateur lqg obtenu par linearisation du modele est compare a une optimisation parametrique d'une classe de regulateurs. L'ensemble des experimentations numeriques est realise sur la base des donnees du satellite tdf1 fournies par le cnes
APA, Harvard, Vancouver, ISO, and other styles
12

Remond, Romain. "Approche déterministe du séchage des avivés de résineux de fortes épaisseurs pour proposer des conduites industrielles adaptées." Phd thesis, ENGREF (AgroParisTech), 2004. http://pastel.archives-ouvertes.fr/pastel-00001132.

Full text
Abstract:
Les sécheurs connaissent des difficultés pour sécher les avivés d'épicéa de fortes épaisseurs avec les séchoirs industriels classiques. Notre étude a pour ambition d'améliorer les connaissances sur le séchage des avivés de résineux de fortes épaisseurs par une approche déterministe. Le code numérique TransPore, développé par Patrick Perré, de part sa capacité à simuler les transferts couplés de chaleur et de masse dans une planche de bois, est placé au cœur de notre approche. Notre démarche scientifique a nécessité la mise en place de deux outils : - un dispositif expérimental a été mis en place pour obtenir des informations descriptives sur les transferts de masse s'effectuant dans la planche au cours de son séchage, et sur les contraintes mécaniques engendrées par le séchage. Ce dispositif mesure en continu l'épaisseur des avivés, les fentes de surface, et le champ de teneur en eau dans la planche par atténuation de rayons X ; - une unité de calcul des contraintes de séchage a été développée et greffée à TransPore (version 1D) pour aborder l'aspect qualitatif du séchage. La formulation mécanique adoptée est monodimensionnelle, et elle prend en compte la courbure éventuelle de la planche pour, par exemple, simuler un séchage dissymétrique. Les résultats expérimentaux ont ensuite été confrontés aux résultats théoriques pour confirmer et valider les résultats prédits par la simulation numérique. La comparaison s'est avérée souvent très probante, tant au niveau des transferts couplés de chaleur et de masse qu'au niveau de l'évaluation des contraintes de séchage. Ce travail se termine par l'utilisation du code TransPore comme outil d'aide à la compréhension des mécanismes couplés qui rendent le séchage des fortes épaisseurs particulièrement difficile. Cet outil a montré également sa capacité à guider ses utilisateurs dans le développement de nouvelles conduites de séchage. Cette dernière application ouvre une voie prometteuse vers l'optimisation des tables de séchage.
APA, Harvard, Vancouver, ISO, and other styles
13

Riesenmey, Caroline. "Evaluation de l'impact d'un centre de stockage de déchets sur la qualité de l'air : approche par méthodes statistiques et modélisation déterministe." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00777186.

Full text
Abstract:
Les Centres de Stockage de Déchets (CSD) ménagers et assimilés peuvent avoir des impacts importants sur la qualité de l'air à proximité. Cependant, ces impacts restent difficiles à évaluer avec les outils classiquement utilisés en pollution de l'air. Ceci est dû à différentes particularités propres aux CSD : la source d'émission (surfacique, passive, située parfois dans une zone en relief, ...), le type de pollution (olfactive) et l'échelle spatio-temporelle du phénomène (pics de pollution relativement courts et ne touchant qu'une zone restreinte autour du site). Après une mise en évidence des liens entre les conditions météorologiques et la qualité de l'air, trois types d'outils ont été élaborés et testés successivement afin d'évaluer cette pollution : * Un tunnel de vent pour quantifier les émissions : le principal inconvénient de cet outil couramment utilisé est la forte dépendance des résultats aux conditions de mesure et au type de tunnel utilisé. Une modélisation, avec le logiciel Fluent, des échanges sol / air et des écoulements dans différents types de tunnel permet d'évaluer l'incertitude de la mesure liée à l'utilisation du tunnel. * Un modèle de dispersion : le modèle météorologique à très fine échelle ARPS (Advanced Regional Prediction System) a été couplé à un modèle de dispersion eulérien afin de représenter la météorologie locale sur le site et la dispersion des polluants avec une résolution fine (100 m). Le modèle a été testé et validé sur un CSD situé dans une zone présentant un relief important pour des conditions météorologiques particulièrement favorables aux épisodes de pollution. * Un outil de quantification de l'exposition des populations : Il s'agit d'un outil SIG (Systèmes d'Information Géographique) permettant d'évaluer l'exposition par superposition des cartes de panache (obtenues dans la deuxième étape) avec des cartes de densité de population afin d'obtenir des cartes d'exposition. L'ensemble de la chaîne présentée ci-dessus permet d'évaluer avec précision l'exposition d'une population aux émissions d'un CSD en tenant compte des conditions météorologiques et des modifications du relief à long terme liées au stockage des déchets.
APA, Harvard, Vancouver, ISO, and other styles
14

Bénard, Michel. "CComparaison élastique de courbes à l'aide de distances bâties sur des modèles stichastiques et déterministes." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0009.

Full text
Abstract:
Cette thèse traite de la comparaison de courbes en traitement d'images. Dans la première partie, nous construisons une distance à partir d'un modèle de déformation stochastique d'une courbe fermée par des similitudes aléatoires. Nous étudions le déplacement entre la courbe initiale et la courbe déformée. Partant d'un modèle de courbe discret, nous établissons le modèle limite continu, qui est identifie a une diffusion stochastique, solution d'une équation différentielle stochastique. Lors de la démonstration nous mettons en évidence les types pertinents de variances des similitudes. Nous donnons une méthode de simulation du déplacement aléatoire, puis argumentons pour une modification du déplacement afin d'avoir des déplacements à barycentre nul. Ces déplacements modifies ne sont plus des diffusions. Nous utilisons ensuite une inégalité de grande déviation pour déduire de ce type de déplacement une distance entre courbes. Nous montrons alors que par le choix d'une fonction de variance particulière, on retrouve une distance entre courbes déjà utilisée en traitement d'images, bien que trouvée d'après d'autres prémisses, jetant ainsi un pont entre des méthodes purement déterministes, et une méthode stochastique. Dans la deuxième partie, nous partons d'une distance déjà établie et montrons le besoin d'un algorithme multi-échelles pour le calcul des paramètres optimaux. Nous décrivons des méthodes qui permettent d'accélérer les processus de minimisation, et dégageons un critère permettant de savoir s'il faut ou non utiliser une analyse multi-résolutions. Des exemples d'application sont donnés
APA, Harvard, Vancouver, ISO, and other styles
15

Gaillard, François. "Approche cognitive pour la planification de trajectoire sous contraintes." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00839372.

Full text
Abstract:
Je présente une approche cognitive pour la planification de trajectoire sous contraintes. Elle repose en premier lieu sur DKP : un planificateur de trajectoires par échantillonnage. DKP construit un arbre d'exploration dans les parties atteignables de l'environnement à la manière d'un A∗ . Les solutions sont des trajectoires splines quadratiques adaptées au contrôle de robots à deux roues indépendantes. La couche de propagation construit un espace des paramètres, contenant toutes les valeurs des paramètres laissés libres dans les solutions. Il est représenté sous la forme d'une surface contenant toutes les solutions locales qui respectent les contraintes du problème : vitesse, accélération, évitement d'obstacle. . . Ensuite, une recherche de solutions est effectuée sur l'espace des paramètres selon un critère d'optimisation. DKP a la propriété d'être entièrement déterministe : les résultats sont reproductibles et son comportement est complètement contrôlable. Ce contrôle me sert à définir des comportements de pilotage. Ils sont exprimés sous la forme d'un arbre de comportements : chaque comportement agit sur la manière dont l'arbre d'exploration produit par DKP progresse dans l'environnement. De plus, les comportements sont appliqués en fonction de la partie explorée. Ainsi, seuls les comportements faisables sont développés. TÆMS permet de décrire ces comportements de pilotage puis d'évaluer les solutions ainsi construites. Pour résumer, mon approche cognitive repose sur l'évolution conjointe d'un arbre de comportements de pilotage et d'un arbre d'exploration : elle fait ainsi le lien entre planification classique et planification de trajectoire sous contraintes.
APA, Harvard, Vancouver, ISO, and other styles
16

Kazem, Ali. "Particules déterministes généralisées en filtrage non-linéaire : applications défense et télécommunications." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/1638/.

Full text
Abstract:
La technique de filtrage particulaire s'applique à tous les problèmes d'estimation des systèmes dynamiques markoviens, sans restriction sur la nature des non-linéarités et/ou des distributions de bruits. L'objet de ce mémoire est de montrer la généralité de la technique déterministe en filtrage particulaire, par opposition à l'ancienne version aléatoire, qui permet d'éviter l'aléa inutilement introduit tant en prédiction qu'une redistribution des particules après pondération bayésienne. Le présent travail, s'articule autour de deux apports: Le premier, concerne le filtrage optimal à maximum de vraisemblance, et porte sur l'estimation trajectorielle globale des variables d'état. Le second portant sur le filtrage particulaire déterministe, concerne le filtrage optimal à minimum de variance, et porte sur l'estimation marginale à l'instant courant, par redistribution déterministe conforme en loi. Cette approche délivre simultanément tous les modes (maxima locaux) de la densité de probabilité marginale de l'état courant. Le mémoire met l'accent sur plusieurs réalisations dans des domaines différents, communications: Nous avons développé un outil à base de filtrage particulaire qui permet d'estimer conjointement des paramètres cinématiques relatifs au récepteur et la détection du message transmis par un satellite. Nous avons également proposé une série de schémas d'estimation/décodage itératifs du message turbo-codé conforme au standard DVB-RCS. Estimation de cible en sonar: On a construit un récepteur passif particulaire se contentant d'écouter sa cible, afin d'identifier ses paramètres cinématiques. La version déterministe permet de faire diminuer considérablement la masse de calculs. Traitement du signal radar: Le premier récepteur déterministe, à maximum de vraisemblance est utilisé pour la détection/poursuite de cibles furtives et manoeuvrantes, dans le cas où il y un nombre très limité de mesures disponibles pendant un tour d'antenne du radar de veille. Le second récepteur consiste à appliquer la technique à minimum de variance au radar ARMOR, ce qui a permis de confirmer des gains inhabituels en termes de rapport signal sur bruit. La nouvelle technique déterministe à minimum de variance s'étend également au multi-cible et au traitement en présence de fouillis, avec l'incomparable économie calculatoire du déterministe<br>Particle filters are presently among the most powerful tools to estimate Markovian dynamical systems, regardless of the nature of nonlinearities and/or noise probability distributions. The purpose of this dissertation is to show the generality of deterministic particle filtering, as opposed to the former random version, which avoids randomization in the prediction stage as well as in the resampling stage after Bayesian correction. This work relies on two kinds of results: the first concerns the particle filter-based maximum likelihood estimator for sequential estimation of the state variables. The second patent, introducing deterministic particle filtering in the minimum variance sense, focuses on the current state marginal estimation using a resampling scheme consistant with the a posteriori distribution. This approach simultaneously delivers all modes (local maxima) of the marginal probability density function of the current state. The thesis focuses on several achievements in various fields: communications: The proposed particle algorithm makes possible the joint estimation of the kinematic channel parameters at the receiver side and the detection of the message transmitted by a satellite. We have also proposed several techniques for the iterative estimation and decoding of the turbo-coded message compliant with the DVB-RCS standard. Target estimation for sonar: We built a passive particle receiver only listening to its target, in order to identify its kinematic parameters. The deterministic version allows to significantly reduce the computational complexity. Radar signal processing: The first receiver , with deterministic maximum likelihood filtering, is used for the detection / tracking of steady and manoeuvering targets , when there is a very limited number of available measurements during a circular period of antenna of the radar. The second receiver applies the minimum variance technique to the ARMOR radar, confirming unusually high signal-to-noise gains. The novel deterministic technique based on minimum variance criteria can easily be extended to multitarget processing and tracking in the presence of clutter, with the incomparable complexity savings due to the deterministic technique
APA, Harvard, Vancouver, ISO, and other styles
17

Kassem, Fidaa. "Reliability of reinforced concrete structures : Case of slabs subjected to impact." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0096/document.

Full text
Abstract:
Dans le domaine du génie civil, le dimensionnement des structures en béton armé est essentiellement basé sur des démarches déterministes. Cependant, les informations fournies par des analyses déterministes sont insuffisantes pour étudier la variabilité de la réponse de la dalle. Le manque de connaissance des charges appliquées ainsi que les incertitudes liées à la géométrie de la dalle et les caractéristiques des matériaux nécessitent donc l’utilisation d’une approche fiabiliste qui permet la propagation de ces incertitudes dans les analyses déterministes. L'approche fiabiliste est basée sur le principe de couplage mécano-fiabiliste qui consiste à coupler un modèle stochastique et un modèle déterministe. Cependant un couplage mécano-fiabiliste peut être très exigeant en temps de calcul. Dans le cadre de cette thèse, la méthodologie propre aux problématiques des ouvrages du génie civil est développée et validée tout d'abord sur un cas simple de structures en béton armé. Le cas d'une poutre encastrée en béton armée est proposé. Le système est modélisé sous CASTEM par une approche aux éléments finis de type multifibre. Puis la fiabilité d'une dalle en béton armé impactée par une masse rigide à faible vitesse est étudiée en couplant OpenTURNS à Abaqus. Enfin, une enceinte de confinement en béton précontrainte modélisée sous ASTER est étudiée d'un point de vue probabiliste. Seul le problème physique des dalles en béton armé soumises à une chute de colis dans les centrales nucléaires est examiné en détail. Deux modèles déterministes sont utilisés et évalués afin d’étudier les phénomènes dynamiques appliqués aux dalles en béton armé sous impact : un modèle par éléments finis en 3D modélisé sous Abaqus et un modèle simplifié de type masse-ressort amorti à deux degrés de liberté. Afin d’étudier la fiabilité des dalles en béton armé, nous avons couplé les méthodes Monte Carlo et simulation d’importance avec le modèle de type masse-ressort. FORM est utilisée avec le modèle par éléments finis. L’objectif de cette étude est de proposer des solutions pour diminuer le temps de calcul d'une analyse fiabiliste en utilisant deux stratégies dans le cas des dalles impactées. La première stratégie consiste à utiliser des modèles analytiques qui permettent de prédire avec précision la réponse mécanique de la dalle et qui sont moins coûteux en temps de calcul. La deuxième consiste à réduire le nombre d’appels au modèle déterministe, surtout dans le cas des modèles par éléments finis, en utilisant des méthodes probabilistes d'approximation. Ces deux stratégies sont comparées afin de vérifier l’efficacité de chacune pour calculer la probabilité de défaillance. Enfin, une étude paramétrique est réalisée afin d’étudier l’effet des paramètres d’entrées des modèles déterministes sur le calcul de la probabilité de défaillance<br>Reinforced concrete structures (RC) are subjected to several sources of uncertainties that highly affect their response. These uncertainties are related to the structure geometry, material properties and the loads applied. The lack of knowledge on the potential load, as well as the uncertainties related to the features of the structure shows that the design of RC structures could be made in a reliability framework. This latter allows propagating uncertainties in the deterministic analysis. However, in order to compute failure probability according to one or several failure criteria, mechanical and stochastic models have to be coupled which can be very time consuming and in some cases impossible. The platform OpenTURNS is used to perform the reliability analysis of three different structures . OpenTURNS is coupled to CASTEM to study the reliability of a RC multifiber cantilever beam subjected to a concentrated load at the free end, to Abaqus to study the reliability of RC slabs which are subjected to accidental dropped object impact during handling operations within nuclear plant buildings, and to ASTER to study the reliability of a prestressed concrete containment building. Only the physical problem of reinforced concrete impacted by a free flying object is investigated in detail. Two deterministic models are used and evaluated: a 3D finite element model simulated with the commercial code “Abaqus/Explicit” and an analytical mass-spring model. The aim of this study is to address this issue of reliability computational effort. Two strategies are proposed for the application of impacted RC slabs. The first one consists in using deterministic analytical models which predict accurately the response of the slab. In the opposite case, when finite element models are needed, the second strategy consists in reducing the number of simulations needed to assess the failure probability. In order to examine the reliability of RC slabs, Monte Carlo and importance sampling methods are coupled with the mass-spring model, while FORM is used with the finite element model. These two stategies are compared in order to verify their efficiency to calculate the probability of failure. Finally, a parametric study is performed to identify the influence of deterministic model parameters on the calculation of failure probability (dimensions of slabs, impact velocity and mass, boundary conditions, impact point, reinforcement
APA, Harvard, Vancouver, ISO, and other styles
18

Scigliano, Roberto. "Evaluation expérimentale et numérique de la variabilité intra du comportement vibro-acoustique de structures automobiles, du niveau élémentaire à la prestation." Compiègne, 2009. http://www.theses.fr/2009COMP1801.

Full text
Abstract:
La thèse a comme objectif global de contribuer à une meilleure compréhension et la maîtrise de la relation entre la variabilité intra du comportement de pièces et la variabilité intra de la prestation acoustique de bourdonnement, due à des variations de température. L’étude, de nature numérique et expérimentale, repose sur une description hiérarchique de la variabilité. Cette approche consiste à étudier la relation entre la variabilité du bruit (niveau 1) et la variabilité du comportement des systèmes (niveau 2), elle-même fonction de la variabilité du comportement des sous-systèmes (niveau 3) et des composants élémentaires (niveau 4). Trois systèmes sont pris en compte : le groupe moto-propulseur, la suspension moteur et la caisse. Un sous-système est considéré en particulier dans notre étude : le pare-brise acoustique. Cette pièce contient des couches de matériaux polymères (niveau 4) dont le comportement mécanique est très sensible à la température. Des travaux expérimentaux ont été réalisés. Les caractéristiques mécaniques des polymères du pare-brise ont été mesurées. Le niveau de variabilité des paramètres modaux et des réponses du pare-brise en conditions libre-libre a été évalué. En conditions réelles, les paramètres modaux, les réponses vibratoires et les transferts bruit ont été mesurés. Aux différents niveaux de l’approche hiérarchique, la variabilité intra observée est très élevée. Une méthodologie numérique a également été développée. Elle s’appuie sur deux types d’outils : les modèles par éléments finis et un modèle de synthèse acoustique. Une approche par éléments finis est nécessaire pour reproduire les mécanismes de propagation de la variabilité intra entre les niveaux élémentaire, sous-système et système. La méthodologie de Vérification et Validation a été systématiquement appliquée pour déterminer le modèles éléments finis juste nécessaires. Un modèle de synthèse acoustique stochastique de nature possibiliste ou probabiliste permet d’évaluer la variabilité intra de la prestation. Les modèles éléments finis reproduisent bien le comportement moyen observé expérimentalement, mais en revanche ils sous-estiment la variabilité intra mesurée. L’outil de synthèse acoustique stochastique a aussi permis d’obtenir des résultats pertinents. Certains aspects de la mécanique de propagation de la variabilité ont pu être mis en évidence grâce à ces outils numériques. L’ensemble des résultats montre que le pare-brise acoustique est le contributeur principal à la variabilité intra de la caisse automobile étudiée, ce qui constitue un résultat important du point de vue industriel<br>The principal objective of this work is to contribute to a better comprehension of the relationship between the intra variability of the mechanical behavior of car components and the intra variability of the booming noise performance, due to temperature variations. Experimental and numerical studies have been carried out. A hierarchical approach of the variability has been used. The principle of the hierarchical approach is to analyse the relationship between noise variability (level 1) and systems variability (level 2). The systems considered for level 2 are the engine, the engine mounting system and the body. The system level variability depends on the sub-systems variability (level 3) and on the elementary level variability (level 4). A special attention has been paid to on one subsystem in particular: the acoustic windscreen. This component contains some polymer materials layers (level 4) whose mechanical behavior is extremely sensitive to temperature variations. Experimental studies have been performed. Windscreen polymer mechanical properties have been measured. Modal parameters and frequency response intra variability level have been evaluated for the windscreen in free-free conditions. In real conditions, modal parameters, vibration and noise FRF have been measured. At the different hierarchical approach levels, the observed intra variability level is extremely high. The numerical methodology developed uses two different types of tools: the finite element models and a synthesis acoustic model. Indeed, a finite element approach is necessary to reproduce the intra variability propagation mechanism between the elementary, sub-system and system levels. Verification and Validation method has been systematically applied to define the “just necessary” models. Using either a possibilistic or a probabilistic approach, a synthesis acoustic model leads to a numerical calculation of the booming noise intra variability. Finite elements models correctly reproduce the experimental vibro-acoustic mean behavior, but they underestimate the measured intra variability. The synthesis acoustic model leads to consistent results. The tools and the methodologies developed let us to highlight some important aspects of the variability propagation mechanisms. The ensemble of the results shows that the acoustic windscreen is the principal contributor to the intra variability level of the studied vehicle body. This is an important result from an industrial point of view
APA, Harvard, Vancouver, ISO, and other styles
19

Gaston, Amelia. "Etude et compréhension du déterminisme génétique et moléculaire de la remontée florale chez le fraisier." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14206/document.

Full text
Abstract:
La transition florale est un évènement clef dans la vie d’une plante. Chez le fraisier, la compréhension des mécanismes génétiques de cette transition est un enjeu majeur pour mieux contrôler la production de fruits. La transition florale peut être étudiée à travers la remontée florale, qui est la capacité d’une plante à fleurir tout au long de la période végétative. Le fraisier cultivé octoploïde, F. x ananassa, comme le fraisier diploïde, F. vesca, présentent des génotypes remontants capables de fleurir en continu. L’objectif de cette thèse est de comprendre le déterminisme génétique et moléculaire de la remontée florale chez Fragaria. Ce travail a montré que chez les fraisiers diploïde et octoploïde, le caractère ‘remontée florale’ est contrôlé par deux verrous génétiques différents localisés à des positions non orthologues. Chez le fraisier diploïde, le gène FvKSN responsable de la remontée florale a été identifié et code pour un homologue du répresseur floral TFL1. Chez les génotypes remontants, ce gène présente une délétion dans la partie codante conduisant à une protéine non fonctionnelle, incapable de réprimer la floraison. Chez le fraisier octoploïde, le QTL majeur détecté contrôlant la remontée florale est lié à la production de stolons de manière antagoniste, suggérant l’existence d’une région génomique où s'exerce une compétition entre multiplication végétative et la reproduction sexuée. Cette région génomique comprend plusieurs gènes candidats intéressants dont FT, activateur de la floraison.Une hypothèse suggérée par ce travail est que chez le fraisier, l’alternance entre phase végétative et phase reproductive est liée à l’équilibre entre les gènes FvKSN, homologue de TFL1, et FvFT, homologue de FT. La remontée florale serait la conséquence d’une modification de cet équilibre entre ces deux gènes en faveur du développement reproductif<br>The floral transition is a key event in plant life. In strawberry, understanding the genetic mechanisms of floral transition is a major issue for better control of fruit production. This transition is studied through the continuous flowering, which is the ability to flower throughout the growing season. Both, the octoploid cultivated strawberry, F. x ananassa, as the woody diploid strawberry, F. vesca, displayed continuous flowering genotypes. The objective of this work is to decipher the genetic and molecular mechanism of the continuous flowering in Fragaria.This work has shown that in diploid and octoploid strawberry the continuous flowering is controlled by two different genetic 'keys' located at non-orthologous position. In diploid strawberry, the gene FvKSN responsible of continuous flowering was identified and encodes a homologous to the TFL1 floral repressor. In the continuous flowering genotypes, this gene has a deletion in the coding region leading to a nonfunctional protein unable to repress flowering. In the octoploid strawberry, the major QTL controlling both the recurrent flowering and the runner production was identified. These traits were antagonist, which suggests competition between vegetative propagation and sexual reproduction in this region. This genomic region contains several interesting candidate genes whose FT, an activator of flowering.A hypothesis could be proposed. In strawberry, the switch between vegetative and reproductive phase is linked to balance between two genes, FvKSN, homologous to TFL1 and FvFT homologous to FT. Continuous flowering would be the consequence of balance modification between this two genes to the benefit of floral development
APA, Harvard, Vancouver, ISO, and other styles
20

Mansar, Sabeur. "Déconvolution sismique : approches déterministe et statistique." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0036.

Full text
Abstract:
Cette these traite des problemes theoriques et pratiques de la deconvolution sismique. Elle vise a proposer des solutions pratiques utilisables dans la sequence classique de traitements sismiques. Des nombreux exemples pedagogiques et reels illustrent et detaillent les limitations pratiques des methodes de deconvolution classiques et nouvelles. Dans la premiere partie, nous traitons de la validite du modele convolutif. Les differents termes qui entrent dans la description du sismogramme sont precises. Dans la deuxieme partie nous avons aborde le probleme de l'estimation de la signature de la source sismique. Les principales methodes, deterministes et statistiques, sont presentees ainsi que leurs limitations. Nous avons presente une nouvelle methode d'estimation, basee sur les statistiques d'ordre superieur, qui s'affranchit de l'hypothese phase minimale, hypothese que nous avons montree d'etre pas toujours verifiee. Cette nouvelle methode, basee sur des methodes plus anciennes, a l'avantage d'etre robuste et rapide, et permet donc de traiter des donnees reelles. Le cas plus general de signaux non stationnaires etait le cadre de la troisieme partie. Nous avons traite de l'origine et de la prise en compte de la non-stationnarite des traces sismiques. Une nouvelle methode d'analyse et de correction des distorsions de phase non-stationnaires, basee sur la transformee en ondelettes, a ete presentee. La derniere partie est consacree aux applications sur des donnees reelles. L'evaluation des resultats obtenus, a ete effectuee a l'aide de criteres objectifs, tel que le calage au puits ou des mesures directes. Les differentes methodes developpees pendant cette these ont ete industrialisees (promax et geovecteur +).
APA, Harvard, Vancouver, ISO, and other styles
21

Werny, Pierre. "Contribution à l'étude de modèles chaotiques par approches métriques et topologiques." Lyon, INSA, 2001. http://theses.insa-lyon.fr/publication/2001ISAL0033/these.pdf.

Full text
Abstract:
Cette étude porte sur la dynamique non linéaire de deux modèles empruntés au domaine du génie civil. Nous considérons d'abord un milieu granulaire soumis à une excitation paramétrique. L'écoulement des grains peut être décrit en première approximation par un oscillateur non linéaire à un degré de liberté dont le mouvement est régi par un système différentiel linéaire par morceaux. Après une étude analytique de la stabilité de l'unique position d'équilibre, nous proposons un calcul original de la stabilité des solutions périodiques qui sera utilisé pour décrire l'enchaînement des bifurcations de ces solutions. Les régimes chaotiques apparaissant pour de nombreuses valeurs des paramètres sont caractérisés par une approche métrique classique mais également par une approche topologique basée sur l'organisation des orbites périodiques instables formant le squelette des attracteurs chaotiques. Cette analyse conduit à caractériser les dynamiques chaotiques à l'aide d'une matrice carrée représentant leur gabarit. Cette approche est ensuite utilisée lors de la description de crises chaotiques. Aux intermittences de type I sont associées des lois d'échelle ou de distributions de longueurs de phases laminaires que l'on croit caractéristiques. Nous étudions plusieurs systèmes dynamiques présentant des intermittences non classiques avec soit plusieurs canaux de réinjection soit une solution peu instable à proximité de ces canaux. Nous montrons que les mécanismes de réinjection peuvent être modifiés et les lois d'échelle habituellement observées ne sont alors plus vérifiées. Le dernier chapitre s'intéresse à un modèle d'arche d'Euler élastoplastique. Les principales solutions du systèmes sont obtenues par des techniques analytiques et numériques et leurs bifurcations sont ensuite décrites en détails. Une analyse topologique menée sur le principal attracteur chaotique conduit à un gabarit complexe dont la détermination nécessite le développement d'outils adaptés<br>Two non-linear chaotic models from civil engineering are studied. We first consider a granular medium under sinusoidal parametric excitation. The granular flow can be described in first approximation by a one degree of freedom non-linear oscillator whose motion is governed by a piecewise linear differential system. After an analytical study of the stability of the single equilibrium position, we investigate the stability of the periodic solutions which will be used to explore the bifurcations’ sequences of these solutions. The chaotic behaviour occurring for many values of the parameters is characterized by a traditional metric approach but also by a topological approach based on the organization of the unstable periodic orbits which are embedding in the strange attractor. This analysis results in characterizing chaotic dynamics using a square matrix representing their template. This approach is then used for the description of chaotic crises. Type I intermittencies are associated with characteristic scaling laws or distributions laws of their laminar phases lengths. We study various non classical type I intermittencies with either several reinjection’s channels or a quite unstable solution in the proximity of these channels. We show that the mechanisms of reinjection can be modified and the scaling laws usually observed are not checked any more. The final chapter deals with a model of an elastoplastic Euler arch. The main solutions of the system are obtained by analytical and numerical methods and their bifurcations are then described in details. A topological analysis carried out on the main chaotic attractor led to a complexe template whose determination requires the development of adapted tools
APA, Harvard, Vancouver, ISO, and other styles
22

Devise, Olivier. "Contribution à la localisation dynamique d'un robot mobile." École centrale de Nantes, 1993. http://www.theses.fr/1993NANT2002.

Full text
Abstract:
Ce mémoire présente diverses méthodes de localisation dynamique d'un robot mobile et développe plus particulièrement les méthodes stochastiques. On cherche à estimer la position, l'orientation et la vitesse de l'engin. Ce robot est equipé du système SIREM (système intégré de repérage d'engin mobile). Ce système se compose d'une caméra embarquée en rotation à vitesse constante autour d'un axe vertical, qui permet de mesurer les angles de gisement et de hauteur sous lesquelles sont vues des balises lumineuses fixes, dont la position dans l'environnement est parfaitement déterminée. On obtient donc des relevés asynchrones des différentes balises. Les principales difficultés proviennent du non cadencement des mesures et de leur caractère non linéaire et multiplexe. Les méthodes de localisation sont regroupées en deux classes: la première regroupe les approches déterministes applicables au cas 2d et 3d alors que la deuxième contient les méthodes stochastiques mettant en oeuvre un filtre de Kalman. Les méthodes déterministes consistent à obtenir, sous certaines hypothèses, un système non linéaire et à le résoudre. Ce système traduit les contraintes locales entre les états et les mesures. Les méthodes stochastiques consistent à élaborer un filtre estimateur à caractère global. Une première classe de ces méthodes conduit à un filtre centralise traitant directement les mesures. Une deuxième classe consiste à effectuer des pré-traitements sur chaque balise générant artificiellement un relevé continu de celles-ci avant une exploitation centralisée de ces nouvelles mesures. Il s'agit d'une approche de type fusion de données. Toutes ces méthodes sont testées sur une même simulation réaliste afin de comparer leurs performances respectives. Il apparaît que ce sont les méthodes stochastiques plus complexes qui fournissent l'estimation la plus précise
APA, Harvard, Vancouver, ISO, and other styles
23

Sanchez, Lopez Abraham. "Contribution à la planification de mouvements en robotique : approches probabilistes et approches déterministes." Montpellier 2, 2003. http://www.theses.fr/2003MON20038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Ben, Ammar Imen. "Approche comparée du déterminisme environnemental de l'induction du cycle de reproduction chez cinq poissons d'eau douce tempérée." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0265/document.

Full text
Abstract:
Un des moyens de développer durablement l’aquaculture européenne est la domestication d’espèces locales. Etant donné les coûts liés à la domestication d’une espèce, la mise en œuvre d’une démarche générique semble pertinente. Ainsi, l’analyse de 29 traits reproducteurs a généré une classification en 10 groupes structurés par la période de ponte et la température d’incubation des œufs. L’objet de cette thèse est de tester la pertinence de ces regroupements en étudiant l’effet d’une photophase constante longue PC et naturelle PN sur l’induction du cycle de reproduction chez des pondeurs printaniers précoces PPP (perche, sandre, gardon et brochet) et un pondeur printanier tardif PPT (rotengle). Au cours de ce travail, nous avons analysé des paramètres morpho-anatomiques, histologiques et physiologiques pour étudier les effets des traitements photopériodiques. De fortes similarités de réponse au traitement photopériodique entre les PPP ont été observées avec une inhibition du cycle de reproduction sous PC et une induction du cycle de reproduction sous PN. Si le développement gonadique et les teneurs en E2 et vitellogénine chez les femelles semblent être affectés de la même manière chez les espèces du même groupe, les teneurs en androgènes chez les deux sexes présentent des réponses espèce-spécifiques. Ceci suggère l’existence de mécanismes de régulation spécifiques qui semblent avoir peu de conséquences zootechniques. En conclusion, les similarités entre les PPP apportent des éléments de réponse sur la pertinence des regroupements surtout au niveau des paramètres les plus intégrateurs et sur la pertinence de la démarche générique qui s’appuie sur la biologie comparée<br>A way for the development of a sustainable inland aquaculture is the domestication of local species. As domestication usually results from a long, costly and empirical zootechnical process, the use of classifications could be a relevant strategy. In our laboratory, a generic method was developed based on grouping species sharing similar reproductive traits (29) and resulted in 10 clusters structured by spawning period and temperature of egg incubation. The aim of this work is to assess the relevance of this clustering by testing the effect of constant long (CP) and natural photoperiod (NP) on the onset of the reproductive cycle in “early spring” ESS (Eurasian perch, pikeperch, roach and pike) and a “late spring” spawner LSS (rudd). This work is based on a morpho-anatomic, histological and physiological analysis of the broodstock to study the effect of photoperiod treatments. Strong similarities were shown in the response of the ESS with inhibition of the reproductive cycle under CP and induction under NP. The gonadal development and the plasma levels of E2 and vitellogenin showed similar responses to the photoperiodic treatment between ESS, while, the androgens levels showed different responses even in species belonging to the same group and the same family. The observed similarities allow us to provide an evidence about the relevance of clusters especially for the most integrative parameters. However, even if extrapolation of current knowledge may be possible from Eurasian perch to other ESS especially for zootechnical purposes, the mechanisms of gonadogenesis regulation and especially androgenesis may be different between the studied species
APA, Harvard, Vancouver, ISO, and other styles
25

Bettane-Casanova, Myriam. "Déterminisme du sexe masculin chez l'homme : approches sérologique, génétique et moléculaire." Paris 7, 1985. http://www.theses.fr/1985PA077006.

Full text
Abstract:
Chez les mammifères, le sexe génétique de l'embryon est déterminé au moment de la fécondation, selon la répartition des chromosomes X et Y dans l'oeuf. La constitution des chromosomes sexuels est homogamétique (XX) chez la femelle et hétérogamétique (XY) chez le màle. Des données cytogénétiques établies de longue date indiquent que le déterminisme de la différenciation sexuelle masculine repose sur le capital génétique porté par le chromosome Y. Tout organisme normal pourvu de ce chromosome est destiné à subir irrévocablement une longue succession de phénomènes de différenciation. Ces phénomènes déterminent dans un premier temps l'organisation et la nature des cellules germinales et des gonades développées au cours de l'embryogénèse, puis dans un second temps, les processus qui permettent d'aboutir à l'établissement du sexe phénotypique, seul définissable à la naissance. Nous sommes partis de l'hypothèse émise par Wachtel et Ohno, selon laquelle un facteur émis ou contrôlé par le chromosome Y et dénommé antigène H-Y orienterait vers une différenciation testiculaire l'évolution d'une ébauche gonadique, qui, en son absence, aboutirait à un ovaire. D'après des analyses sérologiques utilisant un test radioimmunologique quantitatif, que nous avons mis au point, associées à des analyses cliniques, cytogénétiques et physiologiques, nous avons tenté d'élucider le rôle de l'antigène H-Y dans la détermination primaire du sexe masculin chez l'homme. L'analyse de différents individus porteurs d'anomalies de la différenciation sexuelle révèle que si l'expression de l'antigène H-Y parait effectivement impérative au développement de testicules, observé même dans un contexte génétique ou physiologique apparemment paradoxal, elle n'entraîne cependant pas nécessairement la masculinisation. Il nous apparait aujourd'hui plus logique de proposer que l'antigène H-Y, dont la présence ou l'absence ne suffisent pas à elles seules à distinguer un organisme mâle d'un organisme femelle, soit en fait un antigène de différenciation embryonnaire, exprimé à un taux optimal au niveau de certaines cellules, à un stade particulier de l'embryogénèse. Par la suite, sa persistance n'étant plus nécessaire, il pourrait cesser d'être exprimé à un taux élevé, d'où les difficultés rencontrées tant dans la mise au point de tests quantitatifs que dans l'obtention d'anticorps monoclonaux.
APA, Harvard, Vancouver, ISO, and other styles
26

Chiffaudel, Yann. "Etude de la diffusion des processus déterministes et faiblement aléatoires en environnement aléatoire." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7083.

Full text
Abstract:
Cette thèse étudie la diffusion dans le modèle des miroirs, modèle inspiré de la physique et introduit en 1988 par Ruijgrok et Cohen. Ce modèle est déterministe et réversible. Pour traiter ce modèle difficile, initialement défini uniquement en dimension 2, nous l'avons d'abord généralisé pour en faire un modèle en dimension quelconque. De premières études numériques permirent de conjecturer que le modèle est diffusif en dimension supérieur ou égale à 3. Nous avons par la suite exploré une approche perturbative du coefficient de diffusion basée sur la technique de lace expansion développée par Gordon Slade pour l'étude de la marche aléatoire auto-évitante. Face à la difficulté des calculs nous avons légèrement simplifié le modèle en abandonnant la contrainte de réversibilité. Nous avons obtenu ainsi un nouveau modèle que nous nommons le modèle des permutations. Nous avons ensuite transformé ces deux modèles pour en faire des marches aléatoires en milieu aléatoire, et ce via une approche systématique et généraliste. Grâce à ces modifications nous avons pu pousser l'approche perturbative jusqu'à obtenir une approximation satisfaisante de la valeur du coefficient de diffusion dans le modèle des permutations. Le résultat principal est l'existence d'une série dont tout les termes sont bien définis et dont les premiers termes fournissent l'approximation voulue. La convergence de cette série reste un problème ouvert. Les résultats analytiques sont appuyés par une approche numérique de ces modèles, ce qui permet de voir que la lace expansion donne des résultats de qualité. De nombreuses questions restent ouvertes, notamment le calcul des termes suivants du développement perturbatif et la généralisation de cette approche au modèle des miroirs, ce qui ne saurait poser problème, puis à une classe plus large de modèles<br>This thesis studies the diffusion in the mirrors model, a physics-based model introduced in 1988 by Ruijgrok and Cohen. This model is deterministic and reversible. To treat this difficult model, initially defined only in dimension 2, we first generalized it to a model valid in any dimension. Initial numerical studies suggested that the model is diffusive in dimensions greater than or equal to 3. We then explored a perturbative diffusion coefficient approach based on the lace expansion technique developed by Gordon Slade for the study of self-avoiding random walk. Faced with the difficulty of the calculations, we slightly simplified the model by giving up the reversibility constraint. We thus obtained a new model that we call the permutations model. We then transformed these two models into random walks in random environment using a systematic and general approach. Thanks to these modifications, we were able to push the perturbative approach to obtain a satisfactory approximation of the value of the diffusion coefficient in the permutations model. The main result is the existence of a series in which all terms are well defined and the first terms provide the desired approximation. The convergence of this series remains an open problem. The analytical results are supported by a numerical approach to these models, which shows that the lace expansion gives quality results. Many questions remain open, including the calculation of the following terms of perturbative development and the generalization of this approach to the mirrors model -which should not be a problem- and then to a broader class of models
APA, Harvard, Vancouver, ISO, and other styles
27

Fonseca, Pedro Nicolau Faria Da. "Modélisation et validation des algorithmes non-déterministes de synchronisation des horloges." Vandoeuvre-les-Nancy, INPL, 1999. http://docnum.univ-lorraine.fr/public/INPL_T_1999_FARIA_DA_FONSECA_P_N.pdf.

Full text
Abstract:
Cette thèse traite le problème d'analyse et de conception des algorithmes de synchronisation non déterministes dans les systèmes répartis. Les algorithmes non-déterministes constituent une solution intéressante pour le problème de la synchronisation des horloges, ce qui est témoigné par l'intérêt qui leur a été porté pendant les dernières années. Les algorithmes de synchronisation non-déterministes utilisent des techniques statistiques ou probabilistes et permettent d'obtenir une meilleure précision par rapport aux algorithmes déterministes, le prix à payer étant la probabilité que le système ne réussisse pas à se synchroniser avec la précision souhaitée. Cette probabilité d'échec tend vers zéro avec le nombre de messages échangés et elle peut être réduite à une valeur aussi petite qu'on le souhaite avec un nombre de messages suffisamment grand. Malheureusement, l'évaluation des différentes propositions publiées dans la littérature est difficile, principalement à cause de l'inexistence d'une base commune pour établir les comparaisons. Nous proposons un modèle analytique pour le fonctionnement des algorithmes de synchronisation non-déterministes. Le but est de trouver une expression que le concepteur d'un système distribué puisse utiliser pour calculer le nombre de messages requis pour un certain algorithme, de façon à fournir la synchronisation avec la précision et la probabilité spécifiées. Ce résultat est la Condition de Garantie de Synchronisation, qui définit une condition suffisante qui garantit le succès de la synchronisation non-déterministe sous les conditions spécifiées. Cette condition est établie à partir de paramètres locaux d'un site et de paramètres du système qui sont facilement calculables, tels que le nombre de sites et les paramètres qui décrivent le délai comme une variable aléatoire. Les conditions sous-jacentes au modèle proposé sont vérifiées expérimentalement à l'aide d'une plate-forme basée sur le réseau CAN que nous avons développée. Le test des algorithmes sur cette plate-forme a permis de vérifier la validité des hypothèses qui sont associées au modèle<br>This thesis addresses the problem of analyzing and designing non-deterministic clock synchronization algorithms in distributed systems. Non-deterministic algorithms are a promising solution to the clock synchronization problem, which can be testified by the attention they have received in recent years. Non-determinist dock synchronization algorithms use statistical or probabilistic techniques and they allow a better precision than with deterministic ones; the price to pay is a small probability that the system will fail to synchronize to the desired precision. This probability of failure can be made as small as desired by sending a sufficiently large number of messages. Unfortunately, assessing different algorithms is a difficult task, especially because we lack a common ground to establish comparisons. We propose an analytical model for the behaviour of non-deterministic dock synchronization algorithms. The aim is to find an expression that the distributed systems designer can use to estimate the required number of messages, in order to guarantee that a certain algorithm will synchronize to the desired precision and probability of success. This result is a Sufficient Condition for Synchronization, which states the conditions that must be fulfilled in order to guarantee the desired precision and probability of success. This condition is based on local parameters and on system parameters that are easily computed, such as the number of sites and the description of the delay as a random variable. The underlying assumptions are experimentally verified. For this purpose, we developed a test-bed based on the Controller Area Network. The results validate the assumptions used for the model<br>Esta tese aborda o problema da analise e da concepção de algoritmos de sincronização de relógios nao deterministicos. Os algoritmos não-deterministicos constituem uma soluçao promissora para o problema da sincronização de relógios, sendo prova disso o interesse que estes têm despertado nos ultimos anos. Os algoritmos de sincronização não-deterministicos utilizam técnicas estatisticas ou probabilisticas para a obtençao do resultado. Obtém-se assim uma melhor precisao do que com os algoritmos determinfsticos. 0 preço a pagar é uma (pequena) probabilidade que o sistema. Não consiga sincronizar com a precisão desejada. . Pode-se tornar esta probabilidade de insucesso tao pequena quanto necessario através da utlizaçao de um numero de mensagens suficientemente grande. Infelizmente, a comparação e a avaliação das diferentes soluçoes propostas é dificil, principalmente devido à inexistência duma base comum para estabelecer essas comparaçoes. Nesta tese, propomos um modelo analitico para o funcionamento dos algoritmos de sincronização nao-determinfsticos. 0 objectiva é obter uma. Expressão que permita calcular o numero de mensagens necessarias para um determinado algoritmo, de modo a que a sincronização ocorra corn a precisão e a probabilidade especificadas. Este resultado é a Condiçao de Garantia de Sincronizaçao, que define uma condição suficiente para garantir o sucesso da sincronizaçao nao-deterministica sob as condiçoes especificadas de precisão e probabilidade de sucesso. Esta condiçao é estabelecida a partir de parâmetros locais deum nô e de parâmetros do sistema que siio facilmente calculaveis, tais como o numero de nôs ou os parâmetros que descrevem o atraso de comunicação como uma variavel aleatôria. As condiçãoes subjacentes ao modelo proposto são verificadas experimentalmente. Para tal, desenvolveuse uma plataforma baseada na rede CAN (Controller Area Network). As experiências realizadas permitiram verificar a validade das hipóteses associadas ao modelo
APA, Harvard, Vancouver, ISO, and other styles
28

Bazin, Éric. "Étude du déterminisme de la diversité génétique des métazoaires par une approche bioinformatique." Montpellier 2, 2005. http://www.theses.fr/2005MON20132.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Teulière, Céline. "Approche déterministes et bayésiennes pour un suivi robuste : application à l'asservissement visuel d'un drone." Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00589519.

Full text
Abstract:
Pour qu'un système robotisé puisse accomplir de façon autonome des fonctions en apparence simples, telles que se localiser ou se positionner par rapport à son environnement, il doit avant tout percevoir cet environnement. La perception visuelle obtenue à l'aide d'une caméra constitue à cet égard une source d'information particulièrement riche, largement utilisée en robotique. Le travail présenté dans cette thèse concerne l'usage d'informations visuelles dans le contexte de la commande de mini-drones. Nous avons considéré plus particulièrement deux types de tâches : une tâche de poursuite, dans laquelle un objet - une voiture - se déplace dans un environnement inconnu et l'on souhaite qu'un drone puisse suivre son mouvement, et une tâche de positionnement ou de navigation pour un drone évoluant dans un environnement structuré - intérieur de bâtiment - dans lequel le signal GPS n'est pas disponible. Dans les deux cas, nous avons proposé des approches complètes, depuis l'extraction robuste d'informations visuelles jusqu'à la commande d'un drone à partir de ces informations. Enfin, des expériences mises en œuvre sur un mini-drone de type quadrirotor montrent la validité des approches proposées<br>For a robot to autonomously localise or position itself with respect to its environment, a key requirement is the perception of this environment. In this respect, the visual information provided by a camera is a particularly rich source of information, commonly used in robotics. Our work deals with the use of visual information in the context of UAV control. More specifically, two tasks have been considered: first, a tracking task, in which a UAV has to follow a moving object - a car - in an unknown environment; second, a positioning task for a UAV navigating in a structured GPS-deprived environment. In both cases, we propose complete approaches, considering both the robust extraction of appropriate visual informations and the visual servoing of the UAV. Finally, the experiments performed on a small quadrotor UAV show the validity of our approaches
APA, Harvard, Vancouver, ISO, and other styles
30

Vu, Thi Thanh Xuan. "Optimisation déterministe et stochastique pour des problèmes de traitement d'images en grande dimension." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0540.

Full text
Abstract:
Dans cette thèse on s’intéresse au problème des décompositions canoniques polyadiques de tenseurs d’ordre $N$ potentiellement grands et sous différentes contraintes (non-négativité, aspect creux lié à une possible surestimation du rang du tenseur). Pour traiter ce problème, nous proposons trois nouvelles approches itératives différentes: deux approches déterministes dont une approche proximale, et une approche stochastique. La première approche étend les travaux de thèse de J-P. Royer au cas de tenseurs de dimension $N$. Dans l’approche stochastique, nous considérons pour la première fois dans le domaine des décompositions tensorielles, des algorithmes génétiques (mimétiques) dont principe général repose sur l’évolution d’une population de candidats. Dans le dernier type d’approche, nous avons considéré un algorithme proximal pré-conditionné (le Block-Coordinate Variable Metric Forward-Backward), algorithme fonctionnant par blocs de données avec une matrice de pré-conditionnement liée à chaque bloc et fondé sur deux étapes successives principales : une étape de gradient et une étape proximale. Finalement, les différentes méthodes suggérées sont comparées entre elles et avec d’autres algorithmes classiques de la littérature sur des données synthétiques (à la fois aléatoires ou proches des données observées en spectroscopie de fluorescence) et sur des données expérimentales réelles correspondant à une campagne de surveillance des eaux d’une rivière et visant à la détection d’apparition de polluants<br>In this PhD thesis, we consider the problem of the Canonical Polyadic Decomposition (CPD) of potentially large $N$-th order tensors under different constraints (non-negativity, sparsity due to a possible overestimation of the tensor rank, etc.). To tackle such a problem, we propose three new iterative methods: a standard gradient based deterministic approach, a stochastic approach (memetic) and finally a proximal approach (Block-Coordinate Variable Metric Forward-Backward). The first approach extends J-P. Royer's works to the case of non-negative N-th order tensors. In the stochastic approach, genetic (memetic) methods are considered for the first time to solve the CPD problem. Their general principle is based on the evolution of a family of candidates. In the third type of approaches, a proximal algorithm namely the Block-Coordinate Variable Metric Forward-Backward is presented. The algorithm relies on two main steps: a gradient step and a proximal step. The blocks of coordinates naturally correspond to latent matrices. We propose a majorant function as well as a preconditioner with regard to each block. All methods are compared with other popular algorithms of the literature on synthetic (fluorescence spectroscopy like or random) data and on real experimental data corresponding to a water monitoring campaign aiming at detecting the appearance of pollutants
APA, Harvard, Vancouver, ISO, and other styles
31

Larnier, Kévin. "Modélisation thermohydraulique d’un tronçon de Garonne en lien avec l’habitat piscicole : approches statistique et déterministe." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0079/document.

Full text
Abstract:
Les espèces de poissons migrateurs (saumon atlantique, Salmo salar, en particulier) requièrent des conditions thermiques bien spécifiques. Ils sont très sensibles aux températures de l’eau et aux fortes variations estivales. Sur les trente dernières années, l’étude menée sur la Garonne (France) révèle une augmentation des températures estivales associée à un allongement de la durée des périodes chaudes. L’impact de cette modification du régime thermique sur la survie et la reproduction des espèces migratoires est également mis en évidence. Cette étude est menée sur un tronçon de Garonne, situé entre l’amont de Toulouse et l’amont de la retenue deMalause. Ce secteur est fortement touché par cette problématique avec en moyenne 2°C d’écart entre l’amont et l’aval et des températures supérieures à 25°C régulièrement atteintes. Le régime hydrologique de ce tronçon est fortement déficitaire (selon le SDAGE Adour-Garonne), la sensibilité au flux de surface est forte à cause de son lit large et peu profond, les pressions anthropiques sont importantes, ce sont autant de pistes dont l’impact sur le régime thermique est étudié. Une large collection de données hydrologiques et climatiques est exploitée afin de déterminer les processus en jeu dans l’évolution du régime thermique de ce tronçon de fleuve. Des études en tendances et corrélations et des modèles statistiques permettent de mettre en évidence d’une part la relation forte qui existe entre les températures de l’air et les températures de l’eau et d’autre part l’importance des faibles débits durant les périodes estivales. L’estimation des moyennes journalières de température de l’eau à Malause au moyen de modèles statistiques et déterministes donne de bons résultats pour les températures élevées ainsi que pour les franchissements de seuils liés aux conditions de migrations des amphilalins.Enfin un modèle numérique monodimensionnel de résolution de l’équation de transport thermique et des équations de St-Venant est développé. La physique du modèle tant au niveau hydraulique (prise en compte de fortes variabilités de pente, d’ouvrages, etc.) que thermique (apports latéraux, flux de surfaces, flux de conduction avec le lit) permet d’analyser l’évolution des différents flux qui participent au réchauffement du cours d’eau. Une évolution future à l’aide des sorties des modèles de l’IPCC est explorée et des méthodes éventuelles de restauration des conditions de températures favorables pour les espèces piscicoles sont analysées<br>Fish species with strong thermal requirements (i.e. Atlantic salmon) are very sensitive to temperature evolution and particularly to large increases. An investigation conducted on the Garonne River (France) during the last three decades revealed global water warming along with an increase of the high temperature period duration. Large impact of this evolution on the survival and breeding of migrating fish species was also reported. Study was thus conducted on a specific reach of the Garonne River located between the immediate upstream of Toulouse and the upstream of the Malause dam. The issue of water temperature warming is particularly relevant on this reach, with an average increase of 2°C between upstream and downstream and temperatures above 25°C frequently reported. Potential causes are numerous: drastic low-flow regime (quoting SDAGE Adour-Garonne), impacts of surface fluxes that are important due to bed shape (wide and shallow), anthropogenic impacts, etc. Large amount of climatic and hydraulic data are used to make a clear determination of the processes involved in the thermal regime evolution of this reach. Trend and correlation analyses and use of statistical models indicate the strong relation between stream temperature and climate. Low flows also seem to be related to water temperatures during summer periods. Statistic and deterministic models give good results in estimating high daily mean water temperatures (RMSE ranging from 0.99°C to 1.22°C) and predicting water temperatures threshold crossings related to the migrating conditions of Atlantic salmon.Finally, a one-dimensional numerical model that solves both shallow water and thermal equations is developed. Both the formulation of the St-Venant equations (high variability in slope, gates …) and the phenomena taken into account in the water temperature model (lateral influx, surface fluxes, bed conduction …) allows studying the evolution of fluxes driving water temperature evolution. Future evolution of the water temperature at the 2050 horizon is also evaluated using IPCC models output and potential solutions to restore favorable stream temperatures conditions for fishes are analyzed
APA, Harvard, Vancouver, ISO, and other styles
32

Vignassa, Manon. "Tache noire de l'ananas : déterminisme du processus infectieux par approches moléculaire et biochimique." Thesis, La Réunion, 2021. http://www.theses.fr/2021LARE0013.

Full text
Abstract:
Les cultures d’ananas de la Réunion sont soumises à une forte pression parasitaire favorisée par le climat subtropical de l’île. La maladie de la tache noire est causée par un cortège de champignons filamenteux dont Fusarium ananatum est l’espèce la plus décrite à ce jour. Le développement de taches noires dans les fruits matures constitue une problématique majeure de par son impact sur la qualité de l’ananas ‘Queen Victoria’ présentant une forte sensibilité à cette pathologie. La gestion des épisodes épidémiques repose actuellement sur des méthodes associant des pratiques culturales adaptées et l’utilisation de fongicides. Toutefois, ces stratégies s’avèrent infructueuses pour des conditions climatiques fortement favorables au développement et à la dispersion des agents pathogènes. L’accumulation de mycotoxines au sein des tissus infectés représente également une préoccupation d’envergure dans la préservation de la sécurité sanitaire des productions d’ananas. Dans l’objectif de développer de nouveaux leviers de résistance plus durables, des recherches visant à caractériser les déterminants de la sensibilité de l’ananas ‘Queen Victoria’ ont été menées sur chaque composante du pathosystème. Une approche épidémiologique a permis d’établir que l’occurrence de la tache noire est positivement corrélée à une contamination résultant d’une dispersion aérienne des spores d’espèces pathogènes. De plus, la prédominance d’espèces fongiques appartenant aux complexes Fusarium fujikuroi et Talaromyces purpureogenus au sein du mycobiome du fruit a démontré l’implication d’un cortège pathogène constitué de Fusarium proliferatum, Fusarium ananatum, Fusarium oxysporum, Fusarium sacchari, Talaromyces stollii et Talaromyces amestolkiae dans l’expression de cette pathologie. L’étude in vitro des profils d’interaction entre quatre de ces espèces a mis en évidence le pouvoir antagoniste de T. stollii sur la croissance des espèces pathogènes de Fusarium. D’importantes variations dans les concentrations en mycotoxines (fumonisines B1, B2 et beauvericine) ont également été mesurées au cours de confrontations entre les pathogènes. Enfin, l’analyse par comparaison variétale des voies de signalisation moléculaire conditionnant les réponses de défense précoces montre que la sensibilité du cultivar ‘Queen Victoria’ est en partie imputable à une faible expression constitutive des gènes impliqués dans la synthèse de protéines PR. Les résultats obtenus suggèrent la mise en œuvre d’une stratégie fongique basée sur la répression des signaux de défenses transduits chez l’ananas au cours des 72 premières heures de l’interaction hôte – pathogène menant à l’établissement de la maladie<br>In Reunion Island, pineapple crops are exposed to high parasitic pressure promoted by the subtropical climate of the island. The Fruitlet Core Rot (FCR) disease is caused by a set of fungal pathogenic species in which Fusarium ananatum has been the most described so far. The development of brown discoloration in mature fruits represents a major issue affecting notably the quality of the ‘Queen Victoria’ pineapple cultivar due to its high susceptibility to FCR. Until now, the management of epidemics lies on the combination of suitable agricultural practices and the use of fungicide treatments. Nevertheless, these strategies are unsuccessful in the presence of climatic conditions that favor the development and dispersion of causalagents. Mycotoxins accumulation in the flesh of infected fruits is also of concern in the preservation of sanitary quality of fruit productions. In order to develop novel alternatives for sustainable sources of FCR resistance, my research work focused on the determinants of ‘Queen Victoria’ pineapple susceptibility. An epidemiological approach permitted to establish that Fruitlet Core Rot occurrence ispositively correlated to contamination patterns resulting from aerial dispersion of the pathogen spores. Moreover, the prevalence of fungal species belonging to the complexes Fusarium fujikuroi and Talaromyces purpureogenus within the fruit mycobiome have demonstrated the role of a pathogenic fungal set composed of Fusarium proliferatum, Fusarium ananatum, Fusarium oxysporum, Fusarium sacchari, Talaromyces stollii and Talaromyces amestolkiae in the disease expression. The in vitro study of interaction profiles between four of those species have evidenced the growth antagonism of T. stollii on the pathogenic Fusarium species. Significant variations of mycotoxin contents (fumonisins B1, B2 and beauvericin) were also measured during dual culture of pathogens. Finally, the analysis based on varietal comparison of the molecular signal promoting early defense responses show that susceptibility of ‘Queen Victoria’ cultivar is partly supported by a low constitutive expression of genes involved in the synthesis of PR proteins. The results suggest a fungal strategy based on the repression of defense signal transduction in pineapple during the first 72 hours of the host - pathogen interaction leading to the disease establishment
APA, Harvard, Vancouver, ISO, and other styles
33

Garraud, Claire. "Evolution de la gynodioécie-gynomonoécie : approches expérimentales chez Silene nutans & approche théorique." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00668797.

Full text
Abstract:
Chez les plantes à fleurs, la gynodioécie -- système dans lequel coexistent des individus femelles et des individus hermaphrodites -- est le système de reproduction le plus commun après l'hermaphrodisme. La question de l'évolution et surtout du maintien de la gynodioécie et du polymorphisme génétique sous-jacent a intrigué les chercheurs depuis le 19e siecle. Aujourd'hui, les grands principes de son évolution sont posés mais beaucoup de zones d'ombres persistent. Durant ma thèse, j'ai exploré trois aspects de la gynodioécie en utilisant une approche expérimentale chez l'espèce Silene nutans et une approche théorique. Je me suis en premier lieu intéressée au déterminisme génétique de la gynodioécie grâce à la réalisation de croisements contrôlés qui m'ont permis de montrer que le déterminisme génétique du sexe était cytonucléaire, c'est à dire contrôlé par plusieurs gènes de stérilité mâle cytoplasmique (CMS) et plusieurs restaurateurs nucléaires de fertilité. En parallèle, j'ai porté une attention particulière aux plantes gynomonoïques -- celles où coexistent sur le même pied des fleurs pistillés (femelles) et des fleurs parfaites (hermaphrodites) -- fréquentes chez Silene nutans comme chez d'autres espèces gynodioïques. J'ai montré que les caractéristiques reproductrices et florales de ce troisième phénotype sexuel étaient souvent intermédiaires entre celles des femelles et des hermaphrodites mais pouvaient dépendre de la proportion de fleurs pistillées sur la plante. Par ailleurs et contrairement à ce qui avait été suggéré, la plasticité du phénotype gynomonoïque s'est révélée être relativement réduite, suggérant un déterminisme génétique dont la caractérisation est encore en cours. La troisième partie de ma thèse a été motivée par les preuves récentes d'hétéroplasmie -- coexistence de différents génomes mitochondriaux au sein d'un individu -- et de la transmission occasionnelle du génome mitochondrial par le pollen chez Silene vulgaris. J'ai montré théoriquement que la présence d'un gène de stérilité mâle cytoplasmique favorisait l'évolution de la fuite paternelle de mitochondries. J'ai également vérifié expérimentalement l'hérédité mitochondriale chez Silene nutans par le génotypage des descendances de croisements contrôlés.
APA, Harvard, Vancouver, ISO, and other styles
34

Ben, Ammar Imen. "Approche comparée du déterminisme environnemental de l'induction du cycle de reproduction chez cinq poissons d'eau douce tempérée." Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0265.

Full text
Abstract:
Un des moyens de développer durablement l’aquaculture européenne est la domestication d’espèces locales. Etant donné les coûts liés à la domestication d’une espèce, la mise en œuvre d’une démarche générique semble pertinente. Ainsi, l’analyse de 29 traits reproducteurs a généré une classification en 10 groupes structurés par la période de ponte et la température d’incubation des œufs. L’objet de cette thèse est de tester la pertinence de ces regroupements en étudiant l’effet d’une photophase constante longue PC et naturelle PN sur l’induction du cycle de reproduction chez des pondeurs printaniers précoces PPP (perche, sandre, gardon et brochet) et un pondeur printanier tardif PPT (rotengle). Au cours de ce travail, nous avons analysé des paramètres morpho-anatomiques, histologiques et physiologiques pour étudier les effets des traitements photopériodiques. De fortes similarités de réponse au traitement photopériodique entre les PPP ont été observées avec une inhibition du cycle de reproduction sous PC et une induction du cycle de reproduction sous PN. Si le développement gonadique et les teneurs en E2 et vitellogénine chez les femelles semblent être affectés de la même manière chez les espèces du même groupe, les teneurs en androgènes chez les deux sexes présentent des réponses espèce-spécifiques. Ceci suggère l’existence de mécanismes de régulation spécifiques qui semblent avoir peu de conséquences zootechniques. En conclusion, les similarités entre les PPP apportent des éléments de réponse sur la pertinence des regroupements surtout au niveau des paramètres les plus intégrateurs et sur la pertinence de la démarche générique qui s’appuie sur la biologie comparée<br>A way for the development of a sustainable inland aquaculture is the domestication of local species. As domestication usually results from a long, costly and empirical zootechnical process, the use of classifications could be a relevant strategy. In our laboratory, a generic method was developed based on grouping species sharing similar reproductive traits (29) and resulted in 10 clusters structured by spawning period and temperature of egg incubation. The aim of this work is to assess the relevance of this clustering by testing the effect of constant long (CP) and natural photoperiod (NP) on the onset of the reproductive cycle in “early spring” ESS (Eurasian perch, pikeperch, roach and pike) and a “late spring” spawner LSS (rudd). This work is based on a morpho-anatomic, histological and physiological analysis of the broodstock to study the effect of photoperiod treatments. Strong similarities were shown in the response of the ESS with inhibition of the reproductive cycle under CP and induction under NP. The gonadal development and the plasma levels of E2 and vitellogenin showed similar responses to the photoperiodic treatment between ESS, while, the androgens levels showed different responses even in species belonging to the same group and the same family. The observed similarities allow us to provide an evidence about the relevance of clusters especially for the most integrative parameters. However, even if extrapolation of current knowledge may be possible from Eurasian perch to other ESS especially for zootechnical purposes, the mechanisms of gonadogenesis regulation and especially androgenesis may be different between the studied species
APA, Harvard, Vancouver, ISO, and other styles
35

Teuliere, C. "Approches déterministes et bayésiennes pour un suivi robuste : application à l'asservissement visuel d'un drone." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00589519.

Full text
Abstract:
Pour qu'un système robotisé puisse accomplir de façon autonome des fonctions en apparence simples, telles que se localiser ou se positionner par rapport à son environnement, il doit avant tout percevoir cet environnement. La perception vi- suelle obtenue à l'aide d'une caméra constitue à cet égard une source d'information particulièrement riche, largement utilisée en robotique. Le travail présenté dans cette thèse concerne l'usage d'informations visuelles dans le contexte de la commande de mini-drones. En particulier deux types de tâches ont été considérées : une tâche de poursuite, dans laquelle un objet - une voiture - se déplace dans un environnement inconnu et l'on souhaite qu'un drone puisse suivre son mouvement, et une tâche de positionnement ou de navigation pour un drone évoluant dans un environnement structuré - intérieur de bâtiment - dans lequel le signal GPS n'est pas disponible. Dans les deux cas, nous avons proposé des approches complètes, depuis l'extrac- tion robuste d'informations visuelles jusqu'à la commande d'un drone à partir de ces informations. Des expériences mises en ÷uvre sur un mini-drone quadrirotor montrent la validité des approches proposées. Mots-clefs : Vision par ordinateur, asservissement visuel, commande de drone
APA, Harvard, Vancouver, ISO, and other styles
36

Koenig, Damien. "Génération de résidus robustes pour une approche intégrée de diagnostic des systèmes linéaires déterministes ou stochastiques." Nancy 1, 1998. http://docnum.univ-lorraine.fr/public/SCD_T_1998_0005_KOENIG.pdf.

Full text
Abstract:
Ce travail porte sur le diagnostic des systèmes linéaires déterministes ou stochastiques et sur la reconfiguration des lois de commande. La première partie est consacrée au diagnostic robuste des systèmes déterministes incertains. Elle concerne préalablement l'estimation d'état robuste, par implantation d'observateurs à entrées inconnues d'ordre plein, réduit ou minimal. A partir de ces résultats, deux approches sont exposées. La première présente une méthode de génération de résidus robustes fondée sur l'estimation complète de l'état du système. Cette estimation nécessite la vérification de la condition classique de découplage des entrées inconnues. Pour l'éviter, nous avons établi une seconde approche, basée quant à elle sur la génération de résidus par bancs d'observateurs d'ordre réduit. Cette approche réalise la détection, l'isolation et la correction de défauts, par décomposition du système en sous-systèmes insensibles aux entrées inconnues et a certains défauts spécifiés. Dans la deuxième partie, les méthodes obtenues pour les systèmes déterministes sont étendues aux systèmes stochastiques. Nous considérons tout d'abord le problème de l'estimation robuste de l'état, en vue de généraliser le filtre de kalman aux systèmes en présence de bruits et d'entrées inconnues. L'originalité de l'étude repose sur deux transformations régulières du système en un sous-système à bruits de dynamique et de mesures decorreles et indépendants des entrées inconnues. Cette solution permet de reconstruire, à l'aide du filtre de kalman conventionnel et des changements de bases effectués, l'état complet du système d'origine. Nous pouvons alors étendre la précédente étude au diagnostic des systèmes stochastiques incertains. Dans ce contexte nous proposons dans le dernier chapitre un nouvel algorithme de détection, d'isolation et d'estimation en ligne des défauts.
APA, Harvard, Vancouver, ISO, and other styles
37

Wang, Neil. "Déterminisme de la qualité du cycle de reproduction chez la perche commune, Perca fluviatilis : approche multifactorielle." Nancy 1, 2006. http://www.theses.fr/2006NAN10120.

Full text
Abstract:
De nombreux facteurs environnementaux, nutritionnels et populationnels sont susceptibles d’agir sur la qualité de la reproduction chez les poissons. Cette thèse avait pour objectif d’identifier et de hiérarchiser l’importance des effets de ces facteurs et de leurs interactions sur le déterminisme de la qualité de la reproduction chez la perche commune, Perca fluviatilis. Une première expérience multifactorielle a visé à déterminer les facteurs influant sur l’induction du cycle de reproduction. 8 facteurs à 2 modalités ont été testés (amplitude de diminution de la température, timing, cinétique et amplitude de diminution de la photopériode, manipulations, état nutritionnel initial, rationnement et spectre lumineux). Il a été confirmé que les diminutions de température et de photopériode sont les facteurs signaux inducteurs du cycle et suggéré que la température et le timing photopériode constituent des facteurs ultimes. Le stress lié aux manipulations semble être un facteur majeur modulant la vitesse d’entrée en vitellogenèse. Une deuxième expérience multifactorielle à 8 facteurs à 2 modalités (température, état nutritionnel, manipulations, aube, luminosité, type d’aliment, rationnement et photopériode) a porté sur la qualité de la reproduction (sperme, œufs et mortalité des géniteurs). Aucune ponte n’a été obtenue, ce qui suggère que le programme photothermique de contrôle du cycle pourrait être inadéquat. La qualité du sperme semble être déterminée de façon majeure par l’état nutritionnel initial et l’intensité lumineuse. Le déterminisme des fortes mortalités observées s’avère complexe. Un premier modèle qualitatif et déterministe de la qualité du cycle est proposé<br>Numerous environmental, nutritionnal and populationnal factors are likely to be involved in the quality of reproduction in fish. The objective of this PhD study was to determine and ranking the importance of the effects of these factors and their interactions on the determinism of the quality of reproduction in Eurasian perch, Perca fluviatilis. A first factorial experiment aimed at identifying the factors acting of the induction of the reproductive cycle. 8 two-levels factors were tested (amplitude of temperature decrease, timing, kinetics and amplitude of photoperiod decrease, handling, initial nutritional state, feeding and light spectrum). It was confirmed that temperature and photoperiod decreases are the two main cues inducing the reproductive cycle. Handling stress appears to be the most important factor modulating vitellogenesis. A second factorial experiment testing 8 two-levels factors (temperature, nutritional state, handling, dawn, light intensity, food type, feeding and photoperiod) dealt with the quality of reproduction (sperm, eggs and broodstock mortality). No spawning was obtained. This suggests that the photothermal program of control of the reproductive cycle could be inadequate. Sperm quality appears to be mainly affected by nutritional state and light intensity. High mortalities were observed and their determinism could be complex. A first qualitative model of the determinism of the quality of reproduction is proposed
APA, Harvard, Vancouver, ISO, and other styles
38

Ghribi, Dhafer. "Optimisation des corrections de forme dans les engrenages droits et hélicoïdaux : Approches déterministes et probabilistes." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00873973.

Full text
Abstract:
Cette thèse a pour objectif de mener une optimisation des corrections de forme des engrenages cylindriques, droits et hélicoïdaux. Le travail se décompose en quatre parties principales. Dans la première partie, on présente un état de l'art sur les différents types de corrections de forme proposées dans la littérature. Une analyse des travaux d'optimisation, menés jusqu'à présent, est conduite. La deuxième partie est focalisée sur une approche déterministe visant à cerner l'influence des corrections de dentures sur les principaux critères de performance. Dans ce contexte, on propose un développement analytique qui caractérise les fluctuations d'erreur de transmission quasi-statique permettant d'obtenir des relations approchées originales. En présence de plusieurs paramètres de corrections, un algorithme génétique est utilisé afin d'identifier, en un temps réduit, les solutions optimales. Nous proposons, en troisième partie, une étude probabiliste pour caractériser les corrections robustes. Ainsi, on définit une fonction objectif de robustesse faisant intervenir des paramètres statistiques. Après une étape de validation, l'estimation de ces paramètres est effectuée en utilisant les formules de quadrature de Gauss. Plusieurs études paramétriques sont ensuite menées et qui reflètent entre autre l'influence des classes de qualité, la forme de la correction, etc. Enfin, on a conduit une optimisation multicritère en utilisant un algorithme d'optimisation spécifique : " NSGA-II ".
APA, Harvard, Vancouver, ISO, and other styles
39

Mourad, Aya. "Identification de la conductivité hydraulique pour un problème d'intrusion saline : Comparaison entre l'approche déterministe et l'approche stochastique." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0465/document.

Full text
Abstract:
Le thème de cette thèse est l'identification de paramètres tels que la conductivité hydraulique, K, pour un problème d'intrusion marine dans un aquifère isotrope et libre. Plus précisément, il s'agit d'estimer la conductivité hydraulique en fonction d'observations ou de mesures sur le terrain faites sur les profondeurs des interfaces (h, h₁), entre l'eau douce et l'eau salée et entre le milieu saturé et la zone insaturée. Le problème d'intrusion marine consiste en un système à dérivée croisée d'edps de type paraboliques décrivant l'évolution de h et de h₁. Le problème inverse est formulé en un problème d'optimisation où la fonction coût minimise l'écart quadratique entre les mesures des profondeurs des interfaces et celles fournies par le modèle. Nous considérons le problème exact comme une contrainte pour le problème d'optimisation et nous introduisons le Lagrangien associé à la fonction coût. Nous démontrons alors que le système d'optimalité a au moins une solution, les princcipales difficultés étant de trouver le bon ensemble pour les paramètres admissibles et de prouver la différentiabilité de l'application qui associe (h(K), h₁(K₁)) à K. Ceci constitue le premier résultat de la thèse. Le second résultat concerne l'implémentation numérique du problème d'optimisation. Notons tout d'abord que, concrètement, nous ne disposons que d'observations ponctuelles (en espace et en temps) correspondant aux nombres de puits de monitoring. Nous approchons donc la fonction coût par une formule de quadrature qui est ensuite minimisée en ultilisant l'algorithme de la variable à mémoire limitée (BLMVM). Par ailleurs, le problème exact et le problème adjoint sont discrétisés en espace par une méthode éléments finis P₁-Lagrange combinée à un schéma semi-implicite en temps. Une analyse de ce schéma nous permet de prouver qu'il est d'ordre 1 en temps et en espace. Certains résultats numériques sont présentés pour illustrer la capacité de la méthode à déterminer les paramètres inconnus. Dans la troisième partie de la thèse, nous considérons la conductivité hydraulique comme un paramètre stochastique. Pour réaliser une étude numérique rigoureuse des effets stochastiques sur le problème d'intrusion marine, nous utilisons les développements de Wiener pour tenir compte des variables aléatoires. Le système initiale est alors transformé en une suite de systèmes déterministes qu'on résout pour chaque coefficient stochastique du développement de Wiener<br>This thesis is concerned with the identification, from observations or field measurements, of the hydraulic conductivity K for the saltwater intrusion problem involving a nonhomogeneous, isotropic and free aquifer. The involved PDE model is a coupled system of nonlinear parabolic equations completed by boudary and initial conditions, as well as compatibility conditions on the data. The main unknowns are the saltwater/freshwater interface depth and the elevation of upper surface of the aquifer. The inverse problem is formulated as the optimization problem where the cost function is a least square functional measuring the discrepancy between experimental interfaces depths and those provided by the model. Considering the exact problem as a constraint for the optimization problem and introducing the Lagrangian associated with the cost function, we prove that the optimality system has at least one solution. The main difficulties are to find the set of all eligible parameters and to prove the differentiability of the operator associating to the hydraulic conductivity K, the state variables (h, h₁). This is the first result of the thesis. The second result concerns the numerical implementation of the optimization problem. We first note that concretely, we only have specific observations (in space and in time) corresponding to the number of monitoring wells, we then adapt the previous results to the case of discrete observations data. The gradient of the cost function is computed thanks to an approximate formula in order to take into account the discrete observations data. The cost functions then is minimized by using a method based on BLMVM algorithm. On the other hand, the exact problem and the adjoint problem are discretized in space by a P₁-Lagrange finite element method combined with a semi-implicit time discretization scheme. Some numerical results are presented to illustrate the ability of the method to determine the unknown parameters. In the third part of the thesis we consider the hydraulic conductivity as a stochastic parameter. To perform a rigorous numerical study of stochastic effects on the saltwater intrusion problem, we use the spectral decomposition and the stochastic variational problem is reformulated to a set of deterministic variational problems to be solved for each Wiener polynomial chaos
APA, Harvard, Vancouver, ISO, and other styles
40

Lorton, Ariane. "Contribution aux approches hybrides pour le pronostic à l'aide de processus de Markov déterministes par morceaux." Troyes, 2012. http://www.theses.fr/2012TROY0022.

Full text
Abstract:
Nous proposons une approche fiabiliste du pronostic pour la maintenance conditionnelle. Le pronostic consiste à calculer la durée de vie résiduelle (RUL), durée restante avant un événement redouté (défaillance, perte de performance, etc). Le contexte industriel de cette thèse (système complexe, incertitudes) justifie une approche probabiliste basée sur les modèles. Ce travail répond à trois problématiques : faire le lien entre la fiabilité et le pronostic, choisir un cadre de modélisation intégrant des modèles physiques, et proposer une méthode de calcul de la RUL intégrant les données issues de la vie du bien. Nous répondons à la première question en formalisant le problème de calcul de la RUL. Le pronostic apparaît comme une fiabilité conditionnelle et décalée dans le temps. Nous considérons une modélisation par processus de Markov déterministes par morceaux, permettant un large spectre de représentation, conformément à la deuxième question. Nous proposons deux nouvelles méthodes de calcul de fiabilité par Monte-Carlo sur ces modèles. Enfin, nous présentons une méthode de calcul de RUL sur un processus de Markov, contenant deux étapes : un calcul de loi conditionnelle et un calcul de fiabilité. Nous proposons une méthode particulaire pour approximer la première étape. Nous étudions la convergence de l'approximation successive des deux étapes : on montre une convergence presque sure, et un théorème central-limite associé. L'ensemble est illustré sur plusieurs exemples, avec notamment une application de la RUL dans la prise de décision de maintenance<br>We propose an approach to prognosis for condition-based maintenance using the reliability theory. Prognosis consists in computing the remaining useful life (RUL), or the time before a dread event (e. G. Failure or performance lost). The industrial context of this thesis (complex system, uncertainties) justifies a probabilistic model-based approach. This work deals with three problems : to establish a link between reliability and prognosis, to define a modeling framework which takes physical models into account and to develop a method of computation of the RUL which incorporates data from the monitoring of the item. The first question is addressed by giving a formal definition of the RUL. The prognosis appears to be a conditional and staggered reliability. We consider a modeling through piecewise deterministic Markov processes (PDMP). It allows a wide range of models, as required by the second question. We develop two new methods of computation of reliability for this process, using Monte-Carlo techniques. Then, we propose a two-steps method to compute the RUL of a Markov process. It includes a computation of a conditional distribution and a reliability. To approximate the first step, we consider an interacting particle system. We study the convergence of the joint approximation of the two steps. We proove an almost sure convergence, and a central limit theorem. This work is illustrated by several examples, especially by an example considering the use of the RUL in the maintenance decision process
APA, Harvard, Vancouver, ISO, and other styles
41

Mtibaa, Mohamed. "Οptimisatiοn de cοuplage Ρrοcédé/Ρrοpriétés/Fiabilité des Structures en Μatériaux Cοmpοsites Fοnctiοnnels". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMLH03.

Full text
Abstract:
Ce travail de recherche se penche sur les défis et les interactions entre les procédés de fabrication RTM et CRTM, les propriétés mécaniques et la fiabilité des structures en matériaux composites fonctionnels. Des modèles numériques ont été développés pour simuler l’imprégnation de la suspension à travers le milieu fibreux dans ces deux procédés. Ces modèles ont été validés en comparant leurs résultats à des résultats expérimentaux, semi-analytiques et analytiques présentes dans la littérature. Une étude paramétrique a été menée pour démontrer l’impact des différents paramètres de procédé sur la distribution des particules dans le composite final. De plus, une comparaison entre les modes d’injection et de compression a été effectuée. Les résultats de cette partie ont montré que la distribution des particules dans la pièce finale dépend de la concentration initiale, de la distance parcourue et de la fraction volumique initiale des fibres, indépendamment des valeurs des paramètres d'injection et de compression. Il a également été observé que le procédé CRTM à pression d’injection imposée et à force de compression imposée représente le scénario le plus favorable pour produire des pièces composites. Afin de contrôler la distribution finale des particules dans le composite élaboré par le procédé RTM, deux étapes clés ont été identifiées et conduites. La première étape consiste en une analyse de sensibilité axée sur trois paramètres : l’évolution temporelle de la concentration initiale des particules, du champ de pression d’injection, et de la porosité initiale des fibres. Les conclusions indiquent un impact mineur de la porosité initiale et du champ de pression d’injection, tandis que l’évolution de la concentration initiale des particules injectées joue un rôle prépondérant. Dans une seconde étape, un algorithme d’optimisation a été intégré au modèle numérique du procédé RTM, visant à déterminer la configuration optimale de l’évolution de la concentration initiale des particules injectées afin de rapprocher la distribution des particules dans le composite final aux profils souhaités. Les résultats obtenus grâce à l’algorithme génétique ont démontré une maîtrise satisfaisante de cette répartition. Pour enrichir cette partie, un modèle évaluant le comportement mécanique de la pièce fabriquée a été développé. Les résultats indiquent une corrélation positive entre le taux de particules et certaines propriétés mécaniques telles que les modules d’élasticité E11 et E22, ainsi que les modules de cisaillement G12 et G23. Cependant, le coefficient de Poisson (Nu12) est inversement proportionnel au taux de particules. En outre, le module de cisaillement G12 était le plus influencé par le taux de particules.Dans cette partie, nous avons visé le contrôle des propriétés mécaniques des pièces composites fabriquées par le procédé CRTM, ensuite comparées aux résultats du procédé RTM. Les conclusions révèlent que le procédé RTM offre un meilleur contrôle de ces propriétés, tandis que le procédé CRTM améliore considérablement les propriétés mécaniques des pièces grâce à sa phase de compression, qui augmente la fraction volumique des fibres et donc améliorant ces propriétés.Par la suite, une analyse statique a été réalisée en développant un modèle numérique basé sur la méthode des éléments finis avec Ansys APDL. Cette analyse vise la détermination de la déformation maximale de la pièce en fonction de la configuration (encastrement, simplement appuyé) et de la charge répartie appliquée. Ce modèle est combiné avec ceux du procédé CRTM et du calcul des propriétés mécaniques. Dans le but d’ajuster les propriétés mécaniques de la pièce composite selon la configuration et la charge répartie, tout en minimisant son poids et en respectant des contraintes mécaniques prédéterminées, telles que la limite de déformation maximale, un algorithme d’optimisation a été intégré à notre modèle global. Les résultats obtenus répondent parfaitement à ces objectifs<br>This research focuses on the challenges and interactions between the manufacturing processes (Resin Transfer Molding ‘RTM’ and Compression Resin Transfer Molding ‘CRTM’), the mechanical properties, and the reliability of composite material structures; more specifically the functional composites. A number of numerical models have been developed for simulating the suspension (resin + particles) impregnation through the fibrous medium (fibers) in the RTM and CRTM processes. These models are validated by comparing their results with experimental, semi-analytical, and analytical ones from the literature. A parametric study is carried out to demonstrate the impact of various process parameters on particles’ distribution in the final composite. Moreover, a comparison between the injection and compression modes is done. The results of this part show that the distribution of particles in the final part depends on the initial concentration, the distance travelled, and the initial fibers’ volume fraction. However, it is independent of the parameters values of injection and compression. It is also observed that the CRTM process with imposed pressure injection and imposed force compression represents the most favorable scenario for producing composite parts.For the purpose of controlling the final particles’ distribution in the composite material, manufactured by the RTM process, two key steps have been identified. The first step consists in a sensitivity analysis that examines three parameters: the temporal evolution of the initial injected particles’ concentration, the injection pressure field and the initial fibers’ porosity. The conclusions indicate a minimal impact of the initial porosity and the injection pressure field; while the evolution of the initial concentration of the injected particles has a dominant effect. In a second step, an optimization algorithm is implemented in the numerical model of the RTM process. It is used to determine the optimal configuration of the initial injected particles’ concentration’s evolution; in order to approximate the particles’ distribution in the final composite to the desired profiles. The obtained results from the genetic algorithm provide a very satisfactory control of this distribution. To complete this section, a model, estimating the mechanical properties of the manufactured part, is developed. It is found that there is a positive correlation between the particles’ fraction and certain mechanical properties, namely the elastic modulus E11 and E22, and the shear modulus G12 and G23. Nevertheless, the Poisson’s ratio (Nu12) is inversely proportional to the particles’ fraction. Also, the shear module G12 is the most significantly influenced by this fraction.Following this, the control of the mechanical properties of the composite parts, manufactured by the CRTM process, is targeted, and compared to the results of the RTM process. The conclusions reveal that the RTM process offers a better control of these properties. Whereas, the CRTM process improves considerably the mechanical properties of the parts due to its compression phase, which increases the fibers’ volume fraction and consequently enhances these properties.Finally, a static analysis is conducted based on the developed numerical model that uses the finite element method (Ansys APDL). This model is combined with those of the CRTM process and the mechanical properties calculation. An optimization algorithm is integrated in our global model to adapt the mechanical properties of the composite part according to the configuration (cantilever or simply supported) and the load distribution. Moreover, it minimizes the composite part’s weight and ensures the respect of the predetermined mechanical constraints such as the maximum deformation limit. The obtained results correspond perfectly to these objectives
APA, Harvard, Vancouver, ISO, and other styles
42

Tixador, Philippe. "Etude de la diversité et du déterminisme des souches de prion : approches physico-chimiques et analyse comparée." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0002.

Full text
Abstract:
Les maladies à prions regroupent un ensemble d'atteintes neurodégénératives fatales affectant l'homme et l'animal. Il est aujourd'hui communément admis que la protéine prion pathologique (PrPSc) constitue le principal, sinon le seul composant de l'agent infectieux prion. La propagation des prions s'effectuerait selon un processus de conversion auto-propagé de la protéine prion normale (PrPC) endogène en conformère infectieux PrPSc qui s'accumule sous forme d'agrégats dans le cerveau des individus atteints. Bien que virtuellement dépourvus de génome, les prions peuvent manifester une diversité de souches phénotypiquement distinctes au sein d'une même espèce. Le déterminisme moléculaire de cette diversité qui reposerait sur l'existence de conformations différentes de PrPSc, reste très peu documenté. Par l'utilisation d'une méthodologie fondée sur la sédimentation en vélocité et des approches physico-chimiques, le projet de thèse visait à étudier la diversité conformationnelle des molécules de PrPSc, à décrire leur état de multimérisation en relation avec leur niveau d'infectiosité, afin de susciter des éléments de réponse sur le déterminisme du phénotype de la maladie. Les principaux résultats obtenus montrent que l'état d'agrégation de la PrPSc, la taille des particules infectieuses et la relation entre ces deux entités peuvent notablement varier en fonction de la souche considérée. Les données acquises suggèrent ainsi que la nature des particules infectieuses varie fortement en fonction des souches, influençant en retour le phénotype biologique de souche, en particulier la dynamique de réplication<br>Prion diseases are a group of neurodegenerative disorders affecting both humans and animals. Prion, the etiologic agent of these diseases is thought to be essentially composed of multimers of an abnormal conformer (PrPSc) of the cellular, monomeric prion protein. Prion propagation is believed to stem from the ability of PrPSc to convert the cellular prion protein (PrPC) into an infectious conformer PrPSc. Biologically distinct prion strain can propagate in the same host, presumably through the self-perpetuation of different, specific PrPSc conformers. However much remains to be known about the physical relationship between the infectious agent and PrPSc conformations, in particular the aggregation state, and to which extent it varies according to the strain. The aim of the thesis was to study the strain-dependant physical diversity of PrPSc molecules, to describe their multimerisation state in relation with infectivity, in order to provide information about the determinism of the disease phenotype. We applied a methodology based on sedimentation velocity and physico-chemicals techniques to a panel of natural, biologically cloned prion strains. The main results suggest that prion infectious particles are subjected to marked strain-dependent variations in aggregation state, which in turn could influence the strain biological phenotype, in particular the replication kinetics
APA, Harvard, Vancouver, ISO, and other styles
43

Abou, al Fadil Taissir. "Déterminisme de la tolerance du tournesol a Phoma Macdonaldii au collet et sur racines : approches génétique et histologiques." Toulouse, INPT, 2006. http://ethesis.inp-toulouse.fr/archive/00000300/.

Full text
Abstract:
La maladie des taches noires du tournesol, ou Phoma du tournesol, est la deuxième maladie plus importante après le Mildiou en France. Elle provoque des pertes de rendement qui peuvent atteindre jusqu'à 70%. Les études réalisées à ce jour portent essentiellement sur la contamination du tournesol par Phoma macdonaldii au niveau de la tige. Cependant, aucun travail n'a été réalisé sur les attaques de Phoma au niveau des racines et du collet. Nos travaux ont porté sur : mise au point d'un test de contamination racinaire et au collet à la transformation de souches de Phoma macdonaldii avec une protéine verte fluorescente (GFP) ; étude de l'interaction entre 4 génotypes de tournesol et 10 souches monospores de Phoma macdonaldii sur tige, collet et racine ; variabilité génétique de la résistance partielle à la maladie des tache noires ; contrôle génétique de la résistance partielle du tournesol au Phoma macdonaldii ; identification de QTLs impliqués dans la résistance du tournesol au Phoma.
APA, Harvard, Vancouver, ISO, and other styles
44

Nassif, Yaacoub. "Déterminisme des limites climatiques des aires de distribution des essences forestières méditerranéennes. Une approche expérimentale sur quatre espèces au Liban." Electronic Thesis or Diss., Paris, AgroParisTech, 2025. http://www.theses.fr/2025AGPT0001.

Full text
Abstract:
Le changement climatique a profondément perturbé les écosystèmes naturels, particulièrement dans le bassin méditerranéen, une région caractérisée par une forte vulnérabilité face aux évolutions en cours du climat. Dans ce contexte, cette thèse vise à étudier la gamme climatique de plusieurs essences méditerranéennes et de mieux comprendre le rôle des facteurs abiotiques, biotiques et historiques dans la distribution et la persistance de ces essences forestières aux marges chaudes et froides de leur répartition. La thèse explore également si les limites altitudinales de leur répartition naturelle correspondent à leur niche climatique. En étudiant la survie et la croissance de ces essences au sein et au-delà de leurs marges climatiques actuelles, l'étude vise enfin à formuler des recommandations pour le reboisement et la gestion durable des écosystèmes méditerranéens. Un dispositif expérimental a été mis en place sur huit sites régulièrement répartis entre 110 et 2330 mètres d'altitude au Liban pour évaluer la survie et la croissance au stade juvénile de 4 essences : deux conifères Cedrus Libani et Pinus brutia et deux feuillus méditerranéens, l'un sclérophylle à feuilles persistantes : Quercus calliprinos et l'autre à feuilles caduques : Quercus infectoria. Plusieurs modalités d'irrigation et de compétition entre plants ont été étudiées dans chaque site. Le sol, le niveau de lumière disponible pour les plants, la compétition herbacée et la consommation par les herbivores ont été contrôlés et standardisés entre les sites pour garantir que seuls les effets climatiques soient étudiés. Les 4 espèces ont été plantées à 1 an selon les mêmes modalités de plantation dans tous les sites. Les mesures de croissance et de survie ont été réalisées pendant 3 ans. En complément de ce dispositif, des relevés de présence et d'absence des quatre espèces étudiées ont été effectués sur 1300 sites, afin de préciser leur gamme altitudinale dans des conditions naturelles. Les résultats montrent que la limite altitudinale « froide » des espèces dans les conditions naturelles est principalement déterminée par des facteurs physiologiques. La comparaison de survie entre modalités irriguées et non irriguées au-dessus de la limite haute de distribution met en évidence l'effet attendu des faibles températures mais aussi un effet de la sécheresse estivale comme drivers de la limite haute des essences. La limite altitudinale basse semble davantage influencée par des facteurs anthropiques et biotiques, tels que les interactions avec d'autres espèces, la compétition pour les ressources hydriques, ou encore les modifications historiques apportées par des millénaires d'activités humaines dans la région. Ainsi, la limite de survie et de croissance du cèdre se situe près de 1000 m de dénivelée sous sa limite altitudinale dans les écosystèmes naturels du Liban. En contexte méditerranéen, l'impact de la sécheresse sur la limite altitudinale « froide » des espèces mis en évidence dans cette étude remet en cause les modèles de colonisation naturelle des zones situées au-delà de la limite froide de distribution avec le changement climatique. Les résultats montrent également que les régressions prédites au pôle chaud de l'aire ne sont pas inéluctables pour certaines espèces du fait de leur capacité à survivre bien en deçà de leur limite chaude. Ces résultats ouvrent la voie à des interventions de gestion liées notamment à l'irrigation au stade juvénile et à la maitrise de la compétition comme mesures d'adaptation face aux impacts attendus du réchauffement climatique<br>Climate change has profoundly disrupted natural ecosystems, particularly in the Mediterranean basin, a region characterized by high vulnerability to ongoing climate change. In this context, this thesis aims to study the climatic range of several Mediterranean species and to better understand the role of abiotic, biotic and historical factors in the distribution and persistence of these forest species at the warm and cold margins of their distribution. The thesis also explores whether the altitudinal limits of their natural distribution correspond to their climatic niche. By studying the survival and growth of these species within and beyond their current climatic margins, the study aims to finally formulate recommendations for the reforestation and sustainable management of Mediterranean ecosystems. An experimental device was set up on eight sites regularly distributed between 110 and 2330 meters above sea level in Lebanon to evaluate the survival and growth at the juvenile stage of 4 species: two conifers Cedrus Libani and Pinus brutia and two Mediterranean deciduous trees, one evergreen sclerophyll: Quercus calliprinos and the other deciduous: Quercus infectoria. Several irrigation and plant competition modalities were studied in each site. Soil, the level of light available to plants, herbaceous competition, and consumption by herbivores were controlled and standardized between sites to ensure that only climatic effects were studied. The 4 species were planted at 1 year old according to the same planting methods in all sites. Growth and survival measurements were performed for 3 years. In addition to this system, measurements of the presence and absence of the four species studied were carried out on 1300 sites, in order to specify their altitudinal range under natural conditions. The results show that the "cold" altitudinal limit of species under natural conditions is mainly determined by physiological factors. The survival comparison between irrigated and non-irrigated modalities above the upper limit of distribution highlights the expected effect of low temperatures but also an effect of summer drought as drivers of the upper limit of species. The lower altitudinal limit appears to be more influenced by anthropogenic and biotic factors, such as interactions with other species, competition for water resources, or historical changes brought about by millennia of human activities in the region. Thus, the survival and growth limit of the cedar is nearly 1000 m of elevation drop below its altitudinal limit in the natural ecosystems of Lebanon. In the Mediterranean context, the impact of drought on the "cold" altitudinal limit of species highlighted in this study calls into question the natural colonization patterns of areas located beyond the cold limit of distribution with climate change. The results also show that the predicted regressions at the warm pole of the range are not inevitable for some species because of their ability to survive well below their warm line. These results pave the way for management interventions related in particular to irrigation at the juvenile stage and the control of competition as adaptation measures to the expected impacts of global warming
APA, Harvard, Vancouver, ISO, and other styles
45

Di, Poi Carole. "Déterminisme de la structure sociale chez le bar juvénile Dicentrarchus labrax en conditions d'auto-nourrissage : approches neuro-éthologique et physiologique." Saint-Etienne, 2008. http://www.theses.fr/2008STET4011.

Full text
Abstract:
Ce travail avait pour objectif de déterminer, par une approche multidisciplinaire, la structure sociale émergente au sein de groupes de bars juvéniles Dicentrarchus labrax en conditions d'auto-nourrissage. Les résultats montrent que seuls quelques individus, les manipulateurs principaux, sont particulièrement actifs vis-à-vis du distributeur à la demande, alors que le reste du groupe reste peu, voire totalement inactif. Une telle structuration sociale semble pérenne et particulièrement robuste. Les manipulateurs principaux ne présentent aucun bénéfice en termes de prise alimentaire et de croissance, ils ne démontrent pas non plus de comportement agressif pour défendre l'accès au levier ou à l'aliment. Néanmoins, l'activité du manipulateur principal semble ajustée sur les besoins du groupe qui bénéficie de sa production. Ce modèle social ressemble à de nombreux égards au modèle de « producteur / profiteur », dans lequel les profiteurs usurpent la nourriture trouvée par le (ou les) producteur(s). Si aucun bénéfice apparent n'est décelable pour les manipulateurs principaux, en revanche, ces individus présentent une bonne efficacité alimentaire. Il reste à déterminer si cette différence d'efficacité alimentaire est une conséquence de leur fonction ou une cause qui les prédisposerait à devenir les manipulateurs principaux. Nos résultats démontrent également une corrélation négative entre les niveaux physiologiques de stress (5-HIAA/5-HT), expression ARNm POMC, cortisol plasmatique) et le statut de demande alimentaire des individus. Ces différences de stress peuvent s'expliquer par les différences inter-individuelles dans le contrôle du système de nourrissage et la possibilité d'anticiper ou non l'heure et la fréquence des repas. Enfin, ces travaux montrent que les canaux de communication visuels et chimiques sont la base de systèmes de communication chez le bar, et que ce dernier dispose de capacités cognitives relativement élaborées pour la transmission sociale et pour la reconnaissance conspécifiques familiers (individus du même groupe social). Cette capacité de reconnaissance module les réponses comportementales mais également l'expression neurale du neuropeptide arginine vasotocine (AVT) au niveau de l'aire préoptique de l'hypothalamus. Au-delà de la contribution de ces travaux dans la connaissance du comportement social du bar juvénile, nos résultats sont susceptibles d'intéresser les pisciculteurs. Il contribue à la mise en évidence d'indicateurs éthologiques et physiologiques dans le cadre de l'amélioration du bien être des poissons au sein des élevages<br>By a multidisciplinary approach, this PhD work aimed to determine the social structure underlying the individual differences in self-feeding behaviour within juvenile sea bass Dicentrarchus labrax groups. The results show that a few individuals, the high-triggering fish, within the group strongly operate the self-feeder, whereas the remaining individuals are composed of low- and null-triggering fish. Such triggering structure exhibits a high constancy and seems to be particulary robust. However, the high-triggering fish do not show direct benefits, neither in feed intake nor in growth rate. In addition, they do not exhibit agonistic behaviour for the food ressource or the trigger defence. Moreover, the activity of the high-triggering fish seems to be adjusted on the whole group food needs rather than on their own needs. Such social model looks like the « producer / scrounger » social model, in which the scroungers are individuals usurping the ressources found by producers. No visible benefits are noticed for the high-triggerers, however, they appear to be most feed efficient fish in the group. Then a question remains, whether such food efficiency differences are the consequence of their triggering function or the cause which lead one individual to achieve the high-triggering status. Our results also show a negative correlation between physiological stress levels (5-HIAA /5-HT, POMC mRNA expression, plasma cortisol) and the individual triggering behaviour. We assume that these differences may be linked to the individual differences in the control of the time and the frequency of the meal distribution, which permits to the high-triggering fish an advantage to anticipate the meal time. Finally, the last studies show that the visual and chemical sensory cues are the basis of conspecific communication in juvenile sea bass. In addition, this fish species exhibits cognitive abilities for social transmission and recognition of familiar conspecifies (based on a past experience). Such social recognition modulates behavioural responses, as well as, the neural expression of the neuropeptide arginine vosotocin (AVT) in the preoptic area of the hypothalamus. On one hand, this wotrk contributes to improve scientific knowledge on the social behaviour of sea bass ; on the other hand, our results may have a real interest for fish farmers to identify ethological and physiological indicators of sea bass welfare in aquaculture
APA, Harvard, Vancouver, ISO, and other styles
46

Sun, Qiangqiang. "Seismic response of tunnels in soils : From deterministic to probabilistic approaches." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI067.

Full text
Abstract:
Les tunnels constituent une des parties essentielles des systèmes d'infrastructure et jouent un rôle de plus en plus important dans le processus d'urbanisation. Néanmoins, de graves dommages, dont des effondrements, se sont produits et ont été recensés dans le monde entier au cours des dernières décennies. Par conséquent, la recherche sur la conception des tunnels notamment en zone sismique afin d’atténuer efficacement les risques et de réduire les pertes socio-économiques importantes dues aux tremblements de terre a reçu une attention croissante. D'autre part, de nouveaux défis tels que les tunnels de grande section excavés à l’aide de tunneliers dans des horizons multicouches, la perturbation du champ de contraintes induit par les tunnels, ainsi que l’incertitude des propriétés des sols, nécessitent une étude détaillée de leurs influences potentielles.Cette thèse vise à étudier la réponse sismique de tunnels à l'aide d'approches déterministes et probabilistes. Les analyses sont basées sur des simulations non linéaires bidimensionnelles utilisant le code de différences finies explicite FLAC. Tout d'abord, une évaluation critique de l'utilisation de l'amortissement de Rayleigh dans les modèles numériques non linéaires est menée afin de mettre en évidence son importance et de fournir des règles pour les analyses ultérieures. L'impact de la construction des tunnels a ensuite été intégré dans les modèles numériques en utilisant la méthode convergence-confinement. La réponse sismique des tunnels pour divers états de contrainte initiaux est ensuite présentée. Des études théoriques et numériques sont effectuées pour contribuer à une meilleure compréhension des mécanismes liées à la présence d’une couche de sol compressible sous-jacente pour la protection sismique des ouvrages souterrains. Enfin, l'incertitude des paramètres du sol est introduite dans les modèles numériques sous forme de variables aléatoires. La méthode probabiliste Sparse Polynomial Chaos Expansion combinée à une analyse de sensibilité globale et des simulations de type Monte Carlo sont utilisées pour identifier les variables les plus importantes et quantifier la variabilité des déformations sismiques en tunnel. Le travail présenté considère un système d’interaction sol/tunnel réaliste qui permet de fournir des informations précieuses sur le comportement des tunnels sous chargement sismique<br>Tunnels are an essential part of infrastructure systems and play an ever-increasing role in the process of urbanization. Nevertheless, severe damage, including collapse, occurred and was reported worldwide in recent decades. Therefore, the research on the design of tunnel against seismic events to effectively mitigate risks and reduce large socio-economic losses due to earthquake disasters received increasing attention. On the other hand, new challenges such as large shield-driven tunnelling in multi-layered formations, tunnelling-induced stress perturbation, as well as uncertain soil property lead to the need for detailed investigation of their potential influences.This dissertation aims at investigating the tunnel seismic response using deterministic and probabilistic approaches. The analyses are based on two-dimensional nonlinear simulations using the explicit finite difference code FLAC. First, a critical assessment of the Rayleigh damping use in nonlinear numerical models is conducted to highlight its significant importance and to provide a selection guideline for the subsequent analyses. Then, the tunnel construction impact is incorporated in the numerical models with the convergence-confinement method. The tunnel seismic responses for various initial stress states are then presented. Next, theoretical and numerical studies are performed to reveal the mechanical mechanism of an underlying soft soil layer for the tunnel seismic protection. Finally, the uncertainty of the soil parameters is introduced into the model as random variables. The sparse polynomial chaos expansion based Global Sensitivity Analysis and the conventional Monte Carlo simulations are respectively utilized to identify the most important variables and quantify the variability in the tunnel seismic deformations. The presented work considers a more realistic soil-tunnel system, thus it provides valuable insights for the behavior of tunnels under seismic loadings
APA, Harvard, Vancouver, ISO, and other styles
47

Sferratore, Agata. "Modelling the transfer, transformation and retention of silica along aquatic continuums : an upgraded deterministic approach." Paris 6, 2006. http://www.theses.fr/2006PA066518.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Eclercy, Daniel. "Contribution à l'étude de synthèse d'antennes et de réseaux. Elaboration d'outils de calcul originaux basés sur des approches déterministes et stochastiques." Limoges, 1998. http://www.theses.fr/1998LIMO0018.

Full text
Abstract:
Ce memoire presente une etude theorique liee a la synthese d'antennes et de reseaux d'antennes imprimees. La synthese de reseaux d'antennes est basee sur une technique d'optimisation de systemes d'equations non lineaires avec un critere minmax. Des formulations adequates de la fonction d'erreur permettent la prise en compte des contraintes imposees sur les coefficients d'excitations, sur le couplage entre sources et sur les specifications du rayonnement. Deux types de solutions sont definies une dite reelle fournissant des resultats optimaux pour les reseaux directifs et l'autre en puissance se revelant meilleure pour la qualite de formation du lobe. L'optimisation du nombre d'elements est obtenue en couplant cet algorithme avec un algorithme genetique. De nombreux exemples de reseaux d'antennes a rayonnement specifie illustrent ce memoire. Une approche originale d'optimisation d'antennes est introduite dans ce memoire. Cette methode consiste a coupler un algorithme d'optimisation (l'algorithme genetique) avec un code d'analyse d'antennes base sur les differences finies. Afin de reduire le temps de calcul, des reseaux de neurones sont elabores par ce code d'analyse et introduits dans la boucle d'optimisation. Ces reseaux allient la rapidite et la precision des resultats. L'objectif est de determiner la nature du substrat dielectrique et diverses autres grandeurs physiques de l'aerien afin que les contraintes imposees sur les caracteristiques electriques de l'antenne soient satisfaites. Plusieurs reseaux de neurones et optimisations sont realises sur des antennes imprimees classiques et des antennes fil-plaque monopolaire.
APA, Harvard, Vancouver, ISO, and other styles
49

Kébir, Hocine. "Approches déterministe et probabiliste de la prévision de la durée de vie de structures aéronautiques à l'aide de la méthode des équations intégrales duales." Compiègne, 1998. http://www.theses.fr/1998COMP1157.

Full text
Abstract:
Ce travail de recherche est consacré à l'élaboration d'un outil numérique fondé sur la méthode des équations intégrales duales et dédié à la prévision de la durée de vie des structures aéronautiques. Le logiciel développé permet, entre autres, la simulation du phénomène de multi-fissuration, observé notamment dans les assemblages boulonnés. Cette tâche est décomposée en cinq étapes : la première étape est consacrée à la présentation de la formulation de la méthode des équations intégrales directes, en déplacements et en tensions, et à sa mise en oeuvre numérique. La modélisation des fissures en modes mixtes est ensuite abordée en utilisant un élément original qui a permis la reproduction exacte des champs singuliers en fond de fissures. La troisième étape porte sur la simulation de la propagation de fissures et l'estimation de la durée de vie des structures ; la prévision des trajets de propagation fait intervenir les facteurs d'intensité de contraintes dans un critère prévoyant la direction. Ainsi l'accroissement de la fissure est appliqué selon cette direction. La modélisation des assemblages boulonnés multi-fissures est ensuite développée après avoir présenté au préalable le traitement numérique du contact en 2D par la méthode des équations intégrales. La simulation complète du phénomène de multi-fissuration sur des éléments structuraux est entreprise dans la cinquième partie. Une approche probabiliste fondée sur la méthode stochastique de Monte-Carlo est décrite pour tenir compte des dispersions liées aux matériaux. Après avoir défini un grand nombre de scénarios aléatoires possibles, on simule l'évolution de la structure pour chaque scénario, pour enfin avoir une estimation statistique des résultats. Une comparaison des résultats numériques à des résultats expérimentaux obtenus au laboratoire central d'AEROSPATIALE de Suresnes a permis de valider chaque étape du développement du logiciel. Ces travaux ont conduit à la réalisation d'un logiciel parfaitement opérationnel nommé PRF2D. Il est exploité industriellement par l'AEROSPATIALE.
APA, Harvard, Vancouver, ISO, and other styles
50

Delpierre, Nicolas. "Etude du déterminisme des variations interannuelles des échanges carbonés entre les écosystèmes forestiers européens et l’atmosphère : une approche basée sur la modélisation des processus." Paris 11, 2009. http://www.theses.fr/2009PA112167.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography