To see the other types of publications on this topic, follow the link: Déterministe.

Dissertations / Theses on the topic 'Déterministe'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Déterministe.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jibenja, Natthada. "Optimisation globale récursive semi-déterministe." Montpellier 2, 2007. http://www.theses.fr/2007MON20051.

Full text
Abstract:
L'idée générale de ce travail est de proposer une nouvelle classe d'algorithmes permettant d'améliorer les méthodes globales et locales d'optimisation déjà existants. Nous sommes partis du constat que la donnée de conditions initiales aux algorithmes d'optimisation conditionne fortement le résultat final. Nous présentons une méthode se basant sur la détermination de 'bonnes' conditions initiales par la solution de problèmes à valeurs aux limites. Cette méthode est validée et comparée avec des algorithmes génétiques sur diverses fonctions tests et quelques problèmes d'optimisation gouvernés par des EDP
The global solution of minimization problems is of great practical importance and this is one of the reason why evolutionary algorithms received a tremendous interest in recent years. However, the main difficulties with these algorithms remain their computational time, their lack of precision and their slow convergence. The general idea of this work is to propose a new class of algorithms making it possible to improve the globale and local methods of optimization already existing. We present a method basing itself on the determination of ' good' initial conditions. Many optimization algorithms can be viewed as discrete forms of Cauchy problems for a system of ordinary differential equations in the space of control parameters. We will see that if one introduces an extra information on the infimum, solving global optimization problems using these algorithms is equivalent to solving Boundary Value Problems for the same equations. A motivating idea is therefore to apply algorithms solving Boundary Value Problems to perform this global optimization. We illustrate the previous ingredients through various benchmark and industrial optimization problems
APA, Harvard, Vancouver, ISO, and other styles
2

Jourdan, Laetitia. "Métaheuristiques Coopératives : du déterministe au stochastique." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00523274.

Full text
Abstract:
Ce travail présente nos principales contributions à la résolution de problèmes d'optimisation combinatoire en environnements déterministe et stochastique. Au niveau des métaheuristiques, une vue unifiée de la conception de métaheuristiques à solution unique et de métaheuristiques multi-objective est proposée. Cette unification a permis notamment de retravailler la plateforme ParadisEO afin d'offrir plus de flexibilité et de polyvalence. La synthèse des travaux présente également une vue unifiée des métaheuristiques coopératives. Nous montrons que cette vue convient aussi bien pour des coopérations entre métaheuristiques que des coopération entre des métaheuristiques et des méthodes exactes mais également des coopérations entre des métaheuristiques et des algorithmes d'extraction de connaissances. Différents exemples de coopérations réalisées dans mes travaux de recherche illustent ces coopérations et leur application à des problèmes d'optimisation combinatoire mono- et multi-objectif. Cette habilitation se termine par la présentation de travaux réalisés en optimisation stochastique notamment dans le cadre de l'optimisation sous incertitude et de l'optimisation dynamique. L'importance des critères de robustesse est discutée ainsi que l'intérêt et la mise en œuvre de méthodes coopératives dans un contexte dynamique. Les principales applications présentées on été réalisées sur des problèmes en transport et logistique ainsi qu'en biologie dans le cadre de l'ANR Dock.
APA, Harvard, Vancouver, ISO, and other styles
3

Agrou, Hicham. "Architecture multi-coeur déterministe pour l'avionique." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3070/.

Full text
Abstract:
L'élaboration d'un système temps réel requiert des dates d'échéance pour chacune des tâches à effectuer. L'ordonnancement nécessite de connaître parmi tous les scénarios possibles d'exécution, la plus longue durée entre l'activation de la tâche et l'instant de sa terminaison. Pour répondre aux besoins accrus de performance, les fondeurs ont enrichi leurs architectures en fonctionnalités matérielles complexes. La réduction de la moyenne des temps d'exécution, la prise en compte matérielle du domaine d'application, et ce, en maintenant une rétrocompatibilité peuvent expliquer cette évolution qui rend difficile l'estimation des pires temps d'exécution. L'introduction des processeurs multi-cœurs en avionique soulève des interrogations notamment quant à la manière dont les instructions sont exécutées. Nous proposons une procédure d'évaluation d'architectures multi-cœurs permettant d'identifier des situations où les transactions présentent des latences anormalement élevées uniquement dues à la concurrence des accès au niveau de l'interconnexion. Nous appliquons ce protocole de test à une architecture PowerPC(c) octo-cœur citée par de nombreuses études avioniques, le P4080 du fabricant Freescale(c). Nous mettons en évidence les étapes clés de configuration pour la maîtrise des échanges et des moyens de mesure du temps jusqu'à la mise en évidence de situations présentant ces altérations temporelles. Nous proposons également une interconnexion dont le principe consiste à maîtriser le comportement transactionnel de tout type d'initiateur, à garantir le partitionnement spatial/ temporel et la politique de partage aux ressources. Une caractérisation temporelle est également présentée
The development of a real-time system requires deadlines for each task. Scheduling requires knowledge of all the possible scenarios of execution for the system in order to obtain the longest time between the activation of the task and the time of its termination. To increase the mean performance, the manufacturers have expanded the functionality of their architectures with more and more complex features. Reducing the average execution time, taking into account the scope of hardware and maintaining backward compatibility can explain this evolution, which makes it difficult to estimate the worst-case execution time. The introduction of multi-core processors in avionics raises questions, particularly about how the instructions should be executed. We propose a procedure for evaluating multicore architectures to highlight situations where transactions have abnormally high latencies due to the concurrency at interconnection level. We apply this test protocol to the Freescale(c) P4080, a PowerPC(c) processor often cited for future avionics solution. We highlight the key steps for configuring control trade and means for measuring the time until the detection of abnormal behaviors transaction. We also propose an interconnection whose principle of operation is to control the transactional behavior of any type of initiator, by implementing various hardware services to ensure spatial/temporal partitioning, and equitable access to shared resources. A measure of the temporal impact of the control units is also presented
APA, Harvard, Vancouver, ISO, and other styles
4

Mansar, Sabeur. "Déconvolution sismique : approches déterministe et statistique." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0036.

Full text
Abstract:
Cette these traite des problemes theoriques et pratiques de la deconvolution sismique. Elle vise a proposer des solutions pratiques utilisables dans la sequence classique de traitements sismiques. Des nombreux exemples pedagogiques et reels illustrent et detaillent les limitations pratiques des methodes de deconvolution classiques et nouvelles. Dans la premiere partie, nous traitons de la validite du modele convolutif. Les differents termes qui entrent dans la description du sismogramme sont precises. Dans la deuxieme partie nous avons aborde le probleme de l'estimation de la signature de la source sismique. Les principales methodes, deterministes et statistiques, sont presentees ainsi que leurs limitations. Nous avons presente une nouvelle methode d'estimation, basee sur les statistiques d'ordre superieur, qui s'affranchit de l'hypothese phase minimale, hypothese que nous avons montree d'etre pas toujours verifiee. Cette nouvelle methode, basee sur des methodes plus anciennes, a l'avantage d'etre robuste et rapide, et permet donc de traiter des donnees reelles. Le cas plus general de signaux non stationnaires etait le cadre de la troisieme partie. Nous avons traite de l'origine et de la prise en compte de la non-stationnarite des traces sismiques. Une nouvelle methode d'analyse et de correction des distorsions de phase non-stationnaires, basee sur la transformee en ondelettes, a ete presentee. La derniere partie est consacree aux applications sur des donnees reelles. L'evaluation des resultats obtenus, a ete effectuee a l'aide de criteres objectifs, tel que le calage au puits ou des mesures directes. Les differentes methodes developpees pendant cette these ont ete industrialisees (promax et geovecteur +).
APA, Harvard, Vancouver, ISO, and other styles
5

Mathey, Laurent. "Placement déterministe de dopants pour dispositifs ultimes." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00908954.

Full text
Abstract:
En raison de la miniaturisation des dispositifs pour semi-conducteurs, le caractère aléatoire de la distribution de dopants dans un dispositif devient un paramètre critique pour les performances de ce dernier. Le but de ce travail est de valider une stratégie de dopage du silicium par un positionnement contrôlé de molécules, alternatif aux implantations, afin de limiter la variabilité de la tension de seuil. Nous avons choisi de contrôler la densité des sites et le positionnement des dopants en combinant le contrôle de la densité des sites d'ancrage et l'utilisation de molécules à fort encombrement stérique. Ceci a été réalisé en étudiant dans un premier temps le greffage de bore sur les silanols de silice amorphe partiellement traitée en température, à partir de molécules porteuses présentant des ligands de différentes tailles et des symétries ; le modèle de greffage a pu être déterminé en utilisant différentes techniques analytiques (IR-DRIFT, multi-core SSRMN et analyses élémentaires). L'élimination des ligands par un traitement thermique a permis de réaliser la fixation du Bore sur la silice avec un rendement supérieur à 96%. Cette méthode a été transférée avec succès à des wafers de silicium recouverts de silice native. Le recuit à haute température permettant la redistribution du bore dans le silicium a été ensuite validée par l'analyse VPD-ICPMS de l'oxyde greffé couplées aux mesures de profil de dopant dans le silicium obtenues par TofSIMS. Ce traitement a conduit à définir un procédé optimal par greffage sur silice mince, donnant des concentrations de dopant dans le silicium équivalentes à celles rapportées par la littérature sur silicium désoxydé, et sans passivation additionnelle de silice pour éviter la volatilisation du Bore greffé. En effet, la taille des ligands permet de contrôler la volatilisation du bore pendant recuit. Les analyses électriques par spectroscopie à effet tunnel ont confirmé l'activation électrique du dopant apporté par greffage et diffusé dans le silicium
APA, Harvard, Vancouver, ISO, and other styles
6

Lupascu, Oana. "Modélisation probabiliste et déterministe de la rupture." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_lupascu.pdf.

Full text
Abstract:
Cette thèse présente des modèles probabilistes et déterministes de rupture et des phénomènes de branchement, on étudie : les processus de branchement à valeurs mesures et leur EDP non linéaires, les processus de Markov de la subordination au sens de Bochner sur les espaces Lp, et les EDP non linéaires liées au déclenchement des avalanches. La première partie présente les aspects stochastiques. On utilise plusieurs outils théoriques, analytiques et probabilistes de la théorie du potentiel. D'abord, on construit des processus de branchement (de Markov) sur l'ensemble des configurations finies de l'espace d'état d'un processus standard, contrôlés par un noyau de branchement et un noyau tuant. On établit des connexions avec les équations différentielles partielles liées aux fonctions de transition d'un processus de branchement. Si on part d'un super processus, on obtiendra un processus de branchement ayant l'espace d'état des configurations finies de mesures positives finies sur un espace topologique. L'outil principal pour démontrer la régularité des trajectoires d'un processus de branchement est l'existence des fonctions sur-harmoniques convenables, ayant les niveaux compacts. Ensuite, on démontre que la subordination induite par un semi-groupe de convolution (la subordination au sens de Bochner) d'un C0 -semi-groupe d'opérateurs sous-markoviens sur l'espace Lp est associée à la subordination de processus droit de Markov. En conséquence, on résout le problème des martingales associé au Lp –générateur infinitésimal d'un semi-groupe subordonné. Il s'avère qu'un élargissement de l'espace de base est nécessaire. La principale étape de la preuve est la préservation sous une subordination de la propriété d'un processus de Markov d'être un processus droit borélien. La deuxième partie de la thèse est consacrée à la modélisation du déclenchement d'une avalanche d'un matériau viscoplastique de faible épaisseur (sols, neige ou autre géo-matériaux) sur une surface avec topographie (montagnes, vallées). On introduit un critère simple, déduit d'un problème d'optimisation (analyse de la charge limite), capable de distinguer si une avalanche se produit ou pas. Comme la fonctionnelle de dissipation plastique est non régulière et non coercitive dans les espaces de Sobolev classiques, on utilise l'espace des fonctions à déformation tangentielle bornée, pour prouver l'existence d'un champ de vitesse optimal, associé au déclenchement d'une avalanche. La fracture du matériau pendant la phase de déclenchement est modélisée par une discontinuité de ce champ de vitesse. On propose aussi une stratégie numérique, sans maillage, pour résoudre le problème de charge limite et pour obtenir la fracture de déclenchement. Enfin, l'approche numérique proposée est illustrée par la résolution de certains problèmes modélisant le déclenchement des avalanches
The thesis presents probabilistic and deterministic models for rupture and branching type phenomena,by studying: measure-valued discrete branching processes and their nonlinear PDEs, the Markov processes of the Bochner subordinations on Lp spaces, and the nonlinear PDEs associated to the flow onset of dense avalanches. The first part presents the stochastic aspects. Several analytic and probabilistic potential theoretical tools are used. First, it is given a construction for the branching Markov processes on the space of finite configurations of the state space of a given standard process (called base process), controlled by a branching kernel and a killing one. There are established connections with the nonlinear partial differential equations associated with the transition functions of the branching processes. When the base process is the Brownian motion, then a nonlinear evolution equation involving the square of the gradient occurs. Starting with a super process as base process, the result is a branching process with state space the finite configurations of positive finite measures on a topological space. A key tool in proving the path regularity of the branching process is the existence of a convenient super-harmonic function having compact level sets. Second, it is shown that the subordination induced by a convolution semi-group (the subordination in the sense of Bochner) of a C0 –semi-group of sub-Markovian operators on an Lp space is actually associated to the subordination of a right (Markov) process. As a consequence, it is solved the martingale problem associate with the Lp -infinitesimal generator of the subordinate semi-group. It turns out that an enlargement of the base space is necessary. A main step in the proof is the preservation under such a subordination of the property of a Markov process to be a Borel right process. The second part of the thesis deals with the modeling of the onset of a shallow avalanche (soils, snow or other geo-materials) over various bottom topologies (mountains, valleys). Starting from a shallow viscoplastic model with topography, a simple criterion able to distinguish if an avalanche occurs or not, is introduced. This criterion is deduced from an optimization problem, called limit load analysis. The plastic dissipation functional involved is non-smooth, and non coercive in the classical Sobolev spaces. The appropriate functional space is the space of bounded tangential deformation functions and the existence of an onset velocity field (collapse flow) is proved. To propose a numerical strategy, a mesh free method is used to reduce the limit load problem to the minimization of a shape dependent functional. The collapse flow velocity field, which is discontinuous, is associated to an optimum sub-domain and to a rigid flow. Finally, the proposed numerical approach is illustrated by solving some safety factor problems associated to avalanche onset
APA, Harvard, Vancouver, ISO, and other styles
7

Werny, Pierre. "Contribution à l'étude de modèles chaotiques par approches métriques et topologiques." Lyon, INSA, 2001. http://theses.insa-lyon.fr/publication/2001ISAL0033/these.pdf.

Full text
Abstract:
Cette étude porte sur la dynamique non linéaire de deux modèles empruntés au domaine du génie civil. Nous considérons d'abord un milieu granulaire soumis à une excitation paramétrique. L'écoulement des grains peut être décrit en première approximation par un oscillateur non linéaire à un degré de liberté dont le mouvement est régi par un système différentiel linéaire par morceaux. Après une étude analytique de la stabilité de l'unique position d'équilibre, nous proposons un calcul original de la stabilité des solutions périodiques qui sera utilisé pour décrire l'enchaînement des bifurcations de ces solutions. Les régimes chaotiques apparaissant pour de nombreuses valeurs des paramètres sont caractérisés par une approche métrique classique mais également par une approche topologique basée sur l'organisation des orbites périodiques instables formant le squelette des attracteurs chaotiques. Cette analyse conduit à caractériser les dynamiques chaotiques à l'aide d'une matrice carrée représentant leur gabarit. Cette approche est ensuite utilisée lors de la description de crises chaotiques. Aux intermittences de type I sont associées des lois d'échelle ou de distributions de longueurs de phases laminaires que l'on croit caractéristiques. Nous étudions plusieurs systèmes dynamiques présentant des intermittences non classiques avec soit plusieurs canaux de réinjection soit une solution peu instable à proximité de ces canaux. Nous montrons que les mécanismes de réinjection peuvent être modifiés et les lois d'échelle habituellement observées ne sont alors plus vérifiées. Le dernier chapitre s'intéresse à un modèle d'arche d'Euler élastoplastique. Les principales solutions du systèmes sont obtenues par des techniques analytiques et numériques et leurs bifurcations sont ensuite décrites en détails. Une analyse topologique menée sur le principal attracteur chaotique conduit à un gabarit complexe dont la détermination nécessite le développement d'outils adaptés
Two non-linear chaotic models from civil engineering are studied. We first consider a granular medium under sinusoidal parametric excitation. The granular flow can be described in first approximation by a one degree of freedom non-linear oscillator whose motion is governed by a piecewise linear differential system. After an analytical study of the stability of the single equilibrium position, we investigate the stability of the periodic solutions which will be used to explore the bifurcations’ sequences of these solutions. The chaotic behaviour occurring for many values of the parameters is characterized by a traditional metric approach but also by a topological approach based on the organization of the unstable periodic orbits which are embedding in the strange attractor. This analysis results in characterizing chaotic dynamics using a square matrix representing their template. This approach is then used for the description of chaotic crises. Type I intermittencies are associated with characteristic scaling laws or distributions laws of their laminar phases lengths. We study various non classical type I intermittencies with either several reinjection’s channels or a quite unstable solution in the proximity of these channels. We show that the mechanisms of reinjection can be modified and the scaling laws usually observed are not checked any more. The final chapter deals with a model of an elastoplastic Euler arch. The main solutions of the system are obtained by analytical and numerical methods and their bifurcations are then described in details. A topological analysis carried out on the main chaotic attractor led to a complexe template whose determination requires the development of adapted tools
APA, Harvard, Vancouver, ISO, and other styles
8

Mollon, Guilhem. "Etude déterministe et probabiliste du comportement des tunnels." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00880461.

Full text
Abstract:
Les travaux présentés dans ce mémoire s'attachent à étudier le comportement des tunnels creusés à faible profondeur à l'aide d'un tunnelier à front pressurisé, en se penchant plus particulièrement sur deux aspects fondamentaux lors de l'excavation : la stabilité du front de taille à l'effondrement et au refoulement, et l'apparition de mouvements de sol en surface. L'étude est menée sous un angle déterministe puis probabiliste. Dans un premier temps, un certain nombre de modèles analytique de détermination des pressions limites d'effondrement et de refoulement sont développés à partir d'observations effectuées sur des modèles numériques. Deux de ces modèles analytiques présentent, respectivement pour des sols frottants et non frottants, des résultats très satisfaisants à la fois en termes de pressions limites et de faciès de rupture. Par ailleurs, des modèles numériques de différents degrés de complexité sont programmés afin d'évaluer les mouvements de sol induits par l'excavation et leur propagation jusqu'à la surface. Les modèles déterministes ainsi définis sont ensuite utilisés dans un cadre probabiliste. La méthode de la surface de réponse stochastique par collocation est présentée, validée, et perfectionnée afin de rendre possible pour un faible coût calculatoire des études paramétriques sur les propriétés probabilistes des variables d'entrée des modèles. La propagation de l'incertitude au travers des modèles déterministes de stabilité et de mouvements de sol est évaluée, et des méthodes de dimensionnement fiabiliste sont proposées. Dans une dernière partie, la variabilité spatiale du sol est prise en compte par l'intermédiaire de la théorie des champs aléatoires, et appliquée à un modèle analytique 2D d'effondrement d'un front de taille. Ce modèle, développé dans le but de prendre en compte cette variabilité spatiale pour des temps de calcul inférieurs à ceux des modèles numériques, est validé numériquement et soumis à des tirages aléatoires en grand nombre. L'effet de la variabilité est évaluée, et des phénomènes nouveaux liés à cette variabilité sont mis en lumière.
APA, Harvard, Vancouver, ISO, and other styles
9

Peng, Shi Ge. "L'étude des perturbations singulières en contrôle optimal déterministe." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Seizeur, Romuald. "Etude du faisceau cortico-spinal en tractographie déterministe." Rennes 1, 2011. http://www.theses.fr/2011REN1B153.

Full text
Abstract:
L’IRM permet une étude des structures cérébrales in vivo. L’IRM du tenseur de diffusion permet l’étude des faisceaux de fibres, la tractographie en donne une visualisation graphique. Qu’il s’agisse des modèles de diffusion ou des algorithmes de tractographie, la validation anatomique est difficile à réaliser. Elle est un préalable nécessaire à la compréhension des images des pathologies du système nerveux. Nous avons étudié le faisceau cortico-spinal (FCS) en tractographie déterministe avec des algorithmes disponibles en routine clinique. Le FCS a un intérêt majeur, il véhicule la motricité volontaire. Son atteinte provoque un déficit moteur. Son étude en tractographie est rendue complexe par le nombre de croisements avec les autres faisceaux. Nous avons mené trois études sur le FCS après avoir obtenu les tractographies par quatre algorithmes déterministes avec deux régions d’intérêt dont l’une d’elles était segmentée à partir des données d’IRM fonctionnelles de la motricité de la main. La première étude a tenté une validation anatomique sur 15 droitiers. En réalisant une étude comparative par deux neuroradiologues des tractographies des FCS, nous avons déterminé l’algorithme donnant la meilleure concordance. La deuxième a étudié la fraction d’anisotropie, la diffusivité moyenne et le coefficient plan du tenseur pour chercher une asymétrie du FCS. La troisième a porté sur 15 droitiers et 10 gauchers. Nous avons cherché une influence de la latéralité des sujets étudiés sur les différents paramètres des FCS obtenus. La meilleure concordance entre les algorithmes étudiés ne met pas évidence celui qui est le plus robuste mathématiquement. Nous avons trouvé une asymétrie du FCS corrélée à l’indice de latéralité
MRI allows brain structures study in vivo. Tensor diffusion imaging permits the study of white matter fibres; tractography provides a visualization of fibres bundles. Anatomic validation is challenging for diffusion models and tractography algorithms. This validation is necessary for images (from DTI and tractography) of nervous system pathologies understanding. We studied corticospinal tract (CST) with determinist tractography algorithms used in clinical routine. CST is the major tract of voluntary movement and its lesions can result in varying levels of palsy. The crossing fibre regions make the tractography study difficult. We performed three studies on CST tractography. Four deterministic algorithms were used. We used two regions of interest, one was segmented by anatomical knowledge, the second was segmented using functional MRI (hand motor activation). The first study (on 15 right-handed subjects) tried to evaluate tractography provided by algorithms via comparative analysis by expert neuroradiologists. The second study the fractional anisotropy, the mean diffusivity and the planar coefficient tensor to try to find a CST asymmetry. The third study was performed on 15 right-handed and 10 left-handed subjects. We tried to corroborate the asymmetry to laterality index. The concordance between expert neuroradiologists did not ranked first the mathematically most robust algorithm. The results showed an asymmetry correlated to the laterality index
APA, Harvard, Vancouver, ISO, and other styles
11

Ourari, Samia. "De l'ordonnancement déterministe à l'ordonnancement distribué sous incertitudes." Phd thesis, Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1267/.

Full text
Abstract:
Ce travail présente l'étude de deux types de problèmes d'ordonnancement. Le premier concerne la résolution centralisée et exacte d'un problème à une machine, le second, la résolution distribuée et coopérative d'un problème job shop où chaque machine est assimilée à un acteur possédant sa propre autonomie décisionnelle. Pour ces deux problèmes, des conditions de dominance sont utilisées, dans le premier cas, dans le but de limiter la complexité algorithmique liée à la recherche de solutions admissibles ou optimales, dans le deuxième cas, pour accroître la capacité de chaque acteur à résister aux incertitudes liées aux fluctuations de son environnement. Dans un premier temps, un théorème proposé dans les années quatre-vingt est rappelé, qui, considérant le problème à une machine, permet de caractériser un ensemble de solutions dominantes. Sur la base de ce théorème, nous proposons ensuite de nouvelles conditions analytiques et numériques de dominance permettant de restreindre encore davantage l'ensemble des solutions dominantes. En exploitant ces résultats, des formulations mathématiques originales et efficaces sont présentées, sous forme de programmes linéaires en nombres entiers, pour la modélisation et la résolution du problème à une machine en s'intéressant tour à tour au critère de minimisation du plus grand retard algébrique, puis à celui de minimisation du nombre de travaux en retard. Dans un deuxième temps, nous étudions le problème d'ordonnancement job shop dans un environnement multi-acteur, chaque acteur gérant l'activité d'une machine. Tenant compte de l'autonomie de décision et des objectifs propres de chacun, l'ordonnancement est envisagé sous la forme d'une fonction distribuée où la solution globale résulte d'une coopération entre les différents acteurs, cette solution pouvant évoluer dans le temps au fur-et-à-mesure des prises de décision locales. Ainsi, chaque acteur construisant localement sa propre organisation et n'ayant qu'une connaissance partielle et incertaine de l'organisation des autres, nous proposons que les organisations locales soient construites de façon robuste. Pour cela nous montrons comment, à l'aide des résultats de dominance, maintenir au niveau de chaque acteur un ensemble dominant de solutions ayant une performance au pire bornée. Une nouvelle approche d'ordonnancement est ensuite proposée où les acteurs négocient deux à deux, de façon distribuée, de façon à converger progressivement vers des décisions assurant un compromis satisfaisant entre l'optimisation des objectifs locaux et des objectifs globaux
This work presents the study of two scheduling problems. The former concerns the exact and centralised resolution of a single machine problem, and the latter, the distributed and cooperative resolution of a job shop, each machine being viewed as an actor having its own decision autonomy. For both problems, dominance conditions are used, in the first case, in order to reduce the algorithmic complexity for seeking feasible or optimal solutions, and in the second case, to increase the ability of each actor to face uncertainties. In the first part, a theorem, stated in the early eighties, is recalled that allows to characterize a set of dominant solutions, considering a one-machine sequencing problem. On the basis of the theorem, new analytical and numerical dominance conditions are established that allow to tighten the set of dominant sequences. Then original and efficient mathematical formulations, in the form of integer linear programs, are proposed for modelling and solving single machine problems. Two kinds of criterion are considered : the minimization of the maximum lateness and the minimization of the number of tardy jobs. In the second part, the job shop scheduling problem is studied, using a multi-actor framework, assuming that each actor manages one machine. Taking into account the decisional autonomy and the own objectives of each actor, scheduling is seen as a distributed and dynamic function, where the global solution emerges from negotiations among the actors. We assume that each actor builds up its own local organisation in a robust way, having an imprecise and partial knowledge of the other actor's organisation. We particularly show how maintaining on each actor a set of dominant job sequences so that the worst performance can be bounded. Then a new scheduling approach is sketched where actors initiate point-to-point negotiation, in a distributed way, so as to progressively converge toward trade-off decisions that balance local and global objectives
APA, Harvard, Vancouver, ISO, and other styles
12

Mollon, Guilhem. "Etude déterministe et probabiliste du comportement des tunnels." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0110/these.pdf.

Full text
Abstract:
Les travaux présentés dans ce mémoire s’attachent à étudier le comportement des tunnels creusés à faible profondeur à l’aide d’un tunnelier à front pressurisé, en se penchant plus particulièrement sur deux aspects fondamentaux lors de l’excavation : la stabilité du front de taille à l’effondrement et au refoulement, et l’apparition de mouvements de sol en surface. L’étude est menée sous un angle déterministe puis probabiliste. Dans un premier temps, un certain nombre de modèles analytique de détermination des pressions limites d’effondrement et de refoulement sont développés à partir d’observations effectuées sur des modèles numériques. Deux de ces modèles analytiques présentent, respectivement pour des sols frottant et non frottant, des résultats très satisfaisants à la fois en termes de pressions limites et de faciès de rupture. Par ailleurs, des modèles numériques de différents degrés de complexité sont programmés afin d’évaluer les mouvements de sol induits par l’excavation et leur propagation jusqu’à la surface. Les modèles déterministes ainsi définis sont ensuite utilisés dans un cadre probabiliste. La méthode de la surface de réponse stochastique par collocation est présentée, validée, et perfectionnée afin de rendre possible pour un faible coût calculatoire des études paramétriques sur les propriétés probabilistes des variables d’entrée des modèles. La propagation de l’incertitude au travers des modèles déterministes de stabilité et de mouvements de sol est évaluée, et des méthodes de dimensionnement fiabiliste sont proposées. Dans une dernière partie, la variabilité spatiale du sol est prise en compte par l’intermédiaire de la théorie des champs aléatoires, et appliquée à un modèle analytique 2D d’effondrement d’un front de taille. Ce modèle, développé dans le but de prendre en compte cette variabilité spatiale pour des temps de calcul inférieurs à ceux des modèles numériques, est validé numériquement et soumis à des tirages aléatoires en grand nombre. L’effet de la variabilité est évalué, et des phénomènes nouveaux liés à cette variabilité sont mis en lumière
The work presented in this manuscript aims at studying the behaviour of shallow tunnels excavated with pressurized shields, by investigating two fundamental points : the stability of the tunnel face with respect to collapse and blow-out, and the occurrence of soil movements at the ground surface. The study first deals with deterministic aspects, and then focuses on a probabilistic approach. In a first time, several analytical models for the determination of the collapse and blow-out limit pressures are developed from observations of numerical results. Two of these models, respectively for frictional and purely cohesive soils, appear to provide very satisfying results, both for the computation of the limit pressures and for the assessment of the failure shape. Moreover, two numerical models of increasing complexity are programmed in order to evaluate the soil movements induced by the excavation, and their propagation to the ground surface. These deterministic models are then used in a probabilistic framework. The Collocation-based Stochastic Response Surface Methodology is presented, validated, and generalized in order to make possible at a limited computational cost a complete parametric study on the probabilistic properties of the input variables. The uncertainty propagation through the models of stability and ground movements is evaluated, and some methods of reliability-based design are proposed. In a last part of the manuscript, the spatial variability of the soil is taken into account using the random fields theory, and applied to a 2D analytical model of tunnel face collapse. This model, developed in order to take into account this variability for much smaller computation times than numerical models, is validated numerically and submitted to extensive random samplings. The effect of the spatial variability is evaluated, a emerging phenomena related to this variability are pointed out
APA, Harvard, Vancouver, ISO, and other styles
13

Bertrand, Pierre. "Calcul formel et perturbations en contrôle optimal déterministe." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090008.

Full text
Abstract:
Approximation de commande optimale et de mouvement correspondant ainsi que du coût optimal pour un problème de commande singulièrement ou régulièrement perturbée sous des hypothèses de convexité. Les formules obtenues sont exploitées en utilisant le langage de calcul formel macsyma
APA, Harvard, Vancouver, ISO, and other styles
14

Billaud, Yann. "Modélisation hybride stochastique-déterministe des incendies de forêts." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10100/document.

Full text
Abstract:
Les grands incendies de forêts sont responsables de la quasi-totalité de la surface brulée et contribuent, par les émissions de particules et de gaz à effet de serre qu’ils génèrent, au réchauffement climatique. Des observations satellitaires ont mis en évidence un comportement fractal que l’on attribue aux hétérogénéités locales (topographie, végétation, conditions météorologiques) rencontrées par ces feux lors de leur propagation. Le présent travail a été consacré au développement et à la validation d’un modèle hybride de propagation d’incendie, capable de reproduire ce comportement. Ce modèle est une extension du modèle original de réseau de « petit monde » où les phénomènes qui se produisent à l’échelle macroscopique, comme le rayonnement du front de flammes et l’inflammation pilotée de la strate végétale sont traités de façon déterministe. Pour décrire le rayonnement, nous avons utilisé un modèle de flamme solide couplé à une méthode de Monte Carlo. La validation a porté sur des configurations simples, mais aussi plus complexes, comme le rayonnement d’un front hétérogène de flammes ou celui d’une flamme d’éthanol. Un modèle d’inflammation a ensuite été élaboré et appliqué à des litières d’aiguilles de pin. Les paramètres du modèle ont été optimisés par un algorithme génétique, conduisant au meilleur accord avec les résultats expérimentaux, en termes de temps d‘inflammation et de perte de masses. Il a été montré que l’oxydation du résidu charbonneux joue un rôle prépondérant sur l’inflammation à bas flux. Le modèle de propagation de petit monde a été validé sur un brûlage dirigé et sur un feu historique, montrant un bon accord en termes de surface brûlée, de vitesse de propagation, de contours de feu, et de propriétés fractales. On a montré qu’il pouvait être utilisé pour le dimensionnement d’ouvrages de défense, comme les coupures de combustible, ou pour expliquer le comportement atypique du feu dans certaines situations (talweg, ruptures de pente, etc.). Son application a également permis d’optimiser le nombre et l’emplacement d’un réseau de capteurs déployés dans la végétation dans le but de localiser précisément et détecter précocement le départ d’un feu
Most of the area burned by forest fires is attributable to the few fires that escape initial attack to become large. As a consequence large-scale fires produce a large amount of green-house gases and particles which contribute to the global warming. Heterogeneous conditions of weather, fuel, and topography are generally encountered during the propagation of large fires. This shapes irregular contours and fractal post-fire patterns, as revealed by satellite maps. Among existing wildfire spread models, stochastic models seem to be good candidates for studying the erratic behavior of large fires, due to the above-mentioned heterogeneous conditions. The model we developed is a variant of the so-called small-world network model. Flame radiation and fuel piloted ignition are taken into account in a deterministic way at the macroscopic scale. The radiative interaction domain of a burning cell is determined from Monte Carlo simulation using the solid flame model. Some cases are studied, ranging from relatively simple to more complex geometries like an irregular flame fronts or an ethanol pool fire. Then, a numerical model is developed to investigate the piloted ignition of litters composed of maritime pine needles. A genetic algorithm is used to locate a set of model parameters that provide optimal agreement between the model predictions and the experimental data in terms of ignition time and mass loss. The model results had shown the importance of char surface oxidation for heat fluxes close to the critical flux for ignition. Finally, the small-world network model was used to simulate fire patterns in heterogeneous landscapes. Model validation was achieved to an acceptable degree in terms of contours, burned area and fractal properties, through comparison of results with data from a small controlled bushfire experiment and a historical Mediterranean fire. Therefore, it has been proven to be a powerful tool in the sizing of fortifications as fuel break areas at the wildland urban interface or in the understanding of atypical behavior in particular configurations (talweg, slope breaking, etc.). It has also been used for the optimization of an in-situ sensor network whose purpose is to detect precociously and to locate precisely small fires, preventing them from spreading and burning out of control. Our objective was to determine the minimum number and placement of sensors deployed in the forest
APA, Harvard, Vancouver, ISO, and other styles
15

Akrout, Samir. "Comportement dynamique déterministe et large bande des structures guidées." Ecully, Ecole centrale de Lyon, 2005. http://www.theses.fr/2005ECDL0045.

Full text
Abstract:
L'accent a été porté, dans le cadre de cette thèse, sur la propagation multimodale des structures de type guide d'ondes, et leurs modélisations dans un domaine fréquentiel relativement large (basses et moyennes fréquences). L'approche adoptée se base sur une méthode propagatoire couplée à une modélisation par éléments finis. Elle permet d'évaluer les constantes de propagation et de caractériser la propagation de l'énergie dans ces structures. Grâce à l'introduction de l'hypothèse de guide d'onde, elle conduit à résoudre un système aux valeurs propres d'ordre 2. Un algorithme de classification des valeurs et vecteurs propres (associés aux modes d'ondes) est utilisé pour déterminer les courbes de dispersion, les vitesses de groupe et les déformées de section. Cette méthode a été validée par comparaison à des résultats d'essais expérimentaux dans le cas d'une plaque raidie. En outre, ces résultats concordent et généralisent d'autres résultats da la littérature
The accent was carried, within the framework of this thesis, on the multimode propagation of the guided waves structures, and their modelling in a relarively broad frequencies field (low and medium frequency). The adopted approach is based on a propagative method coupled to a finite element model. It makes it possible to evaluate the propagation constants and to characterize the propagation of energy in theses structures. Thanks to the introduction of the waveguide assumption, it results in solving an eigenvalues system with order 2. An algorithm of classification of the eigenvalues and eigenvectors (associates with the waves modes) is used to determine the dispersion curves, group velocities and the mode shapes. This method was validated by comparison with experimental results test in the case of a stiffened plate. Moreover, these results agree and generalize of other literature results
APA, Harvard, Vancouver, ISO, and other styles
16

Hocine, Sofiane. "Identification de modèles de procédés par programmation mixte déterministe." Phd thesis, Toulouse, INPT, 2006. http://oatao.univ-toulouse.fr/7492/1/hocine.pdf.

Full text
Abstract:
La recherche de modèles de procédés constitue le thème développé dans ce mémoire. Partant d'une superstructure composée de cellules élémentaires telles que des réacteurs continus, des réacteurs piston, des zones mortes, des by-pass et des recyclages, l'objectif est de déterminer le meilleur arrangement de ces procédés élémentaires pour obtenir une sortie modélisée aussi proche que possible d'une sortie expérimentale. Le problème d'optimisation non linéaire en variables mixtes qui en découle est résolu à l'aide de l'environnement GAMS, plus particulièrement avec les solvers DICOPT++ et SBB. Dans un premier temps l'étude concerne les procédés à fonctionnement en régime permanant, et l'objectif est de déterminer une concentration obtenue par le modèle aussi voisine que possible de la concentration observée expérimentalement. Un bassin de décantation et un réacteur en lit fluidisé pour la déphosphation d'effluents aqueux illustrent la démarche. La seconde partie est relative à l'étude de procédés fonctionnant en régime dynamique. Dans ce cas il s'agit de retrouver une courbe de distribution de temps de séjour analogue à une courbe obtenue expérimentalement. Un local ventilé de l'industrie nucléaire est modélisé suivant cette approche. Dans les deux cas, plusieurs fonctions objectif et plusieurs types de superstructures sont étudiés.
APA, Harvard, Vancouver, ISO, and other styles
17

Franceschelli, Sara. "Construction de signification physique dans le métier de physicien : Le cas du chaos déterministe." Paris 7, 2001. http://www.theses.fr/2001PA070008.

Full text
Abstract:
Vers la moitié des années 70, à la suite de l'article de Ruelle et Takens (1971) sur la transition vers la turbulence (faible) dans un fluide visqueux incompressible, plusieurs travaux ont montré l'existence de systèmes physiques déterministes à petit nombre de degrés de liberté présentant des comportements chaotiques. Pour les systèmes dissipatifs, différents scénarios de transition vers le chaos ont été mis en évidence et des attracteurs étranges ont été observés et caractérisés. Dans ce travail, nous nous intéressons à la construction de signification physique caractérisant le métier des physiciens qui ont travaillé autour des années 80 sur le chaos déterministe. Nous considérons la construction de signification physique comme un processus permettant d'utiliser des connaissances mathématiques (sur les systèmes dynamiques) pour construire un sens (pour la transition vers la turbulence) dans des situations (expérimentales ou simulées) bien déterminées. .
Following the Ruelle-Takens paper on turbulent transition (1971), many works of physicists showed the existence of deterministic physical systems with a low number of degrees of freedom, presenting a chaotical behaviour. For dissipative systems, some scenarios of chaos transition have been defined and some strange attractors have been observed and characterized. In this work I consider the construction of physical meaning characterizing the work of physicists who worked around 1980 about deterministic chaos. Construction of physical meaning is considered as a process permitting to use some mathematical knowledges (about dynamical systems) to construct a meaning (for turbulent transition) in some ( experimental or simulated), well determined situations. .
APA, Harvard, Vancouver, ISO, and other styles
18

Goudenège, Ludovic. "Quelques résultats sur l'équation de Cahn-Hilliard stochastique et déterministe." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00439022.

Full text
Abstract:
Nous nous intéressons d'abord à l'équation aux dérivées partielles stochastique de Cahn-Hilliard en dimension 1 avec une seule singularité. C'est une équation d'ordre 4 dont la non linéarité est de type logarithmique ou en puissance négative $x^{-\alpha}$, à laquelle on ajoute la dérivée d'un bruit blanc en espace et en temps. On montre l'existence et l'unicité des solutions en utilisant les solutions d'équations approchées aux non linéarités Lipschitz. La présence d'une mesure de réflexion permet d'assurer l'existence de solutions. On étudie ces mesures à l'aide des mesures de Revuz associées et, grâce à une formule d'intégration par parties, on montre qu'elles sont identiquement nulles lorsque alpha est plus grand ou égal à 3. Dans un deuxième temps, on considère la même équation mais avec deux singularités logarithmiques en +1 et -1. Il s'agit du modèle complet de l'équation de Cahn-Hilliard. Cette fois-ci on utilise des équations approchées aux non linéarités polynomiales pour montrer l'existence et l'unicité de solutions. Deux mesures de réflexion doivent ici être ajoutées pour assurer l'existence. De plus, on montrera que la mesure invariante est ergodique. Enfin, on étudie l'équation déterministe : des simulations numériques basées sur une méthode d'élements finis de hauts degrés permettent d'illustrer plusieurs résultats théoriques. La capture des interfaces et des états stationnaires requiert une attention particulière. On s'intéressera également aux bifurcations autour de la première valeur propre du Laplacien sur des domaines généraux. Par ailleurs, quelques simulations stochastiques permettent de mettre en évidence les instants de contact avec les singularités, les évolutions stochastiques en temps long et les changements d'états stationnaires.
APA, Harvard, Vancouver, ISO, and other styles
19

Zeriab, Mohamed Zeriab. "Contribution à l'optimisation globale : approche déterministe et stochastique et application." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00560887.

Full text
Abstract:
Dans les situations convexes, le problème d'optimisation globale peut être abordé par un ensemble de méthodes classiques, telles, par exemple, celles basées sur le gradient, qui ont montré leur efficacité en ce domaine. Lorsque la situation n'est pas convexe, ces méthodes peuvent être mises en défaut et ne pas trouver un optimum global. La contribution de cette thèse est une méthodologie pour la détermination de l'optimum global d'une fonction non convexe, en utilisant des algorithmes hybrides basés sur un couplage entre des algorithmes stochastiques issus de familles connues, telles, par exemple, celle des algorithmes génétiques ou celle du recuit simulé et des algorithmes déterministes perturbés aléatoirement de façon convenable. D'une part, les familles d'algorithmes stochastiques considérées ont fait preuve d'efficacité pour certaines classes de problèmes et, d'autre part, l'adjonction de perturbations aléatoires permet de construire des méthodes qui sont en théorie convergents vers un optimum global. En pratique, chacune de ces approches a ses limitations et insuffisantes, de manière que le couplage envisagé dans cette thèse est une alternative susceptible d'augmenter l'efficacité numérique. Nous examinons dans cette thèse quelques unes de ces possibilités de couplage. Pour établir leur efficacité, nous les appliquons à des situations test classiques et à un problème de nature stochastique du domaine des transports.
APA, Harvard, Vancouver, ISO, and other styles
20

Gu, Liya. "Modèles déterministe, stochastique et multicritère pour l'équilibrage de lignes d'assemblage." Thesis, Metz, 2008. http://www.theses.fr/2008METZ003S/document.

Full text
Abstract:
Dans nos travaux, nous travaillons sur le problème de l’équilibrage de la ligne d’assemblage (ALBP). C’est un problème d’optimisation combinatoire qui permet de définir la répartition des opérations et leur affectation aux stations qui constituent la ligne d’assemblage tout en respectant différentes contraintes de façon à optimiser un critère d’efficacité donné. Deux types de problèmes sont définis d’après l’objectif à minimiser. Le problème de type I (SALBP-1) minimise le nombre de stations sous un temps de cycle donné. Et le problème de type II (SALBP-2) minimise le temps de cycle déterminé par le temps de station le plus grand avec un nombre donné de stations. Nous considérons dans nos travaux uniquement des problèmes de type II. Nous proposons d’abord une méthode pour déterminer la borne inférieure du temps de cycle qui assure de respecter le nombre donné de stations. Cette méthode combine la relaxation lagrangienne et la génération de colonnes. La relaxation lagrangienne est utilisée pour relaxer les contraintes de précédence. Le problème lagrangien de la relaxation lagrangienne est résolu par la génération de colonnes. Ensuite, nous proposons un heuristique pour résoudre les problèmes SALBP-2. L’heuristique proposé se compose de deux phases. Dans la première phase, une solution initiale est produite par un heuristique basé sur un poids correspondant à la position des opérations et d'un certain seuil défini selon les poids pour chaque station. La solution est ensuite améliorée par un procédé de transfert et d’échange dans la deuxième phase. Enfin, les méta-heuristiques sont utilisés pour résoudre le problème déterministe ainsi que le problème stochastique. Ainsi deux méthodes basées sur la génération sont utilisées : l’algorithme de electromagnetism-like mechanism (EM) et l’estimation de distribution (ED). Les résultats de simulation sont comparés avec ceux du recuit simulé (SA). De part sa meilleure performance, EM est choisi pour équilibrer les lignes stochastiques qui considèrent les temps des opérationsomme aléatoires. Dans ce cas, les temps de cycle sont minimisés de façon à assurer que la fiabilité de la ligne est supérieure à une valeur donnée. EM est aussi utilisé pour résoudre les problèmes de type multi-objectif avec minimisation du temps de cycle et maximisation de la fiabilité de la ligne en déterminant un ensemble de solutions Pareto-optimales
Our work considers the problem of balancing the assembly line (ALBP). This is a combinatorial optimization problem which consists in assigning operations to stations of the assembly line while respecting various constraints in order to optimize a criterion of efficiency. Two types of problems are defined, based on the objective to minimize. The type I problem (SALBP-1) minimizes the number of stations in a given cycle time. And the problem of type II (SALBP-2) minimizes the cycle time given by the largest time station with a given number of stations. Problems of type II are only considered in our work. Firstly, a method for determining the lower bound of the cycle time which respects the number of stations is determined. This method combines the Lagrangian relaxation and the columns generation method. The Lagrangian relaxation is used to relax the constraints of precedence. The problem of the Lagrangian relaxation is given by the columns generation. Then, a new heuristic is proposed for solving the SALBP-2 problem. This heuristic consists of two steps. In the first step, an initial solution is produced by an heuristic based on a weight corresponding to the position of operations and a threshold defined for each station. The, in the second step, the solution is improved by a process of transfer and exchange. Finally, meta-heuristics are used to solve deterministic and stochastic problems.Two main meta-heuristics are considered: the electromagnetism-like mechanism algorithm (EM) and the estimated distribution (ED). The performance of our method is confirmed via simulation and it is compared with simulated annealing (SA). Due to its better performance, EM was chosen to balance the stochastic lines with random operation times. In this case, the cycle time is minimized under constraint of the reliability of the line which must be greater than a given value. EM is also used to solve multi-objective problems such as minimizing the cycle time and maximizing the reliability of the line by determining a set of Pareto-optimal solutions
APA, Harvard, Vancouver, ISO, and other styles
21

Es-Sadek, Mohamed Zeriab. "Contribution à l'optimisation globale : approche déterministe et stochastique et application." Thesis, Rouen, INSA, 2009. http://www.theses.fr/2009ISAM0010/document.

Full text
Abstract:
Dans les situations convexes, le problème d'optimisation globale peut être abordé par un ensemble de méthodes classiques, telles, par exemple, celles basées sur le gradient, qui ont montré leur efficacité en ce domaine. Lorsque la situation n'est pas convexe, ces méthodes peuvent être mises en défaut et ne pas trouver un optimum global. La contribution de cette thèse est une méthodologie pour la détermination de l'optimum global d'une fonction non convexe, en utilisant des algorithmes hybrides basés sur un couplage entre des algorithmes stochastiques issus de familles connues, telles, par exemple, celle des algorithmes génétiques ou celle du recuit simulé et des algorithmes déterministes perturbés aléatoirement de façon convenable. D'une part, les familles d'algorithmes stochastiques considérées ont fait preuve d'efficacité pour certaines classes de problèmes et, d'autre part, l'adjonction de perturbations aléatoires permet de construire des méthodes qui sont en théorie convergents vers un optimum global. En pratique, chacune de ces approches a ses limitations et insuffisantes, de manière que le couplage envisagé dans cette thèse est une alternative susceptible d'augmenter l'efficacité numérique. Nous examinons dans cette thèse quelques unes de ces possibilités de couplage. Pour établir leur efficacité, nous les appliquons à des situations test classiques et à un problème de nature stochastique du domaine des transports
This thesis concerns the global optimization of a non convex function under non linear restrictions, this problem cannot be solved using the classic deterministic methods like the projected gradient algorithm and the sqp method because they can solve only the convex problems. The stochastic algorithms like the genetic algorithm and the simulated annealing algorithm are also inefficients for solving this type of problems. For solving this kind of problems, we try to perturb stocasicly the deterministic classic method and to combine this perturbation with genetic algorithm and the simulated annealing. So we do the combination between the perturbed projected gradient and the genetic algorithm, the perturbed sqp method and the genetic algorithm, the perturbed projected gradient and the simulated annealing, the Piyavskii algorithm and the genetic algorithm. We applicate the coupled algorithms to different classic examples for concretited the thesis. For illustration in the real life, we applicate the coupled perturbed projected gradient end the genetic algorithm to logistic problem eventuelly transport. In this view, we sold the efficient practices
APA, Harvard, Vancouver, ISO, and other styles
22

Joudrier, Hugo. "Optimisation Globale Déterministe Garantie sous Contraintes Algébriqueset Différentielles par Morceaux." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI010/document.

Full text
Abstract:
Ce mémoire présente une approche basée sur des méthodes garanties pour résoudre des problèmes d’optimisation de systèmes dynamiques multi-physiques. Ces systèmes trouvent des applications directes dans des domaines variés tels que la conception en ingéniérie, la modélisation de réactions chimiques, la simulation de systèmes biologiques ou la prédiction de la performance sportive.La résolution de ces problèmes d’optimisation s’effectue en deux phases. La première consiste à mettre le problème en équations sous forme d’un modèle mathématique constitué d’un ensemble de variables, d’un ensemble de contraintes algébriques et fonctionelles ainsi que de fonctions de coût. Celles-ci sont utilisées lors de la seconde phase qui consiste à d’extraire du modèle les solutions optimales selon plusieurs critères (volume, poids, etc).Les contraintes algébriques permettent de manipuler des grandeurs statiques (quantité, taille, densité, etc). Elles sont non linéaires, non convexes et parfois discontinues.Les contraintes fonctionnelles permettent de manipuler des grandeurs dynamiques. Ces contraintes peuvent être relativement simples comme la monotonie ou la périodicité, mais aussi bien plus complexe par la prise en compte de contraintes différentielles simples ou définies par morceaux. Les équations différentielles sont utilisées pour modéliser des comportements physico-chimiques (magnétiques, thermiques, etc) et d’autres caractéristiques qui varient lors de l’évolution du système.Il existe plusieurs niveaux d’approximation pour chacune de ces deux phases. Ces approximations donnent des résultats pertinents, mais elles ne permettent pas de garantir l’optimalité ni la réalisabilité des solutions.Après avoir présenté un ensemble de méthodes garanties permettant de résoudre de manière garantie des équations différentielles ordinaires, nous formalisons un modèle particulier de systèmes hybrides sous la forme d’équations différentielles ordinaires par morceaux. A l’aide de plusieurs preuves et théorèmes nous étendons la première méthode de résolution pour résoudre de manière garantie ces équations différentielles par morceaux. Dans un second temps, nous intégrons ces deux méthodes au sein d’un module de programmation par contracteurs, que nous avons implémenté. Ce module basé sur des méthodes garantie permet de résoudre des problèmes de satisfaction de contraintes algébriques et fonctionnelles. Ce module est finalement utilisé dans un algorithme d’optimisation globale déterministe modulaire permettant de résoudre les problèmes considérés
In this thesis a set of tools based on guaranteed methods are presented in order to solve multi-physics dynamic problems. These systems can be applied in various domains such that engineering design process, model of chemical reactions, simulation of biological systems or even to predict athletic performances.The resolution of these optimization problems is made of two stages. The first one consists in defining a mathematical model by setting up the equations for the problem. The model is made of a set of variables, a set of algebraic and functional constraints and cost functions. The latter are used in the second stage in order to extract the optimal solutions from the model depending on several criteria (volume, weight, etc).Algebraic constraints are used to describe the static properties of the system (quantity, size, density, etc). They are non-linear, non-convex and sometimes discontinuous. Functional constraints are used to manipulate dynamic quantities. These constraints can be quite simple such as monotony or periodicity or they can be more complex such as simple or piecewise differential constraints. Differential equations are used to describe physico-chemical properties (magnetic, thermal, etc) and other features evolving with the component use. Several levels of approximation exist for each of these two stages. These approximations give some relevant results but they do not guarantee the feasibility nor the optimality of the solutions.After presenting a set of guaranteed methods in order to perform the guaranteed integration of ordinary differential equations, a peculiar type of hybrid system that can be modeled with piecewise ordinary differential equation is considered. A new method that computes guaranteed integration of these piecewise ordinary differential equations is developed through an extension of the initial algorithm based on several proofs and theorems. In a second step these algorithms are gathered within a contractor programming module that have been implemented. It is used to solve algebraic and functional constraint satisfaction problems with guaranteed methods. Finally, the considered optimization problems are solved with a modular deterministic global optimization algorithm that uses the previous modules
APA, Harvard, Vancouver, ISO, and other styles
23

Flottes, Marie-Lise. "Contribution au test déterministe des circuits cmos : équivalences de pannes." Montpellier 2, 1990. http://www.theses.fr/1990MON20060.

Full text
Abstract:
Cette these traite des relations de test dans les circuits cmos. Ce type de relation permet de reduire par equivalence ou dominance des ensembles de pannes. Une etude bibliographique presente l'utilisation de ces relations sur des ensembles de pannes de collage affectant des circuits modelises au niveau porte. L'inefficacite de ces modeles classiques pour representer correctement certaines particularites de la technologie cmos (portes de transmission, effets sequentiels ou analogiques de certains types de pannes) et l'inflation du nombre de modeles et de sites de fautes qui en decoule nous ont amene a reconsiderer le probleme pour des circuits representes au niveau interrupteur. Apres une presentation des differents modeles que nous avons choisi d'utiliser, nous proposons une base theorique permettant d'analyser les relations de test liant des pannes de collage, stuck-off, stuck-on, coupure et court-circuit. Plusieurs relations sont alors demontrees. Cette etude est conclue par la definition d'un ensemble de points de controle dans les reseaux de transistors puis dans les circuits ou plusieurs niveaux de modelisation peuvent etre utilises simultanement. Enfin, une application est proposee sous la forme d'un generateur de listes de pannes minimisees. La presentation de ce logiciel dans le contexte d'un systeme complet de generation d'ensemble de test permet d'en illustrer l'utilisation
APA, Harvard, Vancouver, ISO, and other styles
24

Schneider, Jacques. "Une méthode déterministe pour la résolution de l'équation de Boltzmann." Paris 6, 1993. http://www.theses.fr/1993PA066640.

Full text
Abstract:
Le developpement de projets de vehicules spatiaux inclut la comprehension de la dynamique des gaz rarefies. Cette mecanique est decrite par l'equation de boltzmann. A l'heure actuelle, la majeure partie des methodes numeriques pour resoudre cette equation sont de type probabiliste. Les progres dans le domaine de l'informatique, et notamment dans les calculateurs paralleles ouvrent la porte a une approche plus directe. Nous proposons un algorithme deterministe de resolution dont le but est de pallier aux inconvenients des methodes monte-carlo. Nous decrivons successivement une methode de differences finies pour le probleme homogene et de volumes finis pour le transport. Le schema general est implemente sur un hypercube
APA, Harvard, Vancouver, ISO, and other styles
25

Donin, de Rosière Emmanuel. "Un langage non déterministe pour l'écriture de scénarios de test." Rennes 1, 2007. http://www.theses.fr/2007REN1S151.

Full text
Abstract:
La phase de test est une étape importante dans le développement et représente aujourd’hui un enjeu capital pour les opérateurs téléphoniques. Il est donc nécessaire d’avoir à disposition des outils permettant d’exprimer facilement certains comportements complexes, mais courants des systèmes télécoms afin de pouvoir exécuter automatiquement des campagnes de tests sans intervention humaine. Cette étude cherche donc à pallier ce problème et essayer, après une analyse rigoureuse des langages actuels, de proposer des constructions innovantes répondant à notre problématique. Certaines de ces constructions utilisent un paradigme non déterministe afin de spécifier facilement des comportements concurrents ou non contrôlables. En plus de cette proposition, nous allons essayer de vérifier les idées avancées au travers d’un prototype permettant d’évaluer les constructions innovantes, mais aussi de valider définitivement celles-ci lors du test réel d’une application industrielle
The testing phase is an important step in the development and now represents a crucial issue for telecommunication companies. One possible way for reducing the development time and increasing the software quality is to automize as possible the testing phase. So, we need tools for expressing easily complex, but common, behaviours in order to execute automatically test compaign without any human intervention. This study tries to get round this problem and, just after an analysis of the current testing languages which deal with active black-box testing, it will put forward several new constructions for this domain trying to solve this problem. Several of this constructions use a nondeterministic paradigm for easily expressing concurrent or non-controllable behaviours. Moreover, we will try to verify these ideas through a prototype which implements these new functionnalities and also validate these constructions during a real test of an industrial project
APA, Harvard, Vancouver, ISO, and other styles
26

Hoerlé, Stéphane. "Chaos déterministe dans les phénomènes de piqûration des alliages passivables." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0135.

Full text
Abstract:
L'etude des signaux de bruit electrochimique a montre qu'ils presentaient des caracteristiques deterministes (parfois chaotiques) en presence de piqures propageantes. Les conditions d'apparition des comportements deterministes dependent de la severite du couple materiaux/solution. Ainsi, la composition de l'electrolyte (rapport cl#/no#3#, ph), l'epaisseur du film passif ou la composition de l'alliage permettent-ils de modifier les caracteristiques des comportements deterministes. La presence d'une seule piqure stable suffit a observer des comportements deterministes. Les signaux de bruit electrochimique sont non stationnaires, ce qui traduit une modification du comportement de la piqure (vitesse ou mode de propagation) au cours du temps. Par la modification de la composition de l'electrolyte, des transitions entre regimes aleatoires et deterministes sont mises en evidence. Des transitions spontanees entre regimes deterministes de caracteristiques differentes sont egalement observables (bifurcations). Ces bifurcations revelent differents modes d'apparition des comportements chaotiques. Les modes d'apparition du chaos observes, ainsi que les caracteristiques des signaux chaotiques offrent une base pour proposer des modelisations (modeles continus ou discrets) des phenomenes electrochimiques a l'interieur de la piqure, qui permettent de retrouver les comportements observes experimentalement ainsi que l'effet des differents parametres. L'analyse des comportements chaotiques d'une piqure permet de mieux comprendre les mecanismes de propagation d'une piqure et donne des outils pour controler (empecher ou diriger) le developpement des piqures stables.
APA, Harvard, Vancouver, ISO, and other styles
27

Zbib, Hiba. "Segmentation d'images TEP dynamiques par classification spectrale automatique et déterministe." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR3317/document.

Full text
Abstract:
La quantification d’images TEP dynamiques est un outil performant pour l’étude in vivo de la fonctionnalité des tissus. Cependant, cette quantification nécessite une définition des régions d’intérêts pour l’extraction des courbes temps-activité. Ces régions sont généralement identifiées manuellement par un opérateur expert, ce qui renforce leur subjectivité. En conséquent, un intérêt croissant a été porté sur le développement de méthodes de classification. Ces méthodes visent à séparer l’image TEP en des régions fonctionnelles en se basant sur les profils temporels des voxels. Dans cette thèse, une méthode de classification spectrale des profils temporels des voxels est développée. Elle est caractérisée par son pouvoir de séparer des classes non linéaires. La méthode est ensuite étendue afin de la rendre utilisable en routine clinique. Premièrement une procédure de recherche globale est utilisée pour localiser d’une façon déterministe les centres optimaux des données projetées. Deuxièmement, un critère non supervisé de qualité de segmentation est proposé puis optimisé par le recuit simulé pour estimer automatiquement le paramètre d’échelle et les poids temporels associés à la méthode. La méthode de classification spectrale automatique et déterministe proposée est validée sur des images simulées et réelles et comparée à deux autres méthodes de segmentation de la littérature. Elle a présenté une amélioration de la définition des régions et elle paraît un outil prometteur pouvant être appliqué avant toute tâche de quantification ou d’estimation de la fonction d’entrée artérielle
Quantification of dynamic PET images is a powerful tool for the in vivo study of the functionality of tissues. However, this quantification requires the definition of regions of interest for extracting the time activity curves. These regions are usually identified manually by an expert operator, which reinforces their subjectivity. As a result, there is a growing interest in the development of clustering methods that aim to separate the dynamic PET sequence into functional regions based on the temporal profiles of voxels. In this thesis, a spectral clustering method of the temporal profiles of voxels that has the advantage of handling nonlinear clusters is developed. The method is extended to make it more suited for clinical applications. First, a global search procedure is used to locate in a deterministic way the optimal cluster centroids from the projected data. Second an unsupervised clustering criterion is proposed and optimised by the simulated annealing to automatically estimate the scale parameter and the weighting factors involved in the method. The proposed automatic and deterministic spectral clustering method is validated on simulated and real images and compared to two other segmentation methods from the literature. It improves the ROI definition, and appears as a promising pre-processing tool before ROI-based quantification and input function estimation tasks
APA, Harvard, Vancouver, ISO, and other styles
28

Huchet, Marion. "Prédiction déterministe de houle par mesure du profil de vitesse." Thesis, Ecole centrale de Nantes, 2021. http://www.theses.fr/2021ECDN0025.

Full text
Abstract:
Cette thèse présente une nouvelle méthode pour la prédiction déterministe de houle, capable de décrire précisément l'évolution d'états de mer non-linéaires tout en conservant des temps de calculs raisonnables. Une attention particulière est portée à la qualité de l'information sur la phase des vagues. Contrairement aux approches classiques qui reposent sur des mesures d'élévation de surface libre, les informations sur l'état de mer incident sont ici collectées sous la forme de profils instantanés de vitesse horizontale dus aux vagues, en amont de la zone d'intérêt. Le renseignement de cette information cinématique dans un modèle non-linéaire de propagation reposant sur une approche pseudo-spectrale permet de s'affranchir de l'étape d'assimilation de données habituellement requise dans ce genre de modèle, allégeant le temps de calcul en conservant la qualité de prédiction. Ce travail présente un diagnostic de faisabilité de cette méthode en houle unidirectionnelle. En l'absence d'instrumentation idéale pour la mesure de profils instantanés de vitesse horizontale, une méthode originale est développée pour reconstruire cette information à partir de mesures de profileurs acoustiques de courant à effet Doppler (ADCP), étendant ainsi le champ actuel d'application de ces instruments. Des études numériques de sensibilité évaluent ensuite la qualité de la prédiction obtenue pour diverses configurations de mesures et états de mers. On présente pour finir les essais en bassin conduits à Centrale Nantes, qui constituent la validation expérimentale de la méthode. Les résultats numériques et expérimentaux obtenus font de celle-ci une piste prometteuse
This PhD thesis presents a new method for deterministic sea wave prediction, able to accurately describe the evolution of non linear sea states while keeping the computation time reasonable. Particular attention is paid to the quality of the wave phase information. Contrary to classical approaches relying on free surface elevation measurements, information on the incident sea state is collected here in the form of instantaneous horizontal wave velocity profiles upstream of the area of interest. This kinematic information is used in a nonlinear propagation model based on a pseudo-spectral approach, allowing to avoid the data assimilation step usually required in this kind of model. This greatly reduces the computation time while maintaining the prediction quality. This work presents a feasibility study of this method for long-crested waves. In the lack of an instrumentation dedicated to the measurement of instantaneous horizontal velocity profiles, an original method is developed to reconstruct this information from acoustic Doppler current profiler (ADCP) measurements, thus extending the current application scope of these sensors. Numerical sensitivity studies then evaluate the quality of the prediction obtained for various measurement configurations and sea states. Lastly, we present the trials conducted in Centrale Nantes' towing tank, which provide an experimental validation of the method for unidirectional waves. The good numerical and experimental results obtained make this method a promising approach
APA, Harvard, Vancouver, ISO, and other styles
29

Chabour, Ourida. "Stabilisation des systèmes non linéaires." Metz, 2000. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2000/Chabour.Ourida.SMZ0009.pdf.

Full text
Abstract:
Dans cette thèse, notre étude a porté sur la stabilisation de certaines classes de systèmes déterministes et de systèmes stochastiques. Ce travail est donc divisé en deux parties. Dans la première partie, nous nous intéressons à certaines classes de systèmes homogènes déterministes. En premier lieu, nous considérons les systèmes bilinéaires homogènes. Nous donnons des conditions suffisantes sous lesquelles les systèmes considérés sont globalement pratiquement stabilisables par une famille de commandes linéaires et nous montrons que ces conditions assurent la globale asymptotique stabilité par une commande homogène bornée que nous construisons. D'autre part, nous introduisons une notion de passivité pratique. Nous montrons que la pratique passivité de ces systèmes entraine la pratique stabilisation par un retour de sortie. En second lieu, nous considérons les systèmes homogènes et les systèmes quasi homogènes, nous donnons des conditions suffisantes de stabilisabilité. Dans la deuxième partie de cette thèse nous étendons des résultats de stabilisation de systèmes déterministes à des systèmes stochastiques. Notre premier résultat porte sur la stabilisation d'une classe de systèmes partiellement linéaires lorsque les phénomènes aléatoires interviennent sur ces systèmes. Notre deuxième résultat porte sur la stabilisation d'une classe de systèmes en cascades
APA, Harvard, Vancouver, ISO, and other styles
30

Granjeon, Didier. "Modélisation stratigraphique déterministe : conception et applications d'un modèle diffusif 3d multilithologique." Phd thesis, Université Rennes 1, 1996. http://tel.archives-ouvertes.fr/tel-00648827.

Full text
Abstract:
Les progrès récents en géologie, et en particulier en stratigraphie génétique, ont permis de mieux appréhender l'étude du remplissage sédimentaire des bassins sur des échelles de temps de quelques centaines de milliers à dizaines de millions d'années, et d'espace de l'ordre de la dizaine à la centaine de kilomètres. Le but de notre travail est la conception d'un modèle déterministe numérique permettant la simulation de ce remplissage sédimentaire. Trois types de modélisation sont actuellement développées : les modèles géométriques, diffusifs et particulaires. Parmi ces approches, nous avons retenu l'approche diffusive, seule approche permettant la simulation du remplissage des bassins sédimentaires aux échelles de temps et d'espace envisagées. Nous avons ainsi conçu un modèle diffusif, baptisé Dionisos (Diffusion Oriented - Normal and Inverse - Simulation Of Sedimentation). L'étude de lois utilisées en mécanique des fluides et de leurs enregistrements dans les sédiments sur de grandes échelles de temps et d'espace nous a permis de concevoir une équation de diffusion reliant le flux de sédiments, s'écoulant en chaque point du bassin, à la pente (énergie de l'écoulement de l'eau), au flux d'eau (capacité de transport de l'eau) et à un coefficient de diffusion (efficacité du transport). Afin de simuler le transport de plusieurs lithologies, nous avons de plus défini une couche superficielle d'altération au sein de laquelle s'effectue l'ensemble de ce transport. Les applications de ce modèle diffusif sur des cas théoriques et sur des cas réels ont montré que ce modèle restitue les implications des concepts de la stratigraphie génétique (partitionnement volumétrique et distorsion des unités génétiques) et les géométries sédimentaires observées. Le modèle est ainsi physiquement et géologiquement cohérent. Ces applications du modèle Dionisos ont de plus illustré différents retours possibles vers les informations géologiques, tant au niveau des cas théoriques (relation entre bathymétrie et sablosité, évolution de la pente du littoral, ... ) qu'au niveau des cas réels (affinement de la définition des bathymétries, ... ). Malgré ces résultats encourageants, il reste cependant différents points à tester, améliorer ou développer, tels que la prise en compte de la dérive littorale et des écoulements turbiditiques, ainsi que la production des carbonates. Ainsi, couplé avec des modèles tectoniques, le modèle Dionisos devrait permettre de mieux appréhender l'influence à diverses échelles des processus tectoniques sur la sédimentation.
APA, Harvard, Vancouver, ISO, and other styles
31

Blondel-Couprie, Elise. "Reconstruction et prévision déterministe de houle à partir de données mesurées." Phd thesis, Ecole centrale de nantes - ECN, 2009. http://tel.archives-ouvertes.fr/tel-00449343.

Full text
Abstract:
La prévision des états de mer est un domaine d'une extrême importance pour la planification des opérations en mer, pour des raisons évidentes de sécurité des personnels et des matériels mis en oeuvre. Les modèles de prévision actuels reposent sur une description stochastique de l'état de mer et ne prédisent pas de façon déterministe l'évolution de la houle, mais seulement celle des données spectrales dont on tire des grandeurs statistiques moyennes caractéristiques d'un état de mer. Face au besoin réel de données précises à court terme, un modèle de prévision déterministe a été développé dans le but d'améliorer l'efficacité des opérations offshore requérant une connaissance précise de la houle sur un site d'intérêt. Après avoir réalisé une étude théorique permettant de déterminer la zone spatio-temporelle de prévision disponible en fonction des caractéristiques du champ de vagues courant et des conditions de mesure, nous avons élaboré deux procédures d'assimilation de données variationnelles afin de combiner au mieux les mesures recueillies sur site et le modèle de propagation de houle choisi. Ce modèle est d'ordre deux dans le cas de houles faiblement à moyennement cambrées, ou d'ordre élevé reposant sur le modèle numérique High-Order Spectral (HOS) pour les houles cambrées non-linéaires. Les modèles à l'ordre deux étendu et à l'ordre HOS M = 3 ont été validés pour la prévision de houles 2D synthétiques et expérimentales : les erreurs moyennes de prévision obtenues sont au moins divisées par deux par rapport à une approche linéaire, l'amélioration étant d'autant plus probante que la cambrure de la houle et l'ordre du modèle sont élevés.
APA, Harvard, Vancouver, ISO, and other styles
32

Li, Xiang. "Un modèle hybride statistique-déterministe du canal LMS en environnements complexes." Poitiers, 2010. http://theses.edel.univ-poitiers.fr/theses/2010/Li-Xiang/2010-Li-Xiang-These.pdf.

Full text
Abstract:
Ce travail de thèse concerne l'étude des canaux de propagation entre un satellite et un mobile terrestre se déplaçant dans des milieux contraints de type urbain dense, urbain et suburbain. L'objectif est de produire une modélisation efficace des comportements de signaux reçus, et en particulier les évanouissements rapides et lents. La méthode proposée est illustrée en bande L mais peut s'étendre directement à la bande S. Elle est basée sur une approche hybride associant un modèle déterministe basé sur une méthode à rayons et un modèle statistique. Le premier chapitre présente le contexte de cette thèse ainsi qu'un état de l'art des modèles existants. En dégageant leurs avantages et inconvénients respectifs, le principe d'une modélisation hybride est proposé. Le deuxième chapitre est consacré à identifier de façon performante une loi de probabilité permettant de décrire une donnée acquise. Les travaux sont basés sur les tests de Kolmogorov–Smirnov et de Kullback–Liebler avec des histogrammes optimaux construits à l'aide de critères d'information. Le cas de plusieurs lois candidates est étudié. Le troisième chapitre est composé de deux études complémentaires : la modélisation en zones LOS et NLOS avec différentes lois de probabilité. L'étude a été basée sur des simulations déterministes dans des environnements de l'agglomération de Toulouse. Globalement, l'approche consiste à proposer un paramétrage dynamique des modèles statistiques évoluant selon les spécificités du milieu de réception du mobile terrestre et de la position du satellite. Dans le quatrième chapitre, les performances de la méthode proposée sont évaluées en termes de précision et de temps de calcul par rapport à des techniques déterministes. Pour la précision, la référence est fournie par un calcul purement déterministe, des mesures n'ayant pas été disponibles durant la thèse. Une extension de l'approche est proposée pour le cas de satellites défilants pouvant contribuer à une simulation dynamique du canal de propagation
This PhD research focuses on the modeling and simulation of mobile satellite radio propagation channels in constrained areas, e. G. , build-up, urban and suburban areas. More precisely, the aim of the work is to develop a high performance model to predict the received signal behavior, in particular, the slow-fading and fast-fading. Based on a hybrid concept, we propose a novel channel model combining a deterministic approach (raytracing) and two statistical models : Nakagami-m and lognormal. The model was developed at L-band but is easily extensible to S-band. The context of this study and a state of art of the existing channel models are first introduced in chapter 1 of this thesis. After describing their advantages and drawbacks, we present the hybrid concept of our channel model. The work of chapter 2 aims at the selection of the fast-fading model. We use the Kolmogorov–Smirnov test and Kullback–Leibler test (with optimal histograms base on information theory) to compare the goodness of fit of different statistical models regarding to simulated sample signals. The third chapter is divided into two complementary studies as LOS and NLOS areas need to be modeled using optimum statistical laws. Based on deterministic simulations in Toulouse city areas using geosynchronous satellites, the channel behavior is studied from which we deduce our semi-deterministic model. It takes into account of the receiving site’s specificities and leads to dynamic statistical parameter setup. Finally, the use of the hybrid model is presented in chapter 4. We show the interest of our model by comparing the hybrid simulated signals to purely deterministically simulated ones in terms of precision and simulation time. In addition, the extensibility of our model is studied in order to use non-geosynchronous satellites
APA, Harvard, Vancouver, ISO, and other styles
33

Blondel-Couprie, Élise. "Reconstruction et prévention déterministe de houle à partir de données mesurées." Nantes, 2009. http://www.theses.fr/2009NANT2074.

Full text
Abstract:
La prévision des états de mer est un domaine d’une extrême importance pour la planification des opérations en mer, pour des raisons évidentes de sécurité des personnels et des matériels mis en œuvre. Les modèles de prévision actuels reposent sur une description stochastique de l’état de mer et ne prédisent pas de façon déterministe l’évolution de la houle, mais seulement celle des données spectrales dont on tire des grandeurs statistiques moyennes caractéristiques d’un état de mer. Face au besoin réel de données précises à court terme, un modèle de prévision déterministe a été développé dans le but d’améliorer l’efficacité des opérations offshore requérant une connaissance précise de la houle sur un site d’intérêt. Après avoir réalisé une étude théorique permettant de déterminer la zone spatio-temporelle de prévision disponible en fonction des caractéristiques du champ de vagues courant et des conditions de mesure, nous avons élaboré deux procédures d’assimilation de données variationnelles afin de combiner au mieux les mesures recueillies sur site et le modèle de propagation de houle choisi. Ce modèle est d’ordre deux dans le cas de houles faiblement à moyennement cambrées, ou d’ordre élevé reposant sur le modèle numérique High-Order Spectral (HOS) pour les houles cambrées non-linéaires. Les modèles à l’ordre deux étendu et à l’ordre HOS M = 3 ont été validés pour la prévision de houles 2D synthétiques et expérimentales : les erreurs moyennes de prévision obtenues sont au moins divisées par deux par rapport à une approche linéaire, l’amélioration étant d’autant plus probante que la cambrure de la houle et l’ordre du modèle sont élevés
Wave prediction is a crucial task for offshore operations from an obvious security point of view regarding working people and technical equipments or structures. The prediction tools available since now are based on a stochastic description of the sea state and are not able to predict deterministically the wave fields evolution. Only averaged statistical data representative of the sea state can be obtained from the known spectral quantities. To face the growing need of accurate short term predictions, a deterministic prediction model has been developed in order to improve the efficiency of the sea operations which require a precise knowledge of the sea surface on a specific region of interest. After achieving a theoretical study to determine the available time-space predictable domain depending on the current sea state and on the measurement conditions, we created two data assimilation process to combine the measured observations to the physics-based model. This model is a second order model for low to moderate steeped fields, or a highorder model for high crested seas, namely the High-Order Spectral numerical method. The extended second order model and the third order model using the HOS have been validated for the prediction of 2D synthetic and basin wave fields: the averaged prediction errors we obtain are more than two times less than the errors returned by a linear approach. The improvement is also more important that the steepness and the order of the prediction model are high
APA, Harvard, Vancouver, ISO, and other styles
34

Perignon, Yves. "Modélisation déterministe des états de mer - Application à la rétrodiffusion d'ondes radar." Phd thesis, Ecole centrale de nantes - ECN, 2011. http://tel.archives-ouvertes.fr/tel-00624645.

Full text
Abstract:
Les études et développement menés dans ce travail de thèse ont porté sur divers aspects du traitement de l'évolution réaliste des états de mer, notamment sur les spécificités d'une approche déterministe non-linéaire, sur la prise en compte d'un forçage par le vent et de la dissipation dans une approche à phase résolue, et sur un développement à but opérationnel des techniques de modélisations réalistes. En parvenant à une meilleure modélisation des états de mer, ils visent à permettre une meilleure interprétation des images radar rétrodiffusées par la surface de la mer. Les applications concernent entre autres la caractérisation et la prévision court terme en temps réel des conditions de mer, ainsi que la détection de cibles marines. Un modèle numérique tridimensionnel basé sur une méthode High Order Spectral sert de support à l'étude des processus non-linéaires à l'œuvre en conditions océaniques. Une première partie de cette étude permet de mettre en lumière un ensemble de critères nécessaires à la bonne mise en œuvre de cette méthode. On met notamment plus particulièrement en évidence une problématique d'initialisation liée à un besoin de simulations de référence dès les premiers instants de modélisation. Une méthode d'initialisation non-linéaire est proposée et évaluée. La prise en compte d'un forçage par le vent et de dissipation par moutonnement est ensuite proposée. La paramétrisation du couplage rétroactif océan-atmosphère et de la dissipation, en pression, à l'œuvre dans les modèles stochastiques de prévision d'état de mer est adaptée à la formulation déterministe. Une formulation récente du couplage (Bidlot et al. (2005)) est testée et validée comparativement avec la modélisation stochastique usuelle issue du modèle WAVEWATCH3. L'approche déterministe est finalement capable de prendre efficacement en compte les termes de forçage et dissipation et permet des évolutions d'états de mer réalistes. Le problème de modélisation opérationnelle des états de mer, à moindre coût calcul mais avec une prise en compte suffisamment réaliste des spécificités océaniques est abordé. Une méthode numérique est proposée et testée comparativement à l'approche complètement non-linéaire de référence.
APA, Harvard, Vancouver, ISO, and other styles
35

Marchand, Estelle. "Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants." Phd thesis, Université Paris Dauphine - Paris IX, 2007. http://tel.archives-ouvertes.fr/tel-00271632.

Full text
Abstract:
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
APA, Harvard, Vancouver, ISO, and other styles
36

Fagot, Alain. "Réexécution déterministe pour un modèle procédural parallèle basé sur les processus légers." Phd thesis, Grenoble INPG, 1997. http://tel.archives-ouvertes.fr/tel-00004942.

Full text
Abstract:
Cette thèse définit un modèle d'exécution de programmes parallèles basés sur l'appel de procédures exécutées à distance par des processus légers. L'équivalence de deux exécutions dans le modèle procédural parallèle sert de guide pour la construction d'un mécanisme de réexécution déterministe pour le noyau exécutif Athapascan-0a. Le modèle étudié n'est pas spécifique à Athapascan et peut s'appliquer à d'autres environnements de programmation. Les modèles concernés utilisent des ressources partagées actives. Dans cette famille de modèles se trouvent, entre autres, les modèles d'appels de procédures à distance, les modèles Clients-Serveurs et les modèles à objets actifs. Le modèle exploite des événements abstraits composés d'événements de plus bas niveau. Le nombre d'événements enregistrés est ainsi réduit sans surcoût de calcul lié à cette réduction. Le mécanisme de réexécution déterministe réalisé pour Athapascan-0a est validé expérimentalement. Une méthodologie de mesures systématiques est appliquée pour mesurer le surcoût en temps dû à l'enregistrement des traces nécessaires à la réexécution. Les mesures des temps d'exécution s'effectuent pour des programmes parallèles synthétiques générés à partir de modèles d'algorithmes. Les surcoûts mesurés montrent une faible intrusion du mécanisme d'enregistrement des traces.
APA, Harvard, Vancouver, ISO, and other styles
37

Duflot, Marie. "Algorithmes distribués sur des anneaux paramétrés - Preuves de convergence probabiliste et déterministe." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2003. http://tel.archives-ouvertes.fr/tel-00091429.

Full text
Abstract:
Cette thèse se situe dans le cadre de la vérification de systèmes distribués. Plus précisément, nous nous intéressons aux méthodes de preuve de convergence d'algorithmes distribués s'exécutant sur des réseaux en anneau de taille paramétrée. Cette étude distingue de plus le cas des algorithmes probabilistes de celui des algorithmes déterministes.
APA, Harvard, Vancouver, ISO, and other styles
38

Pérignon, Yves. "Modélisation déterministe des états de mer : application à la rétrodiffusion d'ondes radar." Ecole centrale de Nantes, 2011. https://tel.archives-ouvertes.fr/tel-00624645v2.

Full text
Abstract:
Les études et développement menés dans ce travail de thèse ont porté sur divers aspects du traitement de l’évolution réaliste des états de mer, notamment sur les spécificités d’une approche déterministe non-linéaire, sur la prise en compte d’un forçage par le vent et de la dissipation dans une approche à phase résolue, et sur un développement à but opérationnel des techniques de modélisations réalistes. En parvenant à une meilleure modélisation des états de mer, ils visent à permettre une meilleure interprétation des images radar rétrodiffusées par la surface de la mer. Les applications concernent entre autres la caractérisation et la prévision court terme en temps réel des conditions de mer, ainsi que la détection de cibles marines. Un modèle numérique tridimensionnel basé sur une méthode High Order Spectral sert de support à l‘étude des processus non-linéaires à l’œuvre en conditions océaniques. Une première partie de cette étude permet de mettre en lumière un ensemble de critères nécessaires à la bonne mise en œuvre de cette méthode. On met notamment plus particulièrement en évidence une problématique d’initialisation liée à un besoin de simulations de référence dès les premiers instants de modélisation. Une méthode d’initialisation non-linéaire est proposée et évaluée. La prise en compte d’un forçage par le vent et de dissipation par moutonnement est ensuite proposée. La paramétrisation du couplage rétroactif océan-atmosphère et de la dissipation, en pression, à l’œuvre dans les modèles stochastiques de prévision d’état de mer est adaptée à la formulation déterministe. Une formulation récente du couplage (Bidlot et al. (2005)) est testée et validée comparativement avec la modélisation stochastique usuelle issue du modèle WAVEWATCH3. L’approche déterministe est finalement capable de prendre efficacement en compte les termes de forçage et dissipation et permet des évolutions d’états de mer réalistes. Le problème de modélisation opérationnelle des états de mer, à moindre coût calcul mais avec une prise en compte suffisamment réaliste des spécificités océaniques est abordé. Une méthode numérique est proposée et testée comparativement à l’approche complètement non-linéaire de référence
Researches conducted in this thesis deal with the realistic evolution of wave fields in oceanic conditions. The interest is more particularly focused on various aspects including specificities of a deterministic fully non-linear approach, the wind wave coupling and energy dissipation through white capping, and non-linear simplified modeling for operational use. This work aims to provide efficient and realistic modeling of wave fields so as to enable a better understanding of radar backscattering over oceanic surfaces. Direct applications include short-term forecasts of sea states, or detection of marine targets thanks to remote sensing. A numerical tridimensional model based on a High Order Spectral (HOS) method enables to fully account for non-linear processes in sea states. Some specificities are enlighten and provide a better framework for the efficient use of the method. Among them, the need for reference conditions at early stages of a modeled sea state is underlined. A non-linear method is proposed and its performances evaluated. Momentum transfers associated with wind forcing and dissipation through whitecapping are then proposed for the HOS deterministic approach. Two way coupling between atmospheric and oceanic layers, and dissipation of energy due to wave breaking are achieved thanks to a formulation at use in common stochastic wave models. Forcing and dissipation intervene in the HOS formulation by the mean of pressure fields related to the sea state. The recent set of parametered proposed bay Bidot et al. (2005) is tested and comparatively validated with the WaveWatch3 stochastic wave model. The HOS deterministic approach is finally able to properly take into account the evolution of oceanic wave field under wind forcing and dissipation. The problem of simplified modeling of sea state for the specific purpose of operational use in remote sensing applications is finally studied. A numeric method able to take into account non-linear specificities of the wave field up to a second order in wave elevation and third order in term of phase velocity is proposed and implemented. Its performances are comparatively evaluated with fully non-linear evolutions as references
APA, Harvard, Vancouver, ISO, and other styles
39

Voon, Lew Yan, and Lew Fock Chong. "Contribution au test intégré déterministe : structures de génération de vecteurs de test." Montpellier 2, 1992. http://www.theses.fr/1992MON20035.

Full text
Abstract:
Ce memoire concerne la synthese de structures de generation de vecteurs de test (gvt) deterministes. Une etude empirique, basee sur des simulations exhaustives, des sequences generees par des registres a decalage a retroaction lineaire et non-lineaire montre que ces derniers sont inaptes a produire des sequences de vecteurs de test deterministes. Nous avons donc etendu notre recherche au cas general de machine d'etats finis lineaire et autonome (mefla) avec inversion. Apres avoir presente les principes fondamentaux d'une mefla avec inversion, nous proposons une methode de synthese de structures gvt deterministes et deterministe/pseudo-aleatoire
APA, Harvard, Vancouver, ISO, and other styles
40

Ghilardi, Jean-Pierre. "Optimisation de la représentation de graphes par approche hybride déterministe et stochastique." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30032.

Full text
Abstract:
Dans le domaine de la bibliométrie il est courant d'avoir à retraiter des corpus d'informations importants difficiles à interpréter par lecture directe. Des outils, intégrant des traitements mathématiques complexes, ont été développés pour traiter l'information massive structurée et en extraire l'information pertinente susceptible d'alimenter les processus de prise de décision. Le Centre de Recherche Rétrospective de Marseille s'est depuis de nombreuses années spécialisé en traitement de l'information et a développé des outils informatiques basés sur la représentation graphique de relations reliant des entités : les graphes de paires. S'inscrivant dans cette démarche, ce travail de recherche a permis de définir des traitements innovants s'appuyant sur la théorie des graphes, les algorithmes de recuit simulé et les algorithmes génétiques qui permettent d'aboutir à une expression géométrique organisée des graphes de paire et ainsi d'en faciliter l'exploitation par le plus grand nombre
In bibliometrie scope, we frequently have to compute database which constitute a quantitive information corpus, difficult to interpret by direct reading. That's the reason why some tools with complex mathematic treatments have been created, this is how structured data bank can be processing to obtain relevant information available for decision makers. The Centre de Recherche Rétrospective de Marseille is specialized in information processing for a long time. Automatic tools based on geometrical representation of relationship between entities have been developed. During this research, an innovant data processing implemented to automatically produce an organized representation of graph easily understandable have been defined. The treatment chain is based on two different approach, a determinist approach issuing from graph theory and a stochastic approach composed of simulated annealing algorithm and genetic algorithm, which allow to make easier graph reading
APA, Harvard, Vancouver, ISO, and other styles
41

Nivanen, Laurent. "Etude de l'interaction entre une onde électromagnétique et un milieu fractal déterministe." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-83.pdf.

Full text
Abstract:
Ce rapport traite de l'interaction entre une onde électromagnétique et un milieu de structure fractale. L'électromagnétisme est aujourd'hui bien maitrise en milieu homogène. Il n'en est pas de même en milieu hétérogène ou on observe fréquemment de fortes absorptions aujourd'hui pour l'essentiel incomprises. La géométrie fractale est un outil porte à l'attention des scientifiques depuis une vingtaine d'années. Elle permet de décrire de façon satisfaisante les milieux hétérogènes. Or du point de vue des phénomènes physiques, les milieux hétérogènes étudies traditionnellement ne présentent qu'un caractère fractal statistique approche. Nous avons pour notre part isole le caractère fractal en parvenant à fabriquer des objets fractals de structure entièrement déterministe. Les expériences ont porte d'une part pour les systèmes plans sur la diffraction par des trous fractals et d'autre part pour les systèmes volumiques sur la propagation des ondes. A deux dimensions, il n'a pas été possible de déceler d'absorption aussi bien sur le plan théorique (théorie de la diffraction de Fraunhofer étendue aux ouvertures fractales) qu'expérimental. En revanche nous avons pu observer une forte absorption sur des objets fractals déterministes, alors que le matériau sous sa forme homogène est peu absorbant. Cette absorption peut être décrite par de nouveaux invariants, équivalents en milieu hétérogènes des paramètres constitutifs habituels
APA, Harvard, Vancouver, ISO, and other styles
42

Marchand, Didier. "Modélisation fonctionnelle du bilan hydrique sur sol cultivé : approche déterministe ou stochastique ?" Grenoble 1, 1988. http://www.theses.fr/1988GRE10130.

Full text
Abstract:
Etude realisee dans le but d'une aide a la decision agricole en zones tropicales seches. Examen de la litterature. Interet de l'approche fonctionnelle. Validation deterministe sur les sites de thysse-kaymor (senegal et de bouake - cote d'ivoire)pour mil, arachide et riz fluvial. Prise en compte de la variabilite spatiale a l'echelle parcellaire des resultats. Determination par simulations (monte-carlo, realisations optimales) de l'influence de la variabilite spatiale des parametres d'entree sur les sorties
APA, Harvard, Vancouver, ISO, and other styles
43

Nguyen, Trong Hieu. "Modèles mathématiques de la dynamique des populations en environnement déterministe et stochastique." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066432/document.

Full text
Abstract:
Dans ce travail de thèse, nous étudions des modèles mathématiques de la dynamique des populations en environnements déterministe et stochastique. Pour les environnements déterministes, nous considérons trois modèles. Le premier est un modèle intra-guilde prenant en compte des effets d'un environnement spatial hétérogène avec une migration rapide des individus entre les différents sites. Le deuxième est un modèle de pêche dans une zone constituée d’une aire marine protégée où la pêche est interdite et d’une zone où la population de poissons est pêchée. Enfin le troisième est un modèle prédateur-proie considérant une proie et deux prédateurs avec des réponses fonctionnelles de Beddington-DeAngelis. Pour les environnements stochastiques, nous étudions un modèle épidémique SIRS et un modèle prédateur-proie en prenant en compte un bruit télégraphique. Nous étudions le comportement dynamique de ces modèles et nous recherchons les conditions de maintien ou de disparition des espèces modélisées
In this thesis, we consider mathematical population dynamics models in deterministic and stochastic environments. For deterministic environments, we study three models: an intraguild model with the effects of spatial heterogeneous environment and fast migration of individuals; a fishery model with Marine Protected Area where fishing is prohibited and an area where the fish population is harvested; a predator-prey model which has one prey and two predators with Beddington-DeAngelis functional responses. For stochastic environments, we study SIRS epidemic model and predator-prey models under telegraph noise. We try to present the dynamical behavior of these models and show out the existence or vanishing of species in the models
APA, Harvard, Vancouver, ISO, and other styles
44

Tchoffo, Talom Friedman. "Modélisation déterministe du canal de propagation indoor dans un contexte Ultra Wide Band." Phd thesis, INSA de Rennes, 2005. http://tel.archives-ouvertes.fr/tel-00012059.

Full text
Abstract:
Depuis peu, le grand public manifeste un engouement pour des objets communicants qui requièrent le transfert rapide d'une quantité d'information sans cesse croissante. Dans ce contexte, l'un des challenges scientifiques repose sur la recherche de techniques de transmissions radio à très haut débit sur de courtes portées. Une technique possible est l'utilisation de signaux UWB, lesquels ont été autorisés en février 2002 par l'organisme américain de régulation des fréquences. Pour évaluer les performances des systèmes UWB, la modélisation du canal de propagation est indispensable. Ces modélisations sont généralement statistiques. L'objectif de la thèse a consisté à examiner l'apport de la modélisation déterministe pour l'étude du canal UWB. Les travaux présentés portent sur l'étude de l'impact des mécanismes de propagation sur les signaux UWB, sur la conception d'un outil de modélisation déterministe et sur la réalisation de campagnes de mesures pour l'évaluation de l'outil.
APA, Harvard, Vancouver, ISO, and other styles
45

Zaccardi, Cédric. "Couplage stochastique-déterministe dans le cadre Arlequin et estimations d'erreurs en quantités d'intérêt." Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-00865192.

Full text
Abstract:
La prise en compte de l'aléa dans le calcul des structures est souvent nécessaire pour le dimensionnement de celle-ci. Des méthodes stochastiques sont alors proposées. De plus, dans de nombreux cas, des altérations ou défauts affectent localement le comportement de la structure, alors que le reste n'est que faiblement impacté. Il n'est alors pas raisonnable d'utiliser une échelle d'analyse fine sur l'ensemble de la structure. On fait alors appel aux méthodes dites multi-échelles. Dans ce contexte, nous nous intéressons à l'estimation d'une quantité d'intérêt spécifique locale lorsque la méthode Arlequin est utilisée pour coupler un modèle déterministe à un modèle stochastique. Dans un premier temps, nous donnons les éléments nécessaires à l'utilisation de la méthode dans ce cadre de couplage stochastique. Pour contrôler ensuite la qualité de l'approximation obtenue par une telle approche, une méthode d'estimation d'erreur de type Goal-Oriented est proposée. En introduisant le résidu du problème de référence et un problème adjoint, une stratégie d'estimation de l'erreur est décrite. Nous étudions aussi les contributions des différentes sources de l'erreur à l'erreur totale (erreur de modèle, erreur de discrétisation, erreur stochastique). Nous proposons une technique pour estimer ces différentes erreurs et piloter un processus d'adaptation afin de contrôler l'erreur totale commise. Finalement, la méthode décrite est utilisée pour l'étude de l'infiltration de résine médicale dans le cas du traitement de la carie.
APA, Harvard, Vancouver, ISO, and other styles
46

Bouallagui, Sarra. "Techniques d'optimisation déterministe et stochastique pour la résolution de problèmes difficiles en cryptologie." Phd thesis, INSA de Rouen, 2010. http://tel.archives-ouvertes.fr/tel-00557912.

Full text
Abstract:
Cette thèse s'articule autour des fonctions booléennes liées à la cryptographie et la cryptanalyse de certains schémas d'identification. Les fonctions booléennes possèdent des propriétés algébriques fréquemment utilisées en cryptographie pour constituer des S-Boxes (tables de substitution).Nous nous intéressons, en particulier, à la construction de deux types de fonctions : les fonctions courbes et les fonctions équilibrées de haut degré de non-linéarité.Concernant la cryptanalyse, nous nous focalisons sur les techniques d'identification basées sur les problèmes de perceptron et de perceptron permuté. Nous réalisons une nouvelle attaque sur le schéma afin de décider de sa faisabilité.Nous développons ici des nouvelles méthodes combinant l'approche déterministe DCA (Difference of Convex functions Algorithm) et heuristique (recuit simulé, entropie croisée, algorithmes génétiques...). Cette approche hybride, utilisée dans toute cette thèse, est motivée par les résultats intéressants de la programmation DC.
APA, Harvard, Vancouver, ISO, and other styles
47

Georgiev, Kiril. "Débogage des systèmes embarqués multiprocesseur basé sur la ré-exécution déterministe et partielle." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM086/document.

Full text
Abstract:
Les plates-formes MPSoC permettent de satisfaire les contraintes de performance, de flexibilité et de consommation énergétique requises par les systèmes embarqués émergents. Elles intègrent un nombre important de processeurs, des blocs de mémoire et des périphériques, hiérarchiquement organisés par un réseau d'interconnexion. Le développement du logiciel est réputé difficile, notamment dû à la gestion d'un grand nombre d'entités (tâches/threads/processus). L'exécution concurrente de ces entités permet d'exploiter efficacement l'architecture mais complexifie le processus de mise au point et notamment l'analyse des erreurs. D'une part, les exécutions peuvent être non-déterministes notamment dû à la concurrence, c'est à dire qu'elles peuvent se dérouler d'une manière différente à chaque reprise. En conséquence, il n'est pas garanti qu'une erreur se produirait durant la phase de mise au point. D'autre part, la complexité de l'architecture et de l'exécution peut rendre trop important le nombre d'éléments à analyser afin d'identifier une erreur. Il pourrait donc être difficile de se focaliser sur des éléments potentiellement fautifs. Un des défis majeurs du développement logiciel MPSoC est donc de réduire le temps de la mise au point. Dans cette thèse, nous proposons une méthodologie de mise au point qui aide le développeur à identifier les erreurs dans le logiciel MPSoC. Notre premier objectif est de déboguer une même exécution plusieurs fois afin d'analyser des sources potentielles de l'erreur jusqu'à son identification. Nous avons donc identifié les sources de non-déterminisme MPSoC et proposé des mécanismes de ré-exécution déterministe les plus adaptés. Notre deuxième objectif vise à minimiser les ressources pour reproduire une exécution afin de satisfaire la contrainte MPSoC de maîtrise de l'intrusion. Nous avons donc utilisé des mécanismes efficaces de ré-exécution déterministe et considéré qu'une partie du comportement non-déterministe. Le troisième objectif est de permettre le passage à l'échelle, c'est à dire de déboguer des exécutions caractérisées par un nombre d'éléments de plus en plus croissant. Nous avons donc proposé une méthode qui permet de circonscrire et de déboguer qu'une partie de l'exécution. De plus, cette méthode s'applique aux différents types d'architectures et d'applications MPSoC
MPSoC platforms provide high performance, low power consumption and flexi-bility required by the emerging embedded systems. They incorporate many proces-sing units, memory blocs and peripherals, hierarchically organized by interconnec-tion network. The software development is known to be difficult, namely due to themanagement of multiple entities (tasks/threads/processes). The concurrent execu-tion of these entities allows to exploit efficiently the architecture but complicatesthe refinement process of the software and especially the debugging activity. Onthe one hand, the executions of the software can be non-deterministic, namely dueto the concurrency, i.e. they perform differently each time. Consequently, thereis no guaranties that an error will occur during the debugging activity. On theother hand, the complexity of the architecture and the execution can increase theelements to be analyzed in the debugging process. As a result, it can be difficultto concentrate on the potentially faulty elements. Therefore, one of the most im-portant challenges in the development process of MPSoC software is to reduce thetime of the refinement process.In this thesis, we propose a new methodology to refine the MPSoC softwarewhich helps the developers to do the debugging activity. Our first objective is tobe able to debug the same execution several times in order to analyze potentialsources of the error. To do so, we identified the sources of non-determinism in theMPSoC software executions and propose the most appropriate methods to recordand replay them. Our second objective is to reduce the execution overhead requi-red by the record mechanisms to limit the intrusiveness which is an importantMPSoC constraint. To accomplish this objective, we consider a part of the non-deterministic behaviour and selected efficient record-replay methods. The thirdobjective is to provide a scalable solution, i.e. to be able to debug more and morecomplex executions, characterized by an increasing number of elements. Therefore,we propose a partial replay method which allows to isolate and debug a fraction ofthe execution elements. Moreover, this method applies to different types of archi-tectures and applications MPSoC
APA, Harvard, Vancouver, ISO, and other styles
48

Vu, Thi Thanh Xuan. "Optimisation déterministe et stochastique pour des problèmes de traitement d'images en grande dimension." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0540.

Full text
Abstract:
Dans cette thèse on s’intéresse au problème des décompositions canoniques polyadiques de tenseurs d’ordre $N$ potentiellement grands et sous différentes contraintes (non-négativité, aspect creux lié à une possible surestimation du rang du tenseur). Pour traiter ce problème, nous proposons trois nouvelles approches itératives différentes: deux approches déterministes dont une approche proximale, et une approche stochastique. La première approche étend les travaux de thèse de J-P. Royer au cas de tenseurs de dimension $N$. Dans l’approche stochastique, nous considérons pour la première fois dans le domaine des décompositions tensorielles, des algorithmes génétiques (mimétiques) dont principe général repose sur l’évolution d’une population de candidats. Dans le dernier type d’approche, nous avons considéré un algorithme proximal pré-conditionné (le Block-Coordinate Variable Metric Forward-Backward), algorithme fonctionnant par blocs de données avec une matrice de pré-conditionnement liée à chaque bloc et fondé sur deux étapes successives principales : une étape de gradient et une étape proximale. Finalement, les différentes méthodes suggérées sont comparées entre elles et avec d’autres algorithmes classiques de la littérature sur des données synthétiques (à la fois aléatoires ou proches des données observées en spectroscopie de fluorescence) et sur des données expérimentales réelles correspondant à une campagne de surveillance des eaux d’une rivière et visant à la détection d’apparition de polluants
In this PhD thesis, we consider the problem of the Canonical Polyadic Decomposition (CPD) of potentially large $N$-th order tensors under different constraints (non-negativity, sparsity due to a possible overestimation of the tensor rank, etc.). To tackle such a problem, we propose three new iterative methods: a standard gradient based deterministic approach, a stochastic approach (memetic) and finally a proximal approach (Block-Coordinate Variable Metric Forward-Backward). The first approach extends J-P. Royer's works to the case of non-negative N-th order tensors. In the stochastic approach, genetic (memetic) methods are considered for the first time to solve the CPD problem. Their general principle is based on the evolution of a family of candidates. In the third type of approaches, a proximal algorithm namely the Block-Coordinate Variable Metric Forward-Backward is presented. The algorithm relies on two main steps: a gradient step and a proximal step. The blocks of coordinates naturally correspond to latent matrices. We propose a majorant function as well as a preconditioner with regard to each block. All methods are compared with other popular algorithms of the literature on synthetic (fluorescence spectroscopy like or random) data and on real experimental data corresponding to a water monitoring campaign aiming at detecting the appearance of pollutants
APA, Harvard, Vancouver, ISO, and other styles
49

Temine, Laura. "Modélisation déterministe et stochastique de processus épidémiques : application à la résistance aux antibiotiques." Paris 6, 2003. http://www.theses.fr/2003PA066491.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

El, Dika Khaled. "Comportement qualitatif des solutions de l'équation de Benjamin-Bona-Mahony déterministe et stochastique." Paris 11, 2004. http://www.theses.fr/2004PA112194.

Full text
Abstract:
J'ai montré divers resultats ?sur le comportement qualitatif des solutions de l'équation de Benjamin-Bona-Mahony (BBM) :1- Stabilité asymptotique des ondes solitaires de cette équation dans l'espace d'energie H^1. 2- Description qualitative des solutions localisées de l'équation de BBM généralisée qui voyagent à droite. 3- Stabilité de la somme de N ondes solitaires de l'équatioin de BBM généralisée, ainsi que la stabilité asymptotique de telles sommes. J'ai montré aussi l'existence des "N-solitaires" : des solutions convergeant vers la somme de N ondes solitaires. 4- J'ai étudié le problème de Caychy pour divers équations de BBM stochastiques (differents cas de bruits), en montrant l'existence globale
We are interested in the qualitative behavior of solutions of the generalized BBM equation. Our main results :1- Asymptotic stability of the solitary waves of the gBBM eqaution in the energy space H^1. 2- Qualitative description of localized solutions for the gBBM equation traveling to the right. 3- Stability (and asymptotic stabiility) of the sum of N solitary waves for the generalized BBM equation, we prove also the existence and uniqueness of "N-solitary wave", i. E. Solutions behaving asymptotically as the the sum of N solitary waves of the gBBM eqaution. 4- We prove global existence for several stochastic BBM equation, including the case of the space derivative of a noise which is locally white in space and time
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography