Dissertations / Theses on the topic 'Simulation par chaînes de Markov'

To see the other types of publications on this topic, follow the link: Simulation par chaînes de Markov.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Simulation par chaînes de Markov.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Thivierge, Sylvain. "Simulation de Monte-Carlo par les chaînes de Markov." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0004/MQ42024.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Suparman, Suparman. "Problèmes de choix de modèles par simulation de type Monte Carlo par chaînes de Markov à sauts réversibles." Toulouse 3, 2003. http://www.theses.fr/2003TOU30005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Sénécal, Stéphane. "Méthodes de simulation Monte-Carlo par chaînes de Markov pour l'estimation de modèles : applications en séparation de sources et en égalisation." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0130.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose l'étude et l'application des méthodes de simulation Monte Carlo par chaînes de Markov (MCMC) pour résoudre des problèmes d'estimation en traitement du signal. Les hyptohèses a priori sur les signaux et/ou les modèles de transfert peuvent être prises en compte en utilisant une approche Bayésienne, menant aux estimateurs classiques de type moyenne a posteriori et maximum a posteriori dont le calcul est généralement difficile. Des techniques d'estimation Monte Carlo sont ainsi considérées et implantées par des schémas de simulation par chaînes de Markov. Dans un premier temps, des problèmes d'estimation pour des modèles de séparation de sources sont considérés. Le cas des communications numériques est spécifiquement abordé en étudiant la séparation de signaux sources issus de modulations PSK. Une méthode de séparation fondée sur l'algorithme d'échantillonnage de Gibbs est proposée et illustrée par des simulations numériques. L'algorithme permet de séparer des mélanges sous-déterminés et peut en outre être modifié afin de résoudre d'autres problèmes associés à ce modèle : estimation du nombre d'état des constellations des signaux sources, estimation du nombre de signaux sources. Dans un second temps, un problème d'égalisation est abordé dans le cadre de communications satellitaires. L'approche Bayésienne et son implantation par une méthode d'estimation Monte Carlo permettent de prendre en compte de manière explicite la non-linéarité du système d'amplification à bord du satellite. Une méthode de simulation séquentielle de type filtrage particulaire est ainsi proposée pour égaliser la chaîne de transmission complète de manière aveugle et robuste
This thesis proposes to study and apply Markov chain Monte-Carlo (MCMC) simulation methods for solving estimation problems arising in the field of signal processing. Prior hypothesis on signals and/or on transfert function models can be taken into account thanks to a Bayesian approach leading to classical estimators, posterior mean and maximum a posteriori for instance, whose computation is generally difficult. Monte-Carlo estimation techniques are thus considered and implemented with Markov chain simulation schemes. In a first step, estimation problems dealing with source separation models are considered. The case of digital communications is specifically focused on with the study of source signals associated to PSK modulations. A separation method based on the Gibbs sampling algorithm is proposed and illustrated with numerical experiments. The algorithm makes it possible to separate underdetermined mixtures and can be modified in order to solve other problems associated to this model: estimation of the number of state for the constellations of source signals, estimation of the number of the source signals. In a second step, an equalisation problem is tackled in the context of satellite communications. The Bayesian approach and its implementation through a Monte-Carlo estimation technique make it possible to take into account explicitely the nonlinearity of the amplification stage in the satellite. A sequential simulation method based on particle filtering is then proposed for equalising blindly and robustly the complete transmission chain
4

Dapzol, N. "Analyse de l'activité de conduite par les chaînes de Markov cachées et les modèles de ruptures multi-phasiques: méthodologie et applications." Phd thesis, Université Claude Bernard - Lyon I, 2006. http://tel.archives-ouvertes.fr/tel-00543729.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est d'établir un cadre d'analyse des données recueillies sur les véhicules en vue de les mettre en correspondance avec des comportements. Pour cela, nous avons défini le modèle Semi-Markovien caché pondéré pour modéliser les signaux issus des capteurs et établi des résultats théoriques sur les modèles de régressions multi-phasiques dans le cas linéaire et nonlinéaire. Puis, nous avons établi une méthodologie d'analyse de l'activité basée sur un apprentissage semi-automatique, et structurée par les résultats des modèles cognitifs du conducteur. Pour valider cette méthodologie, nous avons effectué une expérimentation où furent enregistrées 1209 séquences de conduite. Ces données nous ont permis d'implémenter des modèles de Markov cachées décrivant l'évolution des capteurs associés à des situations de conduite caractérisées par l'objectif, l'infrastructure perçue par le conducteur et la vitesse initiale. Les modèles générés nous permettent dès lors de catégoriser, avec un taux satisfaisant, à quelle situation ou à quel groupe de situation appartient une séquence inconnue. Par ailleurs, nous illustrons l'utilité des modèles markoviens conjugués aux modèles multi-phasiques pour la recherche automatique de situation dans un ensemble de données. Mot clés libres: modèle Semi-Markovien cachés pondéré, modèles multi-phasiques, apprentissage semi-automatique, catégorisation du comportement du conducteur, analyse de l'activité de conduite analyse hiérarchique
5

Trabelsi, Brahim. "Simulation numérique de l’écoulement et mélange granulaires par des éléments discrets ellipsoïdaux." Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/9300/1/trabelsi.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les matériaux granulaires sont omniprésents, ils se trouvent aussi bien dans la nature que dans quelques applications industrielles. Parmi les applications industrielles utilisant les matériaux granulaires, on cite le mélange des poudres dans les industries agro-alimentaires, chimiques, métallurgiques et pharmaceutiques. La caractérisation et l'étude du comportement de ces matériaux sont nécessaires pour la compréhension de plusieurs phénomènes naturels comme le mouvement des dunes et les avalanches de neige, et de processus industriels tel que l'écoulement et le mélange des grains dans un mélangeur. Le comportement varié des matériaux granulaires les rend inclassables parmi les trois états de la matière : solide, liquide et gazeux. Ceci a fait dire qu'il s'agit d'un ``quatrième état'' de la matière, situé entre solide et liquide. L'objectif de ce travail est de concevoir et de mettre en oeuvre des méthodes efficaces d'éléments discrets pour la simulation et l'analyse des processus de mélange et de ségrégation des particules ellipsoïdales dans des mélangeurs culbutants industriels tels que le mélangeur à cerceaux. Dans la DEM l'étape la plus critique en terme de temps CPU est celle de la détection et de résolution de contact. Donc pour que la DEM soit efficace il faut optimiser cette étape. On se propose de combiner le modèle du potentiel géométrique et la condition algébrique de contact entre deux ellipsoïdes proposée par Wang et al., pour l'élaboration d'un algorithme efficace de détection de contact externe entre particules ellipsoïdales. Puis de de prouver un résultat théorique et d'élaborer un algorithme pour le contact interne. D'autre part, le couplage DEM-chaîne de Markov permet de diminuer très sensiblement le temps de simulation en déterminant la matrice de transition à partir d'une simulation à courte durée puis en calculant l'état du système à l'aide du modèle de chaîne de Markov. En effet, en utilisant la théorie des matrices strictement positives et en se basant sur le théorème de Perron-Frobenius on peut approximer le nombre de transitions nécessaires pour la convergence vers un état donné.
6

Brosse, Nicolas. "Around the Langevin Monte Carlo algorithm : extensions and applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le problème de l'échantillonnage en grande dimension et est basée sur l'algorithme de Langevin non ajusté (ULA).Dans une première partie, nous proposons deux extensions d'ULA et fournissons des garanties de convergence précises pour ces algorithmes. ULA n'est pas applicable lorsque la distribution cible est à support compact; grâce à une régularisation de Moreau Yosida, il est néanmoins possible d'échantillonner à partir d'une distribution suffisamment proche de la distribution cible. ULA diverge lorsque les queues de la distribution cible sont trop fines; en renormalisant correctement le gradient, cette difficulté peut être surmontée.Dans une deuxième partie, nous donnons deux applications d'ULA. Nous fournissons un algorithme pour estimer les constantes de normalisation de densités log concaves à partir d'une suite de distributions dont la variance augmente graduellement. En comparant ULA avec la diffusion de Langevin, nous développons une nouvelle méthode de variables de contrôle basée sur la variance asymptotique de la diffusion de Langevin.Dans une troisième partie, nous analysons Stochastic Gradient Langevin Dynamics (SGLD), qui diffère de ULA seulement dans l'estimation stochastique du gradient. Nous montrons que SGLD, appliqué avec des paramètres habituels, peut être très éloigné de la distribution cible. Cependant, avec une technique appropriée de réduction de variance, son coût calcul peut être bien inférieur à celui d'ULA pour une précision similaire
This thesis focuses on the problem of sampling in high dimension and is based on the unadjusted Langevin algorithm (ULA).In a first part, we suggest two extensions of ULA and provide precise convergence guarantees for these algorithms. ULA is not feasible when the target distribution is compactly supported; thanks to a Moreau Yosida regularization, it is nevertheless possible to sample from a probability distribution close enough to the distribution of interest. ULA diverges when the tails of the target distribution are too thin; by taming appropriately the gradient, this difficulty can be overcome.In a second part, we give two applications of ULA. We provide an algorithm to estimate normalizing constants of log concave densities based on a sequence of distributions with increasing variance. By comparison of ULA with the Langevin diffusion, we develop a new control variates methodology based on the asymptotic variance of the Langevin diffusion.In a third part, we analyze Stochastic Gradient Langevin Dynamics (SGLD), which differs from ULA only in the stochastic estimation of the gradient. We show that SGLD, applied with usual parameters, may be very far from the target distribution. However, with an appropriate variance reduction technique, its computational cost can be much lower than ULA for the same accuracy
7

M'Saad, Soumaya. "Détection de changement de comportement de vie chez la personne âgée par images de profondeur." Thesis, Rennes 1, 2022. http://www.theses.fr/2022REN1S039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le nombre des personnes âgées ne cesse d’augmenter dans le monde d’où l’enjeu de les aider à continuer de vivre chez eux et de vieillir en bonne santé. Cette thèse s’inscrit dans cette problématique de santé publique et propose la détection du changement de comportement de la personne en se basant sur l’enregistrement des activités au domicile par des capteurs de profondeur à bas coût qui garantissent l’anonymat et qui fonctionnent de façon autonome de jour comme de nuit. Après une étude initiale associant la classification des images par des approches de machine learning, une méthode basée sur les réseaux de neurones profonds ResNet-18 a été proposée pour la détection de la chute et la détection des postures. Cette approche a donné des résultats satisfaisants avec une précision globale de 93,44% et une sensibilité globale de 93.24%. La détection des postures permet de suivre les changements de comportement qui sont synonymes de la perte de la routine. Deux stratégies ont été déployées pour le suivi du maintien de la routine. La première examine la succession des activités dans la journée en établissant une distance d’édition ou une déformation dynamique de la journée, l’autre consiste à classer la journée en routine et non-routine en associant des approches supervisées (k-moyennes et k-modes), non supervisées (Random Forest) ou les connaissances a priori sur la journée routine de la personne. Ces stratégies ont été évaluées à la fois sur des données réelles enregistrées en EHPAD chez deux personnes fragiles et à la fois sur des données simulées créés pour combler le manque de données réelles. Elles ont montré la possibilité de détecter différents scénarios de changement de comportement (brusque, progressif, récurrent) et prouvent que les capteurs de profondeur peuvent être utilisés en EHPAD ou dans l’habitat d’une personne âgée
The number of elderly people in the world is constantly increasing, hence the challenge of helping them to continue to live at home and ageing in good health. This PhD takes part in this public health issue and proposes the detection of the person behavior change based on the recording of activities in the home by low-cost depth sensors that guarantee anonymity and that operate autonomously day and night. After an initial study combining image classification by machine learning approaches, a method based on Resnet-18 deep neural networks was proposed for fall and posture position detection. This approach gave good results with a global accuracy of 93.44% and a global sensitivity of 93.24%. The detection of postures makes possible to follow the state of the person and in particular the behavior changes which are assumed to be the routine loss. Two strategies were deployed to monitor the routine. The first one examines the succession of activities in the day by computing an edit distance or a dynamic deformation of the day, the other one consists in classifying the day into routine and non-routine by combining supervised (k-means and k-modes), unsupervised (Random Forest) or a priori knowledge about the person's routine. These strategies were evaluated both on real data recorded in EHPAD in two frail people and on simulated data created to fill the lack of real data. They have shown the possibility to detect different behavioral change scenarios (abrupt, progressive, recurrent) and prove that depth sensors can be used in EHPAD or in the home of an elderly person
8

Monteiro, Julian. "Modélisation et analyse des systèmes de stockage fiable de données dans des réseaux pair-à-pair." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00545724.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes pair-à-pair à grande échelle ont été proposés comme un moyen fiable d'assurer un stockage de données à faible coût. Pour assurer la pérennité des données sur une période très longue, ces systèmes codent les données des utilisateurs comme un ensemble de fragments redondants qui sont distribués entre différents pairs du réseau. Un mécanisme de réparation est nécessaire pour faire face au comportement dynamique et non fiable des pairs. Ce mécanisme reconstruit en permanence les fragments de redondance manquants. Le système dépend de nombreux paramètres de configuration qui doivent être bien réglés, comme le facteur de redondance, sa politique de placement et la fréquence de réparation des données. Ces paramètres affectent la quantité de ressources, telles que la bande passante et l'espace de stockage, nécessaires pour obtenir un niveau souhaité de fiabilité, c'est-à-dire, une certaine probabilité de perdre des données. Cette thèse vise à fournir des outils permettant d'analyser et de prédire la performance de systèmes de stockage de données à grande échelle en général. Nous avons utilisé ces outils pour analyser l'impact de différents choix de conception du système sur différentes mesures de performance. Par exemple, la consommation de bande passante, l'espace de stockage et la probabilité de perdre des données, doivent être aussi faibles que possible. Différentes techniques sont étudiées et appliquées. Tout d'abord, nous décrivons un modèle simple par chaîne de Markov qui exploit la dynamique d'un système de stockage sous l'effet de défaillance des pairs et de réparation de données. Puis nous établissons des formules mathématiques closes qui donnent de bonnes approximations du modèle. Ces formules nous permettent de comprendre les interactions entre les paramètres du système. En effet, un mécanisme de réparation paresseux (lazy repair) est étudié et nous décrivons comment régler les paramètres du système pour obtenir une utilisation efficace de la bande passante. Nous confirmons en comparant à des simulations que ce modèle donne des approximations correctes du comportement moyen du système, mais ne parvient pas à capturer ses importantes variations au fil du temps. Nous proposons ensuite un nouveau modèle stochastique basé sur une approximation fluide pour saisir les écarts par rapport au comportement moyen. Ces variations qui sont généralement négligées par les travaux antérieurs, sont très im- portants pour faire une bonne estimation des ressources nécessaires au système. De plus, nous étudions plusieurs autres aspects d'un système de stockage distribué: nous utilisons un modèle de files d'attente pour calculer le temps de réparation pour un système avec bande passante limitée; nous étudions un système de codage hybride: en mixant les codes d'éffacement avec la simple réplication des données; enfin, nous étudions l'impact des différentes façons de distribuer des fragments de données entre les pairs, i.e., les stratégies des placements.
9

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov." Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
10

Eid, Abdelrahman. "Stochastic simulations for graphs and machine learning." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bien qu’il ne soit pas pratique d’étudier la population dans de nombreux domaines et applications, l’échantillonnage est une méthode nécessaire permettant d’inférer l’information.Cette thèse est consacrée au développement des algorithmes d’échantillonnage probabiliste pour déduire l’ensemble de la population lorsqu’elle est trop grande ou impossible à obtenir.Les techniques Monte Carlo par chaîne de markov (MCMC) sont l’un des outils les plus importants pour l’échantillonnage à partir de distributions de probabilités surtout lorsque ces distributions ont des constantes de normalisation difficiles à évaluer.Le travail de cette thèse s’intéresse principalement aux techniques d’échantillonnage pour les graphes. Deux méthodes pour échantillonner des sous-arbres uniformes à partir de graphes en utilisant les algorithmes de Metropolis-Hastings sont présentées dans le chapitre 2. Les méthodes proposées visent à échantillonner les arbres selon une distribution à partir d’un graphe où les sommets sont marqués. L’efficacité de ces méthodes est prouvée mathématiquement. De plus, des études de simulation ont été menées et ont confirmé les résultats théoriques de convergence vers la distribution d’équilibre.En continuant à travailler sur l’échantillonnage des graphes, une méthode est présentée au chapitre 3 pour échantillonner des ensembles de sommets similaires dans un graphe arbitraire non orienté en utilisant les propriétés des processus des points permanents PPP. Notre algorithme d’échantillonnage des ensembles de k sommets est conçu pour surmonter le problème de la complexité de calcul lors du calcul du permanent par échantillonnage d’une distribution conjointe dont la distribution marginale est un kPPP.Enfin, dans le chapitre 4, nous utilisons les définitions des méthodes MCMC et de la vitesse de convergence pour estimer la bande passante du noyau utilisée pour la classification dans l’apprentissage machine supervisé. Une méthode simple et rapide appelée KBER est présentée pour estimer la bande passante du noyau de la fonction de base radiale RBF en utilisant la courbure moyenne de Ricci de graphes
While it is impractical to study the population in many domains and applications, sampling is a necessary method allows to infer information. This thesis is dedicated to develop probability sampling algorithms to infer the whole population when it is too large or impossible to be obtained. Markov chain Monte Carlo (MCMC) techniques are one of the most important tools for sampling from probability distributions especially when these distributions haveintractable normalization constants.The work of this thesis is mainly interested in graph sampling techniques. Two methods in chapter 2 are presented to sample uniform subtrees from graphs using Metropolis-Hastings algorithms. The proposed methods aim to sample trees according to a distribution from a graph where the vertices are labelled. The efficiency of these methods is proved mathematically. Additionally, simulation studies were conducted and confirmed the theoretical convergence results to the equilibrium distribution.Continuing to the work on graph sampling, a method is presented in chapter 3 to sample sets of similar vertices in an arbitrary undirected graph using the properties of the Permanental Point processes PPP. Our algorithm to sample sets of k vertices is designed to overcome the problem of computational complexity when computing the permanent by sampling a joint distribution whose marginal distribution is a kPPP.Finally in chapter 4, we use the definitions of the MCMC methods and convergence speed to estimate the kernel bandwidth used for classification in supervised Machine learning. A simple and fast method called KBER is presented to estimate the bandwidth of the Radial basis function RBF kernel using the average Ricci curvature of graphs
11

Paris, Sébastien. "Extraction Automatique de Pistes Fréquentielles en Sonar Passif par Chaînes de Markov Cachées." Toulon, 2000. http://www.theses.fr/2000TOUL0013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les raies de fréquences éventuellement présentes sur la représentation temps fréquence appelée lofar-gramme permettent à un opérateur sonar de classifier, voire de trajectographier partiellement, les sources d'intérêts. Pour la trajectographie, les raies de fréquences constantes mais décalées par effet Doppler sont utilisées. Pour la classification, c'est l'instabilité des raies fréquentielles qui est source d'information. Dans cette thèse, nous nous sommes intéressés à l'extraction de pistes fréquentielles instables (estimation des pistes présentes dans l'image). Les problèmes fondamentaux de l'extraction sont la méconnaissance du nombre de pistes présentes, de leurs instants d'apparition et de disparition, de leurs rapports signal sur bruit respectifs et la gestion du croisement de pistes. Nous adoptons une approche basée sur une modélisation par chaînes de Markov : chaque piste fréquentielle est supposée suivre une marche aléatoire; l'espace d'état est défini par l'ensemble des canaux fréquentiels de l'analyse spectrale et par un ensemble discret et fini de pentes associées à chaque piste. Le lofargrarnme fournit les mesures. Dans le cas mono¬piste, nous proposons une solution basée sur la version "normalisée" des algorithmes issus do la littérature des chaînes de Markov cachées (Hidden Markov Models) : algorithme de Viterbi (VA), algorithme Forward (F) et Forward-Backward (FB). Dans le cas multi-pistes. Nous avons développé un nouvel algorithme FB "normalisé" dans lequel chaque probabilité est conditionnée par l'événement exclusif suivant : deux pistes fréquentielles ne peuvent être dans le même état simultanément. L'algorithme travaille en deux étapes : 1) les lignes sont extraites du début jusqu'à la fin du lofargrarnme ; 2) les instants de début et de fin de chaque piste sont estimés. Lorsque ces deux dates sont égales, la piste est éliminée. Avec cette stratégie, le nombre de pistes fréquentielles doit être a priori surestimé. Des essais sur des données synthétiques et sur des données réelles ont été menés à bien pour valider nos algorithmes en utilisation opérationnelle
The frequency vs. Time image called lofargram in any passive sonar system is the key of the downstream information processing : the operator will investigate on this representation in order to classify the tar¬gets of interest and/or to track the targets that have generated them by the so-called Target Motion Analysis (TMA). Both need to use frequency lines. For TMA, constant but Doppler-shifted frequencies are necessary. Conversely, for classification, the fluctuations of frequency help the discrimination between targets. In this thesis, we are concerned by unstable frequency line tracker (FLT). The role of such a tracker is to estimate frequency lines. The fundamental problems of FLT come from the unknown num¬ber of lines, their dates of birth and death, their respective SNR's and the case of crossing lines. We propose a method based on Markov Chain modeling : each frequency line is assumed to follow a random walk; the state space is the lofargram frequency cell set vs. A discrete and finite set of slopes. The data are composed by each lofargram line. When one unique line is present, we propose a scaled version of algorithms encountered in Hidden Markov Models (HMM) literature : Viterbi algorithm (VA), Forward (F), Forward-Backward (FB). In case of several frequency lines, we derive a new scaled FB algorithm in which each probability is conditioned by the exclusive event : two lines cannot be simultaneously in the same spot. The algorithm works in two passes : first, the lines are extracted from the beginning to the end of the lofargram; then, we estimate the dates of birth and death of each of them. When those dates are equal, the line is discarded. Therefore, the number of lines must be a priori overestimated. Trials on synthetic but also real data have been conducted and allow us to conclude that this algorithm performs very correctly (in a operational sense)
12

Gbedo, Yémalin Gabin. "Les techniques Monte Carlo par chaînes de Markov appliquées à la détermination des distributions de partons." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAY059/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons développé une nouvelle approche basée sur les méthodes Monte Carlo par chaînes de Markov pour déterminer les distributions de Partons et quantifier leurs incertitudes expérimentales. L’intérêt principal d’une telle étude repose sur la possibilité de remplacer la minimisation standard avec MINUIT de la fonction χ 2 par des procédures fondées sur les méthodes Statistiques et sur l’inférence Bayésienne en particulier,offrant ainsi une meilleure compréhension de la détermination des distributions de partons. Après avoir examiné ces techniques Monte Carlo par chaînes de Markov, nous introduisons l’algorithme que nous avons choisi de mettre en œuvre, à savoir le Monte Carlo hybride (ou Hamiltonien). Cet algorithme, développé initialement pour la chromodynamique quantique sur réseau, s’avère très intéressant lorsqu’il est appliqué à la détermination des distributions de partons par des analyses globales. Nous avons montré qu’il permet de contourner les difficultés techniques dues à la grande dimensionnalité du problème, en particulier celle relative au taux d’acceptation. L’étude de faisabilité réalisée et présentée dans cette thèse indique que la méthode Monte Carlo par chaînes de Markov peut être appliquée avec succès à l’extraction des distributions de partons et à leurs in-certitudes expérimentales
We have developed a new approach to determine parton distribution functions and quantify their experimental uncertainties, based on Markov Chain Monte Carlo methods.The main interest devoted to such a study is that we can replace the standard χ 2 MINUIT minimization by procedures grounded on Statistical Methods, and on Bayesian inference in particular, thus offering additional insight into the rich field of PDFs determination.After reviewing these Markov chain Monte Carlo techniques, we introduce the algorithm we have chosen to implement – namely Hybrid (or Hamiltonian) Monte Carlo. This algorithm, initially developed for lattice quantum chromodynamique, turns out to be very interesting when applied to parton distribution functions determination by global analyses ; we have shown that it allows to circumvent the technical difficulties due to the high dimensionality of the problem, in particular concerning the acceptance rate. The feasibility study performed and presented in this thesis, indicates that Markov chain Monte Carlo method can successfully be applied to the extraction of PDFs and of their experimental uncertainties
13

Fischer, Stephan. "Modélisation de l'évolution de la taille des génomes et de leur densité en gènes par mutations locales et grands réarrangements chromosomiques." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00924831.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bien que de nombreuses séquences génomiques soient maintenant connues, les mécanismes évolutifs qui déterminent la taille des génomes, et notamment leur part d'ADN non codant, sont encore débattus. Ainsi, alors que de nombreux mécanismes faisant grandir les génomes (prolifération d'éléments transposables, création de nouveaux gènes par duplication, ...) sont clairement identifiés, les mécanismes limitant la taille des génomes sont moins bien établis. La sélection darwinienne pourrait directement défavoriser les génomes les moins compacts, sous l'hypothèse qu'une grande quantité d'ADN à répliquer limite la vitesse de reproduction de l'organisme. Cette hypothèse étant cependant contredite par plusieurs jeux de données, d'autres mécanismes non sélectifs ont été proposés, comme la dérive génétique et/ou un biais mutationnel rendant les petites délétions d'ADN plus fréquentes que les petites insertions. Dans ce manuscrit, nous montrons à l'aide d'un modèle matriciel de population que la taille du génome peut aussi être limitée par la dynamique spontanée des duplications et des grandes délétions, qui tend à raccourcir les génomes même si les deux types de ré- arrangements se produisent à la même fréquence. En l'absence de sélection darwinienne, nous prouvons l'existence d'une distribution stationnaire pour la taille du génome même si les duplications sont deux fois plus fréquentes que les délétions. Pour tester si la sélection darwinienne peut contrecarrer cette dynamique spontanée, nous simulons numériquement le modèle en choisissant une fonction de fitness qui favorise directement les génomes conte- nant le plus de gènes, tout en conservant des duplications deux fois plus fréquentes que les délétions. Dans ce scénario où tout semblait pousser les génomes à grandir infiniment, la taille du génome reste pourtant bornée. Ainsi, notre étude révèle une nouvelle force susceptible de limiter la croissance des génomes. En mettant en évidence des comporte- ments contre-intuitifs dans un modèle pourtant minimaliste, cette étude souligne aussi les limites de la simple " expérience de pensée " pour penser l'évolution. Nous proposons un modèle mathématique de l'évolution structurelle des génomes en met- tant l'accent sur l'influence des différents mécanismes de mutation. Il s'agit d'un modèle matriciel de population, à temps discret, avec un nombre infini d'états génomiques pos- sibles. La taille de population est infinie, ce qui élimine le phénomène de dérive génétique. Les mutations prises en compte sont les mutations ponctuelles, les petites insertions et délétions, mais aussi les réarrangements chromosomiques induits par la recombinaison ectopique de l'ADN, comme les inversions, les translocations, les grandes délétions et les duplications. Nous supposons par commodité que la taille des segments réarrangés suit une loi uniforme, mais le principal résultat analytique est ensuite généralisé à d'autres dis- tributions. Les mutations étant susceptibles de changer le nombre de gènes et la quantité d'ADN intergénique, le génome est libre de varier en taille et en compacité, ce qui nous permet d'étudier l'influence des taux de mutation sur la structure génomique à l'équilibre. Dans la première partie de la thèse, nous proposons une analyse mathématique dans le cas où il n'y a pas de sélection, c'est-à-dire lorsque la probabilité de reproduction est identique quelle que soit la structure du génome. En utilisant le théorème de Doeblin, nous montrons qu'une distribution stationnaire existe pour la taille du génome si le taux de duplications par base et par génération n'excède pas 2.58 fois le taux de grandes délétions. En effet, sous les hypothèses du modèle, ces deux types de mutation déterminent la dynamique spontanée du génome, alors que les petites insertions et petites délétions n'ont que très peu d'impact. De plus, même si les tailles des duplications et des grandes délétions sont distribuées de façon parfaitement symétriques, leur effet conjoint n'est, lui, pas symétrique et les délétions l'emportent sur les duplications. Ainsi, si les tailles de délétions et de duplications sont distribuées uniformément, il faut, en moyenne, plus de 2.58 duplications pour compenser une grande délétion. Il faut donc que le taux de duplications soit quasiment trois fois supérieur au taux de délétions pour que la taille des génomes croisse à l'infini. L'impact des grandes délétions est tel que, sous les hypothèses du modèle, ce dernier résultat reste valide même en présence d'un mécanisme de sélection favorisant directement l'ajout de nouveaux gènes. Même si un tel mécanisme sélectif devrait intuitivement pousser les génomes à grandir infiniment, en réalité, l'influence des délétions va rapidement limiter leur accroissement. En résumé, l'étude analytique prédit que les grands réarrangements délimitent un ensemble de tailles stables dans lesquelles les génomes peuvent évoluer, la sélection influençant la taille précise à l'équilibre parmi cet ensemble de tailles stables. Dans la deuxième partie de la thèse, nous implémentons le modèle numériquement afin de pouvoir simuler l'évolution de la taille du génome en présence de sélection. En choisissant une fonction de fitness non bornée et strictement croissante avec le nombre de gènes dans le génome, nous testons le comportement du modèle dans des conditions extrêmes, poussant les génomes à croître indéfiniment. Pourtant, dans ces conditions, le modèle numérique confirme que la taille des génomes est essentiellement contrôlée par les taux de duplications et de grandes délétions. De plus, cette limite concerne la taille totale du génome et s'applique donc aussi bien au codant qu'au non codant. Nous retrouvons en particulier le seuil de 2.58 duplications pour une délétion en deçà duquel la taille des génomes reste finie, comme prévu analytiquement. Le modèle numérique montre même que, dans certaines conditions, la taille moyenne des génomes diminue lorsque le taux de duplications augmente, un phénomène surprenant lié à l'instabilité structurelle des grands génomes. De façon similaire, augmenter l'avantage sélectif des grands génomes peut paradoxalement faire rétrécir les génomes en moyenne. Enfin, nous montrons que si les petites insertions et délétions, les inversions et les translocations ont un effet limité sur la taille du génome, ils influencent très largement la proportion d'ADN non codant.
14

Ait, Salaht Farah. "Chaînes de Markov Incomplètement spécifiées : analyse par comparaison stochastique et application à l'évaluation de performance des réseaux." Thesis, Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions les problèmes d'incertitudes dans les modèles probabilistes et tentons de déterminer leur impact sur l'analyse de performances et le dimensionnement des systèmes. Nous considérons deux aspects du problème d'imprécision. Le premier, consiste à étudier des chaînes en temps discret dont les probabilités ou taux de transition ne sont pas parfaitement connus. Nous construisons de nouveaux algorithmes de calcul de bornes par éléments sur les vecteurs de distribution stationnaires de chaînes partiellement spécifiées. Ces algorithmes permettent de déterminer des bornes par élément à chaque étape de calcul. Le second aspect étudié concerne le problème de mesures de traces de trafic réelles dans les réseaux. Souvent très volumineuses, la modélisation des traces de trafic est généralement impossible à effectuer de façon suffisamment précise et l'adéquation avec une loi de probabilité connue n'est pas assez réaliste. Utilisant une description par histogramme du trafic, nous proposons d'appliquer une nouvelle méthode d’évaluation de performance des réseaux. Fondée sur la comparaison stochastique pour construire des bornes optimales de supports réduits des histogrammes de trafics et sur la notion de monotonie stochastique des éléments de réseau, cette méthode permet de définir, de manière très pertinente, des garanties sur les mesures de performance. Nous obtenons en effet des bornes stochastiques supérieures et inférieures sur la longueur du tampon, les pertes, etc. L'intérêt et l'impact de notre méthode sont présentés sur diverses applications : éléments de réseau, AQM, réseaux de files d'attente, file avec processus d'arrivée non-stationnaire, etc
This thesis is devoted to the uncertainty in probabilistic models, how it impacts their analysis and how to apply these methods to performance analysis and network dimensioning. We consider two aspects of the uncertainty. The first consists to study a partially specified Markov chains. The missing of some transitions in the exact system because of its complexity can be solved by constructing bounding systems where worst-case transitions are defined to obtain an upper or a lower bound on the performance measures. We propose to develop new algorithms which give element-wise bounds of the steady-state distribution for the partially specified Markov chain. These algorithms are faster than the existing ones and allow us to compute element-wise bounds at each iteration.The second aspect studied concerns the problem of the measurements of real traffic trace in networks. Exact analysis of queueing networks under real traffic becomes quickly intractable due to the state explosion. Assuming the stationarity of flows, we propose to apply the stochastic comparison method to derive performance measure bounds under histogram-based traffics. We apply an algorithm based on dynamic programming to derive optimal bounding traffic histograms on reduced state spaces. Using the stochastic bound histograms and the monotonicity of the networking elements, we show how we can obtain, in a very efficient manner, guarantees on performance measures. We indeed obtain stochastic upper and lower bounds on buffer occupancy, losses, etc. The interest and the impact of our method are shown on various applications: elements of networks, AQM, queueing networks and queue with non-stationary arrival process
15

Jaeckel, Alain. "Simulations Monte Carlo de chaînes confinées." Montpellier 2, 1997. http://www.theses.fr/1997MON20206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Par simulation monte carlo (smc), nous generons a l'ordinateur des chemins statistiques (rfws) ou auto-evitants (saws) a l'interieur de pores spheriques de rayons variables. Ces chemins modelisent respectivement des chaines polymere confinees en solvant theta et en bon solvant. A partir des chaines ainsi construites, on estime les dimensions moyennes usuelles (distance moyenne bout a bout et rayon de giration moyen), les distributions des milieux et des extremites ou tous maillons confondus dans la sphere de confinement, la variation d'entropie en fonction du confinement impose et enfin la pression exercee par la chaine sur la surface de confinement. Nous donnons egalement une relation universelle entre le nombre de conformations d'une chaine de n pas, quel que soit son type, et un parametre de compacite determine par smc. Nous proposons aussi une extension de la theorie des blobs de de gennes. Nous discutons nos resultats au vu de resultats theoriques ou de publications anterieures. Nous etablissons l'existence de lois d'echelle, moyennant l'utilisation de parametres de reduction specifiques a chaque type de chaines (rfws ou saws), et montrons que rfws et saws presentent des comportements comparables pour des valeurs egales du rayon reduit de la sphere de confinement. Ainsi, certaines proprietes des saws confines dans des spheres peuvent etre deduits des resultats theoriques plus accessibles des rfws confines en tenant compte d'une simple renormalisation des dimensions, et ce avec un degre d'approximation satisfaisant, voire bon. Nous etendons nos smc au cas des parcours hamiltoniens dont le nombre peut etre estime, pour un carre de cote donne, via l'utilisation d'une loi d'echelle empirique que nous avons etablie. Enfin, nous avons cherche a elucider un vieux probleme de la litterature qui concerne l'exposant d'echelle et la dimension critique des chaines auto-evitantes generees par la procedure reflechissante non ponderee de rosenbluth et rosenbluth.
16

GRANDIS, HENDRA. "Imagerie electromagnetique bayesienne par la simulation d'une chaine de markov." Paris 7, 1994. http://www.theses.fr/1994PA077036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail presente dans cette these concerne le developpement d'une methode de resolution du probleme inverse en electromagnetisme dans le cadre d'une approche bayesienne. Dans cette perspective, la solution du probleme inverse est obtenue par l'integration de toutes les informations disponibles sur les donnees et sur les parametres du modele. Nous utilisons un algorithme stochastique pour calculer la probabilite a posteriori des parametres du modele connaissant les donnees et l'information a priori sur les parametres du modele. Une serie de modeles est construite en utilisant une loi de probabilite calculable directement pour les differentes valeurs possibles des parametres du modele. Ces modeles constituent une chaine de markov dont la probabilite invariante est la probabilite a posteriori des parametres du modele recherche. Ainsi, les modeles obtenus convergent vers un modele invariant ou modele inverse. Deux algorithmes d'imagerie ont ete developpes pour obtenir l'image electrique du sous-sol a partir de donnees electromagnetiques pour, d'une part, des structures uni-dimensionnelles, et d'autre part, des structures tri-dimensionnelles dans l'approximation de plaque mince. Nous avons etudie l'influence de quelques parametres preponderants sur la resolution du probleme inverse. Les tests sur des donnees synthetiques ont montre qu'il est necessaire d'adapter l'algorithme de base afin d'assurer la stabilite et la convergence de la solution. Les inversions de donnees reelles de nature differente (tenseur d'impedance, vecteur d'induction et resistivite apparente) justifient la validite de la methode proposee
17

Bercu, Sophie. "Modélisation stochastique du signal écrit par chaînes de Markov cachées : application à la reconnaissance automatique de l'écriture manuscrite." Rennes 1, 1994. http://www.theses.fr/1994REN10115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec le développement récent du multi-media et le désir de rendre la communication homme-machine plus naturelle et plus conviviale, de nouvelles interfaces orientées stylo sont apparues. L'acquisition des données se fait alors par l'intermédiaire d'un papier électronique et d'un stylo. Dans le cadre de l'interface entre la tablette et l'ordinateur, nous présentons dans cette thèse un système de reconnaissance en-ligne de mots dans un vocabulaire limité. La difficulté de la reconnaissance de l'écriture cursive manuscrite provient du degré important de variabilité inter- et intra-scripteur. Notre souci est de tenir compte de cette variabilité a tous les niveaux du traitement: lors du pretraitement, de l'extraction de primitives et enfin de la reconnaissance. Le pretraitement proposé reduit la quantité d'informations à analyser sans toutefois perdre d'informations pertinentes pour la reconnaissance du mot. Le choix des primitives constitue l'une des originalités de ce travail car elles tiennent compte des mécanismes de l'écriture ce qui élargit la reconnaissance a un grand nombre de scripteurs. La reconnaissance des mots est mise en oeuvre par l'intermédiaire d'un modèle de Markov caché construit à partir de ces primitives. Ce modèle est particulièrement bien adapté à notre problème: il permet d'intégrer différentes sources de connaissances nécessaires à la reconnaissance des mots et de par sa structure aléatoire, modélisé au mieux les phénomènes de variabilité de l'écriture. Les résultats obtenus attestent de l'intérêt et de l'efficacité de cette approche
18

Albert, Isabelle. "Inférence bayesienne par les methodes de Monte Carlo par chaînes de Markov et arbres de régression pour l'analyse statistique des données corrélées." Paris 11, 1998. http://www.theses.fr/1998PA11T020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’analyse statistique des données corrélées permet l'étude des schémas d'échantillonnage comportan une structure de groupe. Les modèles marginaux et à effets mixtes, qui constituent des extensions des modèles linéaires généralisés, ont été proposés dans ce contexte pour prendre en compte la non indépendance des observations. Nous considérons deux approches : une inférence bayésienne des modèles à effets mixtes par les méthodes de Monte Carlo par chaînes de Markov (MCMC) et une méthode de régression arborescente (CART) pour l'analyse des données censurées corrélées. La première partie est consacrée à l'étude de l’approche bayésienne par les méthodes MCMC. Les principes de l'inférence bayésienne, des méthodes MCMC et leurs apports lors des étapes-clés d'une analyse de régression (estimation, comparaison, adéquation des modèles et étude de prédiction) sont étudiés. Cette méthode d'estimation est utilisée pour l'étude des accidents allergiques survenant au cours d'échanges plasmatiques. Nous proposons dans la seconde partie une nouvelle méthode de type CART pour l'analyse des données censurées corrélées. Cette méthode utilise des tests du log-rank robustes à une spécification inadéquate de la structure de corrélation des données, et un critère BIC corrigé pour le choix de l'arbre final. La méthode développée a été étudiée par simulation et appliquée à des données réelles concernant une maladie génétique, le Syndrome d'Alport.
19

Auger, Anne. "Contributions théoriques et numériques à l'optimisation continue par algorithmes évolutionnaires." Paris 6, 2004. http://www.theses.fr/2004PA066510.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Melo, De Lima Christelle. "Développement d'une approche markovienne pour l'analyse de l'organisation spatiale des génomes." Phd thesis, Université Claude Bernard - Lyon I, 2005. http://tel.archives-ouvertes.fr/tel-00011674.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le séquençage à grande échelle a permis d'accéder aux génomes complets de nombreux organismes. Les modèles de Markov cachés sont une des méthodes probabilistes les plus utilisées pour l'analyse des séquences. L'objectif de ces travaux est de participer à l'analyse de l'organisation et à la compréhension de l'évolution des génomes. Une méthode de prédiction des isochores adaptée au génome humain a été développée. L'originalité de cette approche consiste à identifier des ruptures d'homogénéité des séquences mais surtout leurs causes biologiques, comme l'influence des régions UTRs lors du classement des gènes dans un isochore. Cette méthode a ensuite été appliquée au génome du tetraodon, pour lequel l'existence d'une structure en mosaïque nouvelle le long de son génome a été mise en évidence.
21

Benseba, Nadjet. "Etude algorithmique des chaînes de markov de type GI/M/1 et analyse des performances d'un système de fabrication par lots." Doctoral thesis, Universite Libre de Bruxelles, 1996. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212437.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Muri, Florence. "Comparaison d'algorithmes d'identification de chaînes de Markov cachées et application a la détection de régions homogènes dans les séquences d'ADN." Paris 5, 1997. http://www.theses.fr/1997PA05S008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec les rapides projets de séquençage de génomes d'organismes divers, les biologistes disposent d'un nombre croissant de séquences d’ADN et sont à la recherche d'outils statistiques leur permettant d'analyser toute cette information. L'un des problèmes concerne la non prise en compte dans la modélisation de l'hétérogénéité observée dans une séquence d’ADN. Notre but est d'utiliser un modèle, expliquant au mieux cette hétérogénéité, pour délimiter les régions homogènes de la séquence étudiée. La détection de ces régions est importante d'un point de vue biologique car elle est susceptible de révéler des différences fonctionnelles ou structurelles à l'intérieur du génome. L'approche statistique que nous proposons s'appuie sur les modèles de chaines de Markov cachées. Ces modèles supposent que la séquence peut être découpée en plages homogènes, dont on ignore a priori la taille et la position, et que l'on dispose d'un nombre fini q de modèles qui s'ajustent de façon satisfaisante sur chacune de ces plages. La succession des plages est gérée par une chaine de Markov non observée à q états (la chaine de Markov cachée). Il s'agit alors de reconstruire ces plages à partir de la séquence observée et d'estimer les paramètres des q modèles régissant chacune d'entre elles. Le problème statistique est donc un problème à données manquantes et de mélange. Nous comparons différentes procédures d'identification des chaines cachées : l'algorithme em et ses deux versions stochastiques, sem et em à la Gibbs, pour une estimation par maximum de vraisemblance. Nous proposons également une estimation bayésiennes utilisant l'échantillonnage de Gibbs. Les performances de ces algorithmes sont comparées à l'aide de simulations. Ces méthodes sont finalement utilisées pour identifier des régions homogènes des séquences d’ADN des bactériophages lambda et bil67, du virus hiv1 et de la bactérie b. Subtilis.
23

Djerroud, Dalila. "Modélisation markovienne du séchage continu par contact avec agitation." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0111/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un procédé de séchage, l'évacuation de l'eau induit des modifications structurelles et physicochimiques qui engendrent des difficultés d'écoulement dans le séchoir. Cette étude a porté sur la modélisation du séchage continu par contact avec agitation. Nous avons développé un modèle markovien pour décrire les transferts de masse, de chaleur et l'écoulement dans un séchoir continu. Les paramètres d'entrée du modèle ont été déterminés expérimentalement sur un produit pâteux, tandis que d'autres paramètres ont été obtenus à partir de la littérature scientifique. L'étude de sensibilité de la teneur en eau et de la masse sèche retenue dans le séchoir a permis d'analyser et de hiérarchiser les effets des différentes variables opératoires. Enfin, nous avons étudié l'influence des variables opératoires sur le profil de teneur en eau, le temps de passage et les courbes de distribution de temps de séjours simulées. L'évolution structurelle du produit a été mise en évidence dans le modèle
In a drying process, the evacuation of water induced structural and physico-chemical modifications that generate difficulties of flow in the dryer. This study focused on the modeling of agitated indirect continuous dryer. We developed a Markov model to describe the mass transfer, heat transfer and flow in a continuous dryer. The input parameters of the model were determined experimentally on a pasty product, while other parameters were obtained from the scientific literature. The sensitivity study of the moisture content and dry mass retained in the dryer was used to analyze and treat on a hierarchical basis the effects of different operating variables. Finally, we studied the influence of variables operating on the profile of moisture content, the passage time and the simulated curves of residence time distribution. The structural evolution of the product was considered in the model
24

Sarac, Aysegul. "Modélisation et aide à la décision pour l'introduction des technologies RFID dans les chaînes logistiques." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00541012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les technologies RFID présentent des avantages non négligeables en comparaison aux technologies d'identification actuelles. Cependant, l'intégration de ces technologies dans les chaînes logistiques implique souvent des coûts élevés. Ainsi, les entreprises doivent conduire des analyses poussées pour évaluer l'impact des RFID sur le fonctionnement et l'économie des chaînes logistiques et décider de l'intégration ou non de ces technologies.Dans cette thèse nous nous concentrons sur la modélisation et l'analyse de l'introduction des technologies RFID dans les chaînes logistiques. Nous présentons d'abord une information générale sur les technologies RFID. Nous analysons ensuite la littérature sur l'intégration des RFID dans les chaînes logistiques en focalisant sur les défis et les avantages liés à l'intégration de ces technologies. Nous développons deux approches (analytique et par simulation) afin d'évaluer les impacts qualitatifs et quantitatifs des technologies RFID sur le fonctionnement et le profit des chaînes logistiques. Nous développons aussi une analyse du retour sur investissement (ROI), pour comparer les revenus obtenus à l'aide des technologies RFID avec les coûts associés à leur intégration. D'autre part, nous nous intéressons à l'amélioration des avantages de RFID dans les chaînes logistiques. Nous comparons les impacts de l'intégration de différentes RFID dans les chaînes logistiques par un remplacement simple des technologies d'identification actuelles et par la réorganisation des chaînes logistiques utilisant les nouvelles possibilités des technologies RFID. Les résultats obtenus dans ce travail mettent en évidence des perspectives intéressantes pour des études futures. L'originalité de cette étude est que nous comparons les impacts de plusieurs technologies RFID en les intégrant aux systèmes actuels et en reconstruisant des chaînes logistique grâce aux possibilités offertes par des technologies RFID. Notre modèle de simulation à événements discrets peut être utilisé comme un outil d'aide à la décision pour les sociétés qui visent à intégrer des technologies RFID.L'originalité de cette étude est que nous comparons les impacts de plusieurs technologies RFID en les intégrant aux systèmes actuels et en reconstruisant des chaînes logistique par les possibilités offertes par des technologies RFID. Notre simulation peut être utilisée comme un outil d'aide à la décision pour les sociétés qui considèrent l'intégration de technologies RFID.
25

Platis, Agapios. "Modélisation de la sûreté de fonctionnement par des chaînes de Markov non-homogènes : application à la modélisation de la fiabilité d'un poste électrique." Compiègne, 1997. http://www.theses.fr/1997COMP1076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal de cette thèse est de proposer des méthodes permettant de prendre en compte la variation en fonction du temps des paramètres de fonctionnement et de dysfonctionnement pour les études de sûreté de fonctionnement des postes électriques. Un modèle permettant de tenir compte de toutes ces variations est une modélisation par chaînes de Markov non homogènes (CMNH), objet mathématique peu étudié jusqu'a présent dans le domaine de la sureté de fonctionnement. Dans un premier temps, les différences majeures entre les processus de Markov homogènes et non-homogènes sont établies. En particulier, le temps d'entrée a une moyenne finie sous des conditions bien plus complexes que dans le cas homogène. Nous avons donc passé en revue tout un ensemble d'indicateurs de fiabilité et plus généralement de performativité, exprimés d'abord en terme de chaînes de Markov non homogènes quelconques, puis dans un cas particulier de type cyclique. Nous avons également donné des éléments pour l'analyse de l'erreur provoquée par l'utilisation d'un modèle homogène comme approximation d'un modèle non-homogène. Une partie importante du travail est aussi le développement de mesures de performativité spécifiques aux systèmes électriques, en intégrant non seulement les effets des défaillances mais également des mesures de type "cout" beaucoup plus riches. D'autres sujets fondamentaux sont abordés, tels que les processus markoviens non-homogènes ou les processus semi-markoviens, pour compléter le parcours d'outils mathématiques disponibles dans le domaine. Finalement, nous montrons, chiffres à l'appui, l'apport que l'on peut attendre des modèles non-markoviens par rapport aux processus markoviens classiques, sur un cas réel de système électrique.
26

Joubaud, Maud. "Processus de Markov déterministes par morceaux branchants et problème d’arrêt optimal, application à la division cellulaire." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS031/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus markoviens déterministes par morceaux (PDMP) forment une vaste classe de processus stochastiques caractérisés par une évolution déterministe entre des sauts à mécanisme aléatoire. Ce sont des processus de type hybride, avec une composante discrète de mode et une composante d’état qui évolue dans un espace continu. Entre les sauts du processus, la composante continue évolue de façon déterministe, puis au moment du saut un noyau markovien sélectionne la nouvelle valeur des composantes discrète et continue. Dans cette thèse, nous construisons des PDMP évoluant dans des espaces de mesures (de dimension infinie), pour modéliser des population de cellules en tenant compte des caractéristiques individuelles de chaque cellule. Nous exposons notre construction des PDMP sur des espaces de mesure, et nous établissons leur caractère markovien. Sur ces processus à valeur mesure, nous étudions un problème d'arrêt optimal. Un problème d'arrêt optimal revient à choisir le meilleur temps d'arrêt pour optimiser l'espérance d'une certaine fonctionnelle de notre processus, ce qu'on appelle fonction valeur. On montre que cette fonction valeur est solution des équations de programmation dynamique et on construit une famille de temps d'arrêt $epsilon$-optimaux. Dans un second temps, nous nous intéressons à un PDMP en dimension finie, le TCP, pour lequel on construit un schéma d'Euler afin de l'approcher. Ce choix de modèle simple permet d'estimer différents types d'erreurs. Nous présentons des simulations numériques illustrant les résultats obtenus
Piecewise deterministic Markov processes (PDMP) form a large class of stochastic processes characterized by a deterministic evolution between random jumps. They fall into the class of hybrid processes with a discrete mode and an Euclidean component (called the state variable). Between the jumps, the continuous component evolves deterministically, then a jump occurs and a Markov kernel selects the new value of the discrete and continuous components. In this thesis, we extend the construction of PDMPs to state variables taking values in some measure spaces with infinite dimension. The aim is to model cells populations keeping track of the information about each cell. We study our measured-valued PDMP and we show their Markov property. With thoses processes, we study a optimal stopping problem. The goal of an optimal stopping problem is to find the best admissible stopping time in order to optimize some function of our process. We show that the value fonction can be recursively constructed using dynamic programming equations. We construct some $epsilon$-optimal stopping times for our optimal stopping problem. Then, we study a simple finite-dimension real-valued PDMP, the TCP process. We use Euler scheme to approximate it, and we estimate some types of errors. We illustrate the results with numerical simulations
27

Saint, Pierre Guillaume. "Identification du nombre de composants d'un mélange gaussien par chaînes de Markov à sauts réversibles dans le cas multivarié ou par maximun de vraisemblance dans le cas univarié." Toulouse 3, 2003. http://www.theses.fr/2003TOU30128.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Kadi, Imène Yamina. "Simulation et monotonie." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse portent sur l'apport de la monotonie sur les méthodes de simulations. Dans un premier temps, nous nous intéressons à l'étude des différentes notions de monotonie utilisées dans la modélisation stochastique, en essayant de définir les relations qui existent entre elles. Trois concepts ont été définis dans ce domaine: la monotonie stochastique basée sur la comparaison stochastique, la monotonie réalisable et enfin, la monotonie événementielle utilisée dans la simulation parfaite. Cette étude a permis d'utiliser les propriétés de monotonie stochastique dans le cadre de la simulation parfaite monotone. D'un autre coté, nous avons proposé des codages monotones inversibles pour des systèmes dont la représentation naturelle est non monotone. Ce codage permet d'accélérer les simulations monotones et a trouvé son application dans la simulation de burst optiques. Un autre travail a été réalisé, cette fois-ci, dans le domaine de la simulation parallèle, il consiste à utiliser les propriétés de monotonie des systèmes simulés afin de mieux paralléliser le processus de simulation. Ce qui devrait produire une accélération conséquente des simulations
The work of this thesis concern the contribution of the monotony in simulation methods. Initially, we focus on the study of different monotonicity notions used in stochastic modeling, trying to define the relationships between them. Three concepts have been defined in this field: the stochastic monotonicity based on stochastic comparison, the realizable monotony and finally the events monotony used in the perfect simulation. This study allowed us to use the stochastic monotonicity properties under the monotone perfect simulation. On the other hand, we have proposed monotone invertible encodings for systems whose natural representation is not monotone. This encoding allows to accelerate monotonous simulations and found its application in the simulation of optical burst. Another work was done in the field of parallel simulation, it use monotonicity properties of simulated systems to better parallelize the simulation process. This should produce a substantial acceleration in simulations
29

Delescluse, Matthieu. "Une approche Monte Carlo par Chaînes de Markov pour la classification des potentiels d'action. Application à l'étude des corrélations d'activité des cellules de Purkinje." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00011123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour être réellement exploitables, les données d'enregistrements extracellulaires multiunitaires doivent faire l'objet d'un traitement préalable visant à isoler les activités neuronales individuelles qui les constituent: le spike-sorting. Ce travail de thèse est une contribution au développement et à la réalisation d'une méthode automatique de spike-sorting implémentant un algorithme de Monte Carlo par Chaînes de Markov (MCMC). La méthode proposée permet de tenir compte, en plus de la forme des potentiels d'action (PAs), de l'information fournie par leurs temps d'émission pour réaliser la classification. Cette utilisation de l'information temporelle rend possible l'identification automatique de neurones émettant des PAs de formes non stationnaires. Elle améliore aussi grandement la séparation de neurones aux PAs de formes similaires. Ce travail méthodologique à débouché sur la création d'un logiciel libre accompagné de son manuel d'utilisateur.

Cette méthode de spike-sorting a fait l'objet d'une validation expérimentale sur des populations de cellules de Purkinje (PCs), dans les tranches de cervelet de rat. Par ailleurs, l'étude des trains de PAs de ces cellules fournis par le spike-sorting, n'a pas révélé de corrélations temporelles significatives en régime spontané, en dépit de l'existence d'une inhibition commune par les interneurones de la couche moléculaire et d'une inhibition directe de PC à PC. Des simulations ont montré que l'influence de ces inhibitions sur les relations temporelles entre les trains de PCs était trop faible pour pouvoir être détectée par nos méthodes d'analyse de corrélations. Les codes élaborés pour l'analyse des trains de PAs sont également disponibles sous la forme d'un second logiciel libre.
30

Delescluse, Matthieu. "Une approche Monte Carlo par chaînes de Markov pour la classification des potentiels d' action : application à l' étude des corrélations d' activité des cellules de Purkinje." Paris 6, 2005. http://www.theses.fr/2005PA066493.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Keinj, Roukaya. "Modélisation de la croissance d'une tumeur après traitement par radiothérapie." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00671961.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons proposé dans cette thèse une nouvelle approche de modélisation des réponses cellulaire et tumorale durant la radiothérapie. Cette modélisation est fondée sur les chaînes de Markov. Elle se situe dans le cadre de la théorie de cible qui suppose qu'il existe dans la cellule des régions sensibles appelées cibles, qui doivent toutes être désactivées pour tuer la cellule. Un premier travail est consisté à proposer un modèle à temps discret en tenant compte non seulement des phases de réparations cellulaires entre les fractions de dose mais également de l'hétérogénéité des dommages cellulaires. Nous avons ensuite proposé un modèle stochastique de la durée de vie cellulaire. Cette modélisation fut également étendue à une population de cellules et a permis d'établir de nouvelles expressions des probabilités d'eﰓcacité et de complication thérapeutique. Nos derniers travaux portent sur le développement d'un modèle de type chaîne de Markov à temps continu qui pourrait être appliqué aux réponses des tumeurs traitées par la thérapie photodynamique.
32

Jebalia, Mohamed. "Optimisation par stratégies d'évolution : convergence et vitesses de convergence pour des fonctions bruitées : résolution d'un problème d'identification." Paris 6, 2008. http://www.theses.fr/2008PA066607.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Azaïs, Romain. "Estimation non paramétrique pour les processus markoviens déterministes par morceaux." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00844395.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
M.H.A. Davis a introduit les processus markoviens déterministes par morceaux (PDMP) comme une classe générale de modèles stochastiques non diffusifs, donnant lieu à des trajectoires déterministes ponctuées, à des instants aléatoires, par des sauts aléatoires. Dans cette thèse, nous présentons et analysons des estimateurs non paramétriques des lois conditionnelles des deux aléas intervenant dans la dynamique de tels processus. Plus précisément, dans le cadre d'une observation en temps long de la trajectoire d'un PDMP, nous présentons des estimateurs de la densité conditionnelle des temps inter-sauts et du noyau de Markov qui gouverne la loi des sauts. Nous établissons des résultats de convergence pour nos estimateurs. Des simulations numériques pour différentes applications illustrent nos résultats. Nous proposons également un estimateur du taux de saut pour des processus de renouvellement, ainsi qu'une méthode d'approximation numérique pour un modèle de régression semi-paramétrique.
34

Raba, Adam. "Modélisation et simulation des réponses électriques de cellules solaires organiques." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD012/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le principal objectif de ce travail est d’étudier les cellules solaires organiques de type hétérojonction en volume à l’aide d’un modèle bidimensionnel spécifique incluant un état intermédiaire pour la dissociation des charges dans les matériaux organiques. Ce modèle est mis en place dans un logiciel de simulation par éléments finis. Après validation, il est comparé à deux approches existant dans la littérature. Le grand nombre de paramètres requis pour décrire le mécanisme complexe de génération de charges nécessite un algorithme robuste, basé sur l’exploitation de chaînes de Markov, pour extraire ces paramètres physiques à partir de données expérimentales. Le modèle ainsi que la procédure d’extraction de paramètres sont utilisés dans un premier temps pour étudier le mécanisme de dissociation associé à une cellule comportant une nouvelle molécule. Ensuite le comportement en température de cellules à base de P3HT : PCBM est simulé et comparé à des mesures expérimentales
The main objective of this work is to study bulk heterojunction organic solar cells with a specific two dimensional model that takes into account an intermediate state specific to organic materials. The model is solved numerically by a finite element software. After its validation, it is compared to two existing approaches in the literature. The large number of parameters needed to describe the complex charge generation mechanism requires a robust parameter extraction algorithm, based on the operation of Markov chains, in order to extract these physical parameters from experimental characterizations. The model and the parameter extraction method are then used to study the charge dissociation mechanism of a cell with a newly synthesized molecule. Finally, the temperature evolution of P3HT : PCBM solar cells are simulated and compared to experimental measurements
35

Votsi, Irène. "Evaluation des risques sismiques par des modèles markoviens cachés et semi-markoviens cachés et de l'estimation de la statistique." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le premier chapitre présente les axes principaux de recherche ainsi que les problèmes traités dans cette thèse. Plus précisément, il expose une synthèse sur le sujet, en y donnant les propriétés essentielles pour la bonne compréhension de cette étude, accompagnée des références bibliographiques les plus importantes. Il présente également les motivations de ce travail en précisant les contributions originales dans ce domaine. Le deuxième chapitre est composé d’une recherche originale sur l’estimation du risque sismique, dans la zone du nord de la mer Egée (Grèce), en faisant usage de la théorie des processus semi-markoviens à temps continue. Il propose des estimateurs des mesures importantes qui caractérisent les processus semi-markoviens, et fournit une modélisation dela prévision de l’instant de réalisation d’un séisme fort ainsi que la probabilité et la grandeur qui lui sont associées. Les chapitres 3 et 4 comprennent une première tentative de modélisation du processus de génération des séismes au moyen de l’application d’un temps discret des modèles cachés markoviens et semi-markoviens, respectivement. Une méthode d’estimation non paramétrique est appliquée, qui permet de révéler des caractéristiques fondamentales du processus de génération des séismes, difficiles à détecter autrement. Des quantités importantes concernant les niveaux des tensions sont estimées au moyen des modèles proposés. Le chapitre 5 décrit les résultats originaux du présent travail à la théorie des processus stochastiques, c’est- à-dire l’étude et l’estimation du « Intensité du temps d’entrée en temps discret (DTIHT) » pour la première fois dans des chaînes semi-markoviennes et des chaînes de renouvellement markoviennes cachées. Une relation est proposée pour le calcul du DTIHT et un nouvel estimateur est présenté dans chacun de ces cas. De plus, les propriétés asymptotiques des estimateurs proposés sont obtenues, à savoir, la convergence et la normalité asymptotique. Le chapitre 6 procède ensuite à une étude de comparaison entre le modèle markovien caché et le modèle semi-markovien caché dans un milieu markovien et semi-markovien en vue de rechercher d’éventuelles différences dans leur comportement stochastique, déterminé à partir de la matrice de transition de la chaîne de Markov (modèle markovien caché) et de la matrice de transition de la chaîne de Markov immergée (modèle semi-markovien caché). Les résultats originaux concernent le cas général où les distributions sont considérées comme distributions des temps de séjour ainsi que le cas particulier des modèles qui sont applique´s dans les chapitres précédents où les temps de séjour sont estimés de manière non-paramétrique. L’importance de ces différences est spécifiée à l’aide du calcul de la valeur moyenne et de la variance du nombre de sauts de la chaîne de Markov (modèle markovien caché) ou de la chaîne de Markov immergée (modèle semi-markovien caché) pour arriver dans un état donné, pour la première fois. Enfin, le chapitre 7 donne des conclusions générales en soulignant les points les plus marquants et des perspectives pour développements futurs
The first chapter describes the definition of the subject under study, the current state of science in this area and the objectives. In the second chapter, continuous-time semi-Markov models are studied and applied in order to contribute to seismic hazard assessment in Northern Aegean Sea (Greece). Expressions for different important indicators of the semi- Markov process are obtained, providing forecasting results about the time, the space and the magnitude of the ensuing strong earthquake. Chapters 3 and 4 describe a first attempt to model earthquake occurrence by means of discrete-time hidden Markov models (HMMs) and hidden semi-Markov models (HSMMs), respectively. A nonparametric estimation method is followed by means of which, insights into features of the earthquake process are provided which are hard to detect otherwise. Important indicators concerning the levels of the stress field are estimated by means of the suggested HMM and HSMM. Chapter 5 includes our main contribution to the theory of stochastic processes, the investigation and the estimation of the discrete-time intensity of the hitting time (DTIHT) for the first time referring to semi-Markov chains (SMCs) and hidden Markov renewal chains (HMRCs). A simple formula is presented for the evaluation of the DTIHT along with its statistical estimator for both SMCs and HMRCs. In addition, the asymptotic properties of the estimators are proved, including strong consistency and asymptotic normality. In chapter 6, a comparison between HMMs and HSMMs in a Markov and a semi-Markov framework is given in order to highlight possible differences in their stochastic behavior partially governed by their transition probability matrices. Basic results are presented in the general case where specific distributions are assumed for sojourn times as well as in the special case concerning the models applied in the previous chapters, where the sojourn time distributions are estimated non-parametrically. The impact of the differences is observed through the calculation of the mean value and the variance of the number of steps that the Markov chain (HMM case) and the EMC (HSMM case) need to make for visiting for the first time a particular state. Finally, Chapter 7 presents concluding remarks, perspectives and future work
36

Elhamdi, Mourad. "Modélisation et simulation de chaînes de valeurs en entreprise : une approche dynamique des systèmes et aide à la décision SimulValor." Phd thesis, Ecole Centrale Paris, 2005. http://tel.archives-ouvertes.fr/tel-00011950.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le décideur en entreprise, lors de la prise d'une décision, se trouve généralement en face de la situation suivante : il dispose d'un ensemble d'alternatives qui sont des combinaisons de variables d'action ; et il lui est demandé d'atteindre un certain nombre d'objectifs qui sont caractérisés par un nombre plus ou moins élevé d'indicateurs de performance. Ces objectifs couvrent l'ensemble des relations de l'entreprise avec les différentes parties bénéficiaires des résultats de ses activités et avec lesquelles elle interagit. L'objet des indicateurs de performance est de mesurer la réussite de l'entreprise à répondre aux attentes et besoins de ces parties : clients, actionnaires, personnel, collectivité... et à ses propres attentes.
Le décideur a besoin d'évaluer chacune des alternatives selon chacun des critères de choix retenus et qui représentent les objectifs à atteindre, et d'évaluer globalement chacune de ces alternatives selon l'ensemble des critères.
Ce travail se place dans le contexte d'aide à la décision managériale de haut niveau où les actions sont des projets potentiels de développement des activités de l'entreprise. L'approche proposée, désignée par SimulValor, utilise la dynamique des systèmes pour modéliser et simuler les alternatives d'action et en évaluer les performances ; et elle utilise la théorie de l'utilité pour l'agrégation de ces performances.
En résumé, l'approche SimulValor vise l'évaluation de différentes alternatives d'action concernant la configuration des activités de l'entreprise en simulant les flux de valeurs qui lient les actions aux performances et les performances aux valeurs générées aux parties bénéficiaires. La difficulté principale de la méthode est l'extraction, l'harmonisation et la quantification des données qualitatives qui caractérisent les liens d'influences (et surtout les fonctions d'utilité) existants entre les éléments modélisés.
37

Prevost, Guillaume. "Modélisation d'écosystèmes multi-niveaux par des systèmes mixtes." Le Havre, 2005. http://www.theses.fr/2005LEHA0053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous allons présenter dans ce document un méta-modèle d'écosystème aquatique par des approches mixtes (équationnelles ou individu-centrée). Les écosystèmes sont complexes. Pour cela, notre modèle s'attache à représenter de façon optimale les interactions qui ont lieu à divers niveau d'observation. De plus, nous proposons un méta-modèle holarchique, multi-niveaux et mixte permettant de modéliser tous types de phénomènes suivant la connaissance que l'on en a. De plus, afin de rendre accessible et utilisable ce modèle, nous fournissons une ontologie le décrivant et précisons son utilisation dans ce mémoire. Finalement, nous présentons une plateforme distribuable permettant le calcul des modèles découlant de notre méta-modèle. Puis, nous décrivons des techniques basées sur l'ananlyse du réseau d'interaction de nos simulations permettant de détecter, de réifier et de gérer dynamiquement des organisations émergentes dans des simulations de types proies-prédateurs
We present in that document a meta-model of aquatic ecosystem which is multi-scale and uses hybrid approaches. Ecosystems are complex systems. Therefore, the model is made to give a performant description of multi-level interactions occuring in them. Thus, we propose a multi-scale and multi-level meta-model designed as an holarchy and embodying different approaches (equationnal, individual-based,. . . . ). Moreover, we present an ontology of the meta-model which help users understand and use that one. The methodology to apply the meta-model on a concrete problem using the ontology is shown. Finally, a plateform allowing using to compute their model as far as those ones respect the meta-model assumptions is described. Then, we introduce technics to detect, reify and handle emerging systems during the simulations. Those technics are based on the analysis of the interaction network of predator-preys simulation
38

Qin, Liang. "Application of irreversible Monte Carlo in realistic long-range systems." Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLE009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie le comportement de la chaîne d'événements de Monte Carlo (ECMC) dans les systèmes de particules à interaction de longue portée. Les deux premiers chapitres présentent les méthodes actuelles de simulation moléculaire, en soulignant leurs difficultés à traiter l'interaction de Coulomb, et donnent les bases de l'ECMC. Le troisième chapitre présente notre cadre d'échantillonnage du système de Coulomb à l'aide de l'ECMC. Dans le cadre de la convention "tin-foil", la formulation constituée d’interaction à deux corps pour l'électrostatique peut être appliquée directement à la méthode "cell-veto". En ajoutant à cela, la factorisation dipolaire obtient un algorithme en O(NlogN)-par-balayage pour les systèmes dipolaires. Les chapitres quatre et cinq décrivent notre développement d'une application scientifique appelée JeLLyFysh pour la simulation moléculaire par ECMC. La conception de son médiateur et le traitement de toutes les opérations en flux continu sont les mieux adaptés aux extensions futures. Le chapitre six décrit les performances de l'ECMC pour les grands systèmes d'eau à l’aide de JeLLyFysh. La dynamique qui en résulte implique qu'un schéma plus sophistiqué est nécessaire pour équilibrer la polarisation. Enfin, au chapitre sept, on teste la stratégie d'échantillonnage avec changement de direction séquentiel. L'évolution du dipôle présente une dynamique particulière, et l'ensemble des choix de direction ainsi que l'ordre de sélection s'avèrent tous deux cruciaux pour atteindre la distribution stationnaire de l'orientation du dipôle
This thesis studies the behavior of event-chain Monte Carlo (ECMC) in long-range particle systems. In the first two chapters, we introduce established methods for molecular simulation, highlighting their difficulties in dealing with Coulomb interaction, and gives the basic of ECMC. The third chapter presents our framework of Coulomb system sampling using ECMC. Under the tin-foil convention, the formulation consisting of pairwise terms for electrostatics can be directly applied to the cell-veto method. Together with dipole factorization, we obtain an O(NlogN)-per-sweep algorithm for dipole systems. Chapters four and five describe our development of a scientific application called JeLLyFysh for molecular simulation through ECMC. Its mediator design and stream processing of all operations can best accommodate future extensions. Using JeLLyFysh, we profile the performance of ECMC for large water systems in chapter six. The resulting dynamics imply that a more sophisticated scheme is needed to equilibrate the polarization. Finally, in chapter seven, we test the sampling strategy with sequential direction change. The dipole evolution exhibits distinct dynamics, and the set of direction choices and the order to select prove both crucial in mixing the dipole's orientation
39

Baysse, Camille. "Analyse et optimisation de la fiabilité d'un équipement opto-électrique équipé de HUMS." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00986112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de l'optimisation de la fiabilité, Thales Optronique intègre désormais dans ses équipements, des systèmes d'observation de leur état de fonctionnement. Cette fonction est réalisée par des HUMS (Health & Usage Monitoring System). L'objectif de cette thèse est de mettre en place dans le HUMS, un programme capable d'évaluer l'état du système, de détecter les dérives de fonctionnement, d'optimiser les opérations de maintenance et d'évaluer les risques d'échec d'une mission, en combinant les procédés de traitement des données opérationnelles (collectées sur chaque appareil grâce au HUMS) et prévisionnelles (issues des analyses de fiabilité et des coûts de maintenance, de réparation et d'immobilisation). Trois algorithmes ont été développés. Le premier, basé sur un modèle de chaînes de Markov cachées, permet à partir de données opérationnelles, d'estimer à chaque instant l'état du système, et ainsi, de détecter un mode de fonctionnement dégradé de l'équipement (diagnostic). Le deuxième algorithme permet de proposer une stratégie de maintenance optimale et dynamique. Il consiste à rechercher le meilleur instant pour réaliser une maintenance, en fonction de l'état estimé de l'équipement. Cet algorithme s'appuie sur une modélisation du système, par un processus Markovien déterministe par morceaux (noté PDMP) et sur l'utilisation du principe d'arrêt optimal. La date de maintenance est déterminée à partir des données opérationnelles, prévisionnelles et de l'état estimé du système (pronostic). Quant au troisième algorithme, il consiste à déterminer un risque d'échec de mission et permet de comparer les risques encourus suivant la politique de maintenance choisie.Ce travail de recherche, développé à partir d'outils sophistiqués de probabilités théoriques et numériques, a permis de définir un protocole de maintenance conditionnelle à l'état estimé du système, afin d'améliorer la stratégie de maintenance, la disponibilité des équipements au meilleur coût, la satisfaction des clients et de réduire les coûts d'exploitation.
40

Zhang, Jian. "Modèles de Mobilité de Véhicules par Apprentissage Profond dans les Systèmes de Tranport Intelligents." Thesis, Ecole centrale de Lille, 2018. http://www.theses.fr/2018ECLI0015/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de transport intelligents ont acquis un grand intérêt pour la recherche ces dernières années. Alors que la simulation réaliste du trafic joue un rôle important, elle n'a pas reçu suffisamment d'attention. Cette thèse est consacrée à l'étude de la simulation du trafic au niveau microscopique et propose des modèles de mobilité des véhicules correspondants. À l'aide de méthodes d'apprentissage profond, ces modèles de mobilité ont fait leurs preuves avec une crédibilité prometteuse pour représenter les véhicules dans le monde réel. D'abord, un modèle de mobilité basé sur un réseau de neurones piloté par les données est proposé. Ce modèle provient de données de trajectoires du monde réel et permet de mimer des comportements de véhicules locaux. En analysant les performances de ce modèle de mobilité basé sur un apprentissage de base, nous indiquons qu’une amélioration est possible et proposons ses spécifications. Un MMC est alors introduit. La préparation de cette intégration est nécessaire, ce qui comprend un examen des modèles de mobilité traditionnels basés sur la dynamique et l’adaptation des modèles « classiques » à notre situation. Enfin, le modèle amélioré est présenté et une simulation de scénarios sophistiqués est construite pour valider les résultats théoriques. La performance de notre modèle de mobilité est prometteuse et des problèmes de mise en œuvre sont également discutés
The intelligent transportation systems gain great research interests in recent years. Although the realistic traffic simulation plays an important role, it has not received enough attention. This thesis is devoted to studying the traffic simulation in microscopic level, and proposes corresponding vehicular mobility models. Using deep learning methods, these mobility models have been proven with a promising credibility to represent the vehicles in real-world. Firstly, a data-driven neural network based mobility model is proposed. This model comes from real-world trajectory data and allows mimicking local vehicle behaviors. By analyzing the performance of this basic learning based mobility model, we indicate that an improvement is possible and we propose its specification. An HMM is then introduced. The preparation of this integration is necessary, which includes an examination of traditional dynamics based mobility models and the adaptation method of “classical” models to our situation. At last, the enhanced model is presented, and a sophisticated scenario simulation is built with it to validate the theoretical results. The performance of our mobility model is promising and implementation issues have also been discussed
41

Goubet, Étienne. "Contrôle non destructif par analyse supervisée d'images 3D ultrasonores." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse consiste en l'élaboration d'une chaine de traitements permettant d'extraire l'information utile de données 3d ultrasonores et de caractériser les défauts éventuellement présents dans la pièce inspectée. Cette caractérisation a été abordée pour des fissures contrôlées par un même émetteur/récepteur. Dans une première partie nous rappelons les principes du contrôle non destructif par ultrasons ainsi que les représentations classiques des données ultrasonores. La deuxième partie est consacrée à l'étude d'un modèle d'extraction de l'information d'échos présents sur les données au moyen d'une base d'ondelettes adaptée. L'utilisation d'une ondelette unique translatée dans le temps est rendue possible par un travail sur une représentation complexe des données réelles originales. Une première étape permet de détecter et de positionner les échos d'amplitude significative. Dans un deuxième temps, on effectue une régularisation spatialement cohérente des instants de détection à l'aide d'un modèle markovien. On élimine ainsi les échos dont les instants de détection ne font pas partie de surfaces d'instants régulières. Les parties suivantes traitent de la localisation et du dimensionnement des fissures. On utilise des caractéristiques extraites du faisceau ultrasonore afin de déterminer le trajet de l'onde ultrasonore du capteur à l'objet diffractant lorsque la réponse de l'écho est maximale. On met en correspondance l'instant de détection obtenu pour cet écho et le temps de parcours selon le trajet défini afin de positionner un point d'arête dans la pièce. On obtient ainsi un ensemble de points de discrétisation pour chaque arête. Dans le cadre de données 3d obtenues sur un matériau isotrope, on élimine les points d'arête extrêmes en utilisant un critère de comparaison sur les courbes échodynamiques associées aux points de détection sur les données réelles et sur des données simulées équivalentes. La localisation est abordée pour des fissures situées dans un matériau isotrope ou acier revêtu d'anisotrope.
42

Spinelli, Marta. "Cosmological parameter estimation with the Planck satellite data : from the construction of a likelihood to neutrino properties." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112241/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le fond diffus cosmologique (CMB), relique du Big-Bang chaud, porte les traces à la fois de la formation des structures des époques récentes et des premières phases énergétiques de l'Univers.Le satellite Planck, en service de 2009 à 2013, a fourni des mesures de haute qualité des anisotropies du CMB. Celles-ci sont utilisés dans cette thèse pour déterminer les paramètres du modèle cosmologique standard et autour du secteur des neutrinos.Ce travail décrit la construction d'un fonction de vraisemblance pour les hauts-l de Planck. Cela implique une stratégie de masquage pour l'émission thermique de la Galaxie ainsi que pour les sources ponctuelles. Les avant-plans résiduels sont traités directement au niveau du spectre de puissance en utilisant des templates physiques bases sur des études de Planck.Les méthodes statistiques nécessaires pour extraire les paramètres cosmologiques dans la comparaison entre les modèles et les données sont décrites, à la fois la méthode bayésienne de Monte-Carlo par chaînes de Markov et la technique fréquentiste du profil de la fonction de vraisemblance.Les résultats sur les paramètres cosmologiques sont présentés en utilisant les données de Planck seul et en combinaison avec les données à petites échelles des expériences de CMB basées au sol (ACT et SPT), avec les contraintes provenant des mesures des oscillations acoustiques des baryons (BAO) et des supernovae. Les contraintes sur l'échelle absolue de la masse des neutrinos et sur le nombre effectif de neutrinos sont également discutées
The cosmic microwave background (CMB), relic of the hot Big-Bang, carries the traces of both the rich structure formation of the late time epochs and the energetic early phases of the universe.The Planck satellite provided, from 2009 to 2013, high-quality measurements of the anisotropies of the CMB. These are used in this thesis to determine the parameters of the standard cosmological model and of the extension concerning the neutrino sector. The construction of an high-l Planck likelihood is detailed. This involves a masking strategy that deals in particular with the contamination from thermal emission of the Galaxy. The residual foregrounds are treated directly at the power spectrum level relying on physically motivated templates based on Planck studies.The statistical methods needed to extract the cosmological parameters in the comparison between models and data are described, both the Bayesian Monte Carlo Markov Chain techniques and the frequentist profile likelihood. Results on cosmological parameters are presented using Planck data alone and in combination with the small scale data from the ground based CMB experiment ACT and SPT, the Baryon Acoustic Oscillation and the Supernovae. Constraints on the absolute scale of neutrino masses and of the number of effective neutrino are also discussed
43

Thomas, Nicolas. "Stochastic numerical methods for Piecewise Deterministic Markov Processes : applications in Neuroscience." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS385.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, motivés par des applications en Neuroscience, nous étudions des méthodes efficaces de type Monte Carlo (MC) et Multilevel Monte Carlo (MLMC) basées sur le thinning pour des processus (de Markov) déterministe par morceaux (PDMP ou PDP) que l'on appliquent à des modèles à conductance. D'une part, lorsque la trajectoire déterministe du PDMP est connue explicitement nous aboutissons à une simulation exacte. D'autre part, lorsque la trajectoire déterministe du PDMP n'est pas explicite, nous établissons des estimées d'erreurs forte et un développement de l'erreur faible pour le schéma numérique que nous introduisons. La méthode de thinning est fondamentale dans cette thèse. Outre le fait que cette méthode est intuitive, nous l'utilisons à la fois numériquement (pour simuler les trajectoires de PDMP/PDP) et théoriquement (pour construire les instants de saut et établir des estimées d'erreurs pour les PDMP/PDP)
In this thesis, motivated by applications in Neuroscience, we study efficient Monte Carlo (MC) and Multilevel Monte Carlo (MLMC) methods based on the thinning for piecewise deterministic (Markov) processes (PDMP or PDP) that we apply to stochastic conductance-based models. On the one hand, when the deterministic motion of the PDMP is explicitly known we end up with an exact simulation. On the other hand, when the deterministic motion is not explicit, we establish strong estimates and a weak error expansion for the numerical scheme that we introduce. The thinning method is fundamental in this thesis. Beside the fact that it is intuitive, we use it both numerically (to simulate trajectories of PDMP/PDP) and theoretically (to construct the jump times and establish error estimates for PDMP/PDP)
44

Bӑrbos, Andrei-Cristian. "Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats
The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results
45

Zidouni, Meriem. "Modélisation et analyse des performances de la bibliothèque MPI en tenant compte de l'architecture matérielle." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00526164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de son offre de serveurs haut de gamme, la société Bull conçoit des multiprocesseurs à mémoire distribuée partagée avec un protocole de cohérence de cache CC-DSM (Cache-Coherent Distibuted Shared Memory), et fournit une implémentation de la bibliothèque MPI (Message Passing Interface) pour la programmation parallèle. L'évaluation des performances de cette implémentation permettra, d'une part, de faire les bons choix d'architecture matérielle et de la couche logicielle au moment de la conception et, d'autre part, fournira des éléments d'analyse nécessaires pour comprendre les mesures faites au moment de la validation de la machine réelle. Nous proposons et mettons en œuvre dans ce travail de thèse une méthodologie permettant d'évaluer les performances des algorithmes de la bibliothèque MPI (ping-pong et barrières) en tenant compte de l'architecture matérielle. Cette approche est basée sur l'utilisation des méthodes formelles, elle consiste en 3 étapes principales : 1) la modélisation en langage LOTOS des aspects matériels (topologie d'interconnexion et protocole de cohérence de cache) et logiciels (algorithmes MPI) ; 2) la vérification formelle de la correction fonctionnelle du modèle obtenu ; 3) l'évaluation des performances après l'extension du modèle par des informations quantitatives (latences des transferts des données) en utilisant des méthodes numériques et de la simulation.
46

Jouini, Oualid. "Modèles Stochastiques pour l'Aide à la Décision dans les Centres d'appels." Phd thesis, Ecole Centrale Paris, 2006. http://tel.archives-ouvertes.fr/tel-00133341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années, les centres d'appels enregistrent une forte croissance dans le monde. Les entreprises s'orientent de plus en plus vers ce choix qui leur offre une relation privilégiée avec leurs clients. Ainsi, ils disposent d'un moyen convivial et peu coûteux pour fidéliser leurs clients tout en essayant d'en acquérir de nouveaux. Le sujet de cette thèse porte sur le développement et l'analyse de modèles stochastiques pour l'aide à la décision dans les centres d'appels.
Dans la première partie, nous considérons un centre d'appels où tous les agents sont groupés dans un même pool et les clients sont traités indifféremment par un des agents. Nous étudions les bénéfices de la migration depuis cette configuration vers un centre d'appels où les clients sont divisés en classes (appelées portefeuilles de clients). Chaque portefeuille de clients est servi par un pool de conseillers qui lui est exclusivement dédié. Ensuite, nous considérons un centre d'appels avec deux classes de clients impatients. Nous développons des politiques dynamiques pour l'affectation des clients (selon leurs types) aux différentes files d'attente. L'objectif étant lié aux qualités de service différentiées exprimées en terme du pourcentage des clients perdus, ainsi qu'en terme de la variance du temps d'attente. Enfin, nous étudions un centre d'appels qui annonce le délai d'attente à chaque nouveau client. Nous montrons les avantages de l'annonce sur les performances du centre d'appels.
Dans la deuxième partie, nous considérons un processus de naissance et de mort de forme générale. Nous calculons ensuite les moments de plusieurs variables aléatoires liées aux temps de premiers passages (ordinaires et conditionnels). Ensuite, nous montrons un résultat de concavité dans une file d'attente avec capacité limitée et avec une seule classe de clients impatients. Nous démontrons que la probabilité d'entrer en service est strictement croissante et concave en fonction de la taille de la file d'attente.
47

Vosgien, Thomas. "Ingénierie systèmes basée sur les modèles appliquée à la gestion et l'intégration des données de conception et de simulation : application aux métiers d'intégration et de simulation de systèmes aéronautiques complexes." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0011/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse est de contribuer au développement d’approches méthodologiques et d’outils informatiques pour développer les chaînes d’intégration numériques en entreprise étendue. Il s’agit notamment de mieux intégrer et d’optimiser les activités de conception, d’intégration et de simulation dans le contexte du développement collaboratif des produits/systèmes complexes.La maquette numérique (DMU) – supportée par un système de gestion de données techniques (SGDT ou PDM) – est devenue ces dernières années un environnement fédérateur clé pour échanger et partager une définition technique et une représentation 3D commune du produit entre concepteurs et partenaires. Cela permet aux concepteurs ainsi qu’aux utilisateurs en aval (ceux qui sont en charge des simulations numériques notamment) d’avoir un accès à la géométrie du produit virtuel assemblé. Alors que les simulations numériques 3D et 2D prennent une place de plus en plus importante dans le cycle de développement du produit, la DMU offre de nouvelles perspectives à ces utilisateurs pour récupérer et exploiter les données CAO appropriées et adaptées pour les analyses par éléments finis. Cela peut ainsi permettre d’accélérer le processus de préparation du modèle de simulation. Cependant, les environnements industriels de maquettes numériques sont actuellement limités dans leur exploitation par : - un manque de flexibilité en termes de contenu et de structure, - l’absence d’artefact numérique 3D permettant de décrire les interfaces des composants de l’assemblage, - un manque d’intégration avec les données et activités de simulation.Cette thèse met notamment l’accent sur les transformations à apporter aux DMU afin qu’elles puissent être utilisées comme données d’entrée directes pour les analyses par éléments finis d’assemblages volumineux (plusieurs milliers de pièces). Ces transformations doivent être en cohérence avec le contexte et les objectifs de simulation et cela nous a amené au concept de « vue produit » appliquée aux DMUs, ainsi qu’au concept de « maquette comportementale » (BMU). Une « vue produit » définit le lien entre une représentation du produit et l’activité ou le processus utilisant ou générant cette représentation. La BMU est l’équivalent de la DMU pour les données et les processus de simulation. Au delà des géométries discrétisées, la dénommée BMU devrait, en principe, lier toutes les données et les modèles qui seront nécessaires pour simuler le comportement d’un ou plusieurs composants. L’élément clé pour atteindre l’objectif d’élargir le concept établi de la DMU (basée sur des modèles CAO) à celui de la BMU (basée sur des modèles CAE), est de trouver un concept d’interface bidirectionnel entre la BMU et sa DMU associée. C’est l’objectif du « Design-Analysis System Integration Framework » (DASIF) proposé dans cette thèse de doctorat. Ce cadre a vise à être implémenté au sein d’environnements PLM/SLM et doit pouvoir inter-opérer à la fois avec les environnements CAD-DMU et CAE-BMU. DASIF allie les fonctionnalités de gestion de données et de configuration des systèmes PDM avec les concepts et formalismes d’ingénierie système basée sur les modèles (MBSE) et des fonctionnalités de gestion des données de simulation (SDM). Cette thèse a été menée dans le cadre d’un projet de recherche européen : le projet CRESCENDO qui vise à développer le « Behavioural Digital Aircraft » (BDA) qui a pour vocation d’être la« colonne vertébrale » des activités de conception et simulation avancées en entreprise étendue. Le concept du BDA doit s’articuler autour d’une plateforme collaborative d’échange et de partage des données de conception et de simulation tout au long du cycle de développement et de vie des produits aéronautiques. [...]
The aim of this doctoral thesis is to contribute to the facilitation of design, integration and simulation activities in the aeronautics industry, but more generally in the context of collaborative complex product development. This objective is expected to be achieved through the use and improvement of digital engineering capabilities. During the last decade, the Digital Mock-Up (DMU) – supported by Product Data Management (PDM) systems – became a key federating environment to exchange/share a common 3D CAD model-based product definition between co-designers. It enables designers and downstream users(analysts) to access the geometry of the product assembly. While enhancing 3D and 2D simulations in a collaborative and distributed design process, the DMU offers new perspectives for analysts to retrieve the appropriate CAD data inputs used for Finite Element Analysis (FEA), permitting hence to speed-up the simulation preparation process. However, current industrial DMUs suffer from several limitations, such as the lack of flexibility in terms of content and structure, the lack of digital interface objects describing the relationships between its components and a lack of integration with simulation activities and data.This PhD underlines the DMU transformations required to provide adapted DMUs that can be used as direct input for large assembly FEA. These transformations must be consistent with the simulation context and objectives and lead to the concept of “Product View” applied to DMUs andto the concept of “Behavioural Mock-Up” (BMU). A product view defines the link between a product representation and the activity or process (performed by at least one stakeholder) that use or generate this representation as input or output respectively. The BMU is the equivalent of the DMU for simulation data and processes. Beyond the geometry, which is represented in the DMU,the so-called BMU should logically link all data and models that are required to simulate the physical behaviour and properties of a single component or an assembly of components. The key enabler for achieving the target of extending the concept of the established CAD-based DMU to the behavioural CAE-based BMU is to find a bi-directional interfacing concept between the BMU and its associated DMU. This the aim of the Design-Analysis System Integration Framework (DASIF) proposed in this PhD. This framework might be implemented within PLM/SLM environments and interoperate with both CAD-DMU and CAE-BMU environments. DASIF combines configuration data management capabilities of PDM systems with MBSE system modelling concepts and Simulation Data Management capabilities.This PhD has been carried out within a European research project: the CRESCENDO project, which aims at delivering the Behavioural Digital Aircraft (BDA). The BDA concept might consist in a collaborative data exchange/sharing platform for design-simulation processes and models throughout the development life cycle of aeronautics products. Within this project, the Product Integration Scenario and related methodology have been defined to handle digital integration chains and to provide a test case scenario for testing DASIF concepts. These latter have been used to specify and develop a prototype of an “Integrator Dedicated Environment” implemented in commercial PLM/SLM applications. Finally the DASIF conceptual data model has also served as input for contributing to the definition of the Behavioural Digital Aircraft Business Object Model: the standardized data model of the BDA platform enabling interoperability between heterogeneous PLM/SLM applications and to which existing local design environments and new services to be developed could plug
48

Ladret, Véronique. "Théorèmes limites fonctionnels pour des U-statistiques échantillonnéees par une marche aléatoire : étude de modèles stochastiques de repliement des protéines." Phd thesis, Université Claude Bernard - Lyon I, 2004. http://tel.archives-ouvertes.fr/tel-00008740.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se décompose en deux parties indépendantes. Notre objectif dans la première partie est d'étudier le comportement asymptotique des $U$-statistiques, basées sur des noyaux d'ordre 2, échantillonnées par une marche aléatoire. Plus précisément, on se donne $(S_n)_(n \in \N)$ une marche aléatoire sur $\Z^d$, $d \geq 1$ et $(\xi_x)_(x \in \Z^(d))$ une collection de variables aléatoires indépendantes, identiquement distribuées, indépendante de $(S_n)_(n \in \N)$. On note $\mu$ la loi de $\xi_0$ et l'on désigne par $h : \R^2\ra \R$, une fonction mesurable, symétrique, telle que $h \in L^2(\mu\otimes\mu)$. On s'intéresse au comportement asymptotique de la suite de processus, $$ \cU_n(t)=\sum_(i,j=0)^([nt])h(\xi_(S_i), \xi_(S_j)), \quad t\in[0,1], \quad n=0,1,\ldots, $$ à valeurs dans $\cD([0,1])$, l'espace des fonctions c.à.l.à.g. définies sur $[0,1]$, muni de la topologie de Skorohod. Cabus et Guillotin ont obtenu la distribution asymptotique de ces objets, dans le cas où la marche aléatoire, $(S_n)_(n \in \N)$, est récurrente sur $\Z^2$, ainsi que dans le cas où elle est transiente sur $\Z^d$, pour $d\geq3$. Elles ont également conjecturé la forme de la distribution limite, dans le cas de la marche aléatoire simple, symétrique, sur $\Z$. Dans le cas où $\Sn$ appartient au domaine d'attraction d'une loi stable d'indice $1<\alpha\leq2$, nous prouvons deux théorèmes limites fonctionnels, décrivant le comportement asymptotique de $\(\cU_n, n=1,2,\ldots\)$. Nous démontrons ainsi, la conjecture de Cabus et Guillotin. Par ailleurs, nous donnons une nouvelle preuve de leurs résultats.\\ Dans une seconde partie, nous étudions le comportement asymptotique du temps d'atteinte de deux versions d'un algorithme d'évolution simplifié, modélisant le repliement d'une protéine : le $(1+1)$-EA sur le problème LeadingOnes. Pour chaque algorithme nous donnons une loi des grands nombres, un théorème central limite et nous comparons la performance des deux modèles.\\
49

Mourad, Abbas. "Modélisation de la morbi-mortalité du carcinome hépatocellulaire en France par stade de gravité : évaluation de différentes stratégies en fonction du dépistage et des ressources thérapeutiques." Phd thesis, Université du Droit et de la Santé - Lille II, 2014. http://tel.archives-ouvertes.fr/tel-00989711.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le CHC est souvent diagnostiqué à un stade avancé, stade où les options thérapeutiques sont limitées et le plus souvent palliatives. A l'inverse, les patients diagnostiqués à un stade précoce sont candidats à des traitements curatifs tels que la résection chirurgicale, la radiofréquence et la transplantation hépatique. Le dépistage par échographie des cirrhotiques (surveillance tous les 6 mois) est recommandé par la grande majorité d'experts et les sociétés savantes afin de détecter et traiter le CHC à un stade précoce. Cependant, l'impact du dépistage sur la survie des patients reste controversé en raison des insuffisances méthodologiques des études l'ayant évalué. Parmi les incertitudes méthodologiques, le biais d'avance au diagnostic, qui correspond à un allongement du temps de suivi du à un dépistage plus précoce, n'a le plus souvent pas été pris en compte dans les études ayant évalué l'impact du dépistage. L'approche par modélisation est une option attractive pour l'évaluation du dépistage car la réalisation d'un essai randomisé contrôlé comparant les malades dépistés et non dépistés est irréalisable pour des raisons d'ordre éthique. Dans ce travail, nous avons développé un modèle de la progression du CHC de la date de diagnostic jusqu'au décès. Ce modèle prend en compte l'âge des patients, la connaissance du statut VHC et les principaux facteurs pronostiques du CHC sur cirrhose virale C compensée et décompensée. Il a été alimenté par plusieurs types de données pour fixer les probabilités de transitions dans le modèle, et valider les sorties du modèle. Dans un premier temps, afin d'éviter une surestimation du bénéfice du dépistage, il a été indispensable de calculer le biais d'avance au diagnostic et de l'intégrer dans le calcul de la survie des patients dépistés. Dans un deuxième temps le modèle a évalué l'impact du dépistage du CHC chez les patients ayant une cirrhose virale C compensée et connaissant leur statut VHC. Dans un contexte de cirrhose compensée avec un statut VHC-connu, notre étude montre que le dépistage du CHC réalisé dans la pratique courante (taux d'accès au dépistage = 57%, une efficacité du dépistage correspondant à 42% des patients diagnostiqués à un stade précoce) améliore la survie des patients, avec une augmentation de l'espérance de vie (EV) de 11 mois et une diminution de risque de décès à 5 ans de 6% par rapport à l'absence du dépistage (taux d'accès au dépistage = 0%, 19% des patients non dépistés pour le CHC sont diagnostiqués à un stade précoce). Elle souligne l'importance des deux variables, taux d'accès au dépistage et efficacité du dépistage, sur la survie des patients. Par rapport au dépistage réalisé dans la pratique courante : a) un scénario d'augmentation du taux d'accès au dépistage de 57% à 97% augmente l'EV de 7 mois et diminue le risque de décès à 5 ans de 5% ; b) un scénario d'augmentation de l'efficacité du dépistage de 42% à 87% (dépistage optimal) augmente l'EV de 14 mois et diminue le risque de décès à 5 ans de 9% ; c) un scénario combinant une augmentation de l'efficacité du dépistage à 87% et une augmentation du taux d'accès au dépistage à 97% augmente l'EV de 31 mois et diminue le risque de décès à 5 ans de 20%. Cette étude souligne la nécessité d'une application stricte des modalités de dépistage du CHC, afin d'optimiser son efficacité à diagnostiquer le CHC au stade précoce. Ce travail suggère que les experts devraient cibler leurs recommandations sur l'efficacité du dépistage. De telles recommandations pourraient conduire à discuter de l'expérience et de la qualification des opérateurs et de la qualité du parc des échographes utilisés pour homogénéiser la qualité du dépistage. Finalement, nous avons observé dans un travail préliminaire que le choix optimal de la méthode de correction pour le calcul du biais d'avance au diagnostic devrait prendre en compte la progression tumorale d'un stade asymptomatique vers un stade symptomatique qui diffère d'un cancer à l'autre.
50

Tang, Daogui. "A simulation-based modeling framework for the analysis and protection of smart grids against false pricing attacks." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPAST017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intégration des technologies de l’information et de la communication (ICT) dans les réseaux électriques permet un échange de communication bidirectionnel entre les clients et les services publics, ce qui contribue gager les clients dans divers programmes de réponse à la demande (DR) des réseaux intelligents (SG), tels que la tarification en fonction du temps d’utilisation (TOU) et la tarification en temps réel (RTP). Toutefois, cela expose les réseaux intelligents à des menaces supplémentaires provenant de la couche ICT du système cyber physique. En effet, la menace de cyber-attaques est devenue une préoccupation majeure. Dans ce contexte, la thèse se concentre sur la modélisation, la détection et la défense d’un type spécifique de cyber-attaques aux systèmes de DR, à savoir les fausses attaques de tarification (FPA). L’étude aborde le problème tout d’abord en modélisant les FPA initiées dans les réseaux sociaux (SN). Le processus de propagation des faux prix de l’électricité est décrit par un modèle de propagation d’influence à plusieurs niveaux qui tient compte des caractéristiques de la personnalité des clients et de la valeur de l’information. La simulation de Monte Carlo est utilisée pour tenir compte des caractéristiques stochastiques du processus de propagation de l’influence. Ensuite, en considérant l’intégration des ressources énergétiques renouvelables distribuées (DRER) dans le contexte des RTP, nous étudions les FPA où les attaquants manipulent les prix de l’électricité en temps réel en injectant de fausses informations sur la consommation et la production d’énergie renouvelable. En conséquence, un détecteur d’attaques en ligne basé sur un réseau neuronal convolutif (CNN) est proposé pour détecter les FPA considérées. Enfin, pour atténuer l’impact des FPAs, une stratégie de défense optimale est étudiée, compte tenu des ressources de défense limitées. L’interaction dynamique entre les attaquants et les défenseurs est modélisée comme un jeu de Markov à somme nulle où aucun des deux joueurs ne dispose d’informations complètes sur le modèle de jeu. Une méthode d’apprentissage de renforcement multi-agents sans modèle est proposée pour résoudre le jeu et trouver les politiques d’équilibre de Nash pour les deux joueurs. Les résultats de la thèse donnent un aperçu de la façon dont les APF ont un impact sur les systèmes d’énergie cyber physique en trompant une partie des clients sur le marché de l’électricité et fournissent des implications sur la fa d’atténuer cet impact en détectant et en défendant les attaques
The integration of information and communication technology (ICT) systems with power systems enables a two-way communication exchange between customers and utilities, which helps engaging customers in various demand-response (DR) programs of smart grids (SGs), such as time-of-use (TOU) pricing and real-time pricing (RTP). However, this makes SG cyber-physical system exposed to additional threats coming from the ICT layer. For this reason, the threat of cyber attacks of various types has become a major concern. In this context, the focus of the thesis is on the modeling of , detection of and defense from a specific type of cyber attacks to DR schemes, namely, false pricing attacks (FPAs). The study approaches the problem firstly by modeling FPAs initiated in social networks (SNs). The false electricity prices spreading process is described by a multi-level influence propagation model considering customers’ personality characteristics and information value. Monte Carlo simulation is utilized to account for the stochastic nature of the influence propagation process. Then, considering the integration of distributed renewable energy resources (DRERs) in the RTP context, we study FPAs where attackers manipulate realtime electricity prices by injecting false consumption and renewable generation information. A convolutional neural network (CNN)-based online detector is developed to detect the considered FPAs. Finally, to mitigate the impact of FPAs, an optimal defense strategy is defined, under limited resources. The dynamic interaction between attackers and defenders is modeled as a zero-sum Markov game where neither player has full information of the game model. A modelfree multi-agent reinforcement learning method is proposed to solve the game and find the Nash Equilibrium policies for both players. The thesis provides a simulationbased framework for modelling FPAs to smart grids. The findings of the thesis give insights into how FPAs can impact cyber-physical power systems by misleading a portion of customers in the electricity market and provide implications on how to mitigate such impact by detecting and defending the attacks

To the bibliography