To see the other types of publications on this topic, follow the link: Analyse statistique.

Dissertations / Theses on the topic 'Analyse statistique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse statistique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Andrianasolo, Haja Harisaina. "Analyse statistique des données de télédétection statistiques agricoles, application sur Madagascar /." Lille 3 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376022143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Andrianasolo, Haja Harisaina. "Analyse statistique des données de télédétection : statistiques agricoles, application sur Madagascar." Paris, EHESS, 1987. http://www.theses.fr/1987EHES0021.

Full text
Abstract:
Pour etre operationnel dans les pays pauvres, un modele statistique base sur les donnees satellitaires, pour l'estimation de surface en statistiques agricoles, doit maximiser le rapport precision-cout: maximisation de la precision par la stratification de l'espace suivant x (donnees satellitaires et methodes de classification) et par les classifications, minimisation des couts d'acquisition des donnees (budjet) d'exploitation (traitement), du delai d'obtention des informations (temps). Pour collecter l'ensemble des informations necessaires a un modele d'estimation de surfaces, repondant a ces contraintes et suivant les etapes d'identification, d'estimation et de validation, la demarche propose les solutions suivantes: identifier le modele statistique global (sondages areolaires), decomposer le modele en plusieurs modules. 1. Reduction des donnees par - echantillonnage d'un ensemble minimum d'images dans l'espace et dans le temps, - reduction de l'aire des images, et de la dimension de l'espace des pixels (de quatre a une), - echantillonnage de pixels. 2. Obtention de l'information par - stratification (aires couvertes par les images et independantes de leur couverture (administratives ou non) - enquetes sur le terrain, ou directement sur les images; - extrapolation. 3. Estimation de chacun de ces modules, au moyen des donnees a disposition suivant les cas d'application. 4. Validation du modele, par affectation d'un niveau de confiance aux estimations des surfaces obtenues. Une etude de cas est realisee par l'application du modele a l'estimation de l'extension du riz de deuxieme saison dans des sous- prefectures de la province de mahajanga a madagascar<br>To be operational a statistical model based on remote sensing data, for estimation of crops acreages in agricultural statistics, in developing countries, must have maximum efficiency (precision cost). Precision by stratification on x: (remote sensing data and classification), and by precision of classification. Reduction of costs of - acquisition of data (budgetaries resources) - exploitation (computers resources) - achievement time of results (time). Responding to these constraints, and following the steps of identification, estimation, and validation, of statistical models, some propositions are given for - gathering all the informations required by the model for acreage estimation - identification of a general statistical model (area frame sampling) - breaking up this model in some modules: 1. Data reduction: - sampling of images in geographical space and in time - reduction of the acreage of the images to be treated - reduction of the dimensions of the space of the pixels (from four to one) - sampling of pixels. 2. Obtaining the information -stratification of areas covered and uncovered by the images -surveys on ground or directly on the images -extrapolation. 3. Estimation of each of these modules, by mean of the data available following the studied case. 4. Validation of the totality of the model, by giving a level confidence to the estimations of obtained acreages. A case of study is done by application of the model on madagascar
APA, Harvard, Vancouver, ISO, and other styles
3

Jourdan-Marias, Astrid. "Analyse statistique et échantillonage d'expériences simulées." Pau, 2000. http://www.theses.fr/2000PAUU1014.

Full text
Abstract:
De nombreux phénomènes physiques sont étudiés à l'aide de simulateurs très complexes et coûteux. Bien souvent, l'utilisateur souhaite alors disposer d'un modèle simple et rapide afin de résumer la réponse du simulateur. Il est alors nécessaire de construire un prédicteur de la réponse du code informatique à partir d'un petit nombre de simulations, que l'on appelle encore expérience simulées. A l'heure actuelle il existe 2 principales approches statistiques des expériences simulées, l'une est basée sur un modèle spatial adapté du modèle géo-statistique de krigeage, et l'autre est basée sur des techniques d'échantillonage. Chacune d'elle présente des avantages mais aussi des inconvénients. Ce travail propose une nouvelle approche statistique plus performante des exprériences simulées qui intègre les points forts des 2 approches existantes, i, e. . .
APA, Harvard, Vancouver, ISO, and other styles
4

Mahé, Cédric. "Analyse statistique de delais d'evenement correles." Paris 7, 1998. http://www.theses.fr/1998PA077254.

Full text
Abstract:
Les delais d'evenement correles sont frequemment observes dans les etudes longitudinales lorsque plus d'un evenement peut survenir chez un individu ou lorsqu'un evenement survient chez des individus regroupes en cluster. La prise en compte de la dependance entre les delais d'evenements de la meme unite statistique (l'individu ou le cluster) est necessaire pour une estimation precise et non biaisee de l'effet des covariables sur le risque d'evenement. Pour les evenements non ordonnes, un modele combinant deux generalisations multivariees du modele de cox a ete developpe afin d'estimer un effet moyen des covariables sur le risque d'evenement ainsi que la force de correlation au sein de l'unite statistique. Ce modele a ensuite ete applique a une etude de cohorte expose-non expose. Pour les evenements ordonnes (recurrents), l'apport des methodes qui prennent en compte la correlation des delais a ete presente de facon didactique. D'autre part, dans le cadre des approches multivariees, le choix de la mesure de reponse adequate a ete discute selon la structure des donnees. L'extension de ces methodes a un critere de jugement combinant les deux types d'evenements ordonnes et non ordonnes necessite des developpements ulterieurs.
APA, Harvard, Vancouver, ISO, and other styles
5

Cigana, John. "Analyse statistique de sensibilité du modèle SANCHO." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ38667.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Célimène, Fred. "Analyse statistique et économétrique des DOM-TOM." Paris 10, 1985. http://www.theses.fr/1985PA100002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Olivier, Adelaïde. "Analyse statistique des modèles de croissance-fragmentation." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090047/document.

Full text
Abstract:
Cette étude théorique est pensée en lien étroit avec un champ d'application : il s'agit de modéliser la croissance d'une population de cellules qui se divisent selon un taux de division inconnu, fonction d’une variable dite structurante – l’âge et la taille des cellules étant les deux exemples paradigmatiques étudiés. Le champ mathématique afférent se situe à l'interface de la statistique des processus, de l’estimation non-paramétrique et de l’analyse des équations aux dérivées partielles. Les trois objectifs de ce travail sont les suivants : reconstruire le taux de division (fonction de l’âge ou de la taille) pour différents schémas d’observation (en temps généalogique ou en temps continu) ; étudier la transmission d'un trait biologique général d'une cellule à une autre et étudier le trait d’une cellule typique ; comparer la croissance de différentes populations de cellules à travers le paramètre de Malthus (après introduction de variabilité dans le taux de croissance par exemple)<br>This work is concerned with growth-fragmentation models, implemented for investigating the growth of a population of cells which divide according to an unknown splitting rate, depending on a structuring variable – age and size being the two paradigmatic examples. The mathematical framework includes statistics of processes, nonparametric estimations and analysis of partial differential equations. The three objectives of this work are the following : get a nonparametric estimate of the division rate (as a function of age or size) for different observation schemes (genealogical or continuous) ; to study the transmission of a biological feature from one cell to an other and study the feature of one typical cell ; to compare different populations of cells through their Malthus parameter, which governs the global growth (when introducing variability in the growth rate among cells for instance)
APA, Harvard, Vancouver, ISO, and other styles
8

Goulard, Michel. "Champs spatiaux et statistique multidimensionnelle." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376138909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Lacombe, Jean-Pierre. "Analyse statistique de processus de poisson non homogènes. Traitement statistique d'un multidétecteur de particules." Phd thesis, Grenoble 1, 1985. http://tel.archives-ouvertes.fr/tel-00318875.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'étude statistique des processus de Poisson non homogènes et spatiaux. On définit un test de type Neyman-Pearson concernant la mesure intensité de ces processus. On énonce des conditions pour lesquelles la consistance du test est assurée, et d'autres entrainant la normalité asymptotique de la statistique de test. Dans la seconde partie de ce travail, on étudie certaines techniques de traitement statistique de champs poissoniens et leurs applications à l'étude d'un multidétecteur de particules. On propose en particulier des tests de qualité de l'appareillage ainsi que les méthodes d'extraction du signal
APA, Harvard, Vancouver, ISO, and other styles
10

Yousfi, Elqasyr Khadija. "MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS." Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00377114.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
APA, Harvard, Vancouver, ISO, and other styles
11

Ledauphin, Stéphanie. "Analyse statistique d'évaluations sensorielles au cours du temps." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00139887.

Full text
Abstract:
Dans les industries agro-alimentaires ainsi que dans d'autres secteurs d'activités, l'analyse sensorielle est la clé pour répondre aux attentes des consommateurs. Cette discipline est le plus souvent basée sur l'établissement de profils sensoriels à partir de notes attribuées par des juges entraînés selon une liste de descripteurs (variables sensorielles). Dans ce type d'étude, il importe d'étudier la performance des juges et d'en tenir compte dans l'établissement des profils sensoriels. Dans cette perspective, nous proposons une démarche qui permet de procurer des indicateurs de performance du jury et de chacun des juges et de tenir compte de cette performance pour une détermination d'un tableau moyen. Des tests d'hypothèses pour évaluer la significativité de la contribution des juges à la détermination du compromis sont également proposés.<br />Depuis une vingtaine d'années, les courbes temps-intensité (TI) qui permettent de décrire l'évolution d'une sensation au cours de l'expérience sont de plus en plus populaires parmi les praticiens de l'analyse sensorielle. La difficulté majeure pour l'analyse des courbes TI provient d'un effet juge important qui se traduit par la présence d'une signature propre à chaque juge. Nous proposons une approche fonctionnelle basée sur les fonctions B-splines qui permet de réduire l'effet juge en utilisant une procédure d'alignement de courbes.<br />D'autres données sensorielles au cours du temps existent telles que le suivi de la dégradation organoleptique de produits alimentaires. Pour les étudier, nous proposons la modélisation par des chaînes de Markov cachées, de manière à pouvoir ensuite visualiser graphiquement la suivi de la dégradation.
APA, Harvard, Vancouver, ISO, and other styles
12

Guillaume, Jean-Loup. "Analyse statistique et modélisation des grands réseaux d'interactions." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00011377.

Full text
Abstract:
L'étude des grands réseaux d'interactions, ou réseaux rencontrés dans des contextes pratiques, vise à expliquer les interactions entre les différents individus d'un réseau par l'étude des grandes lois le gouvernant et à comprendre les divers phénomènes pouvant se produire sur ces réseaux. Cette thèse, divisée en trois parties, est consacrée à l'étude de ces réseaux.<br />La première partie est centrée sur l'analyse des réseaux et fait un point critique sur les réseaux étudiés et les paramètres introduits pour mieux comprendre leur structure. Un certain nombre de ces paramètres sont partagés par la majorité des réseaux étudiés et justifient l'étude de ceux-ci de manière globale.<br />La seconde partie qui constitue le coeur de cette thèse s'attache à la modélisation des grands réseaux d'interactions, c'est-à-dire la construction de graphes artificiels semblables à ceux rencontrés en pratique. Ceci passe tout d'abord par la présentation des modèles existants puis par l'introduction d'un modèle basé sur certaines propriétés non triviales qui est suffisamment simple pour que l'on puisse l'étudier formellement ses propriétés et malgré tout réaliste.<br />Enfin, la troisième partie est purement méthodologique. Elle permet de présenter la mise en pratique des parties précédentes et l'apport qui en découle en se basant sur trois cas particuliers : une étude des échanges dans un réseau pair-à-pair, une étude de la robustesse des réseaux aux pannes et aux attaques et enfin un ensemble de simulations visant à estimer la qualité des cartes de l'Internet actuellement utilisées.<br />Cette thèse met en lumière la nécessité de poursuivre les travaux sur les grands réseaux d'interactions et pointe plusieurs pistes prometteuses, notamment sur l'étude plus fine des réseaux, que ce soit de manière pondérée ou dynamique. Mais aussi sur la nécessité d'étudier de nombreux problèmes liés à la métrologie des réseaux pour réussir à capturer leur structure de manière plus précise.
APA, Harvard, Vancouver, ISO, and other styles
13

Duvernet, Laurent. "Analyse statistique des processus de marche aléatoire multifractale." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00567397.

Full text
Abstract:
On étudie certaines propriétés d'une classe de processus aléatoires réels à temps continu, les marches aléatoires multifractales. Une particularité remarquable de ces processus tient en leur propriété d'autosimilarité : la loi du processus à petite échelle est identique à celle à grande échelle moyennant un facteur aléatoire multiplicatif indépendant du processus. La première partie de la thèse se consacre à la question de la convergence du moment empirique de l'accroissement du processus dans une asymptotique assez générale, où le pas de l'accroissement peut tendre vers zéro en même temps que l'horizon d'observation tend vers l'infini. La deuxième partie propose une famille de tests non-paramétriques qui distinguent entre marches aléatoires multifractales et semi-martingales d'Itô. Après avoir montré la consistance de ces tests, on étudie leur comportement sur des données simulées. On construit dans la troisième partie un processus de marche aléatoire multifractale asymétrique tel que l'accroissement passé soit négativement corrélé avec le carré de l'accroissement futur. Ce type d'effet levier est notamment observé sur les prix d'actions et d'indices financiers. On compare les propriétés empiriques du processus obtenu avec des données réelles. La quatrième partie concerne l'estimation des paramètres du processus. On commence par montrer que sous certaines conditions, deux des trois paramètres ne peuvent être estimés. On étudie ensuite les performances théoriques et empiriques de différents estimateurs du troisième paramètre, le coefficient d'intermittence, dans un cas gaussien
APA, Harvard, Vancouver, ISO, and other styles
14

Ledauphin, Stéphanie. "Analyse statistique d'évaluations sensorielles au cours du temps." Nantes, 2007. http://www.theses.fr/2007NANT2007.

Full text
Abstract:
Dans les industries agro-alimentaires ainsi que dans d'autres secteurs d'activités, l'analyse sensorielle est la clé pour répondre aux attentes des consommateurs. Cette discipline est le plus souvent basée sur l'établissement de profils sensoriels à partir de notes attribuées par des juges entraînés selon une liste de descripteurs (variables sensorielles). Dans ce type d’étude, il importe d'étudier la performance des juges et d'en tenir compte dans l'établissement des profils sensoriels. Dans cette perspective, nous proposons une démarche qui permet de procurer des indicateurs de performance du jury et de chacun des juges et de tenir compte de cette performance pour une détermination d'un tableau moyen. Des tests d'hypothèses pour évaluer la significativité de la contribution des juges à la détermination du compromis sont également proposés. Depuis une vingtaine d'années, les courbes temps-intensité (TI) qui permettent de décrire l'évolution d'une sensation au cours de l'expérience sont de plus en plus populaires parmi les praticiens de l'analyse sensorielle. La difficulté majeure pour l'analyse des courbes TI provient d'un effet juge important qui se traduit par la présence d'une signature propre à chaque juge. Nous proposons une approche fonctionnelle basée sur les fonctions B-splines qui permet de réduire l'effet juge en utilisant une procédure d'alignement de courbes. D'autres données sensorielles au cours du temps existent telles que le suivi de la dégradation organoleptique de produits alimentaires. Pour les étudier, nous proposons la modélisation par des chaînes de Markov cachées, de manière à pouvoir ensuite visualiser graphiquement la suivi de la dégradation<br>Sensory analysis of food products is most often based on scores given by panellists according to a list of descriptors that characterize the products. A statistical method for analyzing sensory profiling data obtained by means of fixed vocabulary is discussed. It consists in a procedure for weighted averaging the data sets associated with the assessors taking account of the extent to which these assessors agree with the general point of view. The method of analysis also provides an overall index of the performance of the panel and performance indices associated with the various assessors. In conventional sensory profiling, the evaluation focuses on an overall assessment and does not reflect the dynamic process of the sensory perception in the course of time. This is the reason why Time Intensity (TI) curves are becoming more and more popular notwithstanding the poor performance of the assessors and the tricky statistical issues these curves pose. In particular, a common feature of the TI curves is that each assessor tends to generate a characteristic shape, called 'subject signature'. The functional approach adopted herein is specifically based on the identification and the correction of the 'signature' effect of the assessors by adjusting the individual curves. The cornerstones of the method are the use of the projection upon a B-spline basis and alignment procedures. Other sensory analysis over time exist such as the study of the decay of organoleptic perception of the products. We propose to use Markov chains and Hidden Markov chains to model this decay and focus on the graphical comparison of the evolution of several products
APA, Harvard, Vancouver, ISO, and other styles
15

Garoche, Pierre-Loïc. "Analyse statistique d'un calcul d'acteurs par interprétation abstraite." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000629/.

Full text
Abstract:
Le modèle des Acteurs, introduit par Hewitt et Agha à la fin des années 80, décrit un système concurrent comme un ensemble d'agents autonomes au comportement non uniforme et communiquant de façon point-à-point par l'envoi de messages étiquetés. Le calcul CAP, proposé par Colaço, est un calcul de processus basé sur ce modèle qui permet de décrire sans encodage complexe des systèmes réalistes non triviaux. Ce calcul permet, entre autre, la communication de comportements via les messages et est, en ce sens, un calcul d'ordre supérieur. L'analyse de propriétés sur ce calcul a déjà fait l'objet de plusieurs travaux, essentiellement par inférence de type en utilisant des types comportementaux et du sous-typage. Par ailleurs, des travaux plus récents, effectués par Venet puis Feret, proposent une utilisation de l'interprétation abstraite pour l'analyse de calculs de processus. Ces approches permettent de calculer des propriétés non uniformes : elles permettent, par exemple, de différencier les instances récursives d'un même processus. Cette thèse s'inscrit donc dans la suite de ces deux approches, en appliquant l'interprétation abstraite à l'analyse de CAP. Suivant le cadre proposé par Feret, CAP est, tout d'abord, exprimé dans une forme non standard facilitant les analyses. L'ensemble des configurations atteignables est ensuite sur-approximé via une représentation, correcte par construction, dans des domaines abstraits. [. . . ]<br>The Actor model, introduced by Hewitt and Agha in the late 80s, describes a concurrent communicating system as a set of autonomous agents, with non uniform interfaces and communicating by the use of labeled messages. The CAP process calculus, proposed by Colaço, is based on this model and allows to describe non trivial realistic systems, without the need of complex encodings. CAP is a higher-order calculus: messages can carry actor behaviors. Multiple works address the analysis of CAP properties, mainly by the use of inference-based type systems using behavioral types and sub-typing. Otherwise, more recent works, by Venet and later Feret, propose the use of abstract interpretation to analyze process calculi. These approaches allow to compute non-uniform properties. For example, they are able to differentiate recursive instances of the same thread. This thesis is at the crossroad of these two approaches, applying abstract interpretation to the analysis of CAP. Following the framework of Feret, CAP is firstly expressed in a non standard form, easing its analysis. The set of reachable states is then over-approximated via a sound by construction representation within existing abstract domains. [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
16

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques." Lyon 1, 1987. http://www.theses.fr/1987LYO19034.

Full text
Abstract:
Une description statistique des regions des genomes codant pour les proteines (les "parties codantes") est presentee. La methodologie utilise a la fois une modelisation de l'information et des outils de description. Les schemas entite-association constituent un outil de representation des relations logiques entre des jets biologiques. La description des sequences a utilise essentiellement des methodes multivariees et des statistiques non parametriques. Ces analyses montrent l'existence de biais importants dans l'usage du code ainsi que dans certaines relations de voisinage entre bases. Ces biais peuvent s'interpreter, au moins en partie, comme resultant de contraintes liees aux differents processus moleculaires auxquels participent ces sequences. Chez e. Coli, le processus de traduction a ete clairement mis en cause. Une repercussion de ces contraintes sont la nature de la proteine codee a pu etre mise en evidence dans plusieurs cas. L'observation de biais tres differents dans des sequences homologues (en particulier mitochondrial) a permis de discuter de la stationnarite du processus evolutif
APA, Harvard, Vancouver, ISO, and other styles
17

Dupuis, Jérôme. "Analyse statistique bayesienne de modèles de capture-recapture." Paris 6, 1995. http://www.theses.fr/1995PA066077.

Full text
Abstract:
Le modele statistique de base que nous considerons, consiste en n realisations simultanees et i. I. D. D'un processus d'interet ramene a une chaine de markov, avec donnees manquantes, non homogene, a espace d'etat fini comportant un unique etat absorbant. Alors que l'estimateur du maximum de vraisemblance est actuellement disponible l'analyse statistique bayesienne de ce modele de capture-recapture n'a pas encore ete abordee. L'estimation bayesienne des probabilites de survie et de mouvement du modele de base est realisee via l'algorithme de gibbs. Des conditions suffisantes de convergence de l'algorithme sont etablies. Puis nous developpons des tests afin d'apprehender les differentes sources d'heterogeneite (temporelle, individuelle et environnementale) du phenomene biologique represente par la chaine de markov. Le test d'homogeneite temporelle que nous construisons formule la question d'interet en terme de divergence acceptable entre la chaine initiale et sa projection (au sens de la distance de kullback) sur l'espace des chaines de markov homogenes. Nous developpons ensuite des tests formules en terme d'independance conditionnelle permettant de mettre en evidence un effet differe d'un processus auxiliaire (variable aleatoire discrete environnementale ou individuelle, dependant ou non du temps) sur le processus d'interet. Enfin, pour la premiere fois en capture-recapture, une situation de non-independance des comportements migratoires est envisagee. Nous considerons une structure de dependance de nature unilaterale qui permet de rendre compte d'un eventuel effet guide en dynamique des populations animales
APA, Harvard, Vancouver, ISO, and other styles
18

Larrere, Guy. "Contribution à l'étude asymptotique en analyse statistique multivariée." Pau, 1994. http://www.theses.fr/1994PAUU3026.

Full text
Abstract:
Ce travail est composé de cinq articles qui se répartissent en deux parties. On considère d'abord l'étude asymptotique des éléments propres associés à la valeur propre limite nulle en analyse canonique linéaire. Les lois limites sont complètement explicitées et permettent de généraliser le test de Bartlett de nullité des derniers coefficients canoniques. On montre ensuite que les résultats sont radicalement différents en analyse en composantes principales. Dans ce cas, on obtient, à partir d'une certaine taille d'échantillon et de l'analyse par échantillonnage, les éléments propres associés à la valeur propre limite zéro. Ces résultats sont obtenus sans faire d'hypothèses sur les lois des variables étudiées. La seconde partie est consacrée à l'étude asymptotique des modèles structurels. On réalise d'abord l'étude asymptotique du modèle structurel usuel dans le cadre de l'estimation selon les moindres carres des paramètres du modèle. On propose ensuite un modèle structurel mixte qui permet de généraliser les modèles fonctionnels et structurels usuels. On réalise l'étude asymptotique de ce modèle.
APA, Harvard, Vancouver, ISO, and other styles
19

Vu, Thi Lan Huong. "Analyse statistique locale de textures browniennes multifractionnaires anisotropes." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0094.

Full text
Abstract:
Nous construisons quelques extensions anisotropes des champs browniens multifractionnels qui rendent compte de phénomènes spatiaux dont les propriétés de régularité et de directionnalité peuvent varier dans l’espace. Notre objectif est de mettre en place des tests statistiques pour déterminer si un champ observé de ce type est hétérogène ou non. La méthodologie statistique repose sur une analyse de champ par variations quadratiques, qui sont des moyennes d’incréments de champ au carré. Notre approche, ces variations sont calculées localement dans plusieurs directions. Nous établissons un résultat asymptotique montrant une relation linéaire gaussienne entre ces variations et des paramètres liés à la régularité et aux propriétés directionnelles. En utilisant ce résultat, nous concevons ensuite une procédure de test basée sur les statistiques de Fisher des modèles linéaires gaussiens. Nous évaluons cette procédure sur des données simulées. Enfin, nous concevons des algorithmes pour la segmentation d’une image en régions de textures homogènes. Le premier algorithme est basé sur une procédure K-means qui a estimé les paramètres en entrée et prend en compte les distributions de probabilité théoriques. Le deuxième algorithme est basé sur une algorithme EM qui implique une exécution continue à chaque boucle de 2 processus. Finalement, nous présentons une application de ces algorithmes dans le cadre d’un projet pluridisciplinaire visant à optimiser le déploiement de panneaux photovoltaïques sur le terrain. Nous traitons d’une étape de prétraitement du projet qui concerne la segmentation des images du satellite Sentinel-2 dans des régions où la couverture nuageuse est homogène<br>We deal with some anisotropic extensions of the multifractional brownian fields that account for spatial phenomena whose properties of regularity and directionality may both vary in space. Our aim is to set statistical tests to decide whether an observed field of this kind is heterogeneous or not. The statistical methodology relies upon a field analysis by quadratic variations, which are averages of square field increments. Specific to our approach, these variations are computed locally in several directions. We establish an asymptotic result showing a linear gaussian relationship between these variations and parameters related to regularity and directional properties of the model. Using this result, we then design a test procedure based on Fisher statistics of linear gaussian models. Eventually we evaluate this procedure on simulated data. Finally, we design some algorithms for the segmentation of an image into regions of homogeneous textures. The first algorithm is based on a K-means procedure which has estimated parameters as input and takes into account their theoretical probability distributions. The second algorithm is based on an EM algorithm which involves continuous execution ateach 2-process loop (E) and (M). The values found in (E) and (M) at each loop will be used for calculations in the next loop. Eventually, we present an application of these algorithms in the context of a pluridisciplinary project which aims at optimizing the deployment of photo-voltaic panels on the ground. We deal with a preprocessing step of the project which concerns the segmentation of images from the satellite Sentinel-2 into regions where the cloud cover is homogeneous
APA, Harvard, Vancouver, ISO, and other styles
20

Douspis, Marian. "Analyse statistique des anisotropies du fond diffus cosmologique." Toulouse 3, 2000. http://www.theses.fr/2000TOU30185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Elqasyr, Khadija. "Modélisation et analyse statistique des plans d’expérience séquentiels." Rouen, 2008. http://www.theses.fr/2008ROUES023.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle ``Play-The-Winner''. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle "Play-The-Winner randomisée'' ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle ''Play-The-Winner'', nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables<br>Two distinct sections constitute this thesis. The first part concerns the study of sequential experimental designs applied to clinical trials. We study the modelling of these designs. We develop a generalization of the `` Play-The-Winner'' rule. Theoretical and numerical results show that these designs perform better than the designs recently developed, in the framework of the Freedman's urn models, which are a generalization of the ''randomized play-the-winner'' rule or of a modifiedversion of this rule. In the second part, we develop inference methods for analyszing the data from the considered sequential designs. In the case of two treatments, and for ''play-the-winner'' rule, we made explicit the sampling distributions and their factorial moments. We derive frequentist inference procedures (tests and conditional confidence intervals) and Bayesian methods for these designs. In the Bayesian framework, for a family of appropriate priors we found the posterior distributions and the credible intervals about the relevant parameters, and the predictive distributions. The link between conditional tests and Bayesian procedures is made explicit. The Bayesian methods are generalized to cover more complex plans (several treatments and delayed responses). Non informative Bayesian procedures are remarkable frequentist properties
APA, Harvard, Vancouver, ISO, and other styles
22

Romefort, Dominique Villedieu. "Analyse statistique des circuits intégrès : caractérisation des modèles." Toulouse 3, 1990. http://www.theses.fr/1990TOU30087.

Full text
Abstract:
Le travail presente porte sur l'analyse statistique des circuits integres (c. I. ) et plus particulierement sur la caracterisation des modeles statistiques, ceux-ci n'etant pas disponibles pour les composants des c. I. La caracterisation d'un modele statistique peut etre realisee a partir de la connaissance des parametres physiques directement issus du processus de fabrication, mais cette approche est limitee aux fabricants qui seuls disposent des informations necessaires. Une autre voie consiste a utiliser la mesure des performances sur un lot de composants: la methode proposee ici consiste alors a ajuster le modele sur chaque composant individuel; on obtient ainsi une base de parametres du modele, a partir de laquelle on determine la valeur moyenne et l'ecart-type de chaque parametre variable. Cette methode est principalement basee sur une optimisation parametrique, dont la solution peut dependre etroitement des algorithmes, des calculateurs et des valeurs de depart ainsi que de la qualite de la base de mesures et de l'adequation du modele. Les experimentations realisees ont montre la difficulte a obtenir un modele statistique fiable, liee aux differents points critiques cites ci-dessus, l'une des contraintes fondamentales etant de garantir l'univocite entre les mesures et les parametres du modele. Un protocole de caracterisation complet et original a ete elabore; il garantit la validite d'un modele representatif si toutes les etapes en sont franchies avec succes, et permet de tirer des conclusions objectives en cas d'insuffisance sur un des points critiques
APA, Harvard, Vancouver, ISO, and other styles
23

Kollia, Aikaterini. "Analyse statistique de la diversité en anthropometrie tridimensionnelle." Thesis, Lyon, 2016. http://www.theses.fr/2016EMSE0812.

Full text
Abstract:
L’anthropométrie est le domaine scientifique qui étudie les dimensions du corps humain. La complexité de la morphologie du corps nécessite une analyse 3D, aujourd’hui permise par les progrès des scanners 3D. L’objectif de cette étude est de comparer les populations et utiliser les résultats pour mieux adapter les produits sportifs à la morphologie des utilisateurs. Des campagnes de mensuration 3D ont été réalisées et des algorithmes de traitement automatique ont été créés pour analyser les nuages de points des sujets scannés. Basés sur les méthodes d’images et de géométrie, ces algorithmes repèrent des points anatomiques, calculent des mesures 1D, alignent les sujets scannés et créent des modèles anthropométriques 3D représentatifs des populations. Pour analyser les caractéristiques anthropométriques, des statistiques de premier ordre et factorielles ont été adaptées pour être utilisées dans l’espace 3D. Les méthodes ont été appliquées à trois parties : le pied, la tête et la poitrine. Les différences morphologiques entre les populations, mais également au sein d’une population donnée, ont été révélées. Par exemple, la différence à chaque point de la tête entre des têtes a été calculée. Les statistiques en trois dimensions ont aussi permis de mettre en évidence l’asymétrie de la tête. La méthode de création de modèles anthropométriques est plus adaptée à nos applications que les méthodes dans la littérature. L’analyse en trois dimensions permet d’obtenir des résultats qui ne sont pas visibles par les analyses 1D. Les connaissances acquises par cette étude sont utilisées pour la conception de différents produits vendus dans les magasins DECATHLON à travers le monde<br>Anthropometry is the scientific field that studies human body dimensions (from the greek άνθρωπος (human) + μέτρον (measure)). Anthropometrical analysis is based actually on 1D measurements (head circumference, length, etc). However, the body’s morphological complexity requires 3D analysis. This is possible due to recent progress of 3D scanners. The objective of this study is to compare population’s anthropometry and use results to adapt sporting goods to user’s morphology. For this purpose, 3D worldwide measurement campaigns were realized and automated treatment algorithms were created in order to analyze the subjects’ point cloud. Based on image processing methods and on shape geometry, these algorithms detect anatomical landmarks, calculate 1D measurements, align subjects and create representative anthropometrical 3D models. In order to analyze morphological characteristics, different statistical methods including components’ analysis, were adapted for use in 3D space. The methods were applied in three body parts: the foot, the head and the bust. The morphological differences between and inside the populations were studied. For example, the difference in each point of the head, between Chinese and European head, was calculated. The statistics in three dimensions, permitted also to show the asymmetry of the head. The method to create anthropometrical models is more adapted to our applications than the methods used in the literature. The analysis in three dimensions, can give results that they are not visible from 1D analyses. The knowledge of this thesis is used for the conception of different products that they are sold in DECATHLON stores around the world
APA, Harvard, Vancouver, ISO, and other styles
24

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605346q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Aubert, Julie. "Analyse statistique de données biologiques à haut débit." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS048/document.

Full text
Abstract:
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique<br>The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects
APA, Harvard, Vancouver, ISO, and other styles
26

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S001/document.

Full text
Abstract:
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie<br>During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
APA, Harvard, Vancouver, ISO, and other styles
27

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques." Electronic Thesis or Diss., Sorbonne Paris Cité, 2015. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=1017&f=2491.

Full text
Abstract:
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie<br>During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
APA, Harvard, Vancouver, ISO, and other styles
28

Rivera, Alejandro. "Mécanique statistique des champs gaussiens." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM066/document.

Full text
Abstract:
Dans cette thèse, on étudie les ensembles de niveau de champs gaussiens lisses, ou fonctions lisses aléatoires. On explore plusieurs directions, certaines liées à la géométrie spectrale, d’autres à la mécanique statistique.L’attention est d’abord portée sur une famille de champs gaussiens sur des variétés riemanniennes compactes définis comme des combinaisons linéaires de fonctions propres du laplacien avec des points gaussiens indépendants. Dans certains cas particuliers, cette famille donne l’ensemble à bande limitée qui a été très étudié ces dernières années, mais elle donne aussi le champ libre gaussien coupé en fréquence, qui est la projection du champ libre gaussien sur les premiers espaces propres du laplacien. On étudie la fonction de covariance de ces champs, l’espérance du nombre de composantes connexes de leur lieu d’annulation et, dans le cas du champ libre gaussien, on en déduit une estimation précise des grandes déviation de l’événement que le champ est positif sur un ensemble fixé quand la limite de fréquence tend vers l’infini.Puis on étudie la percolation des sur-niveaux de champs stationnaires sur le plan en utilisant des techniques de percolation de Bernoulli. On prouve d’abord un résultat de mélange sur la topologie des ensembles nodaux pour des champs gaussiens planaires. Puis on prouve un résultat de transition de phase pour le champ de Bargmann-Fock<br>In this thesis, we study the level sets of smooth Gaussian fields, or random smooth functions. Several directions are explored, some linked to spectral theory, some to statistical mechanics.The first object of focus is a family of Gaussian fields on compact Riemannian manifolds defined as linear combinations of eigenfunctions of the Laplacian with independent Gaussian weights. In special cases, this family specializes to the band-limited ensemble which has received a lot of attention in recent years, but also to the cut-off Gaussian Free Field, which is the projection of the Gaussian Free Field on the first eigenspaces of the Laplacian. We study the covariance function of these fields, the expected number of connected components of their zero set, and, in the case of the cut-off Gaussian Free Field, derive a precise large deviation estimate on the event that the field is positive on a fixed set when the energy cut-off tends to infinity.Next, we study percolation of excursion sets of stationary fields on the plane using techniques from Bernoulli precolation. We first derive a mixing bound for the topology of nodal sets of planar Gaussian fields. Then, we prove a sharp phase transition result for the Bargmann-Fock random field
APA, Harvard, Vancouver, ISO, and other styles
29

Gerville-Réache, Léo. "Analyse statistique de modèles probabilistes appliqués aux processus sociaux." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10606.

Full text
Abstract:
Les domaines d'application de la statistique mathématique sont de plus en plus nombreux ainsi que les méthodes d'analyse mises en oeuvre. Motivé, tant par des collaborations effectives que par des considérations théoriques, ce travail est construit autour de sept thèmes. Le premier chapitre regroupe trois études. Les loteries et plus particulièrement le loto, souvent donné comme exemple en combinatoire, est l'objet d'une étude basée sur plus d'une année de résultats. Une collaboration avec des chercheurs de l'institut d'oenologie nous a conduit à étudier le pouvoir prédictif de la concentration de substances chimiques sur l'âge de vins de porto. Enfin, avec la complicité du gan de Bordeaux, nous avons analysé le modèle de Makeham et construit un test d'ajustement du khi-deux pour une hypothèse simple et composée. Le deuxième chapitre présente les deux outils d'expertise sociale que nous avons mis en place à la caf de la gironde. Basé sur l'adaptation des chaines de Markov et de la régression logistique à l'analyse quantitative des risques sociaux, le premier outil est informatique. Le problème de la pondération d'experts pour une prise de décision optimale fait l'objet, dans une optique qualitative, du deuxième outil. Le troisième chapitre compare les estimations paramétriques et non paramétriques de la fonction de fiabilité du modèle standard de vie accélérée. L'étude des propriétés asymptotiques des estimateurs paramétriques ainsi que leurs simulations numériques ont été réalisées. Le dernier chapitre reprend le problème de l'estimation d'une fonction observée en addition avec un bruit stationnaire. A l'aide de techniques de projection, nous établissons, entre autre, une nouvelle condition suffisante d'optimalité de l'estimateur des moindres carrés.
APA, Harvard, Vancouver, ISO, and other styles
30

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.<br /><br /> Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.<br /><br /> Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.<br /> <br /> Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
APA, Harvard, Vancouver, ISO, and other styles
31

Vatsiou, Alexandra. "Analyse de génétique statistique en utilisant des données pangénomiques." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS002/document.

Full text
Abstract:
Les phénotypes complexes observés dans les populations humaines contemporaines sont déterminés par la génétique, ainsi que par des facteurs environnementaux. Par exemple, la nutrition et les modes de vie jouent un rôle important dans le développement de maladies multifactorielles, comme l'obésité ou le diabète. L'adaptation sur de tels traits phénotypiques complexes survient généralement sous la forme de modification des fréquences alléliques à de multiple locus, un phénomène nommé sélection polygénique. Les avancées récentes des méthodes statistiques, ainsi que l'émergence des données issues du séquençage haut-débit permettent dorénavant la détection de ces signaux. Ici, nous visons à comprendre à quel point des changements environnementaux peuvent entraîner des modifications dans les pressions sélectives, ainsi que leurs impacts sur la sensibilité aux maladies. Dans ce but, nous proposons une analyse d'enrichissement en groupes de gènes (GSEA, Gene Set Enrichment Analysis) en utilisant des données de scores de sélection sur du polymorphisme nucléotidique (SNP, Single Nucleotide Polymorphism), pour quantifier la pression de sélection sur ces SNP (qui pourrait issus par exemple de méthodes de scan génomique). D'abord, nous effectuons une analyse de sensibilité des méthodes de scan génomique pour examiner leur exactitude. Nous utilisons une analyse par simulation pour étudier leurs performances sous un large éventail de scénarios démographiques complexes et des hypothèses de balayage sélectif fort (hard sweep) ou faible (soft sweep). Ensuite, nous développons SEL-GSEA, un outil utilisant des données de SNP pour identifier des voies biochimiques enrichies en pressions sélectives. Enfin, dans l'optique d'examiner les effets de potentiels changements environnementaux qui pourraient représenter des changements dans les pressions sélectives, nous utilisons SEL-GSEA et Gowinda (un outil disponible en ligne) lors d'une étude population-centrée. Nous analysons trois différentes populations (africains, européens et asiatiques) de la base de données HapMap. Pour obtenir les scores de sélection des SNP qui servent de base à SEL-GSEA, nous utilisons une combinaison de deux méthodes (iHS et XP-CLR) qui sont les plus performantes dans notre analyse de sensibilité. Les résultats de notre analyse montrent une forte pression de sélection sur les voies biochimiques liées à l'immunité, principalement en Afrique, ainsi que sur la glycolyse et la néoglucogenèse en Europe, qui sont des voies liées au métabolisme et au diabète<br>The complex phenotypes observed nowadays in human populations are determined by genetic as well as environmental factors. For example, nutrition and lifestyle play important roles in the development of multifactorial diseases such as obesity and diabetes. Adaptation on such complex phenotypic traits may occur via allele frequency shifts at multiple loci, a phenomenon known as polygenic selection. Recent advances in statistical approaches and the emergence of high throughput Next Generation Sequencing data has enabled the detection of such signals. Here we aim to understand the extent to which environmental changes lead to shifts in selective pressures as well as the impact of those on disease susceptibility. To achieve that, we propose a gene set enrichment analysis using SNP selection scores that are simply scores that quantify the selection pressure on SNPs and they could be derived from genome-scan methods. Initially we carry out a sensitivity analysis to investigate which of the recent genome-scan methods identify accurately the selected region. A simulation approach was used to assess their performance under a wide range of complex demographic structures under both hard and soft selective sweeps. Then, we develop SEL-GSEA, a tool to identify pathways enriched for evolutionary pressures, which is based on SNP data. Finally, to examine the effect of potential environmental changes that could represent changes in selection pressures, we apply SEL-GSEA as well as Gowinda, an available online tool, on a population-based study. We analyzed three populations (Africans, Europeans and Asians) from the HapMap database. To acquire the SNP selection scores that are the basis for SEL-GSEA, we used a combination of two genome scan methods (iHS and XPCLR) that performed the best in our sensitivity analysis. The results of our analysis show extensive selection pressures on immune related pathways mainly in Africa population as well as on the glycolysis and gluconeogenesis pathway in Europeans, which is related to metabolism and diabetes
APA, Harvard, Vancouver, ISO, and other styles
32

Meddeb, Ali. "Analyse théorique et statistique du phénomène de l'émergence financière." Montpellier 1, 1999. http://www.theses.fr/1999MON10031.

Full text
Abstract:
Un des faits, marquant la scene financiere de cette fin de millenaire, est l'apparition d'un certain nombre de pays en developpement dotes de marches boursiers tres dynamique a rendement eleve, appeles: << marches emergents >>. Toutefois, l'origine de l'apparition de cette nouvelle classe de pays est sujet a nombreuses controverses. Cette these tente d'apporter quelques elements de reponse a cette confusion conceptuelle en donnant une nouvelle vision de l'<< emergence financiere >>. Pour ce faire, la technique utilisee consiste a detecter le ou les facteurs qui ont ete a l'origine de la naissance de ce phenomene, afin d'etablir une typologie d'un echantillon compose de plusieurs pays.
APA, Harvard, Vancouver, ISO, and other styles
33

Zabalza-Mezghani, Isabelle. "Analyse statistique et planification d'expérience en ingénierie de réservoir." Pau, 2000. http://www.theses.fr/2000PAUU3009.

Full text
Abstract:
La première partie de cette thèse a pour but la prévision de réponses en production simulées, lorsqu'elles sont influencées par des paramètres contrôlables ou non-contrôlables. La spécificité de notre travail réside dans l'étude d'un paramètre non-contrôlable : le germe géostatistique, qui induit un contexte hétéroscédastique. De ce fait, le recours à une modélisation de la moyenne et de la variance de la réponse s'est avéré essentiel lors de la prédiction. Nous avons proposé deux intervalles de prédiction, l'un faisant appel au reéhantillonnage bootstrap, l'autre non, qui ont fourni d'excellentes prédictions. Un autre objectif de cette première partie était l'utilisation des gradients de la réponse pour améliorer la prédiction. Grâce à une méthode de prédiction bayésienne traitant conjointement réponse et gradients, nous avons mis en évidence l'apport significatif des gradients. Dans la seconde partie de la thèse, consacrée au calage des données dynamiques, l'originalité de notre approche réside dans le recours aux plans d'expérience. Ce problème de calibration d'un modèle de simulation en fonction des données dynamiques revient en fait à minimiser une fonction objectif. Le comportement non-linéaire de la fonction objectif ne pouvant être approché par un polynome, nous avons proposé de coupler la méthode simplex, qui permet de localiser un domaine sur lequel une approximation polynomiale est fondée, à la méthode des plans d'expérience qui permet de construire un modèle analytique de la fonction objectif. Une minimisation de ce modèle fournit alors les valeurs des paramètres qui restituent les données dynamiques. Cette méthodologie met en évidence l'intérêt des plans d'expérience pour le calage, en particulier lorsque les méthodes d'optimisation sont inadaptées du fait d'une non-différentiabilité, comme lors de la mise à jour des modèles géostatistiques discrets. Diverses applications à des cas de gisement illustrent d'ailleurs l'efficacité des méthodes proposées.
APA, Harvard, Vancouver, ISO, and other styles
34

Marchaland, Catherine. "Analyse statistique d'un tableau de notes : comparaisons d'analyses factorielles." Paris 5, 1987. http://www.theses.fr/1987PA05H123.

Full text
Abstract:
Ce travail présente quelques comparaisons de méthodes d'analyse factorielle dans le cas particulier de l'étude d'un tableau de notes. La partie portant sur les aspects théoriques comporte trois chapitres. Dans le premier nous procédons à des rappels sur les méthodes classiques d'analyse factorielle : analyse en composantes principales et analyse des correspondances. Dans le deuxième chapitre nous présentons les perturbations que subissent les valeurs propres et les sous espaces invariants d'un endomorphisme symétrique quand on lui ajoute un endomorphisme symétrique ou quand on le premultiplie par un endomorphisme symétrique défini positif. Dans le troisième chapitre, après avoir défini l'équivalence de deux analyses, on procède à quatre comparaisons. La première permet d'établir l'équivalence de l'analyse des correspondances sur un tableau dédouble en 0 et 1, et de l'analyse en composantes principales du tableau non dédouble. La deuxième comparaison concerne l'analyse en composantes principales faite sur la matrice des corrélations et celle faite sur la matrice des covariances. La troisième comparaison permet d'établir l'équivalence entre l'analyse des correspondances d'un tableau de notes dédouble et l'analyse en composantes principales sur la matrice des covariances. Dans la quatrième comparaison on étudie l'influence de la modification des éléments diagonaux d'une matrice lors d'une analyse en composantes principales. La deuxième partie de ce travail se compose d'une illustration de ces comparaisons sur des données physiologiques et d'une ouverture sur d'autres analyses qui constituent des prolongements intéressants a ces méthodes d'analyse factorielle : les méthodes des échelles multidimensionnelles et le modèle lisrel.
APA, Harvard, Vancouver, ISO, and other styles
35

Colin, Pascal. "Analyse statistique d'images de fluorescence dans des jets diphasiques." Rouen, 1998. http://www.theses.fr/1998ROUES069.

Full text
Abstract:
La nature quantitative, en terme de concentration locale, de la fluorescence induite par laser a permis de réaliser des études statistiques des images dans la zone de développement proche de l'injecteur de jets diphasiques coaxiaux avec ou sans combustion. Quand elle est superieure a trois diamètres d'injection, la longueur du dard liquide est gouvernée par le rapport des pressions dynamiques entre le gaz et le liquide injectes. Cependant l'étude de l'aire interfaciale du dard et l'examen des champs de vitesse instantanés du liquide montrent l'existence d'un régime avec troncature du dard. La fraction volumique et la probabilité de présence de liquide ont été analysées selon un schéma simplifié où le spray est localement décrit comme un réseau régulier de gouttes sphériques identiques. A Weber d'injection constant, la taille et la densité de ces gouttes équivalentes évoluent spatialement de façon très différentes selon la vitesse d'injection du liquide. Une technique originale a permis de mesurer de façon cumulative la PDF de la fraction volumique de liquide en tout point de l'écoulement : la distribution obtenue comporte en deux pics d'intermittence encadrant une fraction turbulente continue. Dans le cas où l'atomisation est véritablement gouvernée par l'écoulement gazeux, la fraction turbulente du spectre prend rapidement du poids et elle peut être décrite par une simple fonction d’Arrhenius à un paramètre local unique. Un simple changement de variable met en évidence la forme canonique de cette distribution et l'application des principes généraux de la physique statistique fournit le nombre de degrés de liberté des éléments du spray en tous points du champ. Cette approche prometteuse ne demande aucune hypothèse sur la forme des éléments liquides et il semble que la variable réduite utilisée soit directement reliée à l'énergie potentielle d'interaction des éléments par l'intermédiaire de la densité d'interface. La fluorescence de l'oxygène chaud induite par une nappe laser UV dans le banc cryogénique mascotte alimente en GH 2/LOx, nous a fourni des images instantanées de la surface réactive de combustion non prémélangée. Une analyse de cette surface en terme de probabilité de présence, de taux plissement et de courbure locale est proposé afin de confronter aux modèles de combustion turbulente à chimie rapide.
APA, Harvard, Vancouver, ISO, and other styles
36

Jaunâtre, Kévin. "Analyse et modélisation statistique de données de consommation électrique." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS520.

Full text
Abstract:
En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique<br>In October 2014, the French Environment &amp; Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit
APA, Harvard, Vancouver, ISO, and other styles
37

Huang, Weibing. "Dynamique des carnets d’ordres : analyse statistique, modélisation et prévision." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066525/document.

Full text
Abstract:
Cette thèse est composée de deux parties reliées, le premier sur le carnet d'ordre et le deuxième sur les effets de valeur de tick. Dans la première partie, nous présentons notre cadre de modélisation de carnet. Le modèle queue-réactive est d'abord introduit, dans laquelle nous révisons l'approche zéro intelligence traditionnelle en ajoutant dépendance envers l'État de carnet. Une étude empirique montre que ce modèle est très réaliste et reproduit de nombreuses fonctionnalités intéressantes microscopiques de l'actif sous-jacent comme la distribution du carnet de commandes. Nous démontrons également qu'il peut être utilisé comme un simulateur de marché efficace, ce qui permet l'évaluation de la tactique de placement complexes. Nous étendons ensuite le modèle de queue-réactive à un cadre markovien général. Conditions de Ergodicité sont discutés en détail dans ce paramètre. Dans la deuxième partie de cette thèse, nous sommes intéressés à étudier le rôle joué par la valeur de la tique à deux échelles microscopiques et macroscopiques. Tout d'abord, une étude empirique sur les conséquences d'un changement de la valeur de tick est effectuée à l'aide des données du programme pilote de réduction de la taille 2014 tick japonais. Une formule de prédiction pour les effets d'un changement de valeur de tique sur les coûts de transactions est dérivé. Ensuite, un modèle multi-agent est introduit afin d'expliquer les relations entre le volume du marché, la dynamique des prix, spread bid-ask, la valeur de la tique et de l'état du carnet d'ordres d'équilibre<br>This thesis is made of two connected parts, the first one about limit order book modeling and the second one about tick value effects. In the first part, we present our framework for Markovian order book modeling. The queue-reactive model is first introduced, in which we revise the traditional zero-intelligence approach by adding state dependency in the order arrival processes. An empirical study shows that this model is very realistic and reproduces many interesting microscopic features of the underlying asset such as the distribution of the order book. We also demonstrate that it can be used as an efficient market simulator, allowing for the assessment of complex placement tactics. We then extend the queue-reactive model to a general Markovian framework for order book modeling. Ergodicity conditions are discussed in details in this setting. Under some rather weak assumptions, we prove the convergence of the order book state towards an invariant distribution and that of the rescaled price process to a standard Brownian motion. In the second part of this thesis, we are interested in studying the role played by the tick value at both microscopic and macroscopic scales. First, an empirical study of the consequences of a tick value change is conducted using data from the 2014 Japanese tick size reduction pilot program. A prediction formula for the effects of a tick value change on the trading costs is derived and successfully tested. Then, an agent-based model is introduced in order to explain the relationships between market volume, price dynamics, bid-ask spread, tick value and the equilibrium order book state
APA, Harvard, Vancouver, ISO, and other styles
38

Zreik, Rawya. "Analyse statistique des réseaux et applications aux sciences humaines." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E061/document.

Full text
Abstract:
Depuis les travaux précurseurs de Moreno (1934), l’analyse des réseaux est devenue une discipline forte, qui ne se limite plus à la sociologie et qui est à présent appliquée à des domaines très variés tels que la biologie, la géographie ou l’histoire. L’intérêt croissant pour l’analyse des réseaux s’explique d’une part par la forte présence de ce type de données dans le monde numérique d’aujourd’hui et, d’autre part, par les progrès récents dans la modélisation et le traitement de ces données. En effet, informaticiens et statisticiens ont porté leurs efforts depuis plus d’une dizaine d’années sur ces données de type réseau en proposant des nombreuses techniques permettant leur analyse. Parmi ces techniques on note les méthodes de clustering qui permettent en particulier de découvrir une structure en groupes cachés dans le réseau. De nombreux facteurs peuvent exercer une influence sur la structure d’un réseau ou rendre les analyses plus faciles à comprendre. Parmi ceux-ci, on trouve deux facteurs importants: le facteur du temps, et le contexte du réseau. Le premier implique l’évolution des connexions entre les nœuds au cours du temps. Le contexte du réseau peut alors être caractérisé par différents types d’informations, par exemple des messages texte (courrier électronique, tweets, Facebook, messages, etc.) échangés entre des nœuds, des informations catégoriques sur les nœuds (âge, sexe, passe-temps, Les fréquences d’interaction (par exemple, le nombre de courriels envoyés ou les commentaires affichés), et ainsi de suite. La prise en considération de ces facteurs nous permet de capturer de plus en plus d’informations complexes et cachées à partir des données. L’objectif de ma thèse été de définir des nouveaux modèles de graphes aléatoires qui prennent en compte les deux facteurs mentionnés ci-dessus, afin de développer l’analyse de la structure du réseau et permettre l’extraction de l’information cachée à partir des données. Ces modèles visent à regrouper les sommets d’un réseau en fonction de leurs profils de connexion et structures de réseau, qui sont statiques ou évoluant dynamiquement au cours du temps. Le point de départ de ces travaux est le modèle de bloc stochastique (SBM). Il s’agit d’un modèle de mélange pour les graphiques qui ont été initialement développés en sciences sociales. Il suppose que les sommets d’un réseau sont répartis sur différentes classes, de sorte que la probabilité d’une arête entre deux sommets ne dépend que des classes auxquelles ils appartiennent<br>Over the last two decades, network structure analysis has experienced rapid growth with its construction and its intervention in many fields, such as: communication networks, financial transaction networks, gene regulatory networks, disease transmission networks, mobile telephone networks. Social networks are now commonly used to represent the interactions between groups of people; for instance, ourselves, our professional colleagues, our friends and family, are often part of online networks, such as Facebook, Twitter, email. In a network, many factors can exert influence or make analyses easier to understand. Among these, we find two important ones: the time factor, and the network context. The former involves the evolution of connections between nodes over time. The network context can then be characterized by different types of information such as text messages (email, tweets, Facebook, posts, etc.) exchanged between nodes, categorical information on the nodes (age, gender, hobbies, status, etc.), interaction frequencies (e.g., number of emails sent or comments posted), and so on. Taking into consideration these factors can lead to the capture of increasingly complex and hidden information from the data. The aim of this thesis is to define new models for graphs which take into consideration the two factors mentioned above, in order to develop the analysis of network structure and allow extraction of the hidden information from the data. These models aim at clustering the vertices of a network depending on their connection profiles and network structures, which are either static or dynamically evolving. The starting point of this work is the stochastic block model, or SBM. This is a mixture model for graphs which was originally developed in social sciences. It assumes that the vertices of a network are spread over different classes, so that the probability of an edge between two vertices only depends on the classes they belong to
APA, Harvard, Vancouver, ISO, and other styles
39

Guerineau, Lise. "Analyse statistique de modèles de fiabilité en environnement dynamique." Lorient, 2013. http://www.theses.fr/2013LORIS297.

Full text
Abstract:
Nous décrivons des modèles permettant d’étudier la fiabilité du réseau électrique sous l’influence de l’environnement dynamique dans lequel il évolue. Notre approche repose sur l’observation du réseau et s’appuie sur une modélisation probabiliste et statistique de l’occurrence des pannes. Elle s’appuie sur la loi exponentielle par morceaux, loi particulièrement adaptée, par sa flexibilité, à la représentation des durées de bon fonctionnement dans un environnement perturbé. Nous étudions les propriétés de cette loi ainsi que l’inférence suivant la nature de l’observation. Des modèles reliant la fiabilité des composants aux contraintes auxquelles ils sont soumis et reposant sur l’hypothèse d’une distribution exponentielle par morceaux sont proposés. Les estimateurs du maximum de vraisemblance sont obtenus sur des données simulées et sur des données réelles. Nous modélisons ensuite, par des processus stochastiques, la fiabilité d’un système multi-composants qui présente la particularité d’évoluer en fonction des maintenances correctives opérées. Des méthodes d’estimation adaptées à différents types d’observation du système sont présentées. Etant confrontés à une situation de données incomplètes, nous sommes conduits à envisager un algorithme EM pour mener l’inférence. Des versions stochastiques de cet algorithme sont envisagées pour faire face aux phénomènes d’explosions combinatoires qui peuvent limiter l’efficacité de l’algorithme EM. Des exemples numériques viennent illustrer les procédures que nous proposons<br>We propose models which integrate time varying stresses for assessing reliability of the electrical network. Our approach is based on the network observation and consists of statistical and probabilistic modelling of failure occurrence. The great flexibility allowed by the piecewise exponential distribution makes it appropriate to model time-to-failure of a component under varying environmental conditions. We study properties of this distribution and make statistical inference for different observation schemes. Models relating components reliability with environmental constraints, and relying on the piecewise exponential distribution, are proposed. The maximum likelihood is assessed on both simulated and real data sets. Then, we consider a multi-component system whose evolution is linked with the corrective maintenance performed. Reliability of this system can be described using stochastic processes. We present inference methods according to the nature of the observation. Discrete observation can be formulated in terms of missing data; the EM algorithm is used to reach estimates in this situation. Stochastic versions of this algorithm have been considered to overcome a possible combinatorial explosion preventing from the EM algorithm implementation. Numerical examples are presented for the proposed algorithms
APA, Harvard, Vancouver, ISO, and other styles
40

Salem, André. "Méthodes de la statistique textuelle." Paris 3, 1993. http://www.theses.fr/1994PA030010.

Full text
Abstract:
A l'intersection de plusieurs disciplines, méthodes de la statistique textuelle présente un bilan de recherches consacre a l'étude statistique du vocabulaire. Le premier volume est consacre a la définition des unités textuelles, a la présentation et a l'adaptation au domaine des études textuelles de plusieurs méthodes d'analyse statistique ainsi qu'a l'application de ces méthodes a différents domaines de recherche utilisant le texte. Un même ensemble de méthodes lexico métriques permet, malgré la diversité des domaines abordés, de mettre en évidence des contrastes dans la ventilation des formes et des segments qui trouvent des interprétations pertinentes pour chacun des corpus soumis à comparaison. Les études réalisées sur des séries textuelles chronologiques mettent en évidence l'importance d'un même phénomène lie à l'évolution d'ensemble du vocabulaire au fil du temps. La prise en compte de la variable temps permet de mieux caractériser les périodes ou les groupes de périodes successives, en fonction du vocabulaire qu'elles emploient. Des coefficients calculés a partir des sous-fréquences de chacune des unités textuelles (formes et segments répétés du corpus) permettent de mettre en rapport les périodisations empiriques obtenues sur la base de l'analyse chronologique du stock lexical avec les découpages a priori, réalisés a partir des dates importantes autour desquelles le corpus a été réuni<br>Methods for textual statistics, a multidisciplinary work, presents a critical overview of statistical studies on vocabulary. The first part is devoted to the definition of textual units and to the adaptation of a set of statistical methods (mainly multidimensional statistical methods) to textual studies. That set of lexicometric methods has also been used in various fields dealing with textual data. Beyond the diversity of the domains, lexicometrical methods reveal contrasts between distributions of forms and repeated segments throughout the texts. Those contrasts found pertinent interpretation in each case. Numerous studies performed over chronological textual series show the importance of a same phenomenon: qualitative and quantitative evolution of the vocabulary as time goes by. Taking into account time-variable leads to a better characterization of the successive time periods, or groups of periods, based upon the vocabulary they use. Coefficients calculated on the basis of the distribution of textual units (forms and repeated segments) through the different periods of the corpus, lead to compare the empirical periodizations resulting from chronological analysis of the lexical amount with a priori periodizations based on important dates of the period covered by the corpus
APA, Harvard, Vancouver, ISO, and other styles
41

Zerbet, Aïcha. "Contribution à l'étude de deux problèmes statistiques : analyse statistique des observations aberrantes : LAN contribution pour les processus stationnaires gaussiens." Bordeaux 1, 2001. http://www.theses.fr/2001BOR12369.

Full text
Abstract:
Notre travail de recherche est constitué de deux parties bien distinctes; la première est consacrée à l'élaboration d'un logiciel permettant de détecter plusieurs valeurs aberrantes, pour les deux familles normales et exponentielle, en utilisant l'approche de Bol'shev basée sur la règle de Chauvenet. Nous avons donné beaucoup d'exemples qui illustrent la qualité des procédures et du logiciel utilisés pour traiter des données erronées. La seconde partie, à caractère théorique, étudie la condition LAN (Normality Asymptotique Locale) pour les processus stationnaires gaussiens. En utilisant l'espace des fonctions à variation moyenne bornée BMO, nous avons traité le problème du choix d'une métrique permettant d'évaluer la distance entre deux densités spectrales, pour que le logarithme du rapport de vraissemblance des deux mesures soit asymptotiquement normal.
APA, Harvard, Vancouver, ISO, and other styles
42

Gonzalez, Ignacio Baccini Alain Leon José. "Analyse canonique régularisée pour des données fortement multidimensionnelles." Toulouse (Université Paul Sabatier, Toulouse 3), 2008. http://thesesups.ups-tlse.fr/99.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

ROLAND, Christophe. "Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00010238.

Full text
Abstract:
La première partie est consacrée à la résolution de systèmes linéaires. Le chapitre 1 expose des résultats théoriques et numériques sur les méthodes proposées par Altman et précise le lien avec les méthodes de Krylov. Le chapitre 2 utilise des techniques d'extrapolation introduites par Brezinski pour obtenir une estimation du vecteur erreur. Plusieurs méthodes de projection sont retrouvées et de nouvelles procédures d'accélération données. Dans la deuxième partie, une nouvelle stratégie inspirée de la méthode de Cauchy-Barzilai-Borwein permet de définir de nouveaux schémas résolvant des problèmes de point fixe. Des résultats numériques sur un problème de bifurcation et un théorème de convergence sont donnés. Les chapitres 4, 5 et 6 sont consacrés à l'accélération de l'algorithme EM utilisé pour calculer des estimateurs du maximum de vraisemblance. Une classe de schémas itératifs basés sur la stratégie précédente est présentée, un théorème de convergence et une application à un problème de tomographie sont donnés. La dernière partie, fruit d'un projet du cemracs 2003, traite d'un problème issu de la physique des plasmas : l'amélioration des Codes Particles in Cell à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes et sa validation numérique.
APA, Harvard, Vancouver, ISO, and other styles
44

Vasseur, Bérengère. "Analyse statistique des déterminants du comportement de vitesse au Québec." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape15/PQDD_0001/MQ31803.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Nicole, Isabelle. "La revitalisation du quartier Saint-Roch, analyse statistique et cartographique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ61358.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Houéto, Kayodé Carine. "Analyse statistique des mesures de pollution en temps de pluie /." Montréal : École de technologie supérieure, 2004. http://wwwlib.umi.com/cr/etsmtl/fullcit?pMQ90327.

Full text
Abstract:
Thèse (M. Ing.)--École de technologie supérieure, Montréal, 2004.<br>"Mémoire présenté à l'École de technologie supérieure comme exigence partielle à l'obtention de la maîtrise en génie de la construction". Bibliogr.: f. [116]--117. Également disponible en version électronique.
APA, Harvard, Vancouver, ISO, and other styles
47

Houéto, Kayodé Carine. "Analyse statistique des mesures de pollution en temps de pluie." Mémoire, École de technologie supérieure, 2004. http://espace.etsmtl.ca/683/1/HOU%C3%89TO_Kayod%C3%A9_Carine.pdf.

Full text
Abstract:
La pollution des cours d'eau est un problème qui est de plus en plus d'actualité. En milieu urbain, les municipalités sont confrontées aux débordements de leurs réseaux d'assainissement en temps de pluie. La maîtrise de cette pollution nécessite des campagnes de mesures afin de caractériser les eaux véhiculées par les réseaux. Ces analyses peuvent se faire en laboratoire sur des échantillons prélevés in situ. Cependant le délai d'analyse qui varie de quelques heures à quelques jours en fonction du paramètre recherché est incompatible avec la gestion en temps réel des réseaux. De plus, le coût élevé de ces analyses n'est pas à la portée des petites municipalités. Plusieurs objectifs sont poursuivis dans notre projet de recherche. Dans un premier temps, on analyse la corrélation qui existe entre les pollutogrammes des différents polluants. Ainsi, la concentration des différents polluants est estimée à l'aide d'équations de régression dont les variables explicatives sont les matières en suspension et la demande chimique en oxygène. Ainsi on étudiera la corrélation qui existe entre d'une part les matières en suspension (MES) et la Demande Chimique en Oxygène (DCO) et d'autre part les autres indicateurs de la pollution qui ne sont pas accessibles en temps réel. Comme la mesure de la concentration en MES n'est pas directement accessible en temps réel, on a tenté de la relier à la mesure en continu de la turbidité. Enfin ce travail permettra aussi de s'assurer de la fiabilité des nouveaux instruments de mesure en continu. La réalisation des objectifs cités précédemment permettra le bon fonctionnement des systèmes de gestion en temps réel et différé qui sont en cours d'implantation dans les réseaux d'assainissement.
APA, Harvard, Vancouver, ISO, and other styles
48

Bounekkar, Ahmed. "Analyse statistique de texture : autocorrélation spatiale et notion de contiguïté." Lyon 1, 1997. http://www.theses.fr/1997LYO10142.

Full text
Abstract:
L'évolution technologique de ces dernières années est fortement marquée par la grande quantité d'images produites et consommées. Un contenu sémantique à la fois riche et très souple explique cet avènement de l'image et l'intérêt croissant qui lui est témoigné. La texture est présente au sein d'un grand nombre d'images. Cette présence peut être forte (images aériennes, tissus et matières synthétiques,. . Ect), ou faible (objets et scènes naturellesn cellules et images microscopiques,. . . ) suivant le type d'image. Ce travail s'inscrit dans une démarche de reconnaissance de formes dans les images numériques inspirée de la réalité des diverses activités humaines. Nous nous intéressons ici aux méthodes d'analyse de textures destinées à caractériser du mieux possible une image de texture. Nous avons ainsi évalué l'intérêt d'une approche statistique où la priorité est donnée à la notion de proximité dans le domaine spatial. On considère qu'une forme est la combinaison d'une forme (géométrique), d'une texture, d'une composante liée au mode d'acquisition de l'image et d'un terme d'erreur. Seule la composante texture nous intéresse. Par conséquent, on utilisera une forme plus simplifiée du modèle dans laquelle ne figurent que les composantes textures pures à une erreur près. .
APA, Harvard, Vancouver, ISO, and other styles
49

Koulechova, Gozal Olga. "Analyse statistique des mesures multiples en application au traitement d'image." Bordeaux 1, 2000. http://www.theses.fr/2000BOR10536.

Full text
Abstract:
En matiere de traitement d'images, un des problemes majeurs est celui de l'association entre les cibles observees et les points detectes. Jusqu'ici, des procedures classiques d'association de donnees etaient utilisees, mais ces procedures sont tres lourdes a mettre en uvre, et ne permettent pas toujours d'obtenir des resultats satisfaisants des lors que les cibles observees sont trop proches. La procedure que nous envisageons dans cette these permet d'eviter le probleme de l'association. Elle est basee sur les statistiques invariantes par rapport aux permutations des ensembles de coordonnees des cibles. Cette procedure a ete inventee et developpee par a. V bernstein pour le cas particulier des mesures completes. L'objectif de cette these est de generaliser cette nouvelle procedure afin de pouvoir l'utiliser dans le cadre de mesures incompletes.
APA, Harvard, Vancouver, ISO, and other styles
50

Couronne, Thierry. "Analyse statistique de la performance d'un jury en évaluation sensorielle." Rennes 2, 1997. http://www.theses.fr/1997REN20009.

Full text
Abstract:
L'objectif de cette thèse est de proposer une méthodologie permettant d'analyser la performance d'un jury en évaluation sensorielle. Les données de référence utilisées sont les suivantes : J juges notent P produits via D descripteurs (=variables). L'angle d'analyse de la performance choisi est l'étude de l'homogénéité du jury. La méthodologie proposée met en oeuvre conjointement le modèle linéaire (analyse de la variance) et des méthodes de l'analyse des données multidimensionnelles (ACP et CAH). Une première partie décrit la problématique et les données. Elle résume les approches existantes de la performance. Une seconde partie présente des méthodes autour de quelques résultats originaux. Les données sont analysées descripteur par descripteur. Usuellement, l'homogénéité du jury est mesurée à partir des résidus (= interaction) du modèle additif a deux facteurs : réponse (du juge J sur le produit P) = effet du juge J + effet du produit P + résidu. Il est montre dans ce travail que, dans l'optique d'une analyse de la performance, il est préférable d'étudier les résidus du modèle comportant le seul facteur juge. Cette matrice des résidus donne lieu à une interprétation géométrique qui met en évidence un nuage de juges considérés en tant que variables (on s'intéresse à la fois aux angles entre les juges et à leur norme). Dans un premier temps, on définit une analyse factorielle de ce nuage dans laquelle on introduit une contrainte de contiguité. Dans un second temps, ce nuage est étudié à l'aide de classifications. L'angle d'analyse choisi conduit à définir : - une contrainte de contiguité "stricte" (i. E. Tous les couples de juges d'une même classe doivent vérifier la contrainte), - plusieurs critères d'agrégation. L'ensemble de l'expose est illustre a la fois par des exemples artificiels très simples et par des données réelles<br>The aim of this thesis is to develop a methodology to analyse assessors' performance in sensory evaluation. The data used are the following : J assessors note P products on d criteria (= variables) the study of the performance is focused on panel's homogeneity. The methodology suggested uses a linear model (analysis of variance) and multidimensionnal data analysis (PCA, classification). The first part describes problematics and data : a state of the art of performance is done. The second part shows some original results. The data are analysed criterion by criterion. Usually, panel homogeneity is measured from residuals (= interaction) of the two ways model : response (of assessor J on product P) = effect of assessor J + effect of product P + residual. This work shows that, in a performance target, it is better to analyse residual of one way model with only assessor effect. This matrix of residual leads to a geometric interpretation which points out a cloud of assessors considered as variables (angles and length are of interest). First, a factorial analysis of this cloud with a contiguity constraint is introduced. Secondly, this cloud is analysed by classification. The approach of the subject leads to : - a "strict" contiguity constraint (i. E. In a class, all the couples of assessors must verify the constraint), - several agregation criteria. The document is illustrated by convenient artificial examples and by true data
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography