To see the other types of publications on this topic, follow the link: Analyse statistique de classement.

Dissertations / Theses on the topic 'Analyse statistique de classement'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse statistique de classement.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ouni, Zaïd. "Statistique pour l’anticipation des niveaux de sécurité secondaire des générations de véhicules." Thesis, Paris 10, 2016. http://www.theses.fr/2016PA100099/document.

Full text
Abstract:
La sécurité routière est une priorité mondiale, européenne et française. Parce que les véhicules légers (ou simplement “les véhicules”) sont évidemment l’un des acteurs principaux de l’activité routière, l'amélioration de la sécurité routière passe nécessairement par l’analyse de leurs caractéristiques accidentologiques. Si les nouveaux véhicules sont développés en bureau d’étude et validés en laboratoire, c’est la réalité accidentologique qui permet de vraiment cerner comment ils se comportent en matière de sécurité secondaire, c’est-à-dire quelle sécurité ils offrent à leurs occupants lors d’un accident. C’est pourquoi les constructeurs souhaitent procéder au classement des générations de véhicules en fonction de leurs niveaux de sécurité secondaire réelle. Nous abordons cette thématique en exploitant les données nationales d’accidents corporels de la route appelées BAAC (Bulletin d’Analyse d’Accident Corporel de la Circulation). En complément de celles-ci, les données de parc automobile permettent d’associer une classe générationelle (CG) à chaque véhicule. Nous élaborons deux méthodes de classement de CGs en termes de sécurité secondaire. La première produit des classements contextuels, c’est-à-dire des classements de CGs plongées dans des contextes d’accident. La seconde produit des classements globaux, c’est-`a-dire des classements de CGs déterminés par rapport à une distribution de contextes d’accident. Pour le classement contextuel, nous procédons par “scoring” : nous cherchons une fonction de score qui associe un nombre réel à toute combinaison de CG et de contexte d’accident ; plus ce nombre est petit, plus la CG est sûre dans le contexte d’accident donné. La fonction de score optimale est estimée par “ensemble learning”, sous la forme d’une combinaison convexe optimale de fonctions de score produites par une librairie d’algorithmes de classement par scoring. Une inégalité oracle illustre les performances du méta-algorithme ainsi obtenu. Le classement global est également basé sur le principe de “scoring” : nous cherchons une fonction de score qui associe à toute CG un nombre réel ; plus ce nombre est petit, plus la CG est jugée sûre globalement. Des arguments causaux permettent d’adapter le méta-algorithme évoqué ci-dessus en s’affranchissant du contexte d’accident. Les résultats des deux méthodes de classement sont conformes aux attentes des experts
Road safety is a world, European and French priority. Because light vehicles (or simply“vehicles”) are obviously one of the main actors of road activity, the improvement of roadsafety necessarily requires analyzing their characteristics in terms of traffic road accident(or simply “accident”). If the new vehicles are developed in engineering department and validated in laboratory, it is the reality of real-life accidents that ultimately characterizesthem in terms of secondary safety, ie, that demonstrates which level of security they offer to their occupants in case of an accident. This is why car makers want to rank generations of vehicles according to their real-life levels of safety. We address this problem by exploiting a French data set of accidents called BAAC (Bulletin d’Analyse d’Accident Corporel de la Circulation). In addition, fleet data are used to associate a generational class (GC) to each vehicle. We elaborate two methods of ranking of GCs in terms of secondary safety. The first one yields contextual rankings, ie, rankings of GCs in specified contexts of accident. The second one yields global rankings, ie, rankings of GCs determined relative to a distribution of contexts of accident. For the contextual ranking, we proceed by “scoring”: we look for a score function that associates a real number to any combination of GC and a context of accident; the smaller is this number, the safer is the GC in the given context. The optimal score function is estimated by “ensemble learning”, under the form of an optimal convex combination of scoring functions produced by a library of ranking algorithms by scoring. An oracle inequality illustrates the performance of the obtained meta-algorithm. The global ranking is also based on “scoring”: we look for a scoring function that associates any GC with a real number; the smaller is this number, the safer is the GC. Causal arguments are used to adapt the above meta-algorithm by averaging out the context. The results of the two ranking procedures are in line with the experts’ expectations
APA, Harvard, Vancouver, ISO, and other styles
2

Paris, Nicolas. "Formalisation algorithmique des classements au tennis : mise en perspective longitudinale par simulation probabiliste." Bordeaux 2, 2008. http://www.theses.fr/2008BOR21603.

Full text
Abstract:
Les jeux de société et les jeux sportifs sont des terrains de réflexion pour la théorie des probabilités et la théorie des jeux. Les activités physiques et sportives offrent une multiplicité de situations qui se révèlent un immense champ d'investigation. A chaque problématique correspond une méthode qui nécessite des niveaux de formalisation adéquats. Le tennis permet de présenter des exemples prégnants de problématiques et de méthodes associées. Le premier concerne la modélisation d'un match. La méthode proposée est un modèle logistique, complété par des simulations probabilistes. La méthode aboutit à une analyse raisonnable de l'interaction entre les deux adversaires et permet de dégager des pistes concrètes d'entraînement. Le deuxième exemple abordé est l'étude du palmarès des joueurs français en 2001. Cette analyse, descriptive, est une lecture du comportement des joueurs face au système de classement dans lequel ils évoluent. La troisième partie est une analyse des propriétés mathématiques de la méthode de classement en elle-même. A partir d'un niveau de formalisation plus élevé, la réalisation de simulation probabiliste mène à comprendre les propriétés intrinsèques de la méthode en terme de nombre de matches minimum à effectuer pour se maintenir ou monter avec une probabilité de 1/2. La dernière partie est une analyse longitudinale des méthodes de classements français de 1977 à 2006. Cette problématique nécessite le niveau de formalisation le plus élevé. Néanmoins, les résultats obtenus restent concrets sous la forme de comparaison de l'évolution du nombre de matches minimum à effectuer pour se maintenir ou monter avec une probabilité de 1/2 sur la période.
APA, Harvard, Vancouver, ISO, and other styles
3

Sibony, Eric. "Analyse mustirésolution de données de classements." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0036/document.

Full text
Abstract:
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs
This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
APA, Harvard, Vancouver, ISO, and other styles
4

Martins, Da Cruz José Márcio. "Contribution au classement statistique mutualisé de messages électroniques (spam)." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00637173.

Full text
Abstract:
Depuis la fin des années 90, les différentes méthodes issues de l'apprentissage artificiel ont été étudiées et appliquées au problème de classement de messages électroniques (filtrage de spam), avec des résultats très bons, mais pas parfaits. Il a toujours été considéré que ces méthodes étaient adaptées aux solutions de filtrage orientées vers un seul destinataire et non pas au classement des messages d'une communauté entière. Dans cette thèse notre démarche a été, d'abord, de chercher à mieux comprendre les caractéristiques des données manipulées, à l'aide de corpus réels de messages, avant de proposer des nouveaux algorithmes. Puis, nous avons utilisé un classificateur à régression logistique avec de l'apprentissage actif en ligne - pour démontrer empiriquement qu'avec un algorithme simple et une configuration d'apprentissage mieux adaptée au contexte réel de classement, on peut obtenir des résultats aussi bons que ceux que l'on obtient avec des algorithmes plus complexes. Nous avons aussi démontré, avec des ensembles de messages d'un petit groupe d'utilisateurs, que la perte d'efficacité peut ne pas être significative dans un contexte de classement mutualisé.
APA, Harvard, Vancouver, ISO, and other styles
5

Cruz, José Marcio Martins da. "Contribution au classement statistique mutualisé de messages électroniques (spam)." Paris, ENMP, 2011. https://pastel.archives-ouvertes.fr/pastel-00637173.

Full text
Abstract:
Depuis la fin des années 90, les différentes méthodes issues de l'apprentissage artificiel ont été étudiées et appliquées au problème de classement de messages électroniques (filtrage de spam), avec des résultats très bons, mais pas parfaits. Il a toujours été considéré que ces méthodes étaient adaptées aux solutions de filtrage orientées vers un seul destinataire et non pas au classement des messages d'une communauté entière. Dans cette thèse notre démarche a été, d'abord, de chercher à mieux comprendre les caractéristiques des données manipulées, à l'aide de corpus réels de messages, avant de proposer des nouveaux algorithmes. Puis, nous avons utilisé un classificateur à régression logistique avec de l'apprentissage actif en ligne - pour démontrer empiriquement qu'avec un algorithme simple et une configuration d'apprentissage mieux adaptée au contexte réel de classement, on peut obtenir des résultats aussi bons que ceux que l'on obtient avec des algorithmes plus complexes. Nous avons aussi démontré, avec des ensembles de messages d'un petit groupe d'utilisateurs, que la perte d'efficacité peut ne pas être significative dans un contexte de classement mutualisé
Since the 90's, different machine learning methods were investigated and applied to the email classification problem (spam filtering), with very good but not perfect results. It was always considered that these methods are well adapted to filter messages to a single user and not filter to messages of a large set of users, like a community. Our approach was, at first, look for a better understanding of handled data, with the help of a corpus of real messages, before studying new algorithms. With the help of a logistic regression classifier with online active learning, we could show, empirically, that with a simple classification algorithm coupled with a learning strategy well adapted to the real context it's possible to get results which are as good as those we can get with more complex algorithms. We also show, empirically, with the help of messages from a small group of users, that the efficiency loss is not very high when the classifier is shared by a group of users
APA, Harvard, Vancouver, ISO, and other styles
6

Bourdel, Ghislaine. "Les Sociétés de conseil : analyse, classement et prospective." Paris 1, 1992. http://www.theses.fr/1992PA010007.

Full text
Abstract:
Cette thèse appréhende la dynamique du secteur du conseil dans ces aspects les plus complexes. Elle répond essentiellement a trois objectifs : mieux connaitre la profession et en assimiler les principaux enjeux, sur le marché français ; clarifier et structurer l'offre de conseil ; analyser les perspectives de croissance et d'évolution de secteur. Elle s'appuie sur une enquête réalisée à partir d'un échantillon d'une quarantaine de cabinets situés en région parisienne. Ses conclusions sont relativement optimistes. Le secteur devait connaitre d'excellentes perspectives de croissance dans les années à venir : le marché français n' est pas encore saturé et les prestations de conseil deviennent indispensables aux entreprises. Une analyse typologique fait apparaitre cinq principaux groupes de cabinets : les big six, les stratèges généralistes, les professionnels du marché intérieur, les socio-conseils internationaux, les spécialistes. Les deux premiers groupes et les plus gros cabinets sont engagés dans des processus d'internationalisation, de course à la taille et d'intensification des mouvements de concentration qu'ils devront poursuivre s'ils veulent conserver leur place de leader. Les autres, en revanche, devront privilégier les nouveaux marchés (PME PMI et secteur public) et s'appuyer sur la qualité et la dimension humaine. Dans son ensemble, le conseil joue un rôle de plus en plus important dans les mutations socio-économiques rapides qui caractérisent notre époque. Non seulement il participe directement à la recherche en gestion et à la formation professionnelle. . .
APA, Harvard, Vancouver, ISO, and other styles
7

Denoyer, Ludovic. "Apprentissage et inférence statistique dans les bases de documents structurés : application aux corpus de documents textuels." Paris 6, 2004. http://www.theses.fr/2004PA066087.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Durel, Marie. "Classement et analyse des brouillons de Madame Bovary de Gustave Flaubert." Rouen, 2000. http://www.theses.fr/2000ROUEL352.

Full text
Abstract:
La bibliothèque municipale de Rouen conserve depuis 1914 les brouillons de Madame Bovary de Gustave Flaubert. Souvent cités, ces manuscrits n'étaient connus que de manière fragmentaire et n'avaient jamais fait l'objet d'un classement intégral. En s'appuyant sur les méthodes d'analyse de la critique génétique, cette thèse propose une mise en ordre systématique des 4392 pages de manuscrits constituant le corpus génétique du roman. Sous la forme d'un tableau génétique de 487 pages, ce classement, réalisé à partir d'une base de données numérique, redistribue l'ensemble des folios selon leur ordre de rédaction et donne pour la première fois accès, page par page, à la genèse de l'œuvre, depuis les scenarios développés jusqu'au manuscrit du copiste. Un chercheur non spécialiste peut désormais entreprendre l'étude de genèse de n'importe quel passage du roman en disposant d'une référence claire et ordonnée à tous les brouillons qui s'y rapportent. Ce dispositif de mise en ordre relationnel, compatible avec d'autres outils éditoriaux, se veut aussi une contribution à l'étude des nouvelles ressources offertes par l’édition électronique des textes et manuscrits, notamment dans le cadre des problèmes posés par les vastes corpus. Véritable outil de recherche sur l'avant-texte du roman, dote de moyens d'approche. Quantitatifs des phénomènes génétiques, cette thèse se présente avant tout comme un instrument de relecture de l'œuvre à la lumière de ses brouillons. Comme exemple des investigations rendues possibles par ce classement, une partie interprétative est consacrée à l'étude génétique des "idées reçues" dans Madame Bovary : une centaine des entrées du célèbre dictionnaire des idées reçues trouve leur formulation primitive, vingt ans plus tôt, dans cette rédaction.
APA, Harvard, Vancouver, ISO, and other styles
9

Suprême, Hussein. "Analyse et classement des contingences d’un réseau électrique pour la stabilité transitoire." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1100/1/SUPR%C3%8AME_Hussein.pdf.

Full text
Abstract:
Les contingences demeurent des problèmes brusques ou soudains rencontrés sur les réseaux électriques. Elles peuvent être bénignes, tout comme elles peuvent avoir des impacts dangereux sur les réseaux. Il faut donc des méthodes fiables et rapides capables de les analyser et de les classer pour faciliter leur traitement par des opérateurs de réseaux électriques. L’objectif de ce mémoire est d’apporter une réponse à cette problématique. Pour ce faire, une étude de l’analyse de stabilité transitoire via un programme dans le domaine du temps s’appuyant sur SIME et le CAE est réalisée. La recherche des machines critiques, le calcul de la marge de stabilité, le temps d’instabilité et le temps de retour sont les principaux paramètres qui permettent de statuer sur la nature et le classement des contingences. Il est aussi proposé dans certains cas une estimation du CCT. Deux méthodes, FILTRA et PASF, sont développées pour filtrer les contingences, les analyser et prédire lesquelles sont les plus sévères pour le fonctionnement du réseau électrique. À chacune de ces méthodes est associée une façon de diviser les machines présentes sur le réseau en deux groupes. Une comparaison des deux méthodes est aussi exposée. Pour simuler le programme proposé, quatre réseaux électriques test sont considérés : le réseau 3 machines 9 barres, le réseau New England, le réseau 17 machines 162 barres et le réseau 50 machines 145 barres. Le modèle classique et le modèle détaillé deux axes des machines sont employés. En guise de validation, les résultats obtenus de ces simulations sont comparés à ceux trouvés dans la littérature et à ceux fournis par le logiciel commercial PSSE.
APA, Harvard, Vancouver, ISO, and other styles
10

Jourdan-Marias, Astrid. "Analyse statistique et échantillonage d'expériences simulées." Pau, 2000. http://www.theses.fr/2000PAUU1014.

Full text
Abstract:
De nombreux phénomènes physiques sont étudiés à l'aide de simulateurs très complexes et coûteux. Bien souvent, l'utilisateur souhaite alors disposer d'un modèle simple et rapide afin de résumer la réponse du simulateur. Il est alors nécessaire de construire un prédicteur de la réponse du code informatique à partir d'un petit nombre de simulations, que l'on appelle encore expérience simulées. A l'heure actuelle il existe 2 principales approches statistiques des expériences simulées, l'une est basée sur un modèle spatial adapté du modèle géo-statistique de krigeage, et l'autre est basée sur des techniques d'échantillonage. Chacune d'elle présente des avantages mais aussi des inconvénients. Ce travail propose une nouvelle approche statistique plus performante des exprériences simulées qui intègre les points forts des 2 approches existantes, i, e. . .
APA, Harvard, Vancouver, ISO, and other styles
11

Mahé, Cédric. "Analyse statistique de delais d'evenement correles." Paris 7, 1998. http://www.theses.fr/1998PA077254.

Full text
Abstract:
Les delais d'evenement correles sont frequemment observes dans les etudes longitudinales lorsque plus d'un evenement peut survenir chez un individu ou lorsqu'un evenement survient chez des individus regroupes en cluster. La prise en compte de la dependance entre les delais d'evenements de la meme unite statistique (l'individu ou le cluster) est necessaire pour une estimation precise et non biaisee de l'effet des covariables sur le risque d'evenement. Pour les evenements non ordonnes, un modele combinant deux generalisations multivariees du modele de cox a ete developpe afin d'estimer un effet moyen des covariables sur le risque d'evenement ainsi que la force de correlation au sein de l'unite statistique. Ce modele a ensuite ete applique a une etude de cohorte expose-non expose. Pour les evenements ordonnes (recurrents), l'apport des methodes qui prennent en compte la correlation des delais a ete presente de facon didactique. D'autre part, dans le cadre des approches multivariees, le choix de la mesure de reponse adequate a ete discute selon la structure des donnees. L'extension de ces methodes a un critere de jugement combinant les deux types d'evenements ordonnes et non ordonnes necessite des developpements ulterieurs.
APA, Harvard, Vancouver, ISO, and other styles
12

Maestracci, Olivier. "Analyse des critères de sélection et de classement des OPCVM : étude théorique et empirique." Aix-Marseille 3, 2004. http://www.theses.fr/2004AIX32003.

Full text
Abstract:
La validation de la théorie de l'efficience a donné lieu a de nombreuses études empiriques, qui ont contribué à développer les modèles de mesure de performance. L'analyse de la performance et de sa persistance permet de juger de la valeur ajoutée d'une gestion active. Nous avons eu trois grands axes d'analyse : la comparaison des OPCVM à la lumière des contraintes du marché qui nous a amené à une critique des modèles et outils de comparaison proposés par les professionnels. Nous avons recherché dans un deuxième temps quels pouvaient être les apports de l'analyse multi-factorielle pour nous permettre une meilleure représentation des différentes sources de rendement des fonds. Enfin fort des critiques que nous avons faîtes des outils proposés par les professionnels et suite à l'étude des différentes mesures de performance mises à notre disposition par la théorie, nous avons voulu établir un modèle de sélection et de classement des OPCVM, adapté aux besoins des investisseurs
Validation of efficiency theory has given place of numerous studies empirical, which have contributed to develop models of performance measure. The analysis of performance and performance persistence allows to judge of value added by active management. We have follow-up three big axes of analysis: The comparison OPCVM with a critical of the models and tools proposed by professionals. We have then look which could being the contributions of analysis multi-factorial to allow us a better representation of the different sources of mutual funds returns. Finally we have constructed a model of selection and classification OPCVM adapted in necessities investors
APA, Harvard, Vancouver, ISO, and other styles
13

Lavialle, Olivier. "Décision sensorielle multicritère : classement de produits alimentaires soumis à des jugements hédoniques multicritères." Bordeaux 1, 1994. http://www.theses.fr/1994BOR10606.

Full text
Abstract:
L'objectif de ce travail est de fournir de nouveaux outils adaptes au traitement de donnees issues d'analyses sensorielles hedoniques. En se fondant sur le caractere multicritere de la decision sensorielle, nous proposons l'utilisation de methodes de surclassement permettant la construction de relations de preferences entre paires de produits. Une exploitation originale des preferences est ensuite proposee ; elle consiste a rechercher le quasi-ordre a distance minimum du profil de jugements. Diverses heuristiques sont presentees ainsi qu'un algorithme arborescent permettant de trouver le quasi-ordre median
APA, Harvard, Vancouver, ISO, and other styles
14

Cigana, John. "Analyse statistique de sensibilité du modèle SANCHO." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ38667.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Célimène, Fred. "Analyse statistique et économétrique des DOM-TOM." Paris 10, 1985. http://www.theses.fr/1985PA100002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Olivier, Adelaïde. "Analyse statistique des modèles de croissance-fragmentation." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090047/document.

Full text
Abstract:
Cette étude théorique est pensée en lien étroit avec un champ d'application : il s'agit de modéliser la croissance d'une population de cellules qui se divisent selon un taux de division inconnu, fonction d’une variable dite structurante – l’âge et la taille des cellules étant les deux exemples paradigmatiques étudiés. Le champ mathématique afférent se situe à l'interface de la statistique des processus, de l’estimation non-paramétrique et de l’analyse des équations aux dérivées partielles. Les trois objectifs de ce travail sont les suivants : reconstruire le taux de division (fonction de l’âge ou de la taille) pour différents schémas d’observation (en temps généalogique ou en temps continu) ; étudier la transmission d'un trait biologique général d'une cellule à une autre et étudier le trait d’une cellule typique ; comparer la croissance de différentes populations de cellules à travers le paramètre de Malthus (après introduction de variabilité dans le taux de croissance par exemple)
This work is concerned with growth-fragmentation models, implemented for investigating the growth of a population of cells which divide according to an unknown splitting rate, depending on a structuring variable – age and size being the two paradigmatic examples. The mathematical framework includes statistics of processes, nonparametric estimations and analysis of partial differential equations. The three objectives of this work are the following : get a nonparametric estimate of the division rate (as a function of age or size) for different observation schemes (genealogical or continuous) ; to study the transmission of a biological feature from one cell to an other and study the feature of one typical cell ; to compare different populations of cells through their Malthus parameter, which governs the global growth (when introducing variability in the growth rate among cells for instance)
APA, Harvard, Vancouver, ISO, and other styles
17

Hassène, Belguith. "Analyse psycho-sociologique des équipes tunisiennes de football en fonction de leurs niveaux de classement." Doctoral thesis, Universite Libre de Bruxelles, 1998. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211985.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Lassalle, Hugues. "Statistical physics for materials classification." Université Louis Pasteur (Strasbourg) (1971-2008), 2003. http://www.theses.fr/2003STR13103.

Full text
Abstract:
Des algorithmes génétiques (GA) et des techniques de " clustering " sont utilisés pour étudier et classifier des matériaux. Une analyse de la convergence des GA est effectuée en utilisant les outils de la théorie avancée des probabilités et les concepts des marches aléatoires. La détermination des états de base d'alliages complexes et de modèles d'Ising avec interaction à longue portée est accomplie à l'aide d'algorithmes génétiques. Un nouveau GA opérateur, le " domain-flip ", est introduit et son efficacité est comparée aux opérateurs GA traditionnels, " crossover " et mutation. L'opérateur domain-flip détruit les barrières de phases en renversant d'un seul coup tous les " bits " d'un domaine donné. Cet opérateur se révèle crucial pour extraire le système des minima locaux. Par conséquent son utilisation est essentielle pour accélérer la convergence des GA. Une étude des GA dans leurs derniers stages, là où tous les chromosomes présents dans la population sont constitués de deux domaines bien ordonnés, est menée à bien en utilisant les théories des marches aléatoires et des probabilités. Des expressions analytiques du temps moyen nécessaire pour qu'au moins un chromosome trouve l'état de base sont dérivées. Egalement, la probabilité que deux chromosomes se combinent avec succès lors d'un crossover est donnée. Finalement, les techniques de clustering, qui appartiennent au domaine du " data mining ", sont appliquées à la classification des matériaux. Une version améliorée du fameux algorithme de clustering, " K-means ", est développée. Une comparaison des deux techniques sur un ensemble de données bi-dimensionnelles montre que la méthode dite du " guide-point " est plus performante que l'algorithme K-means. L'algorithme du guide-point est utilisé, avec succès, pour partitionner un ensemble de données concernant des matériaux. Cette partition a pour résultat l'extraction
Genetic algorithms (GA) and clustering techniques are used to study and classify materials. An analysis of the convergence speed of GA is carried out using advanced probability theory and random walk concepts. The determination of the ground-state of multicomponent alloys and Ising models with long-range interactions is accomplished using genetic algorithm. A new GA operator, the domain-flip, is introduced and its efficiency is compared to that of traditional GA operators, crossover and mutation. The domain-flip operator destroys phase-boundaries by flipping all bits of a given domain at the same time. This operator turns out to be crucial in extracting the system from low local minima. Therefore its presence is rather essential to speed up the GA convergence. A study of GA convergence in its last stages, where all chromosomes present in the population are assumed to consist of two well-ordered domains, is performed using random walk theory and probability theory. Exact expressions for the average time needed for at least one chromosome to find the ground-state are derived. Also, the probability for two chromosomes to undergo a successful crossover, meaning the result is the ground-state, is given. Finally, clustering techniques, which belong to the field of Data Mining, are applied to the classification of materials. An improved version of the widely-used clustering algorithm, K-means, is developed. A comparison of the two clustering techniques on a two-dimensional data set shows that the guide-point approach is more powerful than the K-means algorithm. The guide-point algorithm is used successfully to partition a materials data set. This clustering results in extracting useful information from the data set for which no a priori knowledge was assumed
APA, Harvard, Vancouver, ISO, and other styles
19

Goulard, Michel. "Champs spatiaux et statistique multidimensionnelle." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376138909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Lacombe, Jean-Pierre. "Analyse statistique de processus de poisson non homogènes. Traitement statistique d'un multidétecteur de particules." Phd thesis, Grenoble 1, 1985. http://tel.archives-ouvertes.fr/tel-00318875.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'étude statistique des processus de Poisson non homogènes et spatiaux. On définit un test de type Neyman-Pearson concernant la mesure intensité de ces processus. On énonce des conditions pour lesquelles la consistance du test est assurée, et d'autres entrainant la normalité asymptotique de la statistique de test. Dans la seconde partie de ce travail, on étudie certaines techniques de traitement statistique de champs poissoniens et leurs applications à l'étude d'un multidétecteur de particules. On propose en particulier des tests de qualité de l'appareillage ainsi que les méthodes d'extraction du signal
APA, Harvard, Vancouver, ISO, and other styles
21

Yousfi, Elqasyr Khadija. "MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS." Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00377114.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
APA, Harvard, Vancouver, ISO, and other styles
22

Guillaume, Jean-Loup. "Analyse statistique et modélisation des grands réseaux d'interactions." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00011377.

Full text
Abstract:
L'étude des grands réseaux d'interactions, ou réseaux rencontrés dans des contextes pratiques, vise à expliquer les interactions entre les différents individus d'un réseau par l'étude des grandes lois le gouvernant et à comprendre les divers phénomènes pouvant se produire sur ces réseaux. Cette thèse, divisée en trois parties, est consacrée à l'étude de ces réseaux.
La première partie est centrée sur l'analyse des réseaux et fait un point critique sur les réseaux étudiés et les paramètres introduits pour mieux comprendre leur structure. Un certain nombre de ces paramètres sont partagés par la majorité des réseaux étudiés et justifient l'étude de ceux-ci de manière globale.
La seconde partie qui constitue le coeur de cette thèse s'attache à la modélisation des grands réseaux d'interactions, c'est-à-dire la construction de graphes artificiels semblables à ceux rencontrés en pratique. Ceci passe tout d'abord par la présentation des modèles existants puis par l'introduction d'un modèle basé sur certaines propriétés non triviales qui est suffisamment simple pour que l'on puisse l'étudier formellement ses propriétés et malgré tout réaliste.
Enfin, la troisième partie est purement méthodologique. Elle permet de présenter la mise en pratique des parties précédentes et l'apport qui en découle en se basant sur trois cas particuliers : une étude des échanges dans un réseau pair-à-pair, une étude de la robustesse des réseaux aux pannes et aux attaques et enfin un ensemble de simulations visant à estimer la qualité des cartes de l'Internet actuellement utilisées.
Cette thèse met en lumière la nécessité de poursuivre les travaux sur les grands réseaux d'interactions et pointe plusieurs pistes prometteuses, notamment sur l'étude plus fine des réseaux, que ce soit de manière pondérée ou dynamique. Mais aussi sur la nécessité d'étudier de nombreux problèmes liés à la métrologie des réseaux pour réussir à capturer leur structure de manière plus précise.
APA, Harvard, Vancouver, ISO, and other styles
23

Ledauphin, Stéphanie. "Analyse statistique d'évaluations sensorielles au cours du temps." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00139887.

Full text
Abstract:
Dans les industries agro-alimentaires ainsi que dans d'autres secteurs d'activités, l'analyse sensorielle est la clé pour répondre aux attentes des consommateurs. Cette discipline est le plus souvent basée sur l'établissement de profils sensoriels à partir de notes attribuées par des juges entraînés selon une liste de descripteurs (variables sensorielles). Dans ce type d'étude, il importe d'étudier la performance des juges et d'en tenir compte dans l'établissement des profils sensoriels. Dans cette perspective, nous proposons une démarche qui permet de procurer des indicateurs de performance du jury et de chacun des juges et de tenir compte de cette performance pour une détermination d'un tableau moyen. Des tests d'hypothèses pour évaluer la significativité de la contribution des juges à la détermination du compromis sont également proposés.
Depuis une vingtaine d'années, les courbes temps-intensité (TI) qui permettent de décrire l'évolution d'une sensation au cours de l'expérience sont de plus en plus populaires parmi les praticiens de l'analyse sensorielle. La difficulté majeure pour l'analyse des courbes TI provient d'un effet juge important qui se traduit par la présence d'une signature propre à chaque juge. Nous proposons une approche fonctionnelle basée sur les fonctions B-splines qui permet de réduire l'effet juge en utilisant une procédure d'alignement de courbes.
D'autres données sensorielles au cours du temps existent telles que le suivi de la dégradation organoleptique de produits alimentaires. Pour les étudier, nous proposons la modélisation par des chaînes de Markov cachées, de manière à pouvoir ensuite visualiser graphiquement la suivi de la dégradation.
APA, Harvard, Vancouver, ISO, and other styles
24

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S001/document.

Full text
Abstract:
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
APA, Harvard, Vancouver, ISO, and other styles
25

Duvernet, Laurent. "Analyse statistique des processus de marche aléatoire multifractale." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00567397.

Full text
Abstract:
On étudie certaines propriétés d'une classe de processus aléatoires réels à temps continu, les marches aléatoires multifractales. Une particularité remarquable de ces processus tient en leur propriété d'autosimilarité : la loi du processus à petite échelle est identique à celle à grande échelle moyennant un facteur aléatoire multiplicatif indépendant du processus. La première partie de la thèse se consacre à la question de la convergence du moment empirique de l'accroissement du processus dans une asymptotique assez générale, où le pas de l'accroissement peut tendre vers zéro en même temps que l'horizon d'observation tend vers l'infini. La deuxième partie propose une famille de tests non-paramétriques qui distinguent entre marches aléatoires multifractales et semi-martingales d'Itô. Après avoir montré la consistance de ces tests, on étudie leur comportement sur des données simulées. On construit dans la troisième partie un processus de marche aléatoire multifractale asymétrique tel que l'accroissement passé soit négativement corrélé avec le carré de l'accroissement futur. Ce type d'effet levier est notamment observé sur les prix d'actions et d'indices financiers. On compare les propriétés empiriques du processus obtenu avec des données réelles. La quatrième partie concerne l'estimation des paramètres du processus. On commence par montrer que sous certaines conditions, deux des trois paramètres ne peuvent être estimés. On étudie ensuite les performances théoriques et empiriques de différents estimateurs du troisième paramètre, le coefficient d'intermittence, dans un cas gaussien
APA, Harvard, Vancouver, ISO, and other styles
26

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605346q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Garoche, Pierre-Loïc. "Analyse statistique d'un calcul d'acteurs par interprétation abstraite." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000629/.

Full text
Abstract:
Le modèle des Acteurs, introduit par Hewitt et Agha à la fin des années 80, décrit un système concurrent comme un ensemble d'agents autonomes au comportement non uniforme et communiquant de façon point-à-point par l'envoi de messages étiquetés. Le calcul CAP, proposé par Colaço, est un calcul de processus basé sur ce modèle qui permet de décrire sans encodage complexe des systèmes réalistes non triviaux. Ce calcul permet, entre autre, la communication de comportements via les messages et est, en ce sens, un calcul d'ordre supérieur. L'analyse de propriétés sur ce calcul a déjà fait l'objet de plusieurs travaux, essentiellement par inférence de type en utilisant des types comportementaux et du sous-typage. Par ailleurs, des travaux plus récents, effectués par Venet puis Feret, proposent une utilisation de l'interprétation abstraite pour l'analyse de calculs de processus. Ces approches permettent de calculer des propriétés non uniformes : elles permettent, par exemple, de différencier les instances récursives d'un même processus. Cette thèse s'inscrit donc dans la suite de ces deux approches, en appliquant l'interprétation abstraite à l'analyse de CAP. Suivant le cadre proposé par Feret, CAP est, tout d'abord, exprimé dans une forme non standard facilitant les analyses. L'ensemble des configurations atteignables est ensuite sur-approximé via une représentation, correcte par construction, dans des domaines abstraits. [. . . ]
The Actor model, introduced by Hewitt and Agha in the late 80s, describes a concurrent communicating system as a set of autonomous agents, with non uniform interfaces and communicating by the use of labeled messages. The CAP process calculus, proposed by Colaço, is based on this model and allows to describe non trivial realistic systems, without the need of complex encodings. CAP is a higher-order calculus: messages can carry actor behaviors. Multiple works address the analysis of CAP properties, mainly by the use of inference-based type systems using behavioral types and sub-typing. Otherwise, more recent works, by Venet and later Feret, propose the use of abstract interpretation to analyze process calculi. These approaches allow to compute non-uniform properties. For example, they are able to differentiate recursive instances of the same thread. This thesis is at the crossroad of these two approaches, applying abstract interpretation to the analysis of CAP. Following the framework of Feret, CAP is firstly expressed in a non standard form, easing its analysis. The set of reachable states is then over-approximated via a sound by construction representation within existing abstract domains. [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
28

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques." Lyon 1, 1987. http://www.theses.fr/1987LYO19034.

Full text
Abstract:
Une description statistique des regions des genomes codant pour les proteines (les "parties codantes") est presentee. La methodologie utilise a la fois une modelisation de l'information et des outils de description. Les schemas entite-association constituent un outil de representation des relations logiques entre des jets biologiques. La description des sequences a utilise essentiellement des methodes multivariees et des statistiques non parametriques. Ces analyses montrent l'existence de biais importants dans l'usage du code ainsi que dans certaines relations de voisinage entre bases. Ces biais peuvent s'interpreter, au moins en partie, comme resultant de contraintes liees aux differents processus moleculaires auxquels participent ces sequences. Chez e. Coli, le processus de traduction a ete clairement mis en cause. Une repercussion de ces contraintes sont la nature de la proteine codee a pu etre mise en evidence dans plusieurs cas. L'observation de biais tres differents dans des sequences homologues (en particulier mitochondrial) a permis de discuter de la stationnarite du processus evolutif
APA, Harvard, Vancouver, ISO, and other styles
29

Dupuis, Jérôme. "Analyse statistique bayesienne de modèles de capture-recapture." Paris 6, 1995. http://www.theses.fr/1995PA066077.

Full text
Abstract:
Le modele statistique de base que nous considerons, consiste en n realisations simultanees et i. I. D. D'un processus d'interet ramene a une chaine de markov, avec donnees manquantes, non homogene, a espace d'etat fini comportant un unique etat absorbant. Alors que l'estimateur du maximum de vraisemblance est actuellement disponible l'analyse statistique bayesienne de ce modele de capture-recapture n'a pas encore ete abordee. L'estimation bayesienne des probabilites de survie et de mouvement du modele de base est realisee via l'algorithme de gibbs. Des conditions suffisantes de convergence de l'algorithme sont etablies. Puis nous developpons des tests afin d'apprehender les differentes sources d'heterogeneite (temporelle, individuelle et environnementale) du phenomene biologique represente par la chaine de markov. Le test d'homogeneite temporelle que nous construisons formule la question d'interet en terme de divergence acceptable entre la chaine initiale et sa projection (au sens de la distance de kullback) sur l'espace des chaines de markov homogenes. Nous developpons ensuite des tests formules en terme d'independance conditionnelle permettant de mettre en evidence un effet differe d'un processus auxiliaire (variable aleatoire discrete environnementale ou individuelle, dependant ou non du temps) sur le processus d'interet. Enfin, pour la premiere fois en capture-recapture, une situation de non-independance des comportements migratoires est envisagee. Nous considerons une structure de dependance de nature unilaterale qui permet de rendre compte d'un eventuel effet guide en dynamique des populations animales
APA, Harvard, Vancouver, ISO, and other styles
30

Larrere, Guy. "Contribution à l'étude asymptotique en analyse statistique multivariée." Pau, 1994. http://www.theses.fr/1994PAUU3026.

Full text
Abstract:
Ce travail est composé de cinq articles qui se répartissent en deux parties. On considère d'abord l'étude asymptotique des éléments propres associés à la valeur propre limite nulle en analyse canonique linéaire. Les lois limites sont complètement explicitées et permettent de généraliser le test de Bartlett de nullité des derniers coefficients canoniques. On montre ensuite que les résultats sont radicalement différents en analyse en composantes principales. Dans ce cas, on obtient, à partir d'une certaine taille d'échantillon et de l'analyse par échantillonnage, les éléments propres associés à la valeur propre limite zéro. Ces résultats sont obtenus sans faire d'hypothèses sur les lois des variables étudiées. La seconde partie est consacrée à l'étude asymptotique des modèles structurels. On réalise d'abord l'étude asymptotique du modèle structurel usuel dans le cadre de l'estimation selon les moindres carres des paramètres du modèle. On propose ensuite un modèle structurel mixte qui permet de généraliser les modèles fonctionnels et structurels usuels. On réalise l'étude asymptotique de ce modèle.
APA, Harvard, Vancouver, ISO, and other styles
31

Vu, Thi Lan Huong. "Analyse statistique locale de textures browniennes multifractionnaires anisotropes." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0094.

Full text
Abstract:
Nous construisons quelques extensions anisotropes des champs browniens multifractionnels qui rendent compte de phénomènes spatiaux dont les propriétés de régularité et de directionnalité peuvent varier dans l’espace. Notre objectif est de mettre en place des tests statistiques pour déterminer si un champ observé de ce type est hétérogène ou non. La méthodologie statistique repose sur une analyse de champ par variations quadratiques, qui sont des moyennes d’incréments de champ au carré. Notre approche, ces variations sont calculées localement dans plusieurs directions. Nous établissons un résultat asymptotique montrant une relation linéaire gaussienne entre ces variations et des paramètres liés à la régularité et aux propriétés directionnelles. En utilisant ce résultat, nous concevons ensuite une procédure de test basée sur les statistiques de Fisher des modèles linéaires gaussiens. Nous évaluons cette procédure sur des données simulées. Enfin, nous concevons des algorithmes pour la segmentation d’une image en régions de textures homogènes. Le premier algorithme est basé sur une procédure K-means qui a estimé les paramètres en entrée et prend en compte les distributions de probabilité théoriques. Le deuxième algorithme est basé sur une algorithme EM qui implique une exécution continue à chaque boucle de 2 processus. Finalement, nous présentons une application de ces algorithmes dans le cadre d’un projet pluridisciplinaire visant à optimiser le déploiement de panneaux photovoltaïques sur le terrain. Nous traitons d’une étape de prétraitement du projet qui concerne la segmentation des images du satellite Sentinel-2 dans des régions où la couverture nuageuse est homogène
We deal with some anisotropic extensions of the multifractional brownian fields that account for spatial phenomena whose properties of regularity and directionality may both vary in space. Our aim is to set statistical tests to decide whether an observed field of this kind is heterogeneous or not. The statistical methodology relies upon a field analysis by quadratic variations, which are averages of square field increments. Specific to our approach, these variations are computed locally in several directions. We establish an asymptotic result showing a linear gaussian relationship between these variations and parameters related to regularity and directional properties of the model. Using this result, we then design a test procedure based on Fisher statistics of linear gaussian models. Eventually we evaluate this procedure on simulated data. Finally, we design some algorithms for the segmentation of an image into regions of homogeneous textures. The first algorithm is based on a K-means procedure which has estimated parameters as input and takes into account their theoretical probability distributions. The second algorithm is based on an EM algorithm which involves continuous execution ateach 2-process loop (E) and (M). The values found in (E) and (M) at each loop will be used for calculations in the next loop. Eventually, we present an application of these algorithms in the context of a pluridisciplinary project which aims at optimizing the deployment of photo-voltaic panels on the ground. We deal with a preprocessing step of the project which concerns the segmentation of images from the satellite Sentinel-2 into regions where the cloud cover is homogeneous
APA, Harvard, Vancouver, ISO, and other styles
32

Douspis, Marian. "Analyse statistique des anisotropies du fond diffus cosmologique." Toulouse 3, 2000. http://www.theses.fr/2000TOU30185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Elqasyr, Khadija. "Modélisation et analyse statistique des plans d’expérience séquentiels." Rouen, 2008. http://www.theses.fr/2008ROUES023.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle ``Play-The-Winner''. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle "Play-The-Winner randomisée'' ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle ''Play-The-Winner'', nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables
Two distinct sections constitute this thesis. The first part concerns the study of sequential experimental designs applied to clinical trials. We study the modelling of these designs. We develop a generalization of the `` Play-The-Winner'' rule. Theoretical and numerical results show that these designs perform better than the designs recently developed, in the framework of the Freedman's urn models, which are a generalization of the ''randomized play-the-winner'' rule or of a modifiedversion of this rule. In the second part, we develop inference methods for analyszing the data from the considered sequential designs. In the case of two treatments, and for ''play-the-winner'' rule, we made explicit the sampling distributions and their factorial moments. We derive frequentist inference procedures (tests and conditional confidence intervals) and Bayesian methods for these designs. In the Bayesian framework, for a family of appropriate priors we found the posterior distributions and the credible intervals about the relevant parameters, and the predictive distributions. The link between conditional tests and Bayesian procedures is made explicit. The Bayesian methods are generalized to cover more complex plans (several treatments and delayed responses). Non informative Bayesian procedures are remarkable frequentist properties
APA, Harvard, Vancouver, ISO, and other styles
34

Romefort, Dominique Villedieu. "Analyse statistique des circuits intégrès : caractérisation des modèles." Toulouse 3, 1990. http://www.theses.fr/1990TOU30087.

Full text
Abstract:
Le travail presente porte sur l'analyse statistique des circuits integres (c. I. ) et plus particulierement sur la caracterisation des modeles statistiques, ceux-ci n'etant pas disponibles pour les composants des c. I. La caracterisation d'un modele statistique peut etre realisee a partir de la connaissance des parametres physiques directement issus du processus de fabrication, mais cette approche est limitee aux fabricants qui seuls disposent des informations necessaires. Une autre voie consiste a utiliser la mesure des performances sur un lot de composants: la methode proposee ici consiste alors a ajuster le modele sur chaque composant individuel; on obtient ainsi une base de parametres du modele, a partir de laquelle on determine la valeur moyenne et l'ecart-type de chaque parametre variable. Cette methode est principalement basee sur une optimisation parametrique, dont la solution peut dependre etroitement des algorithmes, des calculateurs et des valeurs de depart ainsi que de la qualite de la base de mesures et de l'adequation du modele. Les experimentations realisees ont montre la difficulte a obtenir un modele statistique fiable, liee aux differents points critiques cites ci-dessus, l'une des contraintes fondamentales etant de garantir l'univocite entre les mesures et les parametres du modele. Un protocole de caracterisation complet et original a ete elabore; il garantit la validite d'un modele representatif si toutes les etapes en sont franchies avec succes, et permet de tirer des conclusions objectives en cas d'insuffisance sur un des points critiques
APA, Harvard, Vancouver, ISO, and other styles
35

Aubert, Julie. "Analyse statistique de données biologiques à haut débit." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS048/document.

Full text
Abstract:
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique
The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects
APA, Harvard, Vancouver, ISO, and other styles
36

Kollia, Aikaterini. "Analyse statistique de la diversité en anthropometrie tridimensionnelle." Thesis, Lyon, 2016. http://www.theses.fr/2016EMSE0812.

Full text
Abstract:
L’anthropométrie est le domaine scientifique qui étudie les dimensions du corps humain. La complexité de la morphologie du corps nécessite une analyse 3D, aujourd’hui permise par les progrès des scanners 3D. L’objectif de cette étude est de comparer les populations et utiliser les résultats pour mieux adapter les produits sportifs à la morphologie des utilisateurs. Des campagnes de mensuration 3D ont été réalisées et des algorithmes de traitement automatique ont été créés pour analyser les nuages de points des sujets scannés. Basés sur les méthodes d’images et de géométrie, ces algorithmes repèrent des points anatomiques, calculent des mesures 1D, alignent les sujets scannés et créent des modèles anthropométriques 3D représentatifs des populations. Pour analyser les caractéristiques anthropométriques, des statistiques de premier ordre et factorielles ont été adaptées pour être utilisées dans l’espace 3D. Les méthodes ont été appliquées à trois parties : le pied, la tête et la poitrine. Les différences morphologiques entre les populations, mais également au sein d’une population donnée, ont été révélées. Par exemple, la différence à chaque point de la tête entre des têtes a été calculée. Les statistiques en trois dimensions ont aussi permis de mettre en évidence l’asymétrie de la tête. La méthode de création de modèles anthropométriques est plus adaptée à nos applications que les méthodes dans la littérature. L’analyse en trois dimensions permet d’obtenir des résultats qui ne sont pas visibles par les analyses 1D. Les connaissances acquises par cette étude sont utilisées pour la conception de différents produits vendus dans les magasins DECATHLON à travers le monde
Anthropometry is the scientific field that studies human body dimensions (from the greek άνθρωπος (human) + μέτρον (measure)). Anthropometrical analysis is based actually on 1D measurements (head circumference, length, etc). However, the body’s morphological complexity requires 3D analysis. This is possible due to recent progress of 3D scanners. The objective of this study is to compare population’s anthropometry and use results to adapt sporting goods to user’s morphology. For this purpose, 3D worldwide measurement campaigns were realized and automated treatment algorithms were created in order to analyze the subjects’ point cloud. Based on image processing methods and on shape geometry, these algorithms detect anatomical landmarks, calculate 1D measurements, align subjects and create representative anthropometrical 3D models. In order to analyze morphological characteristics, different statistical methods including components’ analysis, were adapted for use in 3D space. The methods were applied in three body parts: the foot, the head and the bust. The morphological differences between and inside the populations were studied. For example, the difference in each point of the head, between Chinese and European head, was calculated. The statistics in three dimensions, permitted also to show the asymmetry of the head. The method to create anthropometrical models is more adapted to our applications than the methods used in the literature. The analysis in three dimensions, can give results that they are not visible from 1D analyses. The knowledge of this thesis is used for the conception of different products that they are sold in DECATHLON stores around the world
APA, Harvard, Vancouver, ISO, and other styles
37

Gerville-Réache, Léo. "Analyse statistique de modèles probabilistes appliqués aux processus sociaux." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10606.

Full text
Abstract:
Les domaines d'application de la statistique mathématique sont de plus en plus nombreux ainsi que les méthodes d'analyse mises en oeuvre. Motivé, tant par des collaborations effectives que par des considérations théoriques, ce travail est construit autour de sept thèmes. Le premier chapitre regroupe trois études. Les loteries et plus particulièrement le loto, souvent donné comme exemple en combinatoire, est l'objet d'une étude basée sur plus d'une année de résultats. Une collaboration avec des chercheurs de l'institut d'oenologie nous a conduit à étudier le pouvoir prédictif de la concentration de substances chimiques sur l'âge de vins de porto. Enfin, avec la complicité du gan de Bordeaux, nous avons analysé le modèle de Makeham et construit un test d'ajustement du khi-deux pour une hypothèse simple et composée. Le deuxième chapitre présente les deux outils d'expertise sociale que nous avons mis en place à la caf de la gironde. Basé sur l'adaptation des chaines de Markov et de la régression logistique à l'analyse quantitative des risques sociaux, le premier outil est informatique. Le problème de la pondération d'experts pour une prise de décision optimale fait l'objet, dans une optique qualitative, du deuxième outil. Le troisième chapitre compare les estimations paramétriques et non paramétriques de la fonction de fiabilité du modèle standard de vie accélérée. L'étude des propriétés asymptotiques des estimateurs paramétriques ainsi que leurs simulations numériques ont été réalisées. Le dernier chapitre reprend le problème de l'estimation d'une fonction observée en addition avec un bruit stationnaire. A l'aide de techniques de projection, nous établissons, entre autre, une nouvelle condition suffisante d'optimalité de l'estimateur des moindres carrés.
APA, Harvard, Vancouver, ISO, and other styles
38

Gonzalez, Ignacio Baccini Alain Leon José. "Analyse canonique régularisée pour des données fortement multidimensionnelles." Toulouse (Université Paul Sabatier, Toulouse 3), 2008. http://thesesups.ups-tlse.fr/99.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Salem, André. "Méthodes de la statistique textuelle." Paris 3, 1993. http://www.theses.fr/1994PA030010.

Full text
Abstract:
A l'intersection de plusieurs disciplines, méthodes de la statistique textuelle présente un bilan de recherches consacre a l'étude statistique du vocabulaire. Le premier volume est consacre a la définition des unités textuelles, a la présentation et a l'adaptation au domaine des études textuelles de plusieurs méthodes d'analyse statistique ainsi qu'a l'application de ces méthodes a différents domaines de recherche utilisant le texte. Un même ensemble de méthodes lexico métriques permet, malgré la diversité des domaines abordés, de mettre en évidence des contrastes dans la ventilation des formes et des segments qui trouvent des interprétations pertinentes pour chacun des corpus soumis à comparaison. Les études réalisées sur des séries textuelles chronologiques mettent en évidence l'importance d'un même phénomène lie à l'évolution d'ensemble du vocabulaire au fil du temps. La prise en compte de la variable temps permet de mieux caractériser les périodes ou les groupes de périodes successives, en fonction du vocabulaire qu'elles emploient. Des coefficients calculés a partir des sous-fréquences de chacune des unités textuelles (formes et segments répétés du corpus) permettent de mettre en rapport les périodisations empiriques obtenues sur la base de l'analyse chronologique du stock lexical avec les découpages a priori, réalisés a partir des dates importantes autour desquelles le corpus a été réuni
Methods for textual statistics, a multidisciplinary work, presents a critical overview of statistical studies on vocabulary. The first part is devoted to the definition of textual units and to the adaptation of a set of statistical methods (mainly multidimensional statistical methods) to textual studies. That set of lexicometric methods has also been used in various fields dealing with textual data. Beyond the diversity of the domains, lexicometrical methods reveal contrasts between distributions of forms and repeated segments throughout the texts. Those contrasts found pertinent interpretation in each case. Numerous studies performed over chronological textual series show the importance of a same phenomenon: qualitative and quantitative evolution of the vocabulary as time goes by. Taking into account time-variable leads to a better characterization of the successive time periods, or groups of periods, based upon the vocabulary they use. Coefficients calculated on the basis of the distribution of textual units (forms and repeated segments) through the different periods of the corpus, lead to compare the empirical periodizations resulting from chronological analysis of the lexical amount with a priori periodizations based on important dates of the period covered by the corpus
APA, Harvard, Vancouver, ISO, and other styles
40

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.

Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.

Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.

Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
APA, Harvard, Vancouver, ISO, and other styles
41

Vatsiou, Alexandra. "Analyse de génétique statistique en utilisant des données pangénomiques." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS002/document.

Full text
Abstract:
Les phénotypes complexes observés dans les populations humaines contemporaines sont déterminés par la génétique, ainsi que par des facteurs environnementaux. Par exemple, la nutrition et les modes de vie jouent un rôle important dans le développement de maladies multifactorielles, comme l'obésité ou le diabète. L'adaptation sur de tels traits phénotypiques complexes survient généralement sous la forme de modification des fréquences alléliques à de multiple locus, un phénomène nommé sélection polygénique. Les avancées récentes des méthodes statistiques, ainsi que l'émergence des données issues du séquençage haut-débit permettent dorénavant la détection de ces signaux. Ici, nous visons à comprendre à quel point des changements environnementaux peuvent entraîner des modifications dans les pressions sélectives, ainsi que leurs impacts sur la sensibilité aux maladies. Dans ce but, nous proposons une analyse d'enrichissement en groupes de gènes (GSEA, Gene Set Enrichment Analysis) en utilisant des données de scores de sélection sur du polymorphisme nucléotidique (SNP, Single Nucleotide Polymorphism), pour quantifier la pression de sélection sur ces SNP (qui pourrait issus par exemple de méthodes de scan génomique). D'abord, nous effectuons une analyse de sensibilité des méthodes de scan génomique pour examiner leur exactitude. Nous utilisons une analyse par simulation pour étudier leurs performances sous un large éventail de scénarios démographiques complexes et des hypothèses de balayage sélectif fort (hard sweep) ou faible (soft sweep). Ensuite, nous développons SEL-GSEA, un outil utilisant des données de SNP pour identifier des voies biochimiques enrichies en pressions sélectives. Enfin, dans l'optique d'examiner les effets de potentiels changements environnementaux qui pourraient représenter des changements dans les pressions sélectives, nous utilisons SEL-GSEA et Gowinda (un outil disponible en ligne) lors d'une étude population-centrée. Nous analysons trois différentes populations (africains, européens et asiatiques) de la base de données HapMap. Pour obtenir les scores de sélection des SNP qui servent de base à SEL-GSEA, nous utilisons une combinaison de deux méthodes (iHS et XP-CLR) qui sont les plus performantes dans notre analyse de sensibilité. Les résultats de notre analyse montrent une forte pression de sélection sur les voies biochimiques liées à l'immunité, principalement en Afrique, ainsi que sur la glycolyse et la néoglucogenèse en Europe, qui sont des voies liées au métabolisme et au diabète
The complex phenotypes observed nowadays in human populations are determined by genetic as well as environmental factors. For example, nutrition and lifestyle play important roles in the development of multifactorial diseases such as obesity and diabetes. Adaptation on such complex phenotypic traits may occur via allele frequency shifts at multiple loci, a phenomenon known as polygenic selection. Recent advances in statistical approaches and the emergence of high throughput Next Generation Sequencing data has enabled the detection of such signals. Here we aim to understand the extent to which environmental changes lead to shifts in selective pressures as well as the impact of those on disease susceptibility. To achieve that, we propose a gene set enrichment analysis using SNP selection scores that are simply scores that quantify the selection pressure on SNPs and they could be derived from genome-scan methods. Initially we carry out a sensitivity analysis to investigate which of the recent genome-scan methods identify accurately the selected region. A simulation approach was used to assess their performance under a wide range of complex demographic structures under both hard and soft selective sweeps. Then, we develop SEL-GSEA, a tool to identify pathways enriched for evolutionary pressures, which is based on SNP data. Finally, to examine the effect of potential environmental changes that could represent changes in selection pressures, we apply SEL-GSEA as well as Gowinda, an available online tool, on a population-based study. We analyzed three populations (Africans, Europeans and Asians) from the HapMap database. To acquire the SNP selection scores that are the basis for SEL-GSEA, we used a combination of two genome scan methods (iHS and XPCLR) that performed the best in our sensitivity analysis. The results of our analysis show extensive selection pressures on immune related pathways mainly in Africa population as well as on the glycolysis and gluconeogenesis pathway in Europeans, which is related to metabolism and diabetes
APA, Harvard, Vancouver, ISO, and other styles
42

Guerineau, Lise. "Analyse statistique de modèles de fiabilité en environnement dynamique." Lorient, 2013. http://www.theses.fr/2013LORIS297.

Full text
Abstract:
Nous décrivons des modèles permettant d’étudier la fiabilité du réseau électrique sous l’influence de l’environnement dynamique dans lequel il évolue. Notre approche repose sur l’observation du réseau et s’appuie sur une modélisation probabiliste et statistique de l’occurrence des pannes. Elle s’appuie sur la loi exponentielle par morceaux, loi particulièrement adaptée, par sa flexibilité, à la représentation des durées de bon fonctionnement dans un environnement perturbé. Nous étudions les propriétés de cette loi ainsi que l’inférence suivant la nature de l’observation. Des modèles reliant la fiabilité des composants aux contraintes auxquelles ils sont soumis et reposant sur l’hypothèse d’une distribution exponentielle par morceaux sont proposés. Les estimateurs du maximum de vraisemblance sont obtenus sur des données simulées et sur des données réelles. Nous modélisons ensuite, par des processus stochastiques, la fiabilité d’un système multi-composants qui présente la particularité d’évoluer en fonction des maintenances correctives opérées. Des méthodes d’estimation adaptées à différents types d’observation du système sont présentées. Etant confrontés à une situation de données incomplètes, nous sommes conduits à envisager un algorithme EM pour mener l’inférence. Des versions stochastiques de cet algorithme sont envisagées pour faire face aux phénomènes d’explosions combinatoires qui peuvent limiter l’efficacité de l’algorithme EM. Des exemples numériques viennent illustrer les procédures que nous proposons
We propose models which integrate time varying stresses for assessing reliability of the electrical network. Our approach is based on the network observation and consists of statistical and probabilistic modelling of failure occurrence. The great flexibility allowed by the piecewise exponential distribution makes it appropriate to model time-to-failure of a component under varying environmental conditions. We study properties of this distribution and make statistical inference for different observation schemes. Models relating components reliability with environmental constraints, and relying on the piecewise exponential distribution, are proposed. The maximum likelihood is assessed on both simulated and real data sets. Then, we consider a multi-component system whose evolution is linked with the corrective maintenance performed. Reliability of this system can be described using stochastic processes. We present inference methods according to the nature of the observation. Discrete observation can be formulated in terms of missing data; the EM algorithm is used to reach estimates in this situation. Stochastic versions of this algorithm have been considered to overcome a possible combinatorial explosion preventing from the EM algorithm implementation. Numerical examples are presented for the proposed algorithms
APA, Harvard, Vancouver, ISO, and other styles
43

Meddeb, Ali. "Analyse théorique et statistique du phénomène de l'émergence financière." Montpellier 1, 1999. http://www.theses.fr/1999MON10031.

Full text
Abstract:
Un des faits, marquant la scene financiere de cette fin de millenaire, est l'apparition d'un certain nombre de pays en developpement dotes de marches boursiers tres dynamique a rendement eleve, appeles: << marches emergents >>. Toutefois, l'origine de l'apparition de cette nouvelle classe de pays est sujet a nombreuses controverses. Cette these tente d'apporter quelques elements de reponse a cette confusion conceptuelle en donnant une nouvelle vision de l'<< emergence financiere >>. Pour ce faire, la technique utilisee consiste a detecter le ou les facteurs qui ont ete a l'origine de la naissance de ce phenomene, afin d'etablir une typologie d'un echantillon compose de plusieurs pays.
APA, Harvard, Vancouver, ISO, and other styles
44

Zabalza-Mezghani, Isabelle. "Analyse statistique et planification d'expérience en ingénierie de réservoir." Pau, 2000. http://www.theses.fr/2000PAUU3009.

Full text
Abstract:
La première partie de cette thèse a pour but la prévision de réponses en production simulées, lorsqu'elles sont influencées par des paramètres contrôlables ou non-contrôlables. La spécificité de notre travail réside dans l'étude d'un paramètre non-contrôlable : le germe géostatistique, qui induit un contexte hétéroscédastique. De ce fait, le recours à une modélisation de la moyenne et de la variance de la réponse s'est avéré essentiel lors de la prédiction. Nous avons proposé deux intervalles de prédiction, l'un faisant appel au reéhantillonnage bootstrap, l'autre non, qui ont fourni d'excellentes prédictions. Un autre objectif de cette première partie était l'utilisation des gradients de la réponse pour améliorer la prédiction. Grâce à une méthode de prédiction bayésienne traitant conjointement réponse et gradients, nous avons mis en évidence l'apport significatif des gradients. Dans la seconde partie de la thèse, consacrée au calage des données dynamiques, l'originalité de notre approche réside dans le recours aux plans d'expérience. Ce problème de calibration d'un modèle de simulation en fonction des données dynamiques revient en fait à minimiser une fonction objectif. Le comportement non-linéaire de la fonction objectif ne pouvant être approché par un polynome, nous avons proposé de coupler la méthode simplex, qui permet de localiser un domaine sur lequel une approximation polynomiale est fondée, à la méthode des plans d'expérience qui permet de construire un modèle analytique de la fonction objectif. Une minimisation de ce modèle fournit alors les valeurs des paramètres qui restituent les données dynamiques. Cette méthodologie met en évidence l'intérêt des plans d'expérience pour le calage, en particulier lorsque les méthodes d'optimisation sont inadaptées du fait d'une non-différentiabilité, comme lors de la mise à jour des modèles géostatistiques discrets. Diverses applications à des cas de gisement illustrent d'ailleurs l'efficacité des méthodes proposées.
APA, Harvard, Vancouver, ISO, and other styles
45

Colin, Pascal. "Analyse statistique d'images de fluorescence dans des jets diphasiques." Rouen, 1998. http://www.theses.fr/1998ROUES069.

Full text
Abstract:
La nature quantitative, en terme de concentration locale, de la fluorescence induite par laser a permis de réaliser des études statistiques des images dans la zone de développement proche de l'injecteur de jets diphasiques coaxiaux avec ou sans combustion. Quand elle est superieure a trois diamètres d'injection, la longueur du dard liquide est gouvernée par le rapport des pressions dynamiques entre le gaz et le liquide injectes. Cependant l'étude de l'aire interfaciale du dard et l'examen des champs de vitesse instantanés du liquide montrent l'existence d'un régime avec troncature du dard. La fraction volumique et la probabilité de présence de liquide ont été analysées selon un schéma simplifié où le spray est localement décrit comme un réseau régulier de gouttes sphériques identiques. A Weber d'injection constant, la taille et la densité de ces gouttes équivalentes évoluent spatialement de façon très différentes selon la vitesse d'injection du liquide. Une technique originale a permis de mesurer de façon cumulative la PDF de la fraction volumique de liquide en tout point de l'écoulement : la distribution obtenue comporte en deux pics d'intermittence encadrant une fraction turbulente continue. Dans le cas où l'atomisation est véritablement gouvernée par l'écoulement gazeux, la fraction turbulente du spectre prend rapidement du poids et elle peut être décrite par une simple fonction d’Arrhenius à un paramètre local unique. Un simple changement de variable met en évidence la forme canonique de cette distribution et l'application des principes généraux de la physique statistique fournit le nombre de degrés de liberté des éléments du spray en tous points du champ. Cette approche prometteuse ne demande aucune hypothèse sur la forme des éléments liquides et il semble que la variable réduite utilisée soit directement reliée à l'énergie potentielle d'interaction des éléments par l'intermédiaire de la densité d'interface. La fluorescence de l'oxygène chaud induite par une nappe laser UV dans le banc cryogénique mascotte alimente en GH 2/LOx, nous a fourni des images instantanées de la surface réactive de combustion non prémélangée. Une analyse de cette surface en terme de probabilité de présence, de taux plissement et de courbure locale est proposé afin de confronter aux modèles de combustion turbulente à chimie rapide.
APA, Harvard, Vancouver, ISO, and other styles
46

Marchaland, Catherine. "Analyse statistique d'un tableau de notes : comparaisons d'analyses factorielles." Paris 5, 1987. http://www.theses.fr/1987PA05H123.

Full text
Abstract:
Ce travail présente quelques comparaisons de méthodes d'analyse factorielle dans le cas particulier de l'étude d'un tableau de notes. La partie portant sur les aspects théoriques comporte trois chapitres. Dans le premier nous procédons à des rappels sur les méthodes classiques d'analyse factorielle : analyse en composantes principales et analyse des correspondances. Dans le deuxième chapitre nous présentons les perturbations que subissent les valeurs propres et les sous espaces invariants d'un endomorphisme symétrique quand on lui ajoute un endomorphisme symétrique ou quand on le premultiplie par un endomorphisme symétrique défini positif. Dans le troisième chapitre, après avoir défini l'équivalence de deux analyses, on procède à quatre comparaisons. La première permet d'établir l'équivalence de l'analyse des correspondances sur un tableau dédouble en 0 et 1, et de l'analyse en composantes principales du tableau non dédouble. La deuxième comparaison concerne l'analyse en composantes principales faite sur la matrice des corrélations et celle faite sur la matrice des covariances. La troisième comparaison permet d'établir l'équivalence entre l'analyse des correspondances d'un tableau de notes dédouble et l'analyse en composantes principales sur la matrice des covariances. Dans la quatrième comparaison on étudie l'influence de la modification des éléments diagonaux d'une matrice lors d'une analyse en composantes principales. La deuxième partie de ce travail se compose d'une illustration de ces comparaisons sur des données physiologiques et d'une ouverture sur d'autres analyses qui constituent des prolongements intéressants a ces méthodes d'analyse factorielle : les méthodes des échelles multidimensionnelles et le modèle lisrel.
APA, Harvard, Vancouver, ISO, and other styles
47

Jaunâtre, Kévin. "Analyse et modélisation statistique de données de consommation électrique." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS520.

Full text
Abstract:
En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit
APA, Harvard, Vancouver, ISO, and other styles
48

Huang, Weibing. "Dynamique des carnets d’ordres : analyse statistique, modélisation et prévision." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066525/document.

Full text
Abstract:
Cette thèse est composée de deux parties reliées, le premier sur le carnet d'ordre et le deuxième sur les effets de valeur de tick. Dans la première partie, nous présentons notre cadre de modélisation de carnet. Le modèle queue-réactive est d'abord introduit, dans laquelle nous révisons l'approche zéro intelligence traditionnelle en ajoutant dépendance envers l'État de carnet. Une étude empirique montre que ce modèle est très réaliste et reproduit de nombreuses fonctionnalités intéressantes microscopiques de l'actif sous-jacent comme la distribution du carnet de commandes. Nous démontrons également qu'il peut être utilisé comme un simulateur de marché efficace, ce qui permet l'évaluation de la tactique de placement complexes. Nous étendons ensuite le modèle de queue-réactive à un cadre markovien général. Conditions de Ergodicité sont discutés en détail dans ce paramètre. Dans la deuxième partie de cette thèse, nous sommes intéressés à étudier le rôle joué par la valeur de la tique à deux échelles microscopiques et macroscopiques. Tout d'abord, une étude empirique sur les conséquences d'un changement de la valeur de tick est effectuée à l'aide des données du programme pilote de réduction de la taille 2014 tick japonais. Une formule de prédiction pour les effets d'un changement de valeur de tique sur les coûts de transactions est dérivé. Ensuite, un modèle multi-agent est introduit afin d'expliquer les relations entre le volume du marché, la dynamique des prix, spread bid-ask, la valeur de la tique et de l'état du carnet d'ordres d'équilibre
This thesis is made of two connected parts, the first one about limit order book modeling and the second one about tick value effects. In the first part, we present our framework for Markovian order book modeling. The queue-reactive model is first introduced, in which we revise the traditional zero-intelligence approach by adding state dependency in the order arrival processes. An empirical study shows that this model is very realistic and reproduces many interesting microscopic features of the underlying asset such as the distribution of the order book. We also demonstrate that it can be used as an efficient market simulator, allowing for the assessment of complex placement tactics. We then extend the queue-reactive model to a general Markovian framework for order book modeling. Ergodicity conditions are discussed in details in this setting. Under some rather weak assumptions, we prove the convergence of the order book state towards an invariant distribution and that of the rescaled price process to a standard Brownian motion. In the second part of this thesis, we are interested in studying the role played by the tick value at both microscopic and macroscopic scales. First, an empirical study of the consequences of a tick value change is conducted using data from the 2014 Japanese tick size reduction pilot program. A prediction formula for the effects of a tick value change on the trading costs is derived and successfully tested. Then, an agent-based model is introduced in order to explain the relationships between market volume, price dynamics, bid-ask spread, tick value and the equilibrium order book state
APA, Harvard, Vancouver, ISO, and other styles
49

Zreik, Rawya. "Analyse statistique des réseaux et applications aux sciences humaines." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E061/document.

Full text
Abstract:
Depuis les travaux précurseurs de Moreno (1934), l’analyse des réseaux est devenue une discipline forte, qui ne se limite plus à la sociologie et qui est à présent appliquée à des domaines très variés tels que la biologie, la géographie ou l’histoire. L’intérêt croissant pour l’analyse des réseaux s’explique d’une part par la forte présence de ce type de données dans le monde numérique d’aujourd’hui et, d’autre part, par les progrès récents dans la modélisation et le traitement de ces données. En effet, informaticiens et statisticiens ont porté leurs efforts depuis plus d’une dizaine d’années sur ces données de type réseau en proposant des nombreuses techniques permettant leur analyse. Parmi ces techniques on note les méthodes de clustering qui permettent en particulier de découvrir une structure en groupes cachés dans le réseau. De nombreux facteurs peuvent exercer une influence sur la structure d’un réseau ou rendre les analyses plus faciles à comprendre. Parmi ceux-ci, on trouve deux facteurs importants: le facteur du temps, et le contexte du réseau. Le premier implique l’évolution des connexions entre les nœuds au cours du temps. Le contexte du réseau peut alors être caractérisé par différents types d’informations, par exemple des messages texte (courrier électronique, tweets, Facebook, messages, etc.) échangés entre des nœuds, des informations catégoriques sur les nœuds (âge, sexe, passe-temps, Les fréquences d’interaction (par exemple, le nombre de courriels envoyés ou les commentaires affichés), et ainsi de suite. La prise en considération de ces facteurs nous permet de capturer de plus en plus d’informations complexes et cachées à partir des données. L’objectif de ma thèse été de définir des nouveaux modèles de graphes aléatoires qui prennent en compte les deux facteurs mentionnés ci-dessus, afin de développer l’analyse de la structure du réseau et permettre l’extraction de l’information cachée à partir des données. Ces modèles visent à regrouper les sommets d’un réseau en fonction de leurs profils de connexion et structures de réseau, qui sont statiques ou évoluant dynamiquement au cours du temps. Le point de départ de ces travaux est le modèle de bloc stochastique (SBM). Il s’agit d’un modèle de mélange pour les graphiques qui ont été initialement développés en sciences sociales. Il suppose que les sommets d’un réseau sont répartis sur différentes classes, de sorte que la probabilité d’une arête entre deux sommets ne dépend que des classes auxquelles ils appartiennent
Over the last two decades, network structure analysis has experienced rapid growth with its construction and its intervention in many fields, such as: communication networks, financial transaction networks, gene regulatory networks, disease transmission networks, mobile telephone networks. Social networks are now commonly used to represent the interactions between groups of people; for instance, ourselves, our professional colleagues, our friends and family, are often part of online networks, such as Facebook, Twitter, email. In a network, many factors can exert influence or make analyses easier to understand. Among these, we find two important ones: the time factor, and the network context. The former involves the evolution of connections between nodes over time. The network context can then be characterized by different types of information such as text messages (email, tweets, Facebook, posts, etc.) exchanged between nodes, categorical information on the nodes (age, gender, hobbies, status, etc.), interaction frequencies (e.g., number of emails sent or comments posted), and so on. Taking into consideration these factors can lead to the capture of increasingly complex and hidden information from the data. The aim of this thesis is to define new models for graphs which take into consideration the two factors mentioned above, in order to develop the analysis of network structure and allow extraction of the hidden information from the data. These models aim at clustering the vertices of a network depending on their connection profiles and network structures, which are either static or dynamically evolving. The starting point of this work is the stochastic block model, or SBM. This is a mixture model for graphs which was originally developed in social sciences. It assumes that the vertices of a network are spread over different classes, so that the probability of an edge between two vertices only depends on the classes they belong to
APA, Harvard, Vancouver, ISO, and other styles
50

Tessier, Alexandre Oliver. "Bloc batterie li-ion pour véhicules électriques : méthode de classement novatrice en temps réel des paramètres électriques des cellules." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/8026.

Full text
Abstract:
Avec l’arrivée en masse des véhicules à traction électrique, la puissance sollicitée à des blocs de cellules chimiques ne cesse d’augmenter. Les nouvelles technologies développées pour répondre à la demande exposent un nouveau problème jamais observé sur les assemblages multi-cellules : la disparité des paramètres internes. Une étude a démontré que ces faibles variations de capacité ou de résistance interne causeront une dégradation prématurée si elles ne sont pas prises en comptes. La littérature sur le sujet comprend plusieurs travaux qui tentent de palier à ce problème cependant très peu d’information n’est disponible pour quantifier ces divergences de paramètres internes. Ceux qui proposent des solutions viables le font généralement dans un contexte non transférable aux véhicules électriques ou hybrides. Ce document présente une étude complète de l’état de l’art sur l’utilisation et la gestion des batteries au lithium-ion ainsi que l’analyse d’un nouvel outil de mesure pour système de gestion de batteries permettant de mesurer et d’utiliser ces dispersions de paramètres internes des cellules. L’algorithme de mesure sera basé sur un système de classement des données recueillies novateur permettant de répertorié les données selon les conditions de conduites vécues lors de la mesure plutôt qu’en fonction du temps. La conception d’un système de gestion de batteries capable de mettre en œuvre cet outil de mesure dans un contexte de véhicule électrique ainsi que l’élaboration de partons de charge/décharge des cellules, afin de les plonger dans des conditions similaires à celles vécues par un bloc batterie de véhicule électrique, seront aussi exposées. La distribution des résistances internes des 16 cellules étudiées et une discussion de ces résultats complètera ce document.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography