To see the other types of publications on this topic, follow the link: Trajectoires – Statistiques.

Dissertations / Theses on the topic 'Trajectoires – Statistiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 34 dissertations / theses for your research on the topic 'Trajectoires – Statistiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Florens-Zmirou, Danielle. "Statistiques des diffusions : observation discrétisées, passages à niveau donné, lissage des trajectoires." Paris 11, 1987. http://www.theses.fr/1987PA112126.

Full text
Abstract:
Ce travail est composé de six articles portant sur la statistique des diffusions récurrentes lorsqu'on ne dispose que d'une observation partielle des trajectoires. La première partie concerne la discrétisation de pas Δ de l'intervalle de temps d'observation. La chaîne de Markov Xk Δ observée, a une probabilité de transition dont on donne un développement en fonction de Δ. On peut ainsi évaluer la perte d'information. Les estimateurs ont un biais calculé en fonction de Δ et un théorème de limite centrale est démontré pour des fonctionnelles de chaînes de Markov. La discrétisation intervient pour des diffusions contrôlées. On montre que les gains asymptotiques de ces modèles discrétisés convergent, quand le pas tend vers zéro, vers le gain asymptotique de la diffusion continûment contrôlée. La deuxième partie étudie l'observation des passages par une barrière donnée (zéro par exemple). L'observation en temps continu des zéros de la diffusion étant impossible, on observe les excursions de longueur >Δ. Le contraste proposé donne un estimateur consistant et asymptotiquement gaussien. On étudie les propriétés des familles de mesures de Lévy. Pour les passages en zéro de la diffusion discrétisée les observations ne sont plus markoviennes. On construit des estimateurs consistants et asymptotiquement gaussiens. Cette observation permet d'approcher le temps local de la diffusion. Le dernier article étudie le lissage par convolution d'un processus gaussien stationnaire non dérivable. On montre que le nombre de passages en zéro du processus régularisé, convenablement normalisé, converge vers le temps local du processus gaussien
This thesis studies the statistical properties of recurrent diffusions partially observed. The first part concerns the discretization of the time interval by means of a sampling interval Δ. 6. Let Xk Δ. Be the observed Markov chain. We consider an expansion of its transition probability density in terms of Δ. The information loss is computed as a function of Δ and of the diffusion coefficient. Then we use the autoregressive model as an approximate statistical model of the diffusion. This method yields biased estimators enables us to compute the bias. We prove a central limit theorem for functionals of Markov chains. Discretization is used to study controlled diffusions. We prove that the asymptotic gains of the discretized models converge to the asymptotic gain of the diffusion controlled on continuous time. Ln the second part, the crossings of a given barrier are studied (i. E. Zero). A continuous observation of the zero-crossings of a diffusion is not feasible. Therefore, we observe the excursions greater than Δ. We construct a minimum contrast estimator and prove its consistency and asymptotic normality. We study the properties of the families of Levy measures associated to the diffusion local time. The zero crossings of the discretized diffusion are not Markovian any more. The proposed minimum contrast estimators are consistent and asymptotically Gaussian. The previous observation enables us to find an approximation of the diffusion local time. Ln the last paper we study the smoothing of a non differentiable stationary Gaussian process by means of convolution. We prove that the number of zero-crossings of the regularized process suitably normalized converges too in L 2 to the zero local time of the given Gaussian process
APA, Harvard, Vancouver, ISO, and other styles
2

Briane, Vincent. "Tests statistiques pour l’analyse de trajectoires de particules : application à l’imagerie intracellulaire." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S137/document.

Full text
Abstract:
L'objet de cette thèse est l'étude quantitative du mouvement des particules intracellulaires, comme les protéines ou les molécules. L'estimation du mouvement des particules au sein de la cellule est en effet d'un intérêt majeur en biologie cellulaire puisqu'il permet de comprendre les interactions entre les différents composants de la cellule. Dans cette thèse, nous modélisons les trajectoires des particules avec des processus stochastiques puisque le milieu intra-cellulaire est soumis à de nombreux aléas. Les diffusions, des processus à trajectoires continues, permettent de modéliser un large panel de mouvements intra-cellulaires. Les biophysiciens distinguent trois principaux types de diffusion: le mouvement brownien, la super-diffusion et la sous-diffusion. Ces différents types de mouvement correspondent à des scénarios biologiques distincts. Le déplacement d'une particule évoluant sans contrainte dans le cytosol ou dans le plasma membranaire est modélisée par un mouvement brownien; la particule ne se déplace pas dans une direction précise et atteint sa destination en un temps long en moyenne. Les particules peuvent aussi être propulsées par des moteurs moléculaires le long des microtubules et filaments d'actine du cytosquelette de la cellule. Leur mouvement est alors modélisé par des super-diffusions. Enfin, la sous-diffusion peut être observée dans deux situations: i/ lorsque la particule est confinée dans un micro domaine, ii/ lorsqu’elle est ralentie par l'encombrement moléculaire et doit se frayer un chemin parmi des obstacles mobiles ou immobiles. Nous présentons un test statistique pour effectuer la classification des trajectoires en trois groupes: brownien, super-diffusif et sous-diffusif. Nous développons également un algorithme pour détecter les ruptures de mouvement le long d’une trajectoire. Nous définissons les temps de rupture comme les instants où la particule change de régime de diffusion (brownien, sous-diffusif ou super-diffusif). Enfin, nous associons une méthode de regroupement avec notre procédure de test pour identifier les micro domaines dans lesquels des particules sont confinées. De telles zones correspondent à des lieux d’interactions moléculaires dans la cellule
In this thesis, we are interested in quantifying the dynamics of intracellular particles, as proteins or molecules, inside living cells. In fact, inference on the modes of mobility of molecules is central in cell biology since it reflects the interactions between the structures of the cell. We model the particle trajectories with stochastic processes as the interior of a living cell is a fluctuating environment. Diffusions are stochastic processes with continuous paths and can model a large range of intracellular movements. Biophysicists distinguish three main types of diffusions, namely Brownian motion, superdiffusion and subdiffusion. These different diffusion processes correspond to distinct biological scenarios. A particle evolving freely inside the cytosol or along the plasma membrane is modelled by Brownian motion; the particle does not travel along any particular direction and can take a very long time to go to a precise area in the cell. Active intracellular transport can overcome this difficulty so that motion is faster and direct specific. In this case, particles are carried by molecular motors along microtubular filament networks and their motion is modelled with superdiffusions. Subdiffusion can be observed in two cases i/ when the particle is confined in a microdomain, ii/ when the particle is hindered by molecular crowding and encounters dynamic or fixed obstacles. We develop a statistical test for classifying the observed trajectories into the three groups of diffusion of interest namely Brownian motion, super-diffusion and subdiffusion. We also design an algorithm to detect the changes of dynamics along a single trajectory. We define the change points as the times at which the particle switches from one diffusion type (Brownian motion, superdiffusion or subdiffusion) to another. Finally, we combine a clustering algorithm with our test procedure to identify micro domains that is zones where the particles are confined. Molecular interactions of great importance for the functioning of the cell take place in such areas
APA, Harvard, Vancouver, ISO, and other styles
3

Laprise, Jean-François. "Matrices aléatoires et billards classiques : universalité dans les mesures statistiques sur les trajectoires." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/26977/26977.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Magrin-Chagnolleau, Ivan. "Approches statistiques et filtrage vectoriel de trajectoires spectrales pour l'identification du locuteur indépendante du texte /." Paris : École nationale supérieure des télécommunications, 1997. http://catalogue.bnf.fr/ark:/12148/cb367038292.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Magrin-Chagnolleau, Ivan. "Approches statistiques et filtrage vectoriel de trajectoires spectrales pour l'identification du locuteur indépendante du texte." Paris, ENST, 1997. http://www.theses.fr/1997ENST0010.

Full text
Abstract:
L'identification du locuteur consiste à attribuer une identité au locuteur d'un énonce. Cette identité sera celle du locuteur d'une base de référence qui est le plus proche de ce locuteur inconnu, au sens d'une mesure de similarité donnée. Le mode indépendant du texte signifie qu'il n'y a aucune contrainte sur le contenu des phrases prononcées. Au cours de cette thèse, nous développons un ensemble de mesures de similarité reposant sur une modélisation statistique gaussienne de vecteurs de paramètres obtenus à l'issue d'une analyse spectrale. Ces mesures reposent essentiellement sur les matrices de covariance de ces vecteurs de paramètres. Une symétrisassions de ces mesures est également proposée. Toutes ces mesures, sous leurs différentes formes, sont systématiquement testées sur les bases Timis et intimité. Une fois ces mesures de référence établies, nous tentons de prendre en compte les aspects dynamiques des séquences de vecteurs de paramètres. Ceci nous conduit à étudier les modèles autorégressifs vectoriels dans le cadre de l'identification du locuteur. Nous testons systématiquement différentes façons de combiner les erreurs résiduelles de prédiction obtenues à l'aide de ces modèles, et comparons les résultats aux mesures de référence précédentes. Nous mettons en œuvre également un protocole expérimental qui permet de mesurer l'efficacité des modèles ar-vectoriels en identification du locuteur après avoir détruit la structure temporelle des vecteurs de paramètres. Nous établissons alors un formalisme beaucoup plus général pour le filtrage des séquences de vecteurs de paramètres, que nous appelons filtrage vectoriel de trajectoires spectrales. Ce formalisme englobe un grand nombre d'approches classiques en traitement de la parole, parmi lesquelles on trouve les modèles ar-vectoriels, l'analyse castrale, les paramètres et, la para métrisation rasta, la transformée en cosinus de trajectoires spectrales, l'avantage de ce type de filtrage est qu'il opère simultanément dans les dimensions temporelle et fréquentielle. Nous présentons finalement un autre filtrage particulier, qui entre dans le cadre du formalisme précède. Ce filtrage repose sur une analyse en composantes principales temps-fréquence de parole multi-locuteur. En conclusion, il apparait que le filtrage vectoriel de trajectoires spectrales est très prometteur, puisqu'il permet de prendre en compte une évolution temporelle des vecteurs de paramètres, tout en filtrant ces mêmes vecteurs dans la dimension fréquentielle. Il permet aussi d'unifier de nombreuses approches différentes. En outre, ce travail suggère de nouvelles approches au niveau de la représentation du signal de parole, et plus particulièrement dans le cadre de la reconnaissance de la parole et du locuteur. Ce type de filtrage peut enfin s'appliquer à d'autres familles de signaux.
APA, Harvard, Vancouver, ISO, and other styles
6

Lacaux, Céline. "Contribution à la notion d'autosimilarité et à l'étude des trajectoires de champs aléatoires." Habilitation à diriger des recherches, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00764398.

Full text
Abstract:
Mes travaux portent essentiellement sur des champs aléatoires qui satisfont une propriété d'autosimilarité globale ou locale, éventuellement anisotrope. Au cours de ces dernières années, je me suis concentrée sur l'étude de la régularité des trajectoires de tels champs mais aussi de leur simulation, de l'estimation des paramètres ou encore de certaines propriétés géométriques (dimension d'Hausdorff). J'ai été amenée à introduire de nouvelles notions d'autosimilarité : autosimilarité locale pour des champs indexés par une variété et autosimilarité locale anisotrope. Une partie de mes travaux porte sur des séries de type shot noise (vitesse de convergence, régularité). Ces séries permettent notamment de proposer une méthode de simulation pour les champs fractionnaires ou multifractionnaires. Elles nous ont permis d'obtenir une majoration du module de continuité de champs aléatoires anisotropes stables mais sont aussi utiles pour l'étude de champs plus généraux (champs définis par une série aléatoire conditionnellement sous-gaussienne, champs multi-stables). L'étude de modèles anisotropes est motivée par la modélisation de roches mais aussi de radiographies d'os en vue de l'aide à la détection précoce de l'ostéoporose (projet ANR MATAIM). J'ai aussi abordé des questions plus statistiques : estimations des paramètres, propriété LAN (Local Asymptotic Normality). Enfin, au sein de l'équipe INRIA BIology Genetics and Statistics, je travaille sur des problématiques tournées vers des applications médicales en collaboration avec des automaticiens. J'ai en particulier travaillé sur un algorithme de débruitage en vue d'application à des ECG.
APA, Harvard, Vancouver, ISO, and other styles
7

Gosselin, Léa. "Trajectoires de satisfaction conjugale et dissolution d'union." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26000.

Full text
Abstract:
Les modèles d’évolution de la satisfaction conjugale ne font pas consensus et leur relation avec la dissolution d’union est sous-étudiée. Ce mémoire porte sur les mères (n = 1 063) et les pères (n = 998) de l’Étude longitudinale du développement des enfants du Québec demeurés dans des familles biparentales lorsque l’enfant cible est âgé de 29 mois à six ans. Les trois questionnaires remplis par les participants concernent la satisfaction conjugale évaluée annuellement pendant cinq ans, la dissolution d’union lorsque l’enfant cible a 12 ans, et diverses variables sociodémographiques à contrôler. Cette étude identifie quatre trajectoires de satisfaction conjugale chez les mères et les pères. Ces trajectoires prédisent la dissolution d’union au-delà des variables sociodémographiques. Comparativement à la mesure transversale de satisfaction conjugale, les trajectoires de satisfaction conjugale permettent une meilleure prédiction de la dissolution d’union chez les parents.
APA, Harvard, Vancouver, ISO, and other styles
8

El, Mahrsi Mohamed Khalil. "Analyse et fouille de données de trajectoires d'objets mobiles." Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00943936.

Full text
Abstract:
Dans cette thèse, nous explorons deux problèmes de recherche liés à la gestion et à la fouille de données de trajectoires d'objets mobiles. Dans un premier temps, nous étudions l'échantillonnage de flux de trajectoires. Les appareils de géo-localisation modernes sont capables d'enregistrer et de transmettre leurs coordonnées géographiques à un taux très élevé. Garder l'intégralité des trajectoires capturées grâce à ces terminaux peut s'avérer coûteux tant en espace de stockage qu'en temps de calcul. L'élaboration de techniques d'échantillonnage adaptées devient alors primordiale afin de réduire la volumétrie des données en supprimant certaines positions (jugées inutiles ou redondantes) tout en veillant à préserver le maximum des caractéristiques spatiotemporelles des trajectoires originales. Dans le contexte de flux de données, ces techniques doivent en plus être exécutées " à la volée " et s'adapter au caractère à la fois continu et éphémère des données. Afin de répondre à ces besoins, nous proposons l'algorithme STSS (Spatiotemporal Stream Sampling). STSS bénéficie d'une faible complexité temporelle et garantit une borne supérieure pour les erreurs commises lors de l'échantillonnage. Nous présentons également une étude expérimentale à travers laquelle nous montrons les performances de notre proposition tout en la comparant à d'autres approches proposées dans la littérature. La deuxième problématique étudiée dans le cadre de ce travail est celle de la classification non supervisée (ou clustering) de trajectoires contraintes par un réseau routier. La majorité des travaux traitant du clustering de trajectoires se sont intéressés au cas où ces dernières évoluent librement dans un espace Euclidien. Ces travaux n'ont donc pas pris en considération l'éventuelle présence d'un réseau sous-jacent au mouvement, dont les contraintes jouent un rôle primordial dans l'évaluation de la similarité entre trajectoires. Nous proposons trois approches pour traiter ce cas. La première approche se focalise sur la découverte de groupes de trajectoires ayant parcouru les mêmes parties du réseau routier. La deuxième approche vise à grouper des segments routiers visités très fréquemment par les mêmes trajectoires. Quant à la troisième approche, elle combine les deux aspects afin d'effectuer un co-clustering simultané des trajectoires et des segments routiers. Nous illustrons nos approches à travers divers cas d'étude afin de démontrer comment elles peuvent servir à caractériser le trafic routier et les dynamiques de mouvement dans le réseau routier. Nous réalisons des études expérimentales afin d'évaluer les performances de nos propositions.
APA, Harvard, Vancouver, ISO, and other styles
9

COQUET, RICHARD. "Approches statistiques pour l'analyse des trajectoires de dynamiques moleculaires. Applications a des molecules de la chimie supramoleculaire en phase gazeuse et en solution." Université Louis Pasteur (Strasbourg) (1971-2008), 1995. http://www.theses.fr/1995STR13144.

Full text
Abstract:
Nous avons developpe differentes approches permettant d'analyser tant l'aspect geometrique que temporel des mouvements moleculaires obtenus par simulations de dynamique moleculaire. L'application a des systemes moleculaires nous a permis de definir un protocole d'analyse en phase gazeuse ou en solution. Apres correction des mouvements de translation et rotation globales de la molecule, l'analyse factorielle (avec rotation des facteurs) du tableau des coordonnees atomiques montre les differents mouvements internes (les facteurs principaux contiennent les directions de deplacements des atomes ; les composantes principales contiennent l'evolution temporelle des mouvements). Le filtrage multivarie permet de reconstruire des trajectoires moleculaires a partir de certains mouvements et ceci sans faire d'hypothese a priori quant a leur nature, contrairement au filtrage en frequences. Si la molecule est trop flexible, la correction des mouvements de translation et rotation globales risque d'etre mauvaise. L'utilisation de la methode statis est alors preferable. La classification a partir des composantes principales des structures observees dans une dynamique permet de la resumer en l'echange de quelques structures typiques. L'etude de la mobilite des protons par le calcul de temps de relaxation fournit des resultats proches de ceux de rmn en valeurs relative. Les mouvements peuvent apparaitre non-stationnaires et necessiter l'emploi de techniques specifiques, telle l'analyse temps-frequences. Sinon, fonctions d'autocorrelation, analyse spectrale et temps de relaxation sont suffisants pour caracteriser l'evolution temporelle des mouvements
APA, Harvard, Vancouver, ISO, and other styles
10

Rommel, Cédric. "Exploration de données pour l'optimisation de trajectoires aériennes." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX066/document.

Full text
Abstract:
Cette thèse porte sur l'utilisation de données de vols pour l'optimisation de trajectoires de montée vis-à-vis de la consommation de carburant.Dans un premier temps nous nous sommes intéressé au problème d'identification de modèles de la dynamique de l'avion dans le but de les utiliser pour poser le problème d'optimisation de trajectoire à résoudre. Nous commençont par proposer une formulation statique du problème d'identification de la dynamique. Nous l'interpretons comme un problème de régression multi-tâche à structure latente, pour lequel nous proposons un modèle paramétrique. L'estimation des paramètres est faite par l'application de quelques variations de la méthode du maximum de vraisemblance.Nous suggérons également dans ce contexte d'employer des méthodes de sélection de variable pour construire une structure de modèle de régression polynomiale dépendant des données. L'approche proposée est une extension à un contexte multi-tâche structuré du bootstrap Lasso. Elle nous permet en effet de sélectionner les variables du modèle dans un contexte à fortes corrélations, tout en conservant la structure du problème inhérente à nos connaissances métier.Dans un deuxième temps, nous traitons la caractérisation des solutions du problème d'optimisation de trajectoire relativement au domaine de validité des modèles identifiés. Dans cette optique, nous proposons un critère probabiliste pour quantifier la proximité entre une courbe arbitraire et un ensemble de trajectoires échantillonnées à partir d'un même processus stochastique. Nous proposons une classe d'estimateurs de cette quantitée et nous étudions de façon plus pratique une implémentation nonparamétrique basé sur des estimateurs à noyau, et une implémentation paramétrique faisant intervenir des mélanges Gaussiens. Ce dernier est introduit comme pénalité dans le critère d'optimisation de trajectoire dans l'objectif l'intention d'obtenir directement des trajectoires consommant peu sans trop s'éloigner des régions de validité
This thesis deals with the use of flight data for the optimization of climb trajectories with relation to fuel consumption.We first focus on methods for identifying the aircraft dynamics, in order to plug it in the trajectory optimization problem. We suggest a static formulation of the identification problem, which we interpret as a structured multi-task regression problem. In this framework, we propose parametric models and use different maximum likelihood approaches to learn the unknown parameters.Furthermore, polynomial models are considered and an extension to the structured multi-task setting of the bootstrap Lasso is used to make a consistent selection of the monomials despite the high correlations among them.Next, we consider the problem of assessing the optimized trajectories relatively to the validity region of the identified models. For this, we propose a probabilistic criterion for quantifying the closeness between an arbitrary curve and a set of trajectories sampled from the same stochastic process. We propose a class of estimators of this quantity and prove their consistency in some sense. A nonparemetric implementation based on kernel density estimators, as well as a parametric implementation based on Gaussian mixtures are presented. We introduce the later as a penalty term in the trajectory optimization problem, which allows us to control the trade-off between trajectory acceptability and consumption reduction
APA, Harvard, Vancouver, ISO, and other styles
11

Jarry, Gabriel. "Analyse et détection des trajectoires d'approches atypiques des aéronefs à l'aide de l'analyse de données fonctionnelles et de l'apprentissage automatique." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30284.

Full text
Abstract:
L'amélioration de la sécurité aérienne implique généralement l'identification, la détection et la gestion des événements indésirables qui peuvent conduire à des événements finaux mortels. De précédentes études menées par la DSAC, l'autorité de surveillance française, ont permis d'identifier les approches non-conformes présentant des déviations par rapport aux procédures standards comme des événements indésirables. Cette thèse vise à explorer les techniques de l'analyse de données fonctionnelles et d'apprentissage automatique afin de fournir des algorithmes permettant la détection et l'analyse de trajectoires atypiques en approche à partir de données sol. Quatre axes de recherche sont abordés. Le premier axe vise à développer un algorithme d'analyse post-opérationnel basé sur des techniques d'analyse de données fonctionnelles et d'apprentissage non-supervisé pour la détection de comportements atypiques en approche. Le modèle sera confronté à l'analyse des bureaux de sécurité des vols des compagnies aériennes, et sera appliqué dans le contexte particulier de la période COVID-19 pour illustrer son utilisation potentielle alors que le système global ATM est confronté à une crise. Le deuxième axe de recherche s'intéresse plus particulièrement à la génération et à l'extraction d'informations à partir de données radar à l'aide de nouvelles techniques telles que l'apprentissage automatique. Ces méthodologies permettent d'améliorer la compréhension et l'analyse des trajectoires, par exemple dans le cas de l'estimation des paramètres embarqués à partir des paramètres radar. Le troisième axe, propose de nouvelles techniques de manipulation et de génération de données en utilisant le cadre de l'analyse de données fonctionnelles. Enfin, le quatrième axe se concentre sur l'extension en temps réel de l'algorithme post-opérationnel grâce à l'utilisation de techniques de contrôle optimal, donnant des pistes vers de nouveaux systèmes d'alerte permettant une meilleure conscience de la situation
Improving aviation safety generally involves identifying, detecting and managing undesirable events that can lead to final events with fatalities. Previous studies conducted by the French National Supervisory Authority have led to the identification of non-compliant approaches presenting deviation from standard procedures as undesirable events. This thesis aims to explore functional data analysis and machine learning techniques in order to provide algorithms for the detection and analysis of atypical trajectories in approach from ground side. Four research directions are being investigated. The first axis aims to develop a post-op analysis algorithm based on functional data analysis techniques and unsupervised learning for the detection of atypical behaviours in approach. The model is confronted with the analysis of airline flight safety offices, and is applied in the particular context of the COVID-19 crisis to illustrate its potential use while the global ATM system is facing a standstill. The second axis of research addresses the generation and extraction of information from radar data using new techniques such as Machine Learning. These methodologies allow to \mbox{improve} the understanding and the analysis of trajectories, for example in the case of the estimation of on-board parameters from radar parameters. The third axis proposes novel data manipulation and generation techniques using the functional data analysis framework. Finally, the fourth axis focuses on extending the post-operational algorithm into real time with the use of optimal control techniques, giving directions to new situation awareness alerting systems
APA, Harvard, Vancouver, ISO, and other styles
12

De, Gavelle Erwan. "Modélisation de trajectoires acceptables de réarrangement de la consommation de sources protéiques pour augmenter l’adéquation nutritionnelle et impacts sur la durabilité." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLA016/document.

Full text
Abstract:
Dans les pays occidentaux, la consommation de protéines animales, majoritaire, diminue depuis une décennie. Elle est, dans la majorité des cas, associée négativement à différents paramètres de durabilité, et les études modélisant des régimes durables ont montré que les différents paramètres n’étaient pas toujours compatibles. Des régimes améliorant largement différents paramètres de durabilité ont été modélisés, mais la prise en compte de l’acceptabilité culturelle est insuffisante et nécessite des approfondissements. L’objectif de cette thèse était de modéliser des trajectoires acceptables de réarrangement de la consommation de sources protéiques pour augmenter l’adéquation nutritionnelle et d’en évaluer les impacts sur la durabilité. L’étude des consommations de sources de protéines en France a permis de conclure que les apports en protéines sont adéquats pour l’ensemble de la population, mais qu’il existe différents profils de consommation protéique, caractérisés par des niveaux de sécurité nutritionnelle différents. Une étude réalisée en 2018 a permis d’établir que les niveaux de consommation de viande étaient prédits par les attitudes, les normes sociales, et l’auto-efficacité perçue vis-à-vis de la réduction de la consommation de viande. Pour les travaux de modélisation pas-à-pas de l’alimentation, il a été considéré acceptable pour un individu de consommer un nouvel aliment, si celui-ci était largement consommé par des individus au profil de consommation protéique similaire. Cette hypothèse a été validée par une enquête en 2018. Les travaux de modélisation ont permis d’identifier que certaines recommandations alimentaires étaient efficaces pour l’ensemble de la population, mais que d’autres étaient spécifiques à certains profils de consommation protéique, caractérisés par des profils nutritionnels et des répertoires alimentaires spécifiques. Enfin, des modèles ont permis d’identifier que viser systématiquement plus de protéines végétales lors des premières modifications diététiques permet, malgré une adéquation nutritionnelle légèrement plus faible, d’obtenir de meilleurs paramètres de durabilité
In Western countries, the consumption of animal protein, which is the predominant protein source, has been decreasing over the last decade. This consumption has been negatively associated with different sustainability parameters in the majority of cases, and studies modelling sustainable diets have shown that the different parameters are not always compatible. Diets that significantly improve different sustainability parameters have been modelled, but the consideration of cultural acceptability is insufficient and requires further investigation. The objective of this thesis was to model acceptable trajectories of rearrangement of protein source consumption to increase nutritional adequacy and to evaluate its impacts on sustainability. The study of protein source consumption in France led to the conclusion that protein intake is adequate for the entire population, but that there are different profiles of protein intake characterized by different levels of nutritional security. A study conducted in 2018 found that meat consumption levels were predicted by attitudes, social norms, and perceived behavioral control related to the reduction of meat consumption. For the stepwise dietary modelling study, it was considered acceptable for an individual to consume a new food if it was widely consumed by individuals with a similar profile of protein intake. This hypothesis was validated by a survey conducted in 2018. The modelling work identified that some dietary recommendations were effective for the general population, but others were specific to certain profiles of protein intake characterized by specific nutritional profiles and food repertoires. Finally, models have identified that systematically targeting more plant proteins during the first dietary modifications allows, despite a slightly lower nutritional adequacy, to obtain better sustainability parameters
APA, Harvard, Vancouver, ISO, and other styles
13

Florens-Zmirou, Danielle. "Statistique des diffusions observations discrétisées : passages à niveau donné, lissage des trajectoires /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605108m.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Louis, Maxime. "Méthodes numériques et statistiques pour l'analyse de trajectoire dans un cadre de géométrie Riemannienne." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS570.

Full text
Abstract:
Cette thèse porte sur l'élaboration d'outils de géométrie riemannienne et de leur application en vue de la modélisation longitudinale de sujets atteints de maladies neuro-dégénératives. Dans une première partie, nous prouvons la convergence d'un schéma numérique pour le transport parallèle. Ce schéma reste efficace tant que l'inverse de la métrique peut être calculé rapidement. Dans une deuxième partie, nous proposons l'apprentissage une variété et une métrique riemannienne. Après quelques résultats théoriques encourageants, nous proposons d'optimiser la modélisation de progression de sujets comme des géodésiques sur cette variété
This PhD proposes new Riemannian geometry tools for the analysis of longitudinal observations of neuro-degenerative subjects. First, we propose a numerical scheme to compute the parallel transport along geodesics. This scheme is efficient as long as the co-metric can be computed efficiently. Then, we tackle the issue of Riemannian manifold learning. We provide some minimal theoretical sanity checks to illustrate that the procedure of Riemannian metric estimation can be relevant. Then, we propose to learn a Riemannian manifold so as to model subject's progressions as geodesics on this manifold. This allows fast inference, extrapolation and classification of the subjects
APA, Harvard, Vancouver, ISO, and other styles
15

Cayouette-Remblière, Joanie. "Le marquage scolaire : une analyse "statistique ethnographique" des trajectoires des enfants de classes populaires à l'Ecole." Paris, EHESS, 2013. http://www.theses.fr/2013EHES0060.

Full text
Abstract:
Depuis la seconde explosion scolaire des années 1980, la place de l'Ecole dans les cycles de vie s'intensifie. Aucun groupe social n'y échappe. Dans le même temps, les élèves des classes populaires sont toujours davantage en échec au sein du système scolaire et obtiennent des diplômes moins nombreux et moins prestigieux que les enfants des classes moyennes et supérieures. La thèse se proposer d'analyser, d'une part, les modalités de réussi et d'échec des élèves de classes populaires au sein du système scolaire du début du XXIe siècle et, d'autre part, les effets d'une socialisation prolongée au sein de l'École sur les dispositions et représentations des élèves des classes populaires. Après un chapitre préliminaire qui présente l'originalité de la source utilisée (les dossiers scolaires) ainsi que la méthode développée (la construction d'une statistique ethnographique permettant de reconstituer les trajectoires de deux cohortes de collégiens complétée d'une enquête ethnographique classique), la thèse comprend trois parties. La première partie est plurielle: elle s'intéresse à la recomposition des classes populaires, aux relations École/familles populaires et à la gestion des élèves au sein des collèges. La seconde partie étudie à nouveaux frais la question de la formation des inégalités scolaires au sein du collège unique. La troisième partie intitulée «Affronter l'après» étudie à la fois les mécanismes sociaux et scolaires qui président à l'orientation en fin de 3e ainsi que le scolarités au sein des lycées généraux et technologiques (GT) et au sein de l'enseignement professionnel
Mass education has changed the role school plays in life cycles since the 1980's. However, students from low socio-economic backgrounds are still more likely to drop out from school than students from privileged milieus, and less likely to get the most prestigious credentials. This dissertation thus explores: (1) why and how lower-class students fail or succeed at school in the age of mass education, and (2) what a new and prolonged socialization period at school me ans for these students -in terms of schemes of perception, but also of social dispositions. This thesis draws on original and rich materials (notably individual school files), and on a new analytical method, which relies on what 1 cali "ethnographical statistics". Namely, 1 use school records to get a fine-grained perspective on the school and professional careers oftwo cohorts of students, and 1 systematically confront the results to those of parallel ethnographical investigations. This method will be presented in a preliminary chapter. The thesis is then divided into three parts. The first part sets the social and geographical stage of the study. The second part offers a new perspective on the development of inequalities within the collège unique. The third part analyses the social and institutional mechanisms which drive selection processes at the end of middle school, throughout high schools, and within vocational education
APA, Harvard, Vancouver, ISO, and other styles
16

Fouemkeu, Norbert. "Modélisation de l’incertitude sur les trajectoires d’avions." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10217/document.

Full text
Abstract:
Dans cette thèse, nous proposons des modèles probabilistes et statistiques d’analyse de données multidimensionnelles pour la prévision de l’incertitude sur les trajectoires d’aéronefs. En supposant que pendant le vol, chaque aéronef suit sa trajectoire 3D contenue dans son plan de vol déposé, nous avons utilisé l’ensemble des caractéristiques de l’environnement des vols comme variables indépendantes pour expliquer l’heure de passage des aéronefs sur les points de leur trajectoire de vol prévue. Ces caractéristiques sont : les conditions météorologiques et atmosphériques, les paramètres courants des vols, les informations contenues dans les plans de vol déposés et la complexité de trafic. Typiquement, la variable dépendante dans cette étude est la différence entre les instants observés pendant le vol et les instants prévus dans les plans de vol pour le passage des aéronefs sur les points de leur trajectoire prévue : c’est la variable écart temporel. En utilisant une technique basée sur le partitionnement récursif d’un échantillon des données, nous avons construit quatre modèles. Le premier modèle que nous avons appelé CART classique est basé sur le principe de la méthode CART de Breiman. Ici, nous utilisons un arbre de régression pour construire une typologie des points des trajectoires des vols en fonction des caractéristiques précédentes et de prévoir les instants de passage des aéronefs sur ces points. Le second modèle appelé CART modifié est une version améliorée du modèle précédent. Ce dernier est construit en remplaçant les prévisions calculées par l’estimation de la moyenne de la variable dépendante dans les nœuds terminaux du modèle CART classique par des nouvelles prévisions données par des régressions multiples à l’intérieur de ces nœuds. Ce nouveau modèle développé en utilisant l’algorithme de sélection et d’élimination des variables explicatives (Stepwise) est parcimonieux. En effet, pour chaque nœud terminal, il permet d’expliquer le temps de vol par des variables indépendantes les plus pertinentes pour ce nœud. Le troisième modèle est fondé sur la méthode MARS, modèle de régression multiple par les splines adaptatives. Outre la continuité de l’estimateur de la variable dépendante, ce modèle permet d’évaluer les effets directs des prédicteurs et de ceux de leurs interactions sur le temps de passage des aéronefs sur les points de leur trajectoire de vol prévue. Le quatrième modèle utilise la méthode d’échantillonnage bootstrap. Il s’agit notamment des forêts aléatoires où pour chaque échantillon bootstrap de l’échantillon de données initial, un modèle d’arbre de régression est construit, et la prévision du modèle général est obtenue par une agrégation des prévisions sur l’ensemble de ces arbres. Malgré le surapprentissage observé sur ce modèle, il est robuste et constitue une solution au problème d’instabilité des arbres de régression propre à la méthode CART. Les modèles ainsi construits ont été évalués et validés en utilisant les données test. Leur application au calcul des prévisions de la charge secteur en nombre d’avions entrants a montré qu’un horizon de prévision d’environ 20 minutes pour une fenêtre de temps supérieure à 20 minutes permettait d’obtenir les prévisions avec des erreurs relatives inférieures à 10%. Parmi ces modèles, CART classique et les forêts aléatoires présentaient de meilleures performances. Ainsi, pour l’autorité régulatrice des courants de trafic aérien, ces modèles constituent un outil d’aide pour la régulation et la planification de la charge des secteurs de l’espace aérien contrôlé
In this thesis we propose probabilistic and statistic models based on multidimensional data for forecasting uncertainty on aircraft trajectories. Assuming that during the flight, aircraft follows his 3D trajectory contained into his initial flight plan, we used all characteristics of flight environment as predictors to explain the crossing time of aircraft at given points on their planned trajectory. These characteristics are: weather and atmospheric conditions, flight current parameters, information contained into the flight plans and the air traffic complexity. Typically, in this study, the dependent variable is difference between actual time observed during flight and planned time to cross trajectory planned points: this variable is called temporal difference. We built four models using method based on partitioning recursive of the sample. The first called classical CART is based on Breiman CART method. Here, we use regression trees to build points typology of aircraft trajectories based on previous characteristics and to forecast crossing time of aircrafts on these points. The second model called amended CART is the previous model improved. This latter is built by replacing forecasting estimated by the mean of dependent variable inside the terminal nodes of classical CART by new forecasting given by multiple regression inside these nodes. This new model developed using Stepwise algorithm is parcimonious because for each terminal node it permits to explain the flight time by the most relevant predictors inside the node. The third model is built based on MARS (Multivariate adaptive regression splines) method. Besides continuity of the dependent variable estimator, this model allows to assess the direct and interaction effects of the explanatory variables on the crossing time on flight trajectory points. The fourth model uses boostrap sampling method. It’s random forests where for each bootstrap sample from the initial data, a tree regression model is built like in CART method. The general model forecasting is obtained by aggregating forecasting on the set of trees. Despite the overfitting observed on this model, it is robust and constitutes a solution against instability problem concerning regression trees obtained from CART method. The models we built have been assessed and validated using data test. Their using to compute the sector load forecasting in term to aircraft count entering the sector shown that, the forecast time horizon about 20 minutes with the interval time larger than 20 minutes, allowed to obtain forecasting with relative errors less than 10%. Among all these models, classical CART and random forests are more powerful. Hence, for regulator authority these models can be a very good help for managing the sector load of the airspace controlled
APA, Harvard, Vancouver, ISO, and other styles
17

Fouemkeu, Norbert. "Modélisation de l'incertitude sur les trajectoires d'avions." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00710595.

Full text
Abstract:
Dans cette thèse, nous proposons des modèles probabilistes et statistiques d'analyse de données multidimensionnelles pour la prévision de l'incertitude sur les trajectoires d'aéronefs. En supposant que pendant le vol, chaque aéronef suit sa trajectoire 3D contenue dans son plan de vol déposé, nous avons utilisé l'ensemble des caractéristiques de l'environnement des vols comme variables indépendantes pour expliquer l'heure de passage des aéronefs sur les points de leur trajectoire de vol prévue. Ces caractéristiques sont : les conditions météorologiques et atmosphériques, les paramètres courants des vols, les informations contenues dans les plans de vol déposés et la complexité de trafic. Typiquement, la variable dépendante dans cette étude est la différence entre les instants observés pendant le vol et les instants prévus dans les plans de vol pour le passage des aéronefs sur les points de leur trajectoire prévue : c'est la variable écart temporel. En utilisant une technique basée sur le partitionnement récursif d'un échantillon des données, nous avons construit quatre modèles. Le premier modèle que nous avons appelé CART classique est basé sur le principe de la méthode CART de Breiman. Ici, nous utilisons un arbre de régression pour construire une typologie des points des trajectoires des vols en fonction des caractéristiques précédentes et de prévoir les instants de passage des aéronefs sur ces points. Le second modèle appelé CART modifié est une version améliorée du modèle précédent. Ce dernier est construit en remplaçant les prévisions calculées par l'estimation de la moyenne de la variable dépendante dans les nœuds terminaux du modèle CART classique par des nouvelles prévisions données par des régressions multiples à l'intérieur de ces nœuds. Ce nouveau modèle développé en utilisant l'algorithme de sélection et d'élimination des variables explicatives (Stepwise) est parcimonieux. En effet, pour chaque nœud terminal, il permet d'expliquer le temps de vol par des variables indépendantes les plus pertinentes pour ce nœud. Le troisième modèle est fondé sur la méthode MARS, modèle de régression multiple par les splines adaptatives. Outre la continuité de l'estimateur de la variable dépendante, ce modèle permet d'évaluer les effets directs des prédicteurs et de ceux de leurs interactions sur le temps de passage des aéronefs sur les points de leur trajectoire de vol prévue. Le quatrième modèle utilise la méthode d'échantillonnage bootstrap. Il s'agit notamment des forêts aléatoires où pour chaque échantillon bootstrap de l'échantillon de données initial, un modèle d'arbre de régression est construit, et la prévision du modèle général est obtenue par une agrégation des prévisions sur l'ensemble de ces arbres. Malgré le surapprentissage observé sur ce modèle, il est robuste et constitue une solution au problème d'instabilité des arbres de régression propre à la méthode CART. Les modèles ainsi construits ont été évalués et validés en utilisant les données test. Leur application au calcul des prévisions de la charge secteur en nombre d'avions entrants a montré qu'un horizon de prévision d'environ 20 minutes pour une fenêtre de temps supérieure à 20 minutes permettait d'obtenir les prévisions avec des erreurs relatives inférieures à 10%. Parmi ces modèles, CART classique et les forêts aléatoires présentaient de meilleures performances. Ainsi, pour l'autorité régulatrice des courants de trafic aérien, ces modèles constituent un outil d'aide pour la régulation et la planification de la charge des secteurs de l'espace aérien contrôlé.
APA, Harvard, Vancouver, ISO, and other styles
18

Siohan, Olivier. "Reconnaissance automatique de la parole continue en environnement bruité : Application à des modèles stochastiques de trajectoires." Nancy 1, 1995. http://docnum.univ-lorraine.fr/public/SCD_T_1995_0290_SIOHAN.pdf.

Full text
Abstract:
Les systèmes actuels de reconnaissance automatique de la parole (rap) sont généralement peu robustes aux variations du signal intervenant entre les conditions de test et d'apprentissage. Dans cette thèse, nous proposons et évaluons différentes approches pour améliorer la robustesse au bruit du système de reconnaissance de parole continue vinics du crin-inria lorraine, fondé sur des modèles stochastiques de trajectoires de parole (STM). Dans une première partie, nous dressons un bilan des principales approches développées dans le domaine du rap dans le bruit. La seconde partie est une étude et comparaison de trois approches. Nous développons d'une part une méthode permettant d'estimer un STM hybride de parole bruitée, à partir d'un modèle de Markov caché de bruit et d'un STM de parole propre. D'autre part, nous proposons d'appliquer un filtrage du signal, spécifique à chaque état de chaque STM et optimisé selon un critère significatif au niveau perceptif. Ensuite, nous appliquons une méthode d'adaptation des STMs de parole propre aux variations des conditions d'environnement, calculée par régression linéaire. La comparaison expérimentale de ces trois approches montre la supériorité de l'adaptation par régression linéaire. Enfin, dans une dernière partie, nous développons d'une part une étude expérimentale sur l'utilisation de l'analyse discriminante linéaire pour mettre en œuvre un paramétrage du signal de parole robuste au bruit. Nous mettons en évidence que l'analyse discriminante permet d'obtenir un paramétrage adapté au bruit, mais peu robuste aux variations du rapport signal-à-bruit. D'autre part, nous prenons en compte les variations du rythme d'élocution provoquées par l'effet lombard, en utilisant une méthode d'adaptation des modèles de durée des phonèmes, sous le cadre général de l'apprentissage bayesien. Cette méthode, évaluée sur une tache de reconnaissance de mots isolés permet d'améliorer de façon significative les taux de reconnaissance.
APA, Harvard, Vancouver, ISO, and other styles
19

Guillouet, Brendan. "Apprentissage statistique : application au trafic routier à partir de données structurées et aux données massives." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30205/document.

Full text
Abstract:
Cette thèse s'intéresse à l'apprentissage pour données massives. On considère en premier lieu, des trajectoires définies par des séquences de géolocalisations. Une nouvelle mesure de distance entre trajectoires (Symmetrized Segment-Path Distance) permet d'identifier par classification hiérarchique des groupes de trajectoires, modélisés ensuite par des mélanges gaussiens décrivant les déplacements par zones. Cette modélisation est utilisée de façon générique pour résoudre plusieurs types de problèmes liés aux trafic routier : prévision de la destination finale d'une trajectoire, temps d'arrivée à destination, prochaine zone de localisation. Les exemples analysés montrent que le modèle proposé s'applique à des environnements routiers différents et, qu'une fois appris, il s'applique à des trajectoires aux propriétés spatiales et temporelles différentes. En deuxième lieu, les environnements technologiques d'apprentissage pour données massives sont comparés sur des cas d'usage industriels
This thesis focuses on machine learning techniques for application to big data. We first consider trajectories defined as sequences of geolocalized data. A hierarchical clustering is then applied on a new distance between trajectories (Symmetrized Segment-Path Distance) producing groups of trajectories which are then modeled with Gaussian mixture in order to describe individual movements. This modeling can be used in a generic way in order to resolve the following problems for road traffic : final destination, trip time or next location predictions. These examples show that our model can be applied to different traffic environments and that, once learned, can be applied to trajectories whose spatial and temporal characteristics are different. We also produce comparisons between different technologies which enable the application of machine learning methods on massive volumes of data
APA, Harvard, Vancouver, ISO, and other styles
20

Veilleux, Lucie. "Modélisation de la trajectoire criminelle de jeunes contrevenants à l'aide de modèles linéaires généralisés mixtes." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/23128/23128.pdf.

Full text
Abstract:
La régression linéaire est souvent utilisée en pratique afin de trouver une relation entre une variable réponse et une ou plusieurs variable(s) explicative(s). Une lacune de cette méthode est qu’elle est inappropriée si la variable réponse en est une de dénombrement. Dans un tel cas, la régression de Poisson doit être utilisée. Ce mémoire décrira de façon détaillée la régression de Poisson. Les propriétés de la loi de Poisson seront énoncées dans le but d’expliquer la régression de Poisson. Les équations d’estimation généralisées (GEE) seront ensuite introduites dans un éventuel but d’élargir la régression de Poisson dans les situations où les données sont corrélées (par exemple, les données longitudinales). Les modèles linéaires généralisés mixtes seront aussi considérés. Les modèles additifs généralisés seront ensuite brièvement expliqués et nous présenterons finalement une étude détaillée d’une base de données sur les trajectoires criminelles de jeunes contrevenants.
APA, Harvard, Vancouver, ISO, and other styles
21

Chauffert, Nicolas. "Echantillonnage compressé le long de trajectoires physiquement plausibles en IRM." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112234/document.

Full text
Abstract:
L'imagerie par résonance magnétique (IRM) est une technique d'imagerie non invasive et non ionisante qui permet d'imager et de discriminer les tissus mous grâce à une bonne sensibilité de contraste issue de la variation de paramètres physiques (T$_1$, T$_2$, densité de protons) spécifique à chaque tissu. Les données sont acquises dans l'espace-$k$, correspondant aux fréquences spatiales de l'image. Des contraintes physiques et matérielles contraignent le mode de fonctionnement des gradients de champ magnétique utilisés pour acquérir les données. Ainsi, ces dernières sont obtenues séquentiellement le long de trajectoires assez régulières (dérivée et dérivée seconde bornées). En conséquence, la durée d'acquisition augmente avec la résolution recherchée de l'image. Accélérer l'acquisition des données est crucial pour réduire la durée d'examen et ainsi améliorer le confort du sujet, diminuer les coûts, limiter les distorsions dans l'image~(e.g., dues au mouvement), ou encore augmenter la résolution temporelle en IRM fonctionnelle. L'échantillonnage compressif permet de sous-échantillonner l'espace-$k$, et de reconstruire une image de bonne qualité en utilisant une hypothèse de parcimonie de l'image dans une base d'ondelettes. Les théories d'échantillonnage compressif s'adaptent mal à l'IRM, même si certaines heuristiques ont permis d'obtenir des résultats prometteurs. Les problèmes rencontrés en IRM pour l'application de cette théorie sont i) d'une part, les bases d'acquisition~(Fourier) et de représentation~(ondelettes) sont cohérentes ; et ii) les schémas actuellement couverts par la théorie sont composés de mesures isolées, incompatibles avec l'échantillonnage continu le long de segments ou de courbes. Cette thèse vise à développer une théorie de l'échantillonnage compressif applicable à l'IRM et à d'autres modalités. D'une part, nous proposons une théorie d'échantillonnage à densité variable pour répondre au premier point. Les échantillons les plus informatifs ont une probabilité plus élevée d'être mesurés. D'autre part, nous proposons des schémas et concevons des trajectoires qui vérifient les contraintes d'acquisition tout en parcourant l'espace-$k$ avec la densité prescrite dans la théorie de l'échantillonnage à densité variable. Ce second point étant complexe, il est abordé par une séquence de contributions indépendantes. D'abord, nous proposons des schémas d'échantillonnage à densité variables le long de courbes continues~(marche aléatoire, voyageur de commerce). Ensuite, nous proposons un algorithme de projection sur l'espace des contraintes qui renvoie la courbe physiquement plausible la plus proche d'une courbe donnée~(e.g., une solution du voyageur de commerce). Nous donnons enfin un algorithme de projection sur des espaces de mesures qui permet de trouver la projection d'une distribution quelconque sur l'espace des mesures porté par les courbes admissibles. Ainsi, la courbe obtenue est physiquement admissible et réalise un échantillonnage à densité variable. Les résultats de reconstruction obtenus en simulation à partir de cette méthode dépassent ceux associées aux trajectoires d'acquisition utilisées classiquement~(spirale, radiale) de plusieurs décibels (de l'ordre de 3~dB) et permettent d'envisager une implémentation prochaine à 7~Tesla notamment dans le contexte de l'imagerie anatomique haute résolution
Magnetic Resonance Imaging~(MRI) is a non-invasive and non-ionizing imaging technique that provides images of body tissues, using the contrast sensitivity coming from the magnetic parameters (T$_1$, T$_2$ and proton density). Data are acquired in the $k$-space, corresponding to spatial Fourier frequencies. Because of physical constraints, the displacement in the $k$-space is subject to kinematic constraints. Indeed, magnetic field gradients and their temporal derivative are upper bounded. Hence, the scanning time increases with the image resolution. Decreasing scanning time is crucial to improve patient comfort, decrease exam costs, limit the image distortions~(eg, created by the patient movement), or decrease temporal resolution in functionnal MRI. Reducing scanning time can be addressed by Compressed Sensing~(CS) theory. The latter is a technique that guarantees the perfect recovery of an image from undersampled data in $k$-space, by assuming that the image is sparse in a wavelet basis. Unfortunately, CS theory cannot be directly cast to the MRI setting. The reasons are: i) acquisition~(Fourier) and representation~(wavelets) bases are coherent and ii) sampling schemes obtained using CS theorems are composed of isolated measurements and cannot be realistically implemented by magnetic field gradients: the sampling is usually performed along continuous or more regular curves. However, heuristic application of CS in MRI has provided promising results. In this thesis, we aim to develop theoretical tools to apply CS to MRI and other modalities. On the one hand, we propose a variable density sampling theory to answer the first inpediment. The more the sample contains information, the more it is likely to be drawn. On the other hand, we propose sampling schemes and design sampling trajectories that fulfill acquisition constraints, while traversing the $k$-space with the sampling density advocated by the theory. The second point is complex and is thus addressed step by step. First, we propose continuous sampling schemes based on random walks and on travelling salesman~(TSP) problem. Then, we propose a projection algorithm onto the space of constraints that returns the closest feasible curve of an input curve~(eg, a TSP solution). Finally, we provide an algorithm to project a measure onto a set of measures carried by parameterizations. In particular, if this set is the one carried by admissible curves, the algorithm returns a curve which sampling density is close to the measure to project. This designs an admissible variable density sampler. The reconstruction results obtained in simulations using this strategy outperform existing acquisition trajectories~(spiral, radial) by about 3~dB. They permit to envision a future implementation on a real 7~T scanner soon, notably in the context of high resolution anatomical imaging
APA, Harvard, Vancouver, ISO, and other styles
22

Myers, Vincent. "Le traitement, l'interprétation et l'exploitation d'images sonar à antenne synthétique obtenues à partir de trajectoires répétitives." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2019. http://www.theses.fr/2019ENTA0002.

Full text
Abstract:
De nombreux scénarios existent qui exigent la surveillance d’une scène sous-marine en acquérant plusieurs images sonar haute-fréquence à différent moments afin de détecter des changements qui ont eu lieu pendant l’intervalle de temps entre les levés. La disponibilité croissante de sonars à antenne synthétique (SAS) commerciaux, fait en sorte qu’il est concevable d’exploiter la cohérence de phase entre deux images complexes afin de détecter des changements dans la scène qui sont difficilement perceptibles, voire invisibles, dans les images d’amplitude. Cette thèse examine le concept de détection cohérente de changements (DCC) avec des images SAS obtenues à partir de trajectoires répétitives sur la même zone. Comme les images doivent être traitées de manière interférométrique, le problème du recalage des images est examiné et des approches basées sur la déformation des images ainsi que la re-navigation et reformation de voies sont proposées. Des méthodes pour réduire le taux de fausses alarmes sont aussi examinées de sorte à réduire le nombre de détections causées par des pertes de cohérence qui ne sont pas attribuables à une cible d’intérêt. Ces méthodes sont testées sur plusieurs images SAS obtenues durant des essais en mer avec des systèmes qui traversent diverses bandes fréquentielles et conditions environnementales
There are many scenarios which call for the surveillance of an underwater scene by means of repeated surveys with high-frequency imaging sonar in order to detect changes which may have occurred during the intervening time interval. With the growing availability of commercial synthetic aperture sonar (SAS) systems it becomes possible to exploit the phase coherence between two complex SAS images in order to detect scene changes which are subtle or even invisible to approaches using only the amplitude of the images. This thesis examines the concept of coherent change detection (CCD) using SAS imagery obtained from separate, repeated passes over the same area. As the images must be processed interferometrically, the challenging problem of co-registration is addressed, with approaches based on image warping as well as renavigation / re-imaging. False alarm reduction techniques are also examined in order to mitigate detections caused by coherence losses which are not attributed to the insertion or removal of targets of interest. The proposed methods are tested on several repeat-pass SAS images collected during experiments at sea, spanning multiple frequency bands and environmental conditions, and show that SAS CCD is not only possible, but also able to detect very subtle scene changes that not observable using standard approaches
APA, Harvard, Vancouver, ISO, and other styles
23

Giaconi, Smoje Valentina. "Modélisation statistique de l'impact des environnements académiques sur les croyances et la réussite des élèves au Chili." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAH040/document.

Full text
Abstract:
Cette thèse de doctorat est consacrée à la modélisation statistique de l'impact des environnements académiques sur les croyances et la réussite des élèves au Chili. Nous contribuons au domaine de l'efficacité éducative avec une discussion statistique et deux études empiriques. La discussion statique questionne la façon de combiner les modèles multiniveaux avec des méthodes pour le biais de sélection et pour les données manquantes. Cette discussion statistique sera utilisée pour prendre des décisions méthodologiques dans les études empiriques. La première étude empirique consiste en une évaluation d'intervention de l'impact des cours de sciences sur les croyances des étudiants. La deuxième étude empirique concerne l'effet des écoles sur les trajectoires des scores de mathématiques et de lecture des élèves. Dans la partie statistique, nous avons décrit et analysé les méthodes d'ajustement linéaire et d'appariement des scores de propension pour modéliser le biais de sélection. En ce qui concerne les problèmes de données manquantes, nous avons analysé la méthode d'imputation multiple. Chacune de ces méthodes est compatible avec les modèles multi-niveaux. En revanche, l'utilisation combinée de ces méthodes pour des données hiérarchiques n'est pas résolu. Nous présentons alors une discussion statistique qui analyse et classe des stratégies pour combiner ces méthodes.La première étude empirique concerne l'influence des disciplines scientifiques qui s'intéressent à des objets vivants et non-vivants sur les croyances épistémiques et le sentiment d'auto-efficacité des étudiants de secondaire. Nous avons comparé, pour ces croyances, les étudiants qui ont suivi des cours de sciences à un groupe contrôle sur deux temps de mesure, à la fin des cours et 4 mois après. Nous avons constaté un effet positif du travail en laboratoire et des disciplines qui s'intéressent à des objets vivants (en contrôlant les variables confondues). Cette étude met en lumière des différences entre les disciplines qui s'intéressent à des objets vivant et des objets non-vivant qui devront être explorées.La deuxième étude empirique concerne l'effet des écoles sur les trajectoires des scores en mathématiques et en lecture des élèves. Le premier objectif est de décrire les caractéristiques des trajectoires et la variance expliquée par les écoles primaires et secondaires. Le deuxième objectif est de mesurer l'effet du type d'école, publique ou voucher (privée avec un financement de l'état), sur les trajectoires. Nous avons utilisé une base de données nationale longitudinale qui comprenait des mesures pour les mêmes élèves en 4ème, 8ème et 10ème années. Des modèles de croissance multiniveaux ont été utilisés pour modéliser les trajectoires. Nos résultats montrent que les écoles secondaires et primaires ont un effet sur les interceptes et les pentes des trajectoires. Par ailleurs, nous avons constaté un effet négatif de l'école publique, qui est devenu non significatif lorsque nous avons contrôlé la composition socio-économique de l'école et ses pratiques de sélection. Ces résultats illustrent la stratification entre le système public et le système voucher ainsi que la nécessité de questionner l'efficacité des écoles pour chaque système
This PhD thesis is dedicated to the statistical modeling of the impact of academic environments on student’s beliefs and achievement in Chile. We contribute to the field of educational effectiveness with a statistical discussion regarding how to combine multilevel models with methods for selection bias and missing data and two empirical studies. The statistical discussion was used to take methodological decisions in the empirical studies. The first empirical study evaluates the impact of science courses on students’ beliefs. The second empirical study is about school effects on students’ trajectories in mathematics and reading scores. In the statistical part, we analyze linear adjustment and propensity score matching to address selection bias. Regarding the missing data problem, we considered multiple imputation techniques. Each of these methods is compatible with multilevel models. However, the problem of addressing selection bias and missing data simultaneously with hierarchical data is not resolved. We present a statistical discussion that classifies and analyzes strategies to combine the methods. The first empirical study regards the influence of Life and Non-life science courses in secondary students’ epistemic and self-efficacy beliefs related to sciences. We compared students that took summer science courses with a control group in a post and follow-up beliefs questionnaire. We found positive effects of Life courses and courses with laboratory work, controlling for confounding variables. The results show differences between Life and Non-life scientific disciplines that should be explored. The second empirical study concerns school effects on trajectories of Chilean students. It has two aims. The first aim is to describe the characteristics of the trajectories in mathematics and reading scores and the variation explained by primary and secondary schools. The second aim is to measure the effect of public schools in comparison with voucher schools on students’ trajectories in mathematics and reading scores. We used a longitudinal national database which included measures for the same students at 4th, 8th and 10th grade. Multilevel growth models were used to model the trajectories. We found effects of secondary and primary schools on intercepts and slopes. In addition, we found negative effects from public education, which became not significant after controlling for school’ socioeconomic composition and selection practices. The results illustrate the stratification between the public system and voucher system and the need to study inside each system which schools are more efficient
APA, Harvard, Vancouver, ISO, and other styles
24

Meneroux, Yann. "Méthodes d'apprentissage statistique pour la détection de la signalisation routière à partir de véhicules traceurs." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2061.

Full text
Abstract:
Avec la démocratisation des appareils connectés équipés d’un récepteur GPS, de grandes quantités de trajectoires de véhicules deviennent disponibles, notamment via les flottes de véhicules professionnels et les applications mobiles collaboratives de navigation et d’assistance à la conduite. Récemment, les techniques dites de map inference, visant à dériver de l’information cartographique à partir de ces traces GPS, tendent à compléter, voire à remplacer les techniques traditionnelles. Initialement restreintes à la construction de la géométrie des routes, elles sont progressivement utilisées pour enrichir les réseaux existants, et en particulier pour construire une base de données numérique de la signalisation verticale. La connaissance fine et exhaustive de l’infrastructure routière est un prérequis indispensable dans de nombreux domaines : pour les gestionnaires de réseaux et les décideurs dans le cadre de travaux d’aménagement, pour les usagers avec le calcul précis des temps de parcours, mais aussi dans le cadre du véhicule autonome, avec la construction et la mise à jour d’une cartographie haute définition, garante de la disponibilité à tout instant d’un horizon électronique à même de suppléer le système en cas de dysfonctionnement des capteurs du véhicule. Dans ce contexte, les méthodes d’apprentissage statistique apportent une perspective intéressante et garantissent l’adaptabilité de l’approche aux différents cas d’utilisation et à la grande variabilité des données rencontrées en pratique. Dans ce travail de thèse, nous cherchons à étudier le potentiel de cette classe de méthodes, pour la détection automatique de la signalisation routière, en temps différé, à partir d’un ensemble de profils de vitesse GPS. Le premier cas d’application est celui de la détection des feux de circulation, étendu par la suite à d’autre types de signalisation comme les passages piétons. Dans un premier temps, nous travaillons sur un jeu de données expérimental de haute qualité, à l’aide duquel nous étudions les performances de plusieurs classifieurs et nous comparons deux représentations mathématiques des données : une approche classique de reconnaissance d’image et une approche fonctionnelle consistant à agréger et à décomposer les signaux de profils de vitesses sur une base d’ondelettes de Haar. Les résultats obtenus montrent la pertinence de l’approche fonctionnelle, en particulier lorsqu’elle est combinée à l’algorithme des forêts aléatoires, en termes de fiabilité de détection et de temps de calcul. L’approche est alors appliquée sur d’autres types d’éléments de l’infrastructure. Dans une deuxième partie, nous tentons d’adapter la méthode proposée sur le cas de données observationnelles, i.e. acquises en environnement non-contrôlé, pour lesquelles nous cherchons également à estimer la position des feux de signalisation par régression statistique. Les résultats montrent la sensibilité de l’approche axé sur l’apprentissage face à des données fortement bruitées ainsi que la difficulté liée à la définition de l’emprise spatiale des instances individuelles sur un réseau routier complexe. Nous tentons de lever ce second verrou à l’aide d’approches images globales basées sur une segmentation par réseau de neurones convolutionnel. Enfin, nous expérimentons une approche permettant d’exploiter l’autocorrélation spatiale des variables cibles sur les instances individuelles à l’aide de la topologie du graphe routier et en modélisant la zone d’étude sous forme d’un champ de Markov conditionnel. Les résultats obtenus montrent une amélioration des performances par rapport aux résultats obtenus par l’apprentissage non-structuré. Ces travaux de thèse ont également suscité le développement de méthodes originales de pré-traitement des trajectoires GPS (filtrage, interpolation, débiaisage et recalage sur un réseau routier de référence) ainsi que de critères objectifs d’évaluation de la qualité de ces pré-traitements
With the democratization of connected devices equipped with GPS receivers, large quantities of vehicle trajectories become available, particularly via professional vehicle fleets, mobile navigation and collaborative driving applications. Recently, map inference techniques, aiming at deriving mapping information from these GPS tracks, have tended to complete or even replace traditional techniques. Initially restricted to the construction of road geometry, they are gradually being used to enrich existing networks, and in particular to build a digital database of road signs. Detailed and exhaustive knowledge of the infrastructure is an essential prerequisite in many areas : for network managers and decision-makers, for users with precise calculation of travel times, but also in the context of the autonomous vehicle, with the construction and updating of a high definition map providing in real time electronic horizons, which can supplement the system in the event of failures of the main sensors. In this context, statistical learning methods (e.g. Bayesian methods, random tree forests, neural networks,...) provide an interesting perspective and guarantee the adaptability of the approach to different use cases and the great variability of the data encountered in practice.In this thesis, we investigate the potential of this class of methods, for the automatic detection of traffic signals (mainly traffic lights), from a set of GPS speed profiles. First, we are working on an experimental, high-quality dataset, for which we compare the performances of several classifiers on classical image recognition approaches and on a functional approaches stemming from the field of signal processing, aggregating and decomposing speed profiles on a Haar wavelet basis whose coefficients are used as explanatory variables. The results obtained show the relevance of the functional approach, particularly when combined with the random forest algorithm, in terms of accuracy and computation time. The approach is then applied to other types of road signs.In a second part, we try to adapt the proposed method on the case of observational data for which we also try to estimate the position of the traffic lights by regression. The results show the sensitivity of the learning approach to the data noise and the difficulty of defining the spatial extent of individual instances on a complex road network. We are trying to solvethis second issue using global image approaches based on a segmentation by convolutional neural network, allowing us to avoid the definition of instances. Finally, we are experimenting an approach leveraging spatial autocorrelation of individual instances using the graph topology, by modeling the study area as a conditional Markov field. The results obtained show an improvement compared to the performance obtained with non-structured learning.This thesis work has also led to the development of original methods for pre-processing GPS trajectory data, in particular for filtering, debiaising coordinates and map-matching traces on a reference road network
APA, Harvard, Vancouver, ISO, and other styles
25

Koval, Igor. "Learning Multimodal Digital Models of Disease Progression from Longitudinal Data : Methods & Algorithms for the Description, Prediction and Simulation of Alzheimer’s Disease Progression." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX008.

Full text
Abstract:
La thèse s'intéresse à l'apprentissage statistique de modèles digitaux de progression des maladies neurodégénératives, en particulier la maladie d'Alzheimer. Ces modèles ont pour but de reconstruire la dynamique complexe et hétérogène de l'évolution de la structure, des fonctions et des facultés cognitives du cerveau, à un niveau moyenne mais également à l'échelle individuelle. Pour répondre à cet objectif, la thèse considère un modèle génératif à effets mixtes qui, à partir de données longitudinales, c'est à dire des observations répétées pour chaque patient, et éventuellement multimodales, recombine les trajectoires spatiotemporelles individuelles en un scénario moyen de progression de la maladie, estimant conjointement la variabilité de cette progression caractéristique. Cette variabilité est le résultat du non alignement temporel (en terme de vitesse de progression et âge de début de la maladie) et d'une variabilité spatiale qui prend la forme d'une modification de la séquence d'événements qui interviennent durant l'apparition et la progression de la maladie. Les différentes parties de la thèse forment une suite logique, depuis la problématique médicale, en passant par la description du modèle statistique associée, l'application de celui-ci pour la description de l'évolution de la maladie d'Alzheimer, et, enfin, le développement d'outils numériques à destination du corps médical pour tirer pleinement parti des méthodes présentées
This thesis focuses on the statistical learning of digital models of neurodegenerative disease progression, especially Alzheimer's disease. It aims at reconstructing the complex and heterogeneous dynamic of evolution of the structure, the functions and the cognitive abilities of the brain, at both an average and individual level. To do so, we consider a mixed-effects model that, based on longitudinal data, namely repeated observations per subjects that present multiple modalities, in parallel recombines the individual spatiotemporal trajectories into a group-average scenario of change, and, estimates the variability of this characteristic progression which characterizes the individual trajectories. This variability results from a temporal un-alignment (in term of pace of progression and age at disease onset) along with a spatial variability that takes the form of a modification in the sequence of events that appear during the course of the disease. The different parts of the thesis are ordered in a coherent sequence: from the medical problematic, followed by the statistical model introduced to tackle the aforementioned challenge and its application to the description of the course of Alzheimer's disease, and, finally, numerical tools developed to make the previous model available to the medical community
APA, Harvard, Vancouver, ISO, and other styles
26

Chauvin, Pierre-Antoine. "L’administration de l’attente : politiques et trajectoires de relogement des familles sans domicile à Paris." Thesis, Paris 10, 2020. http://www.theses.fr/2020PA100054.

Full text
Abstract:
Une forme d’(in)action publique a pris fin dans la nuit du 14-15 avril 2005. L’incendie meurtrier de l’hôtel Paris-Opéra plaça au cœur de l’agenda politique la question du mal-logement jusque-là invisibilisée. Cette thèse montre qu’il est la conséquence de mutations qu'a connues le logement populaire parisien depuis les années 1970. Cet événement verra la consécration d’une nouvelle catégorie d’action publique (le « marchand de sommeil »), la mise en sommeil de la responsabilité de certains acteurs publics et l’ouverture d’une « fenêtre d’opportunité » favorable à l’instauration de deux dispositifs gestionnaires (le DALO et le logement temporaire dans le parc privé).Ce travail de recherche examine également la manière dont les administrations modèlent les aspirations et les trajectoires des classes populaires. Pour ce faire, elle s’appuie sur une base de données longitudinales construite à partir du fichier parisien des demandeurs.euses de logement et de 410 dossiers personnels collectés au sein des archives municipales. Cette démarche a permis la reconstitution, sur une période de six ans, des trajectoires résidentielles d’une cohorte de 696 familles hébergées à l’hôtel, à Paris, en 2009. L’analyse statistique associée à 41 entretiens biographiques rend visible les effets agrégés du travail de priorisation accompli par les agent.e.s situé.e.s au guichet et la transformation inégalitaire des chances d’accès au logement social. Elle montre que l’administration de l’attente ne se réduit pas à une simple gestion de la pénurie mais revêt la forme d’une coproduction institutionnelle des délais et d’une lutte entre différents acteurs (bailleurs sociaux, élu.e.s locaux.ales, associations, etc.) pour transformer les principes de re-distribution légitime d’un bien rare
This dissertation analyses first how the accommodation of families in hotels emerged and became part of public policy. It shows how the tragic fire at the Paris-Opéra hotel (14–15 April 2005) brought about changes in public action and was itself the consequence of developments in working-class housing in Paris since the 1970s. The hotel fire focused attention on a new category of public action (the use of marchands de sommeil, slumlords), the evasion of responsibility by particular public stakeholders, and the opening of a ‘window of opportunity’ for the emergence of two management principles (droit au logement opposable, the enforceable right to housing, and temporary housing in the private sector).This dissertation also examines how the administration shapes the aspirations and housing biographies of working-class and immigrant families. It uses a longitudinal database taken from the Paris housing list of applicants and 410 personal files from the municipal archives. It monitors the residential biographies over a six-year period of a cohort of 696 families housed in hotels in Paris in 2009. Statistical ethnographical analysis and 41 life-story interviews reveal the cumulative effects of the ranking of applicants by street level bureaucrats and their unequal likelihood of access to social housing. It shows that managing the waiting lists is not just a matter of managing scarcity but becomes a joint institutional production of waiting times and a battle between stakeholders (social housing trusts, public and private funders, local elected officials, charities supporting the vulnerably housed, etc.) to divert the principles of fair redistribution of a scarce resource
APA, Harvard, Vancouver, ISO, and other styles
27

Karimi, Maryam. "Modélisation conjointe de trajectoire socioprofessionnelle individuelle et de la survie globale ou spécifique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS120/document.

Full text
Abstract:
Appartenir à une catégorie socio-économique moins élevée est généralement associé à une mortalité plus élevée pour de nombreuses causes de décès. De précédentes études ont déjà montré l’importance de la prise en compte des différentes dimensions des trajectoires socio-économiques au cours de la vie. L’analyse des trajectoires professionnelles constitue une étape importante pour mieux comprendre ces phénomènes. L’enjeu pour mesurer l’association entre les parcours de vie des trajectoires socio-économiques et la mortalité est de décomposer la part respective de ces facteurs dans l’explication du niveau de survie des individus. La complexité de l’interprétation de cette association réside dans la causalité bidirectionnelle qui la sous-tend: Les différentiels de mortalité sont-ils dus à des différentielsd’état de santé initial influençant conjointement la situation professionnelle et la mortalité, ou l’évolution professionnelle influence-t-elle directement l’état de santé puis la mortalité?Les méthodes usuelles ne tiennent pas compte de l’interdépendance des changements de situation professionnelle et de la bidirectionnalité de la causalité qui conduit à un biais important dans l’estimation du lien causale entre situation professionnelle et mortalité. Par conséquent, il est nécessaire de proposer des méthodes statistiques qui prennent en compte des mesures répétées (les professions) simultanément avec les variables de survie. Cette étude est motivée par la base de données Cosmop-DADS qui est un échantillon de la population salariée française.Le premier objectif de cette thèse était d’examiner l’ensemble des trajectoires professionnelles avec une classification professionnelle précise, au lieu d’utiliser un nombre limité d’états dans un parcours professionnel qui a été considéré précédemment. A cet effet, nous avons défini des variables dépendantes du temps afinde prendre en compte différentes dimensions des trajectoires professionnelles, à travers des modèles dits de "life-course", à savoir critical period, accumulation model et social mobility model, et nous avons mis en évidence l’association entre les trajectoires professionnelles et la mortalité par cause en utilisant ces variables dans un modèle de Cox.Le deuxième objectif a consisté à intégrer les épisodes professionnel comme un sous-modèle longitudinal dans le cadre des modèles conjoints pour réduire le biais issude l’inclusion des covariables dépendantes du temps endogènes dans le modèle de Cox. Nous avons proposé un modèle conjoint pour les données longitudinales nominaleset des données de risques concurrents dans une approche basée sur la vraisemblance. En outre, nous avons proposé une approche de type méta-analyse pour résoudre les problèmes liés au temps des calculs dans les modèles conjoints appliqués à l’analyse des grandes bases de données. Cette approche consiste à combiner les résultats issus d’analyses effectuées sur les échantillons stratifiés indépendants. Dans la même perspective de l’utilisation du modèle conjoint sur les grandes bases de données, nous avons proposé une procédure basée sur l’avantage computationnel de la régression de Poisson.Cette approche consiste à trouver les trajectoires typesà travers les méthodes de la classification, et d’appliquerle modèle conjoint sur ces trajectoires types
Being in low socioeconomic position is associated with increased mortality risk from various causes of death. Previous studies have already shown the importance of considering different dimensions of socioeconomic trajectories across the life-course. Analyses of professional trajectories constitute a crucial step in order to better understand the association between socio-economic position and mortality. The main challenge in measuring this association is then to decompose the respectiveshare of these factors in explaining the survival level of individuals. The complexity lies in the bidirectional causality underlying the observed associations:Are mortality differentials due to differences in the initial health conditions that are jointly influencing employment status and mortality, or the professional trajectory influences directly health conditions and then mortality?Standard methods do not consider the interdependence of changes in occupational status and the bidirectional causal effect underlying the observed association and that leads to substantial bias in estimating the causal link between professional trajectory and mortality. Therefore, it is necessary to propose statistical methods that consider simultaneously repeated measurements (careers) and survivalvariables. This study was motivated by the Cosmop-DADS database, which is a sample of the French salaried population.The first aim of this dissertation was to consider the whole professional trajectories and an accurate occupational classification, instead of using limitednumber of stages during life course and a simple occupational classification that has been considered previously. For this purpose, we defined time-dependent variables to capture different life course dimensions, namely critical period, accumulation model and social mobility model, and we highlighted the association between professional trajectories and cause-specific mortality using the definedvariables in a Cox proportional hazards model.The second aim was to incorporate the employment episodes in a longitudinal sub-model within the joint model framework to reduce the bias resulting from the inclusion of internal time-dependent covariates in the Cox model. We proposed a joint model for longitudinal nominal outcomes and competing risks data in a likelihood-based approach. In addition, we proposed an approach mimicking meta-analysis to address the calculation problems in joint models and large datasets, by extracting independent stratified samples from the large dataset, applying the joint model on each sample and then combining the results. In the same objective, that is fitting joint model on large-scale data, we propose a procedure based on the appeal of the Poisson regression model. This approach consist of finding representativetrajectories by means of clustering methods and then applying the joint model on these representative trajectories
APA, Harvard, Vancouver, ISO, and other styles
28

Philippo, Hervé Hirsch Jean-Pierre Gayot Gérard. "Fortunes, trajectoires et modes de vie des notables lillois, (vers 1780 - vers 1830) étude socioculturelle et statistique des noblesses et bourgeoisies de Lille à partir des déclarations de mutation après décès et des archives notariales /." Lille : A.N.R.T, 2006. http://documents.univ-lille3.fr/files/pub/www/recherche/theses/PHILLIPO_HERVE.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Philippo, Hervé. "Fortunes, trajectoires et modes de vie des notables lillois (vers 1780 - vers 1830) : étude socioculturelle et statistique des noblesses et bourgeoisies de Lille à partir des déclarations de mutation après décès et des archives notariales." Lille 3, 2006. http://www.theses.fr/2006LIL30012.

Full text
Abstract:
L'objet de ce travail concerne l'examen de la composition des patrimoines (cheminement des fortunes), l'observation des stratégies familiales (logique des placements) et les trajectoires individuelles des Lillois. Il s'agit de mettre en relief les styles de vie et les modes de pensée des familles anciennes et hommes nouveaux, lesquels auront fait la liaison entre la fin de l'Ancien Régime, la Révolution, et jusque l'avènement de Louis-Philippe. L'ensemble de la population transmettant un bien au décès a été déclaré à l'Enregistrement ce qui permet de créer une base de données ; le recours aux sources notariales est obligatoire pour connaître l'origine et l'évolution des biens : la part de l'héritage et de l'épargne propre, le mode de vie des élites également
The purpose of this work is to examine the make-up of estates (the process of accumulating wealth), the observation of family strategies (rationales for investment) as well as the individual trajectories of the Lille inhabitants. It is a matter of setting into relief the lifestyles and thought processes of the old families and of the new man and women who will have served as the link between the Old Regime before 1789 and the revolutionary period up to Louis-Philippe's accession to the throne. The whole of the population transferring property upon their demise have been registered at the Wills and Probate Department which makes it possible to create a data base ; the resort to notarial resources cannot be avoided if one is to ascertain the origins and the development of fortunes - the share of legacies and of savings proper, the way of life of the élite as well
APA, Harvard, Vancouver, ISO, and other styles
30

Chiron, Guillaume. "Système complet d’acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés : application à la surveillance apicole." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS030/document.

Full text
Abstract:
Ce manuscrit propose une approche méthodologique pour la constitution d’une chaîne complète de vidéosurveillance pour des environnements naturellement encombrés. Nous identifions et levons un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à l’acquisition de séquences vidéo en milieu naturel, 2) au traitement d’images, 3) au suivi multi-cibles, 4) à la découverte et la modélisation de motifs comportementaux récurrents, et 5) à la fusion de données. Le contexte applicatif de nos travaux est la surveillance apicole, et en particulier, l’étude des trajectoires des abeilles en vol devant la ruche. De ce fait, cette thèse se présente également comme une étude de faisabilité et de prototypage dans le cadre des deux projets interdisciplinaires EPERAS et RISQAPI (projets menées en collaboration avec l’INRA Magneraud et le Muséum National d’Histoire Naturelle). Il s’agit pour nous informaticiens et pour les biologistes qui nous ont accompagnés, d’un domaine d’investigation totalement nouveau, pour lequel les connaissances métiers, généralement essentielles à ce genre d’applications, restent encore à définir. Contrairement aux approches existantes de suivi d’insectes, nous proposons de nous attaquer au problème dans l’espace à trois dimensions grâce à l’utilisation d’une caméra stéréovision haute fréquence. Dans ce contexte, nous détaillons notre nouvelle méthode de détection de cibles appelée segmentation HIDS. Concernant le calcul des trajectoires, nous explorons plusieurs approches de suivi de cibles, s’appuyant sur plus ou moins d’a priori, susceptibles de supporter les conditions extrêmes de l’application (e.g. cibles nombreuses, de petite taille, présentant un mouvement chaotique). Une fois les trajectoires collectées, nous les organisons selon une structure de données hiérarchique et mettons en œuvre une approche Bayésienne non-paramétrique pour la découverte de comportements émergents au sein de la colonie d’insectes. L’analyse exploratoire des trajectoires issues de la scène encombrée s’effectue par classification non supervisée, simultanément sur des niveaux sémantiques différents, et où le nombre de clusters pour chaque niveau n’est pas défini a priori mais est estimé à partir des données. Cette approche est dans un premier temps validée à l’aide d’une pseudo-vérité terrain générée par un Système Multi-Agents, puis dans un deuxième temps appliquée sur des données réelles
This manuscript provides the basis for a complete chain of videosurveillence for naturally cluttered environments. In the latter, we identify and solve the wide spectrum of methodological and technological barriers inherent to : 1) the acquisition of video sequences in natural conditions, 2) the image processing problems, 3) the multi-target tracking ambiguities, 4) the discovery and the modeling of recurring behavioral patterns, and 5) the data fusion. The application context of our work is the monitoring of honeybees, and in particular the study of the trajectories bees in flight in front of their hive. In fact, this thesis is part a feasibility and prototyping study carried by the two interdisciplinary projects EPERAS and RISQAPI (projects undertaken in collaboration with INRA institute and the French National Museum of Natural History). It is for us, computer scientists, and for biologists who accompanied us, a completely new area of investigation for which the scientific knowledge, usually essential for such applications, are still in their infancy. Unlike existing approaches for monitoring insects, we propose to tackle the problem in the three-dimensional space through the use of a high frequency stereo camera. In this context, we detail our new target detection method which we called HIDS segmentation. Concerning the computation of trajectories, we explored several tracking approaches, relying on more or less a priori, which are able to deal with the extreme conditions of the application (e.g. many targets, small in size, following chaotic movements). Once the trajectories are collected, we organize them according to a given hierarchical data structure and apply a Bayesian nonparametric approach for discovering emergent behaviors within the colony of insects. The exploratory analysis of the trajectories generated by the crowded scene is performed following an unsupervised classification method simultaneously over different levels of semantic, and where the number of clusters for each level is not defined a priori, but rather estimated from the data only. This approach is has been validated thanks to a ground truth generated by a Multi-Agent System. Then we tested it in the context of real data
APA, Harvard, Vancouver, ISO, and other styles
31

Azzam, Noureddine. "Contribution à l'amélioration de la qualité des états de surfaces des prothèses orthopédiques." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4057/document.

Full text
Abstract:
Une prothèse de genou est généralement, composée de deux parties fixées respectivement sur le fémur et sur le tibia et d’une troisième, dite intercalaire. Durant le processus de fabrication de ces composants des déformations apparaissent au niveau des bruts de fonderie. Les fabricants de prothèses choisissent d’assurer l’épaisseur nominale de la prothèse en enlevant une épaisseur constante sur le brut de fonderie. Cette opération est généralement réalisée manuellement. L’objectif de ces travaux de thèse est de contribuer à l’automatisation de ces opérations en proposant une méthode d’adaptation des trajectoires d’usinage aux variations géométriques de la surface cible. L’objectif de ce travail de recherche est d’adapter une trajectoire d’usinage sur un modèle nominal pour enlever une épaisseur constante sur une surface brute de fonderie mesurée. La méthode proposée commence par une étape d’alignement de la surface mesurée sur la trajectoire nominale en utilisant un algorithme d’ICP. Par la suite, la trajectoire nominale est déformée pour venir enlever l'épaisseur désirée sur la surface brute mesurée. Cette dernière est définie, dans ces travaux, suivant un modèle STL. Naturellement, les discontinuités de ce type de modèle induit une impression des motifs du STL sur la trajectoire adaptée et, donc, sur la pièce usinée. Par la suite, afin de d’atténuer ce problème et d’améliorer la qualité de fabrication, il est proposé de procéder à un lissage de la trajectoire.Afin de valider les développements théoriques de ces travaux, des essais ont été réalisés sur une machine cinq axes pour l’ébauche de composants fémoraux d’une prothèse uni-compartimentale de genou
Commonly, knee prostheses are composed of two parts fixed respectively on femur and tibia, and a third one called intercalary. During the manufacturing process, of these components distortions appear on roughcast workpiece geometry. Thus, prosthesis manufacturers choose to ensure the nominal thickness of the prosthesis by removing a constant thickness on the roughcast workpiece. This operation is generally carried out realized manually.The aim of this thesis is to contribute to the automation of these manual operations by providing a method to adapt the machining toolpaths at geometrical variations of the target surface. The aim of this research work is to adapt a machining toolpath computed on a nominal model to remove a constant thickness on a roughcast measured surface. The proposed method starts with an alignment step of the measured surface on the nominal toolpath using an ICP algorithm. Subsequently, the nominal toolpath is deformed to remove the desired thickness of the measured rough surface defined in presented case by a STL model. Naturally, discontinuities of this type of model induce the apparition of pattern for the STL on the adapted toolpath and thus on the machined workpiece. Subsequently, to limit this problem and to improve the quality of realized surface, it is proposed a toolpath smoothing method. To validate theoretical developments of this work, tests were carried out on a five-axis machine for roughing of femoral components of a unicompartmental knee prosthesis
APA, Harvard, Vancouver, ISO, and other styles
32

Bardin, Sébastien. "Etude des interactions plasma-paroi par imagerie rapide : application aux plasmas de laboratoire et de tokamak." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0012/document.

Full text
Abstract:
La nécessité de trouver une nouvelle source d'énergie a mené les scientifiques à explorer la voie de la fusion thermonucléaire par confinement magnétique. Cependant la réalisation de tels plasmas de fusion dans les tokamaks actuels pose de nombreux défis tels que les interactions entre le plasma et les parois à l'origine de la création de poussières pouvant être néfastes au bon fonctionnement des futurs réacteurs à fusion. Une bonne connaissance de la quantité de poussières produites, de leur localisation et de leur transport durant la phase plasma est donc d'une importance fondamentale pour l'exploitation d'ITER. Un algorithme, développé et validé par l'expérience, est utilisé pour détecter et suivre les poussières dans ASDEX Upgrade (AUG) durant la phase plasma. Il permet d'analyser automatiquement des vidéos enregistrées par caméras rapides. Une large statistique sur la quantité de poussières micrométriques détectées en fonction du temps cumulé de décharge plasma est réalisée. Les premières analyses effectuées sur les cinq dernières campagnes montrent que la quantité de poussières est significativement faible voire nulle dans la plupart des décharges effectuées dans AUG, excepté pour des conditions spécifiques de décharges correspondant à des phases anormales de fonctionnement (disruptions, ELMs, déplacements du plasma vers les CFPs et absorption inefficace de la puissance de chauffage). Ces observations par caméra rapide et l'analyse via l'algorithme peuvent ainsi permettre, avec l'utilisation d'autres diagnostics plasmas, d'identifier les décharges plasmas à risque, pouvant aider à sélectionner les scénarios de fonctionnement les plus efficaces pour ITER
The necessity to find a new energy source has lead scientists to explore the way of thermonuclear fusion by magnetic confinement considered as one of the most promising possibility. However the production of such plasmas in the current tokamaks lies to several challenges like the interactions between the plasma and the first wall which spark off the creation of a lot of dust in the plasma which could be problematic for the operation of the next fusion reactors. The knowledge of dust production rates, localisation and transport through the vacuum vessel during plasma phases is of primary importance and must be investigated in preparation of ITER. A time and resource efficient algorithm named TRACE, validated thanks to a dedicated laboratory experiment, is used to detect and track dust particles in ASDEX Upgrade during plasma phase. It allows for automatically analyzing videos originating from fast framing cameras. A statistic about micron sized dust detection rate as a function of cumulated discharge duration is made on a large number of discharges (1470). First analyses covering five last campaigns clearly confirm that the amount of dust is significantly low in most of discharges realized in ASDEX Upgrade, excepted for specific conditions corresponding to off-normal plasma phases (disruptions, strong plasma fluctuations including ELMs, plasma displacement toward PFCs and inefficient absorption of heating power). These observations allow to identify the risky plasma discharges and choose the most efficient plasmas scenarios for ITER. It seems to also confirm the applicability of an all tungsten first wall for future fusion reactors as ITER
APA, Harvard, Vancouver, ISO, and other styles
33

González, Martínez Maykel Leonardo. "Approches statisticodynamiques de la réactivité chimique." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR13998/document.

Full text
Abstract:
La dissociation unimoléculaire de systèmes chimiques faiblement liés (molécules de van der Waals, HeBr2, NeBr2, ArBr2) et covalents (NCO, CH2CO) est étudiée au moyen de la méthode des trajectoires classiques et d’une approche statistique basée sur la théorie de l’état de transition. D’une part, l’apport de la procédure de pondération gaussienne appliquée à la détermination de distribution ro-vibrationnelles et d’énergie de translation, est illustrée. D’autre part, une transformation des coordonnées angle-action aux coordonnées cartésiennes, dans le cas général de fragments polyatomiques, ainsi que qu’une correction quasi-classique permettant d’incorporer la structure rotationnelle aux distributions résolues vibrationnellement, sont développées. Sur la base de ces développements, une méthodologie applicable aux processus polyatomiques indirects conduisant à une résolution ro-vibrationnelle complète sans nécessiter de procédures de pondération ou de binning, est présentée
The quasi-classical trajectory method and statistical assumptions from the transition state theory are employed in the investigation of the unimolecular dissociation of weakly (van der Waals aggregates, i.e. HeBr2, NeBr2, ArBr2) and conventionally bound molecular systems (NCO, CH2CO). The capabilities of the Gaussian weighting procedure are illustrated through the reproduction of ro-vibrational and translational energy distributions. A transformation from angle-action variables to Cartesian coordinates is derived for the general case of polyatomic fragments. An alternative methodology is developed to study indirect polyatomic processes which provides complete ro-vibrational resolution while effectively avoids any binning or weighting procedure. The new algorithm is based on the transformation previously derived and an approximate formula developed to incorporate the rotational structures on the vibrationally-resolved quasi-classical distributions
El método de trayectorias cuasi-clasicas e hipotesis estadisticas de la teoria del estado de transicion, son empleados en la investigacion de la disociacion unimolecular de sistemas débil (agregados de van der Waals, i.e. HeBr2, NeBr2, ArBr2) y convencionalmente enlazados (NCO, CH2CO). Se demuestran las potencialidades del procedimiento de ponderacion gaussiana para la reproduccion de distribuciones ro-vibracionales y de energia de traslacion, en comparacion con las obtenidas por los métodos convencionales. Son desarrolladas la transformacion desde variables angulares y de accion a coordenadas cartesianas para el caso general de fragmentos poliatomicos, asi como un conjunto de expresiones cuasi-clasicas para incorporar estruturas rotacionales en las distribuciones resueltas vibracionalmente. Sobre la base de estos desarrollos, se demuestra y aplica una nueva metodologia para estudiar procesos poliatomicos indirectos con la que resulta posible obtener distribuciones téoricas con resolucion ro-vibracional total, evitando el uso de métodos de binning o ponderaciones
APA, Harvard, Vancouver, ISO, and other styles
34

Lanoiselée, Yann. "Revealing the transport mechanisms from a single trajectory in living cells." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX081/document.

Full text
Abstract:
Cette thèse est dédiée à l’analyse et la modélisation d'expériences où la position d'un traceur dans le milieu cellulaire est enregistrée au cours du temps. Il s’agit de pouvoir de retirer le maximum d’information à partir d’une seule trajectoire observée expérimentalement. L’enjeu principal consiste à identifier les mécanismes de transport sous-jacents au mouvement observé. La difficulté de cette tâche réside dans l’analyse de trajectoires individuelles, qui requiert de développer de nouveaux outils d’analyse statistique. Dans le premier chapitre, un aperçu est donné de la grande variété des dynamiques observables dans le milieu cellulaire. Notamment, une revue de différents modèles de diffusion anormale et non-Gaussienne est réalisée. Dans le second chapitre, un test est proposé afin de révéler la rupture d'ergodicité faible à partir d’une trajectoire unique. C’est une généralisation de l’approche de M. Magdziarz et A. Weron basée sur la fonction caractéristique du processus moyennée au cours du temps. Ce nouvel estimateur est capable d’identifier la rupture d’ergodicité de la marche aléatoire à temps continu où les temps d'attente sont distribués selon une loi puissance. Par le calcul de la moyenne de l’estimateur pour plusieurs modèles typiques de sous diffusion, l’applicabilité de la méthode est démontrée. Dans le troisième chapitre, un algorithme est proposé afin reconnaître à partir d’une seule trajectoire les différentes phases d'un processus intermittent (e.g. le transport actif/passif à l'intérieur des cellules, etc.). Ce test suppose que le processus alterne entre deux phases distinctes mais ne nécessite aucune hypothèse sur la dynamique propre dans chacune des phases. Les changements de phase sont capturés par le calcul de quantités associées à l’enveloppe convexe locale (volume, diamètre) évaluées au long de la trajectoire. Il est montré que cet algorithme est efficace pour distinguer les états d’une large classe de processus intermittents (6 modèles testés). De plus, cet algorithme est robuste à de forts niveaux de bruit en raison de la nature intégrale de l’enveloppe convexe. Dans le quatrième chapitre, un modèle de diffusion dans un milieu hétérogène où le coefficient de diffusion évolue aléatoirement est introduit et résolu analytiquement. La densité de probabilité des déplacements présente des queues exponentielles et converge vers une Gaussienne au temps long. Ce modèle généralise les approches précédentes et permet ainsi d’étudier en détail les hétérogénéités dynamiques. En particulier, il est montré que ces hétérogénéités peuvent affecter de manière drastique la précision de mesures effectuées sur une trajectoire par des moyennes temporelles. Dans le dernier chapitre, les méthodes d’analyses de trajectoires individuelles sont utilisées pour étudier deux expériences. La première analyse effectuée révèle que les traceurs explorant le cytoplasme montrent que la densité de probabilité des déplacements présente des queues exponentielles sur des temps plus longs que la seconde. Ce comportement est indépendant de la présence de microtubules ou du réseau d’actine dans la cellule. Les trajectoires observées présentent donc des fluctuations de diffusivité témoignant pour la première fois de la présence d’hétérogénéités dynamiques au sein du cytoplasme. La seconde analyse traite une expérience dans laquelle un ensemble de disques de 4mm de diamètre a été vibré verticalement sur une plaque, induisant un mouvement aléatoire des disques. Par une analyse statistique approfondie, il est démontré que cette expérience est proche d'une réalisation macroscopique d'un mouvement Brownien. Cependant les densités de probabilité des déplacements des disques présentent des déviations par rapport à la Gaussienne qui sont interprétées comme le résultat des chocs inter-disque. Dans la conclusion, les limites des approches adoptées ainsi que les futures pistes de recherches ouvertes par ces travaux sont discutées en détail
This thesis is dedicated to the analysis and modeling of experiments where the position of a tracer in the cellular medium is recorded over time. The goal is to be able to extract as much information as possible from a single experimentally observed trajectory. The main challenge is to identify the transport mechanisms underlying the observed movement. The difficulty of this task lies in the analysis of individual trajectories, which requires the development of new statistical analysis tools. In the first chapter, an overview is given of the wide variety of dynamics that can be observed in the cellular medium. In particular, a review of different models of anomalous and non-Gaussian diffusion is carried out. In the second chapter, a test is proposed to reveal weak ergodicity breaking from a single trajectory. This is a generalization of the approach of M. Magdziarz and A. Weron based on the time-averaged characteristic function of the process. This new estimator is able to identify the ergodicity breaking of continuous random walking where waiting times are power law distributed. By calculating the average of the estimator for several subdiffusion models, the applicability of the method is demonstrated. In the third chapter, an algorithm is proposed to recognize the different phases of an intermittent process from a single trajectory (e.g. active/passive transport within cells, etc.).This test assumes that the process alternates between two distinct phases but does not require any hypothesis on the dynamics of each phase. Phase changes are captured by calculating quantities associated with the local convex hull (volume, diameter) evaluated along the trajectory. It is shown that this algorithm is effective in distinguishing states from a large class of intermittent processes (6 models tested). In addition, this algorithm is robust at high noise levels due to the integral nature of the convex hull. In the fourth chapter, a diffusion model in a heterogeneous medium where the diffusion coefficient evolves randomly is introduced and solved analytically. The probability density function of the displacements presents exponential tails and converges towards a Gaussian one at long time. This model generalizes previous approaches and thus makes it possible to study dynamic heterogeneities in detail. In particular, it is shown that these heterogeneities can drastically affect the accuracy of measurements made by time averages along a trajectory. In the last chapter, single-trajectory based methods are used for the analysis of two experiments. The first analysis carried out shows that the tracers exploring the cytoplasm show that the probability density of displacements has exponential tails over periods of time longer than the second. This behavior is independent of the presence of both microtubules and the actin network in the cell. The trajectories observed therefore show fluctuations in diffusivity, indicating for the first time the presence of dynamic heterogeneities within the cytoplasm. The second analysis deals with an experiment in which a set of 4mm diameter discs was vibrated vertically on a plate, inducing random motion of the disks. Through an in-depth statistical analysis, it is demonstrated that this experiment is close to a macroscopic realization of a Brownian movement. However, the probability densities of disks’ displacements show deviations from Gaussian which are interpreted as the result of inter-disk shocks. In the conclusion, the limits of the approaches adopted as well as the future research orientation opened by this thesis are discussed in detail
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography