To see the other types of publications on this topic, follow the link: Régression sur la médiane.

Dissertations / Theses on the topic 'Régression sur la médiane'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Régression sur la médiane.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire." Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Grollemund, Paul-Marie. "Régression linéaire bayésienne sur données fonctionnelles." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS045.

Full text
Abstract:
Un outil fondamental en statistique est le modèle de régression linéaire. Lorsqu'une des covariables est une fonction, on fait face à un problème de statistique en grande dimension. Pour conduire l'inférence dans cette situation, le modèle doit être parcimonieux, par exemple en projetant la covariable fonctionnelle dans des espaces de plus petites dimensions.Dans cette thèse, nous proposons une approche bayésienne nommée Bliss pour ajuster le modèle de régression linéaire fonctionnel. Notre modèle, plus précisément la distribution a priori, suppose que la fonction coefficient est une fonction en escalier. A partir de la distribution a posteriori, nous définissons plusieurs estimateurs bayésiens, à choisir suivant le contexte : un estimateur du support et deux estimateurs, un lisse et un estimateur constant par morceaux. A titre d'exemple, nous considérons un problème de prédiction de la production de truffes noires du Périgord en fonction d'une covariable fonctionnelle représentant l'évolution des précipitations au cours du temps. En terme d'impact sur les productions, la méthode Bliss dégage alors deux périodes de temps importantes pour le développement de la truffe.Un autre atout du paradigme bayésien est de pouvoir inclure de l'information dans la loi a priori, par exemple l'expertise des trufficulteurs et des biologistes sur le développement de la truffe. Dans ce but, nous proposons deux variantes de la méthode Bliss pour prendre en compte ces avis. La première variante récolte de manière indirecte l'avis des experts en leur proposant de construire des données fictives. La loi a priori correspond alors à la distribution a posteriori sachant ces pseudo-données.En outre, un système de poids relativise l'impact de chaque expert ainsi que leurs corrélations. La seconde variante récolte explicitement l'avis des experts sur les périodes de temps les plus influentes sur la production et si cet l'impact est positif ou négatif. La construction de la loi a priori repose alors sur une pénalisation des fonctions coefficients en contradiction avec ces avis.Enfin, ces travaux de thèse s'attachent à l'analyse et la compréhension du comportement de la méthode Bliss. La validité de l'approche est justifiée par une étude asymptotique de la distribution a posteriori. Nous avons construit un jeu d'hypothèses spécifique au modèle Bliss, pour écrire une démonstration efficace d'un théorème de Wald. Une des difficultés est la mauvaise spécification du modèle Bliss, dans le sens où la vraie fonction coefficient n'est sûrement pas une fonction en escalier. Nous montrons que la loi a posteriori se concentre autour d'une fonction coefficient en escalier, obtenue par projection au sens de la divergence de Kullback-Leibler de la vraie fonction coefficient sur un ensemble de fonctions en escalier. Nous caractérisons cette fonction en escalier à partir du design et de la vraie fonction coefficient
The linear regression model is a common tool for a statistician. If a covariable is a curve, we tackle a high-dimensional issue. In this case, sparse models lead to successful inference, for instance by expanding the functional covariate on a smaller dimensional space.In this thesis, we propose a Bayesian approach, named Bliss, to fit the functional linear regression model. The Bliss model supposes, through the prior, that the coefficient function is a step function. From the posterior, we propose several estimators to be used depending on the context: an estimator of the support and two estimators of the coefficient function: a smooth one and a stewpise one. To illustrate this, we explain the black Périgord truffle yield with the rainfall during the truffle life cycle. The Bliss method succeeds in selecting two relevant periods for truffle development.As another feature of the Bayesian paradigm, the prior distribution enables the integration of preliminary judgments in the statistical inference. For instance, the biologists’ knowledge about the truffles growth is relevant to inform the Bliss model. To this end, we propose two modifications of the Bliss model to take into account preliminary judgments. First, we indirectly collect preliminary judgments using pseudo data provided by experts. The prior distribution proposed corresponds to the posterior distribution given the experts’ pseudo data. Futhermore, the effect of each expert and their correlations are controlled with weighting. Secondly, we collect experts’ judgments about the most influential periods effecting the truffle yield and if the effect is positive or negative. The prior distribution proposed relies on a penalization of coefficient functions which do not conform to these judgments.Lastly, the asymptotic behavior of the Bliss method is studied. We validate the proposed approach by showing the posterior consistency of the Bliss model. Using model-specific assumptions, efficient proof of the Wald theorem is given. The main difficulty is the misspecification of the model since the true coefficient function is surely not a step function. We show that the posterior distribution contracts on a step function which is the Kullback-Leibler projection of the true coefficient function on a set of step functions. This step function is derived from the true parameter and the design
APA, Harvard, Vancouver, ISO, and other styles
3

Ferchichi, Seifeddine. "Nouvelle approche de calcul de l'axe de médiane d'objets basée sur le clustering." Mémoire, Université de Sherbrooke, 2004. http://savoirs.usherbrooke.ca/handle/11143/4591.

Full text
Abstract:
Le squelette et l'axe de la médiane sont des outils nés du besoin de décrire les propriétés globales d'un objet, en particulier leur forme. La plupart des algorithmes proposés calculent l'axe de médiane à partir du contour. Ceci rend ces algorithmes sensibles au bruit. Dans ce mémoire nous présentons deux nouvelles approches de calcul de la médiane. La première approche s'applique aux objets simples sans bifurcation et la deuxième traite des objets plus complexes avec plusieurs branches et des épaisseurs variables. Les deux méthodes sont basées sur le"clustering" afin de calculer l'axe de médiane à partir de tout l'objet.
APA, Harvard, Vancouver, ISO, and other styles
4

Sidi, Zakari Ibrahim. "Sélection de variables et régression sur les quantiles." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10081/document.

Full text
Abstract:
Ce travail est une contribution à la sélection de modèles statistiques et plus précisément à la sélection de variables dans le cadre de régression linéaire sur les quantiles pénalisée lorsque la dimension est grande. On se focalise sur deux points lors de la procédure de sélection : la stabilité de sélection et la prise en compte de variables présentant un effet de groupe. Dans une première contribution, on propose une transition des moindres carrés pénalisés vers la régression sur les quantiles (QR). Une approche de type bootstrap fondée sur la fréquence de sélection de chaque variable est proposée pour la construction de modèles linéaires (LM). Dans la majorité des cas, l’approche QR fournit plus de coefficients significatifs. Une deuxième contribution consiste à adapter certains algorithmes de la famille « Random » LASSO (Least Absolute Solution and Shrinkage Operator) au cadre de la QR et à proposer des méthodes de stabilité de sélection. Des exemples provenant de la sécurité alimentaire illustrent les résultats obtenus. Dans le cadre de la QR pénalisée en grande dimension, on établit la propriété d’effet groupement sous des conditions plus faibles ainsi que les propriétés oracles. Deux exemples de données réelles et simulées illustrent les chemins de régularisation des algorithmes proposés. La dernière contribution traite la sélection de variables pour les modèles linéaires généralisés (GLM) via la vraisemblance nonconcave pénalisée. On propose un algorithme pour maximiser la vraisemblance pénalisée pour une large classe de fonctions de pénalité non convexes. La propriété de convergence de l’algorithme ainsi que la propriété oracle de l’estimateur obtenu après une itération ont été établies. Des simulations ainsi qu’une application sur données réelles sont également présentées
This work is a contribution to the selection of statistical models and more specifically in the selection of variables in penalized linear quantile regression when the dimension is high. It focuses on two points in the selection process: the stability of selection and the inclusion of variables by grouping effect. As a first contribution, we propose a transition from the penalized least squares regression to quantiles regression (QR). A bootstrap approach based on frequency of selection of each variable is proposed for the construction of linear models (LM). In most cases, the QR approach provides more significant coefficients. A second contribution is to adapt some algorithms of "Random" LASSO (Least Absolute Shrinkage and Solution Operator) family in connection with the QR and to propose methods of selection stability. Examples from food security illustrate the obtained results. As part of the penalized QR in high dimension, the grouping effect property is established under weak conditions and the oracle ones. Two examples of real and simulated data illustrate the regularization paths of the proposed algorithms. The last contribution deals with variable selection for generalized linear models (GLM) using the nonconcave penalized likelihood. We propose an algorithm to maximize the penalized likelihood for a broad class of non-convex penalty functions. The convergence property of the algorithm and the oracle one of the estimator obtained after an iteration have been established. Simulations and an application to real data are also presented
APA, Harvard, Vancouver, ISO, and other styles
5

Delsol, Laurent. "Régression sur variable fonctionnelle : estimation, tests de structure et applications." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00449806.

Full text
Abstract:
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
APA, Harvard, Vancouver, ISO, and other styles
6

ARFI, MOUNIR. "Sur la régression non paramétrique d'un processus stationnaire mélangeant ou ergodique." Paris 6, 1996. http://www.theses.fr/1996PA066012.

Full text
Abstract:
Dans cette these nous generalisons certains resultats sur la prevision des processus sous des hypotheses assez faibles et nous obtenons des resultats selon une convergence relativement forte. Nous obtenons une convergence uniforme presque sure d'un estimateur du noyau de la regression sous une condition d'ergodicite quand le processus est stationnaire. Nous generalisons ce travail pour une classe d'estimateurs de la regression quand les donnees sont dans un compact non fixe. Nous terminons par l'etude du mode conditionnel sous hypothese ergodique
APA, Harvard, Vancouver, ISO, and other styles
7

Qannari, Abdellah. "Approximations de matrices et régression linéaire sur des prédicteurs quasi-colinéaires." Rennes 2, 1993. http://www.theses.fr/1993REN20024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Sahaly, Ridha. "Effet de la consigne sur les indices mécaniques et électromyographiques de la contraction musculaire isométrique." Paris 6, 2004. http://www.theses.fr/2004PA066294.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Vincent, Pierre-Luc. "Tests de régression dans les systèmes orientés objet : une approche basée sur les modèles." Thèse, Université du Québec à Trois-Rivières, 2009. http://depot-e.uqtr.ca/1976/1/030131509.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Laloë, Thomas. "Sur quelques problèmes d'apprentissage supervisé et non supervisé." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00455528.

Full text
Abstract:
L'objectif de cette Thèse est d'apporter une contribution au problème de l'apprentissage statistique, notamment en développant des méthodes pour prendre en compte des données fonctionnelles. Dans la première partie, nous développons une approche de type plus proches voisins pour la régression fonctionnelle. Dans la deuxième, nous étudions les propriétés de la méthode de quantification dans des espaces de dimension infinie. Nous appliquons ensuite cette méthode pour réaliser une étude comportementale de bancs d'anchois. Enfin, la dernière partie est dédiée au problème de l'estimation des ensembles de niveaux de la fonction de régression dans un cadre multivarié.
APA, Harvard, Vancouver, ISO, and other styles
11

Escaffre, Lionel. "Contribution à l'analyse des déterminants de l'offre d'information sur le capital intellectuel." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Vigneault, Thomas. "Analyse de l'efficacité d'action emploi par régression discontinue." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29419/29419.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Taupin, Marie-Luce. "Estimation semi-paramétrique pour le modèle de régression non linéaire avec erreurs sur les variables." Paris 11, 1998. http://www.theses.fr/1998PA112004.

Full text
Abstract:
Dans un modele de regression non lineaire avec erreurs sur les variables, on suppose les variables explicatives sont des variables aleatoires reelles independantes, de densite inconnue, qui sont observees a une erreur additive independantes et gaussienne pres. La fonction de regression est connue a une parametre fini-dimensionnel pres. L'objectif est d'estimer ce parametre dans ce modele semi-parametrique. Nous procedons en deux etapes. Le chapitre 2 est consacree a l'estimation de fonctionnelles lineaires integrales d'une densite dans le modele de convolution. En particulier nous etablissons une borne inferieure du risque quadratique minimax pour l'estimation d'une densite en un point sur la classe des densites obtenues par convolution avec la densite gaussienne standard. Dans le chapitre 3, en utilisant les resultats precedents, nous proposons un critere des moindres carres modifie, base sur l'estimation d'une esperance conditionnelle dependant de la densite inconnue des variables explicatives. Nous montrons que l'estimateur obtenu par minimisation du critere ainsi construit est consistant et que sa vitesse de convergence est d'autant plus rapide que la fonction de regression admet de fortes proprietes de regularite (par rapport aux variables explicatives), et qu'elle est generalement plus lente que la vitesse parametrique n#1#/#2. Neanmoins elle est d'ordre (log n)#r/n pour un certain nombre de fonctions de regressions admettant un prolongement analytique sur le plan complexe.
APA, Harvard, Vancouver, ISO, and other styles
14

Colliez, Johan. "Estimation robuste du mouvement dans les séquences d'images basée sur la régression par vecteurs supports." Littoral, 2009. http://www.theses.fr/2009DUNK0231.

Full text
Abstract:
L’une des tâches principales de la vision dynamique par ordinateur consiste à extraire l’information pertinente provenant d’une séquence d’images en utilisant la théorie de la régression et d’ajustement du modèle. Toutefois, la présence de bruit et de points aberrants « outliers » a pour effet d’altérer la tâche d’estimation de la structure du modèle sous-jacent. D’où la nécessité d’employer des estimateurs robustes face aux erreurs inhérentes aux images de scènes naturelles. Dans ce travail, nous proposons un nouvel estimateur robuste basé sur les machines à vecteurs supports. Cet estimateur est une version pondérée de la régression par vecteurs supports. Il assigne une pénalisation hétérogène aux observations selon leur appartenance à la classe « inliers » ou à la classe « outliers ». Des pénalisations « hards » et « softs » ont été considérées et une approche itérative a été appliquée afin d’extraire la structure dominante dans l’ensemble des données. Les nombreux tests simulés indique que l’estimateur robuste par vecteurs supports proposé possède un point de cassure supérieur à 50% améliorant ainsi nettement les performances de la régression par vecteurs supports standard. De plus, il permet d’extraire la structure dominante dans l’ensemble des données avec une bonne résistance face aux structures résiduelles. L’approche de régression robuste a été appliquée à l’estimation du mouvement dans une séquence d’images par flot optique aussi bien que par mise en correspondance
One of the main tasks in computer vision is to extract the relevant information from an images sequence by using the regression and model adjustment theory. However, the presence of noise and ouliers has the effect of altering the task of estimating the structure of the underlying model. Hence, the need of using robust estimators against the errors inherent to natural scenes images. In this work, we propose a new robust estimator based on support vectors machines. This estimator is a weighted version of regression by support vectors. It assigns a heterogeneous penality to observations according that they belong to inliers or outliers classes. Hard and soft penalisations were considered and an iterative approach was applied to extract the dominant structure in the data set. The many simulated sets indicate that the proposed robust estimator by support vectors has a breakdown point above 50% imroving significantly the performance of the standard regression by support vector. Moreover, it permits to extract the dominant structure in the data set with a high resistance to residual structures. The robust regression approach was applied to estimate the movement in images sequence by optic flow as well as by images matching
APA, Harvard, Vancouver, ISO, and other styles
15

Fréchette, Nicolas. "Test de régression dans les systèmes orientés objet : une approche statique basée sur le code." Thèse, Université du Québec à Trois-Rivières, 2010. http://depot-e.uqtr.ca/1972/1/030149018.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Vandal, Nathalie. "La régression non paramétrique multidimensionnelle. Théorie et application à une étude portant sur la densité mammaire." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/23252/23252.pdf.

Full text
Abstract:
La régression non paramétrique est un outil statistique permettant de décrire la relation entre une variable dépendante et une ou plusieurs variables explicatives, sans spécifier de forme stricte pour cette relation. Dans ce mémoire, on présente d'abord la théorie entourant la régression non paramétrique univariée ainsi que différentes méthodes d'estimation, en mettant l'accent sur les fonctions de lissage loess et les splines de régression. On traite ensuite de l'ajustement de relations multidimensionnelles, en s'intéressant plus particulièrement aux méthodes GAM, polyMARS et MARS. On ap- plique finalement ces dernières à une étude portant sur la relation entre la densité mammaire et deux facteurs de croissance analogues à l'insuline, IGF-I et IGFBP-3, ce qui permet de mettre en évidence les avantages de la régression non paramétrique, mais aussi les difficultés rencontrées lors de son application.
Inscrite au Tableau d'honneur de la Faculté des études supérieures
APA, Harvard, Vancouver, ISO, and other styles
17

Coq, Guilhelm. "Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Coq-Guilhelm/2008-Coq-Guilhelm-These.pdf.

Full text
Abstract:
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l’image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d’une quantité réelle à minimiser appelée critère d’information ou critère entropique pénalisé. La principale motivation de ce travail de thèse est de justifier l’utilisation d’un tel critère face à un problème de sélection de modèles typiquement issu d’un contexte de traitement du signal. La justification attendue se doit, elle, d’avoir un solide fondement mathématique. Nous abordons aussi le problème classique de la détermination de l’ordre d’une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d’un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l’utilisation est justifiée par la minimisation du coût résultant de l’estimation obtenue. Les chaînes de Markov multiples modèlisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d’une image. Nous nous intéressons au problème de la détermination de l’ordre d’une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l’estimation d’ une densité par un histogramme. Dans ces deux domaines, nous justifions l’ utilisation d’ un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de « Minimum description Length ». Nous nous efforçons également, à travers ces différents domaines d’application, de présenter des méthodes alternatives d’ utilisation des critères d’ information. Ces méthodes, dites comparatives, présentent une complexité d’ utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle
Model selection problems appear frequently in a wide array of applicative domains such as data compression and signal or image processing. One of the most used tools to solve those problems is a real quantity to be minimized called information criterion or penalized likehood criterion. The principal purpose of this thesis is to justify the use of such a criterion responding to a given model selection problem, typically set in a signal processing context. The sought justification must have a strong mathematical background. To this end, we study the classical problem of the determination of the order of an autoregression. . We also work on Gaussian regression allowing to extract principal harmonics out of a noised signal. In those two settings we give a criterion the use of which is justified by the minimization of the cost resulting from the estimation. Multiple Markov chains modelize most of discrete signals such as letter sequences or grey scale images. We consider the determination of the order of such a chain. In the continuity we study the problem, a priori distant, of the estimation of an unknown density by an histogram. For those two domains, we justify the use of a criterion by coding notions to which we apply a simple form of the “Minimum Description Length” principle. Throughout those application domains, we present alternative methods of use of information criteria. Those methods, called comparative, present a smaller complexity of use than usual methods but allow nevertheless a precise description of the model
APA, Harvard, Vancouver, ISO, and other styles
18

Langlet, Fanny. "Etude de l'interface sang-noyau arqué hypothalamique au cours d'un déséquilibre énergétique : plasticité de l'éminence médiane et impact sur la régulation de la prise alimentaire." Phd thesis, Université du Droit et de la Santé - Lille II, 2013. http://tel.archives-ouvertes.fr/tel-00965922.

Full text
Abstract:
L'hypothalamus médiobasal contient de nombreux noyaux régulant l'homéostasie énergétique en réponse aux variations des signaux métaboliques périphériques, telles que les nutriments et les hormones, l'informant de l'état énergétique de l'individu. Parmi ces noyaux, le noyau arqué hypothalamique (NA) est considéré comme le noyau clé de la régulation de la prise alimentaire. En effet, il est capable de recevoir et d'intégrer les informations métaboliques périphériques, pour ensuite les relayer vers les autres noyaux hypothalamiques régulant la prise alimentaire. Dans ce contexte, l'accès des molécules périphériques au NA est une étape importante dans la régulation de la prise alimentaire. L'organisation des interfaces sang/cerveau à ce niveau est d'ailleurs très particulière, suggérant une régulation spécifique de l'accès des molécules périphériques vers le NA. En effet, deux types de vaisseaux sont retrouvés dans cette région cérébrale : 1- les vaisseaux de la barrière hématoencéphalique (BHE) dans le NA et 2- les vaisseaux fenêtrés dans l'éminence médiane (EM), un organe circumventriculaire (OCV) adjacent au NA. Alors que les vaisseaux de la BHE présentent des propriétés de barrière et régulent les échanges sang/NA, les vaisseaux de l'EM possèdent de nombreuses fenestrations facilitant les échanges sang/EM. Ces deux types de vaisseaux ont la particularité d'être contactés par des cellules épendymaires hautement spécialisées formant le bas du 3ème ventricule. Ces cellules, appelées " tanycytes ", expriment des protéines de jonctions serrées suggérant leur participation à la régulation des échanges sang/cerveau dans cette région cérébrale. En effet, des études menées au sein du laboratoire ont montré que les tanycytes de l'EM, contactant les vaisseaux fenêtrés, expriment des protéines de jonctions serrées (JS) organisées en ceinture continue autour de leur pôle apical. Ces JS créent ainsi un épendyme étanche qui limite les échanges EM/LCR. A l'inverse, les tanycytes du NA, contactant les vaisseaux de la BHE, expriment des protéines de JS non organisées en leur pôle apical. L'épendyme du NA est ainsi perméable et favorise les échanges LCR/NA. Le but de mon travail de thèse a donc été de comprendre, en prenant en compte tous ces éléments -c'est-à-dire la présence de vaisseaux fenêtrés, de vaisseaux de la BHE et des tanycytes -, comment est organisé l'accès des signaux métaboliques périphériques vers le NA et si cet accès pouvait être modulé afin de contrôler l'homéostasie énergétique. Nos expériences ont montré que, chez la souris mâle adulte, une glucopénie induite par le jeûne ou par le 2-desoxyglucose induisait une réorganisation structurale des vaisseaux et de l'épendyme au niveau de l'EM et du NA, modifiant ainsi les échanges sang/cerveau. En effet, chez ces souris, nous avons observé une augmentation du nombre de vaisseaux fenêtrés au niveau de l'EM et du NA, ainsi qu'une réorganisation fonctionnelle des protéines de JS au niveau du ventricule : les tanycytes du NA, contactant des vaisseaux fenêtrés à présent, réorganisent leurs protéines de jonctions serrées (JS) afin d'assurer l'homéostasie cérébrale. Ces réorganisations induisent alors un meilleur accès des molécules périphériques vers le NA. De plus, nos résultats ont montré que cette plasticité est induite par le VEGF-A, produit localement par les tanycytes. En effet, la neutralisation du VEGF-A bloque la plasticité de l'EM/NA induite par l'hypoglycémie et perturbent la réponse physiologique hyperphagique lors de la réalimentation. Enfin, nos données supplémentaires indiquent que cette plasticité de l'EM/NA est conservée dans différents modèles alimentaires et se produit également au cours de la journée, suggérant son implication dans le contrôle circadien du comportement alimentaire.
APA, Harvard, Vancouver, ISO, and other styles
19

Boularan, Joe͏̈l. "Deux modèles de régression. Etude théorique et exemples : [thèse en partie soutenue sur un ensemble de travaux]." Toulouse 3, 1993. http://www.theses.fr/1993TOU30225.

Full text
Abstract:
Ce travail aborde deux modèles de régression. Dans la première partie, le modèle de régression sur variables entachées d'erreurs est présente a partir du modèle à effets fixes de l'analyse en composantes principales. Les problèmes d'estimation par moindres carres généralises sont discutes dans un cadre général, incluant la prise en compte de plusieurs variables dépendantes, l'existence de contraintes linéaires sur les paramètres, le cas mixte ou certaines variables sont mesurées sans erreurs. L’étude des propriétés asymptotiques de ces estimateurs est effectuée quand la taille de l'échantillon est grande ou bien quand l'erreur est petite. Dans la deuxième partie, un modèle non paramétrique pour l'étude des données longitudinales, c'est-a-dire quand les données sont des courbes, est propose. Pour cela, on s'inspire des idées des modèles en deux étapes utilises dans le cadre paramétrique. Les estimateurs proposes atteignent les vitesses optimales de convergence (au sens l2) en estimation fonctionnelle. La mise en œuvre de la méthode est rendue automatique grâce a une technique de validation croisée appliquée à des courbes
APA, Harvard, Vancouver, ISO, and other styles
20

Ly, Boucar, and Boucar Ly. "Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacte." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37854.

Full text
Abstract:
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée.
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée.
This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
APA, Harvard, Vancouver, ISO, and other styles
21

Escaffre, Lionel. "CONTRIBUTION A L'ANALYSE DES DETERMINANTS DE L'OFFRE D'INFORMATION SUR LE CAPITAL INTELLECTUEL." Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00769320.

Full text
Abstract:
Les groupes cotés français développent depuis quelques années des stratégies de communication financière destinées à présenter les éléments constitutifs de leur capital intellectuel. La problématique de cette thèse consiste à s'interroger sur les facteurs qui influencent les entreprises à diffuser ce type d'informations qui dépassent ou complètent les dispositions comptables portant sur le traitement des éléments immatériels. La première partie rappelle l'émergence du capital intellectuel tant au sein de la gestion des groupes que dans les évolutions macro-économiques. Cette partie propose une définition conceptuelle du capital intellectuel validée au moyen d'études de cas. La seconde partie est consacrée à une analyse typologique puis factorielle de l'information tant comptable qu'extra-comptable, relatif au capital intellectuel, et diffusée par un échantillon de groupes cotés au SBF 120. Ce cadre d'analyse est ensuite testé à partir d'hypothèses théoriques issues de la théorie politico-contractuelle. Les résultats montrent une certaine limite de cette théorie pour approcher les déterminants de cette information. Le secteur d'activité, la part d'incorporel dans le bilan des groupes et le type de cabinet d'audit semblent influencer de manière significative l'offre d'information sur le capital intellectuel.
APA, Harvard, Vancouver, ISO, and other styles
22

Prévot, Vincent. "Étude sur la modulation de la sécrétion de GnRH dans la zone externe de l'éminence médiane : implication d'une plasticité stéroïdo-dépendante et rôle du monoxyde d'azote." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-141.pdf.

Full text
Abstract:
La première partie de ce travail vise à étudier par microscopie électronique la localisation des terminaisons nerveuses immunoréactives pour la GnRH dans la zone externe de l'éminence au cours du cycle oestral chez la rate. L'éminence médiane, est une région hypothalamique essentiellement constituée de terminaisons nerveuses et de prolongement gliaux, ou pieds tanycytaires, qui matérialise la charnière neurohémale entre l'hypothalamus et l'hypophyse. Nous démontrons l'existence de remaniements morphologiques de la zone externe de l'éminence médiane facilitant le passage de la GnRH dans le sang porte hypothalamo-hypophysaire, le jour du prostrus. En effet, l'observation de coupes ultrafines sériées montrent que 12,6% des terminaisons à GnRH sont observées au contact de l'espace péricapillaire le jour du prostrus, alors qu'aucune ne l'est le jour du dioestrus II. De plus, la lame basale parenchymateuse, structure délimitant le parenchyme nerveux de l'espace péricapillaire, présente deux fois plus d'évaginations le jour du prostrus que celui du distrus II, ce qui se traduit par l'augmentation d'un facteur deux de la surface d'apposition entre le tissus nerveux et le tissus capillaire. Par hybridation in situ, nous avons montré que certains membres de la superfamille des TGF[Béta]s, tels que le TGF[Béta]1 et l'activine pourraient être impliqués dans l'induction de tels phénomènes de plasticité. De fait l'ARNm de l'un de leur récepteur, le récepteur B1, est exprimé dans les tanycytes et les capillaires au niveau de l'éminence médiane, mais aussi dans les corps cellulaires des neurones à GnRH. La deuxième partie de ce travail vise à étudier le contrôle de la libération de GnRH par le monoxyde d'azote (NO), molécule de signalisation impliquée dans le contrôle des neurosécrétions neuroendocriniennes. L'utilisation de technique ex vivo, nous a permis de montrer que différentes molécules étaient capables de stimuler une libération rapide de NO par des fragments d'éminence médiane maintenues en survie via une action spécifique sur leur récepteur. Cette stimulation de la sécrétion de NO induit une sécrétion de GnRH par les terminaisons nerveuses de la zone externe de l'éminence médiane. Plus précisément nous avons montré que l'oestradiol stimulait une libération rapide de NO, puis de GnRH, via l'activation d'un récepteur membranaire aux oestrogènes, et que le NO sécrété était d'origine endothéliale. Ainsi, l'endothélium des capillaires du plexus porte hypothalamo-hypophysaire pourrait jouer, via la sécrétion de NO, un rôle fondamental dans le contrôle des sécrétions neuroendocriniennes au niveau de l'éminence médiane.
APA, Harvard, Vancouver, ISO, and other styles
23

Renahy, Emilie. "Recherche d'information en matière de santé sur Internet : déterminants, pratiques et impact sur la santé et le recours aux soins." Paris 6, 2008. http://www.theses.fr/2008PA066087.

Full text
Abstract:
Si Internet est une source d’information considérable dans le domaine de la santé, une fracture numérique persiste dans les pays industrialisés. Parallèlement, des inégalités sociales existent en lien avec l’état de santé, les représentations, le recours aux soins et la relation avec les soignants. L’objectif de cette thèse est de décrire la stratification sociale de l’utilisation d’Internet pour s’informer en matière de santé et ses conséquences sur la gestion de la santé et des soins. Des enquêtes quantitatives en population générale ont été conduites. Dans une perspective de santé publique, Internet apparaît comme une source d’information privilégiée pour les personnes malades mais plus discutable en population générale. Internet semble susceptible d’accroître – au moins temporairement – les inégalités sociales de santé. A contrario, Internet pourrait contribuer à réduire les disparités observées (prévention primaire, promotion de la santé) à condition de promouvoir activement sa diffusion ainsi que la formation à son utilisation, parallèlement au développement de systèmes d’information de qualité et adaptés aux différents publics.
APA, Harvard, Vancouver, ISO, and other styles
24

Mercuriali, Pierre. "Sur les systèmes de formes normales pour représenter efficacement des fonctions multivaluées." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0241.

Full text
Abstract:
Dans ce document, nous étudions les représentations efficaces, en termes de taille, d'un contenu sémantique donné. Nous étendons tout d'abord une spécification équationnelle du domaine des fonctions Booléennes à celui des polynômes latticiels sur des treillis distributifs, domaines cruciaux en intelligence artificielle. Cette spécification est correcte et complète : elle nous permet de simplifier des formules médianes de manière algébrique en des formes normales médianes (MNF), que nous définissons comme des formules médianes minimales par rapport à un ordre structurel sur les expressions. Nous explorons la complexité de certaines questions connexes, et montrons que le problème qui consiste à décider si une formule est en MNF, c'est-à-dire, à simplifier la formule médiane d'une fonction Booléenne monotone, est dans sigmaP, au second niveau de la hiérarchie polynomiale : nous montrons également ce résultat pour les fonctions Booléennes arbitraires. Nous étudions ensuite d'autres systèmes de formes normales (NFSs), considérés, plus généralement, comme des ensembles de termes stratifiés selon une suite de connecteurs fixée, telle que (m, NOT) pour la MNF. Pour un NFS fixé A, la complexité d'une fonction Booléenne f par rapport à A est le minimum des tailles des termes de A qui représentent f. Cela induit un préordre sur les NFSs : un NFS A est polynomialement plus efficace qu'un NFS B s'il existe un polynôme P à coefficients entiers strictement positifs tel que la complexité de toute fonctions Booléenne f par rapport à A est majorée par la valeur de P pris en la complexité de « f » par rapport à « B ». Nous étudions les NFSs monotones, c'est-à-dire les NFSs dont les connecteurs sont croissants ou décroissants en chaque argument. Nous décrivons les NFSs monotones optimaux, qui sont minimaux par rapport au préordre ci-dessus. Nous montrons qu'ils sont tous équivalents. Nous montrons que les NFSs monotones optimaux sont exactement ceux qui ne comportent qu'un seul connecteur ou un seul connecteur et la négation. Finalement, nous montrons que l'optimalité ne dépend pas de l'arité du connecteur
In this document, we study efficient representations, in term of size, of a given semantic content. We first extend an equational specification of median forms from the domain of Boolean functions to that of lattice polynomials over distributive lattices, both domains that are crucial in artificial intelligence. This specification is sound and complete: it allows us to algebraically simplify median forms into median normal forms (MNF), that we define as minimal median formulas with respect to a structural ordering of expressions. We investigate related complexity issues and show that the problem of deciding if a formula is in MNF, that is, minimizing the median form of a monotone Boolean function, is in sigmaP, at the second level of the polynomial hierarchy; we show that this result holds for arbitrary Boolean functions as well. We then study other normal form systems (NFSs), thought of, more generally, as a set of stratified terms over a fixed sequence of connectives, such as (m, NOT) in the case of the MNF. For a fixed NFS A, the complexity of a Boolean function f with respect to A is the minimum of the sizes of terms in A that represent f. This induces a preordering of NFSs: an NFS A is polynomially as efficient as an NFS B if there is a polynomial P with nonnegative integer coefficients such that the complexity of any Boolean function f with respect to A is at most the value of P in the complexity of f with respect to B. We study monotonic NFSs, i.e., NFSs whose connectives are increasing or decreasing in each argument. We describe optimal monotonic NFSs, that are minimal with respect to the latter preorder. We show that they are all equivalent. We show that optimal monotonic NFSs are exactly those that use a single connective or one connective and the negation. Finally, we show that optimality does not depend on the arity of the connective
APA, Harvard, Vancouver, ISO, and other styles
25

Vau, Bernard. "Algorithmes d’identification par régression pseudo-linéaire avec prédicteurs paramétrisés sur des bases généralisées de fonctions de transfert orthonormales." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN062.

Full text
Abstract:
Cette thèse porte sur l’identification des systèmes linéaires stationnaires, représentés par des fonctions de transfert en temps discret. Pour un ordre donné, contrairement aux méthodes d'identification visant explicitement à minimiser la variance de l'erreur de prédiction, les algorithmes basés sur la régression pseudo-linéaire induisent des modèles dont la distribution des biais est dépendante de la paramétrisation du prédicteur. Ceci a été démontré grâce au concept innovant d'erreur de prédiction équivalente, signal en général non mesurable, dont la variance est effectivement minimisée dans le cadre de la régression pseudo-linéaire.Dans un second temps, sont proposées des versions revisitées des algorithmes récursifs de l'erreur de sortie et des moindres carrés étendus (ainsi que de leurs équivalents en boucle fermée), dont les prédicteurs sont exprimés sur les bases généralisées de fonctions de transfert orthonormales, introduites par Heuberger et al. dans les années 1990 et 2000. La sélection des pôles de la base revient à imposer le noyau reproduisant de l'espace de Hilbert auquel appartiennent ces fonctions de transfert, et à spécifier la manière dont l'approximation est réalisée par les algorithmes. Nous utilisons une expression particulière de ce noyau reproduisant pour introduire un indicateur de l'effet des pôles de la base sur la qualité de l'ajustement du modèle dans le domaine fréquentiel. Cet indicateur joue un grand rôle d'un point de vue heuristique. Enfin, un test de validation en adéquation avec ces algorithmes d'identification est proposé, dont les propriétés statistiques sont explicitées. Les retombées concrètes de ces travaux résident dans la mise à disposition de paramètres de réglages simples et peu nombreux (les pôles de la base), utilisables en fonction du but implicite assigné à l'identification. L'obtention de modèles d'ordre réduit s'en trouve facilitée. De plus l'identification des systèmes raides - comportant des modes dont les fréquences sont séparées de plusieurs décades- jusqu'alors impossible en temps discret, est rendue accessible
This thesis deals with identification of linear time invariant systems described by discrete-time transfer functions. For a given order, contrary to identification methods minimizing explicitly the prediction error variance, algorithms based on pseudo-linear regression produce models with a bias distribution dependent on the predictor parametrization. This has been demonstrated by the innovating concept of equivalent prediction error, a signal in general non-measurable, whose variance is effectively minimized by the pseudo-linear regression.In a second step, revisited versions of recursive algorithms are proposed (Output Error, extended least squares, and their equivalents in closed-loop), whose predictors are expressed on generalized bases of transfer functions introduced by Heuberger et al. in the 1990s and 2000s. The selection of the basis poles is equivalent to define the reproducing kernel of the Hilbert space associated to these functions, and to impose how approximation is achieved by the algorithms. A particular expression of this reproducing kernel is employed to introduce an indicator of the basis poles effect on the model fit in the frequency domain. This indicator plays a great role from a heuristic point of view.At last, a validation test in accordance with these algorithms is proposed. Its statistical properties are given. This set of algorithms provides to the user some simple tuning parameters (the basis poles) that can be selected in function of the implicit purpose assigned to the identification procedure. Obtaining reduced order models is made easier, while identification of stiff systems –impossible until now in discrete-time- becomes accessible
APA, Harvard, Vancouver, ISO, and other styles
26

Nkengne, Nguimezong Alex Albert. "Prédire l'âge de personnes à partir de photos du visage : une étude fondée sur la caractérisation et l'analyse de signes du vieillissement." Paris 6, 2008. https://tel.archives-ouvertes.fr/tel-00812718.

Full text
Abstract:
L’âge a de tout temps constitué un attribut identitaire important. Nous avons développé au fil de l’évolution une aptitude innée à classer les individus en fonction de leur âge. Cette classification s’appuie en grande partie sur le visage et sur les transformations anatomiques qu’il subit au cours du temps. De plus en plus de traitements cosmétiques, dermatologiques et d’interventions chirurgicales s’attaquant à un signe ou un groupe de signes spécifiques du vieillissement sont mis en oeuvre pour annuler, ou tout au moins masquer partiellement l’effet du temps sur le visage. On peut dès lors s’interroger sur l’influence de chacun des signes sur notre capacité à prédire l’âge d’un individu en observant son visage. Afin de construire un algorithme capable de déterminer l’âge d’individus à partir de leurs photos, nous nous sommes intéressés aux signes du vieillissement et à leur impact sur l’âge apparent. Dans un premier temps, nous avons déterminé et analysé les transformations anatomiques qui altèrent le visage à partir de l’âge adulte (au-delà de 20 ans). Puis nous avons étudié les signes sur lequel on se base pour prédire l’âge d’une personne. Enfin, nous avons construit et validé un modèle prédictif de l’âge en s’appuyant sur les observations précédentes. Transformations anatomiques du visage avec l’âge : La prévalence d’un certain nombre de signes de vieillissement (rides, tâches brunes, forme du visage…) a été mesurée sur un panel représentatif de femmes volontaires âgées de 20 à 74 ans. Ces données ont permis d’établir la cinétique d’apparition de ces signes. Appréciation subjective de l’âge: Il s’agissait de déterminer les signes sur lesquels un observateur s’appuie lorsqu’il évalue l’âge d’un sujet. Pour ce faire, nous avons demandé à un panel constitué de 48 observateurs d’attribuer un âge aux volontaires sur lesquelles nous avions précédemment mesuré les signes du vieillissement. Nous avons confirmé avec ce groupe d’observateurs que la perception de l’âge est liée au sexe et à l’âge de l’observateur. De plus, à l’aide d’une régression PLS (Partial Least Square régression), nous avons établi des relations entre les signes du vieillissement et l’âge observé et démontré que selon que l’on soit jeune ou âgé, un homme ou une femme, on n’exploite pas les mêmes signes de vieillissement pour prédire l’âge. Modèle de prédiction : Enfin, nous avons proposé un modèle s’appuyant sur la régression PLS pour prédire automatiquement l’âge à partir des photos du visage. Ce modèle présente la particularité d’associer, dans une approche unifiée, les signes relatifs à la couleur, à la forme et à la texture du visage, à l’âge des sujets. A l’instar des Modèles Actifs D’apparence (AAM), le modèle construit vise à réduire fortement l’information portée par l’ensemble des pixels du visage. Toutefois, ce dernier est supervisé : Il est donc très approprié dans notre contexte puisque que l’on peut mettre en oeuvre une procédure d’apprentissage pilotée par le but. Les performances sont de fait comparables à celles des humains
Age has always been an important identity attribute. In order to build an algorithm for predicting age from someone front face picture, we have study the signs of facial aging and their incidence on perceived age. Firstly we have analyzed the anatomical transformations that alter the adult face. Secondly, we have determined the features associated with aging that mostly drive the human perception of age. Finally, we have built and validated a predictive model of age from front face pictures. This model uses the Partial Least Square (PLS) regression to summarize the facial information related to aging. Thanks to this model, people age can be predicted, at the level of human accuracy
APA, Harvard, Vancouver, ISO, and other styles
27

Ould, Aboubecrine Mohamed Mahmoud. "Sur l'estimation basée sur les records et la caractérisation des populations." Le Havre, 2011. http://www.theses.fr/2011LEHA0004.

Full text
Abstract:
Dans la première partie de ce travail, nous considérons un nombre k-valeurs records d'une suite de variables aléatoires indépendantes et identiquement distribuées de fonction de répartition F, notre but est de prédire les futures k-valeurs sous des hypothèses adéquates sur la queue de F. Dans la deuxième partie, nous considérons deux populations de tailles finies et étudions leurs caractérisations en utilisant la régression des statistiques d'ordre sur un tirage sans remise. Nous donnons également quelques résultats asymptotiques lorsque la taille de la population tend vers l'infini
In the first part of this work, we consider a number of k-record values from independent and identically distributed random variables with a continuous distribution function F, ou aim is to predict future k-record values under suitable assumptions on the tail of F. In the second part, we consider finite populations and investigate their characterization by regressions of order statistics under sampling without replacement. We also give some asymptotic results when the size of the population goes to infinity
APA, Harvard, Vancouver, ISO, and other styles
28

Dabo-Niang, Sophie. "Sur l'estimation fonctionnelle en dimension infinie : application aux diffusions." Paris 6, 2002. http://www.theses.fr/2002PA066273.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Nkengne, Alex A. "Prédire l'âge de personnes à partir de photos du visage : une étude fondée sur la caractérisation et l'analyse de signes du vieillissement." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00812718.

Full text
Abstract:
L'âge a de tout temps constitué un attribut identitaire important. Nous avons développé au fil de l'évolution une aptitude innée à classer les individus en fonction de leur âge. Cette classification s'appuie en grande partie sur le visage et sur les transformations anatomiques qu'il subit au cours du temps. De plus en plus de traitements cosmétiques, dermatologiques et d'interventions chirurgicales s'attaquant à un signe ou un groupe de signes spécifiques du vieillissement sont mis en oeuvre pour annuler, ou tout au moins masquer partiellement l'effet du temps sur le visage. On peut dès lors s'interroger sur l'influence de chacun des signes sur notre capacité à prédire l'âge d'un individu en observant son visage. Afin de construire un algorithme capable de déterminer l'âge d'individus à partir de leurs photos, nous nous sommes intéressés aux signes du vieillissement et à leur impact sur l'âge apparent. Dans un premier temps, nous avons déterminé et analysé les transformations anatomiques qui altèrent le visage à partir de l'âge adulte (au-delà de 20 ans). Puis nous avons étudié les signes sur lequel on se base pour prédire l'âge d'une personne. Enfin, nous avons construit et validé un modèle prédictif de l'âge en s'appuyant sur les observations précédentes. Transformations anatomiques du visage avec l'âge : La prévalence d'un certain nombre de signes de vieillissement (rides, tâches brunes, forme du visage...) a été mesurée sur un panel représentatif de femmes volontaires âgées de 20 à 74 ans. Ces données ont permis d'établir la cinétique d'apparition de ces signes. Appréciation subjective de l'âge: Il s'agissait de déterminer les signes sur lesquels un observateur s'appuie lorsqu'il évalue l'âge d'un sujet. Pour ce faire, nous avons demandé à un panel constitué de 48 observateurs d'attribuer un âge aux volontaires sur lesquelles nous avions précédemment mesuré les signes du vieillissement. Nous avons confirmé avec ce groupe d'observateurs que la perception de l'âge est liée au sexe et à l'âge de l'observateur. De plus, à l'aide d'une régression PLS (Partial Least Square régression), nous avons établi des relations entre les signes du vieillissement et l'âge observé et démontré que selon que l'on soit jeune ou âgé, un homme ou une femme, on n'exploite pas les mêmes signes de vieillissement pour prédire l'âge.Modèle de prédiction : Enfin, nous avons proposé un modèle s'appuyant sur la régression PLS pour prédire automatiquement l'âge à partir des photos du visage. Ce modèle présente la particularité d'associer, dans une approche unifiée, les signes relatifs à la couleur, à la forme et à la texture du visage, à l'âge des sujets. A l'instar des Modèles Actifs D'apparence (AAM), le modèle construit vise à réduire fortement l'information portée par l'ensemble des pixels du visage. Toutefois, ce dernier est supervisé : Il est donc très approprié dans notre contexte puisque que l'on peut mettre en oeuvre une procédure d'apprentissage pilotée par le but. Les performances sont de fait comparables à celles des humains.
APA, Harvard, Vancouver, ISO, and other styles
30

Monnier, Jean-Baptiste. "Quelques contributions en classification, régression et étude d'un problème inverse en finance." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00650930.

Full text
Abstract:
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
APA, Harvard, Vancouver, ISO, and other styles
31

Belzile, Martin. "Analyse de survie sur les prédicteurs de la durée d’un processus thérapeutique individuel chez les hommes auteurs de violence conjugale." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9486.

Full text
Abstract:
La violence conjugale est un problème social qui engendre des coûts sérieux (Statistique Canada, 2016). Son traitement est important. Les taux d’abandon thérapeutique observés dans les programmes de traitement en groupe pour les hommes auteurs de comportements violents en contexte conjugal se situent entre 15 et 58 % (Jewell & Wormith, 2010). Ces hauts taux d’abandon réduisent l’efficacité réelle des suivis pour violence conjugale (Bowen & Gilchrist, 2006). Des études montrent que l’âge, l’occupation, le statut conjugal, le faible revenu, l’expérience de violence physique à l’enfance, la consommation de drogue et d’alcool, ainsi que la personnalité colérique et la fréquence des comportements de violence sont des variables qui permettent de prédire l’abandon d’un programme de traitement de la violence conjugale en format de groupe et de type fermé (Jewell & Wormith, 2010). Aucune étude recensée n’a étudié les prédicteurs liés à l’abandon thérapeutique d’un traitement en format individuel de type ouvert. Cette étude visait à identifier quels sont les moments-clés où il y a cessation du suivi pour violence conjugale et à vérifier quelles variables sont associées à une cessation plus ou moins précoce du traitement individuel des hommes auteurs de violence conjugale. Une batterie de questionnaires auto-rapportés a été soumise à 206 hommes francophones qui amorcent une consultation individuelle pour un problème de violence conjugale dans un centre communautaire de la province de Québec. Parmi ceux-ci se trouvaient des questionnaires évaluant l’expérience de la colère, les comportements de violence conjugale, les insécurités d’attachement amoureux et la désirabilité sociable. Le nombre de séances complétées par chaque participant a également été obtenu par le biais de l’organisme. Une première analyse de survie a permis de produire une table de survie et d’identifier trois moments où la cessation du suivi est la plus fréquente, soient une cessation précoce (1 ou 2 séances), une cessation à court terme (3 à 5 séances) et une cessation à moyen terme (après la 11e séance). L’analyse de survie par régression de Cox a ensuite permis de montrer que l’âge, le fait d’avoir complété ou non des études post-secondaires, le fait d’avoir une occupation stable (emploi ou études à temps plein) ou non, le fait de consulter sous ordonnance légale, le niveau de violence psychologique émise, ainsi que les insécurités d’attachement (évitement de l’intimité, anxiété d’abandon) sont tous des prédicteurs significatifs du moment de cessation d’un suivi individuel de type ouvert pour violence conjugale. Plus précisément, les participants qui n’ont pas complété d’études post-secondaires, qui sont sans occupation stable, qui consultent sous ordonnance de la Cour ou de la DPJ et qui présentent peu d’évitement de l’intimité ont davantage tendance à cesser leur suivi de façon précoce; les participants qui ont complété des études post-secondaires et qui présentent peu d’anxiété d’abandon ont davantage tendance à cesser leur suivi à court terme; les clients qui posent moins d’actes de violence psychologique ont davantage tendance à mettre fin à leur suivi à moyen terme. Les implications cliniques de ces résultats sont discutées
APA, Harvard, Vancouver, ISO, and other styles
32

Boulinguiez, Benoît. "Procédé d'adsorption et régénération électrothermique sur textile de carbone activé : une solution pour la problématique des COV dans des gaz à fort potentiel énergétique." Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00540206.

Full text
Abstract:
Un procédé d’adsorption–électrodésorption sur textile de carbone activé est proposé afin de répondre à la problématique des composés organiques volatils à l’état de traces dans les gaz à fort potentiel énergétique : biogaz et gaz de ville. Une approche expérimentale en deux parties a été conduite afin de premièrement, sélectionner le matériau adéquat dans les conditions opératoires considérées et modéliser les phénomènes physico-chimiques relatifs à l’adsorption et la désorption thermique, deuxièmement, mettre en oeuvre ce matériau dans une unité pilote de purification en continu, à l’échelle du laboratoire. Un échantillon représentatif de COV est retenu : toluène, isopropanol, dichlorométhane, éthanethiol, octaméthylecyclotétrasiloxane et tétrahydrothiophène. L’adsorption et la désorption de ces composés sur différents textiles de carbone activé sont caractérisées, modélisées et quantifiées afin de pouvoir dimensionner l’unité pilote de traitement en continu
An adsorption-electrodesorption process on activated carbon fabric is deemed to address the issue of volatile organic compounds at trace concentrations in methane-rich gases : biogas and natural gas. The experimental procedure is divided into two connected sections so as to, firstly, assess the potential of several materials and define the most relevant in the working conditions by means of modelling chemical and physical phenomena adsorption-bound and desorption-bound; secondly implement this fabric in a specific lab-scale pilot-unit, designed to perform continuous treatment. Adsorption and desorption in steady conditions of the studied organic volatile compounds: toluene, isopropanol, methylene chloride, ethanethiol, octamethylecyclotetrasiloxane et tetrahydrothiophene, on several activated carbon fabrics are characterised, modelled et quantified in order to design the lab-scale pilot-unit
APA, Harvard, Vancouver, ISO, and other styles
33

Hindié, Mathilde. "Orientations fonctionnelles de cellules adhérentes (mélanomes B16 et préostéoblastes MCT3) cultivées sur un support cellulosique." Compiègne, 2004. http://www.theses.fr/2004COMP1535.

Full text
Abstract:
Les biomatériaux, en fonction de leur nature et de leurs propriétés de surface, peuvent donner aux cellules placées à leur contact, différentes morphologies qui seront déterminantes pour leurs orientations fonctionnelles. L'objectif de cette thèse est l'étude des réactions de cellules cultivées au contact d'un support original pour culture cellulaire. Les lignées de cellules adhérentes utilisées lors de cette étude ont été trois lignées des cellules de mélanomes murins B16 de pouvoir métastatique croissant et des préostéoblastes murins MC3T3. Les principaux résultats obtenus sont les suivants : une morphologie cellulaire arrondie et une agrégation des cellules ; une inhibition de la prolifération cellulaire ; une induction de la différenciation et/ou de l'apoptose. Ce revêtement nous a permis d'obtenir des résultats significatifs et reproductibles qui ouvrent la perspective de son utilisation comme outil de recherche fondamentale et d'aide au diagnostic de malignité
Biomaterials according to their nature and their surface properties can give to cells in their contact, different morphologies which will be determinant to their functional orientations. This thesis airn is to study the reactions of cells cultivated on an original coating for cell culture. Adherent cells lines used during this study are three cells lines of murine melanoma cells B 16 with growing metastatic power and MC3T3 preosteoblasts. Principal results obtained are : a cellular morphology change which is manifested by cells aggregation ; a cellular proliferation inhibition ; a differentiation induction and/or apoptosis This coating permits us to obtain significant and reproducible results which open new perspectives for its utilization as a fundamental research tool and as a malignity diagnostic help tool
APA, Harvard, Vancouver, ISO, and other styles
34

Frouin, Arthur. "Lien entre héritabilité et prédiction de phénotypes complexes chez l’humain : une approche du problème par la régression ridge sur des données de population." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASL027.

Full text
Abstract:
Cette thèse étudie l'apport des méthodes d'apprentissage automatique pour la prédiction de phénotypes humains complexes et héritables, à partir de données génétiques en population. En effet, les études d'association à l'échelle du génome (GWAS) n'expliquent en général qu'une petite fraction de l'héritabilité observée sur des données familiales. Cependant l'héritabilité peut être approchée sur des données de population par l'héritabilité génomique, qui estime la variance phénotypique expliquée par l'ensemble des polymorphismes nucléotidiques (SNP) du génome à l'aide de modèles mixtes. Cette thèse aborde donc l'héritabilité du point de vue de l'apprentissage automatique et examine le lien étroit entre les modèles mixtes et la régression ridge. Notre contribution est double. Premièrement, nous proposons d'estimer l'héritabilité génomique en utilisant une approche prédictive via la régression ridge et la validation croisée généralisée (GCV). Deuxièmement, nous dérivons des formules simples qui expriment la précision de la prédiction par la régression ridge en fonction du rapport de la taille de la population et du nombre total de SNP, montrant clairement qu'une héritabilité élevée n'implique pas nécessairement une prédiction précise. L'estimation de l'héritabilité via GCV et les formules de précision de prédiction sont validées à l'aide de données simulées et de données réelles de UK Biobank. La dernière partie de la thèse présente des résultats sur des phénotypes qualitatifs. Ces résultats permettent une meilleure compréhension des biais des méthodes d'estimation d'héritabilité
This thesis studies the contribution of machine learning methods for the prediction of complex and heritable human phenotypes, from population genetic data. Indeed, genome-wide association studies (GWAS) generally only explain a small fraction of the heritability observed in family data. However, heritability can be approximated on population data by genomic heritability, which estimates the phenotypic variance explained by the set of single nucleotide polymorphisms (SNPs) of the genome using mixed models. This thesis therefore approaches heritability from a machine learning perspective and examines the close link between mixed models and ridge regression.Our contribution is twofold. First, we propose to estimate genomic heritability using a predictive approach via ridge regression and generalized cross validation (GCV). Second, we derive simple formulas that express the precision of the ridge regression prediction as a function of the size of the population and the total number of SNPs, showing that a high heritability does not necessarily imply an accurate prediction. Heritability estimation via GCV and prediction precision formulas are validated using simulated data and real data from UK Biobank. The last part of the thesis presents results on qualitative phenotypes. These results allow a better understanding of the biases of the heritability estimation methods
APA, Harvard, Vancouver, ISO, and other styles
35

Attaoui, Said. "Sur l'estimation semi paramétrique robuste pour statistique fonctionnelle." Phd thesis, Université du Littoral Côte d'Opale, 2012. http://tel.archives-ouvertes.fr/tel-00871026.

Full text
Abstract:
Dans cette thèse, nous nous proposons d'étudier quelques paramètres fonctionnels lorsque les données sont générées à partir d'un modèle de régression à indice simple. Nous étudions deux paramètres fonctionnels. Dans un premier temps nous supposons que la variable explicative est à valeurs dans un espace de Hilbert (dimension infinie) et nous considérons l'estimation de la densité conditionnelle par la méthode de noyau. Nous traitons les propriétés asymptotiques de cet estimateur dans les deux cas indépendant et dépendant. Pour le cas où les observations sont indépendantes identiquement distribuées (i.i.d.), nous obtenons la convergence ponctuelle et uniforme presque complète avec vitesse de l'estimateur construit. Comme application nous discutons l'impact de ce résultat en prévision non paramétrique fonctionnelle à partir de l'estimation de mode conditionnelle. La dépendance est modélisée via la corrélation quasi-associée. Dans ce contexte nous établissons la convergence presque complète ainsi que la normalité asymptotique de l'estimateur à noyau de la densité condtionnelle convenablement normalisée. Nous donnons de manière explicite la variance asymptotique. Notons que toutes ces propriétés asymptotiques ont été obtenues sous des conditions standard et elles mettent en évidence le phénomène de concentration de la mesure de probabilité de la variable fonctionnelle sur des petites boules. Dans un second temps, nous supposons que la variable explicative est vectorielle et nous nous intéressons à un modèle de prévision assez général qui est la régression robuste. A partir d'observations quasi-associées, on construit un estimateur à noyau pour ce paramètre fonctionnel. Comme résultat asymptotique on établit la vitesse de convergence presque complète uniforme de l'estimateur construit. Nous insistons sur le fait que les deux modèles étudiés dans cette thèse pourraient être utilisés pour l'estimation de l'indice simple lorsque ce dernier est inconnu, en utilisant la méthode d'M-estimation ou la méthode de pseudo-maximum de vraisemblance, qui est un cas particulier de la première méthode.
APA, Harvard, Vancouver, ISO, and other styles
36

Achour, Sami. "Schémas d'adaptations algorithmiques sur les nouveaux supports d'éxécution parallèles." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM086/document.

Full text
Abstract:
Avec la multitude des plates-formes parallèles émergentes caractérisées par une hétérogénéité sur le plan matériel (processeurs, réseaux, …), le développement d'applications et de bibliothèques parallèles performantes est devenu un défi. Une méthode qui se révèle appropriée pour relever ce défi est l'approche adaptative consistant à utiliser plusieurs paramètres (architecturaux, algorithmiques,…) dans l'objectif d'optimiser l'exécution de l'application sur la plate-forme considérée. Les applications adoptant cette approche doivent tirer avantage des méthodes de modélisation de performance pour effectuer leurs choix entre les différentes alternatives dont elles disposent (algorithmes, implémentations ou ordonnancement). L'usage de ces méthodes de modélisation dans les applications adaptatives doit obéir aux contraintes imposées par ce contexte, à savoir la rapidité et la précision des prédictions. Nous proposons dans ce travail, en premier lieu, un framework de développement d'applications parallèles adaptatives basé sur la modélisation théorique de performances. Ensuite, nous nous concentrons sur la tâche de prédiction de performance pour le cas des milieux parallèles et hiérarchiques. En effet, nous proposons un framework combinant les différentes méthodes de modélisation de performance (analytique, expérimentale et simulation) afin de garantir un compromis entre les contraintes suscités. Ce framework profite du moment d'installation de l'application parallèle pour découvrir la plate-forme d'exécution et les traces de l'application afin de modéliser le comportement des parties de calcul et de communication. Pour la modélisation de ces deux composantes, nous avons développé plusieurs méthodes s'articulant sur des expérimentations et sur la régression polynômiale pour fournir des modèles précis. Les modèles résultats de la phase d'installation seront utilisés (au moment de l'exécution) par notre outil de prédiction de performance de programmes MPI (MPI-PERF-SIM) pour prédire le comportement de ces derniers. La validation de ce dernier framework est effectuée séparément pour les différents modules, puis globalement pour le noyau du produit de matrices
With the multitude of emerging parallel platforms characterized by their heterogeneity in terms of hardware components (processors, networks, ...), the development of performant applications and parallel libraries have become a challenge. A method proved suitable to face this challenge is the adaptive approach which uses several parameters (architectural, algorithmic, ...) in order to optimize the execution of the application on the target platform. Applications adopting this approach must take advantage of performance modeling methods to make their choice between the alternatives they have (algorithms, implementations or scheduling). The use of these modeling approaches in adaptive applications must obey the constraints imposed by the context, namely predictions speed and accuracy. We propose in this work, first, a framework for developing adaptive parallel applications based on theoretical modeling performance. Then, we focuse on the task of performance prediction for the case of parallel and hierarchical environments. Indeed, we propose a framework combining different methods of performance modeling (analytical, experimental and simulation) to ensure a balance between the constraints raised. This framework makes use of the installing phase of the application to discover the parallel platform and the execution traces of this application in order to model the behavior of two components namely computing kernels and pt/pt communications. For the modeling of these components, we have developed several methods based on experiments and polynomial regression to provide accurate models. The resulted models will be used at runtime by our tool for performance prediction of MPI programs (MPI-PERF-SIM) to predict the behavior of the latter. The validation of the latter framework is done separately for the different modules, then globally on the matrix product kernel
APA, Harvard, Vancouver, ISO, and other styles
37

Meziane-El, May Hédia. "Extension de la régression classique à des problèmes typologiques et présentation de la "méthode des tranches de densité" : une approche basée sur la percolation." Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX32000.

Full text
Abstract:
Le probleme que nous abordons tel est celui de la generalisation du concept de la regression ayant pour but la prise en compte des aspects structurels de l'ensemble des donnees. Cet aspect des choses est pratiquement toujours passe sous silence au niveau des resolutions, alors que sa prise en compte devrait permettre un comprehension beaucoup plus precise d'un tres grand nombre de phenomenes et la mise en place de modeles plus adequats sur nombres de realites. Independamment de la prise en compte des points aberrants, d'autres raisons, fondamentales aussi, peuvent etre la cause d'une mauvaise qualite des modeles. Ces raisons sont d'ordre structurel et c'est ce a qoui nous nous interessons ici, en montrant qu'il est possible sur un meme ensemble de donnees de rechercher automatiquement l'existence d'un modele ou de plusieurs modeles sous-jacents. Nous proposons dans cette these, une methode de resolution simple et efficace: "la methode des tranches de densite" dont le but est la mise en evidence de "multimodeles" internes a une realite ou l'hypothese d'homogeneite des donnees ne peut etre acceptee. Cette methode tente de faire une synthese des techniques de regression et de typologie. La classification non-hierarchique des donnees est effecutee selon le principe de la percolation et est realisee simultanement avec le calcul des hyperplans de regression. La recherche des points de forte densite selon le principe de la percolation est appliquee non plus sur les points mais sur les tranches de points. Les fondements de la methode sont discutes, et, un algorithme et quelques resultats presentes
We are about to tackle hereafter the problem of generalizing the regression concept for the purpose of taking into account the data's structural aspects. The resolutions of this matter of fact are mostly overlooked although taking them into consideration would allow a better understanding of a great number of phenomenons and would lead to the establishment of more adequate models. In addition ot the outliers, some other fundamental factors may undermine as well the quality of the models. These factors are structural in nature. Therefore our objctive is to show that from the same set of data, it is possible to search automatically one or even several resulting models. We propose, within this thesis, a method of resoulution that should be both simple and efficient: "the method of density slices", which aim is to find underlying "multimodels" when one is handling heterogeneous data. This method treis to synthesize regression and classification techniques. The non-hierarchical classification of data must be guided by the "percolation principle" and has to be realized simultaneously with the computation of the regression hyperplans. The percolation principle which aims to find the strong density points, has to be applied to slices of points and no longer to individual points. The basis of this method are discussed herewith, an algorithm and some results are presented as well
APA, Harvard, Vancouver, ISO, and other styles
38

Abdallah, Mouhammed. "Vulnérabilité des ouvrages en maçonnerie à des mouvements de terrain : méthodologie d'analyse par méthodes statistiques et par plans d'expériences numériques sur les données de la ville de Joeuf." Thesis, Vandoeuvre-les-Nancy, INPL, 2009. http://www.theses.fr/2009INPL019N/document.

Full text
Abstract:
Le contexte de l’étude est celui des mouvements de terrain susceptibles de se produire à la suite d’un affaissement minier caractéristique de Lorraine et de leurs conséquences sur les habitations en maçonnerie traditionnelle. Quand de tels affaissements se produisent, ces habitations subissent en effet des désordres qui résultent des efforts engendrés dans la structure par les mouvements du terrain. La réponse qui caractérise alors l’état global de la structure dépend des caractéristiques géométriques, physiques et mécaniques. Or, la nature discontinue des maçonneries et la complexité des interactions entre blocs dans ces maçonneries rend complexe et difficile la détermination de cette réponse. Il en est de même de l’interaction sol-structure. L’objectif de la recherche consiste donc à étudier, par modélisation numérique avec la méthode des éléments distincts et par la technique des plans d’expérience et des surfaces de réponse, le comportement d’ouvrages en maçonnerie soumis à un affaissement minier caractéristique et à dégager de cette étude des critères permettant d’estimer, à l’échelle d’une ville entière, la vulnérabilité de tous ses bâtiments en maçonnerie. Une première analyse simplifiée expose le principe de la démarche mise en œuvre à l’échelle de la ville de Joeuf, utilisée comme site pilote. Elle repose sur l’analyse de la longueur cumulée des joints ouverts, assimilés à la formation de fissures dans la structure. Ensuite, une analyse typologique permet de distinguer 4 groupes de maisons aux caractéristiques proches. Sur chacun de ces groupes, la démarche est ensuite appliquée de manière systématique. Elle prend en considération des caractéristiques géométriques des façades et aboutit à la formulation de fonctions de vulnérabilité qui font appel à la technique de régression orthogonale
The context of our study concerns ground movements that may occur in Lorraine as a result of mining subsidence events and their impact on traditional masonry houses. When such an event occurs, houses suffer disorders resulting from efforts in the structure caused by the movement of the ground. The response that characterizes the state of the structure depends on the geometrical, physical and mechanical characteristics. However, the discontinuous nature of the masonry and the interactions complexity between masonry blocks makes it difficult to determine that response. The same is true about the soil-structure interaction. The purpose of this research is to study, by numerical modelling with the distinct element method, experimental design planning and response surfaces, the behaviour of masonry structures subjected to a typical mining subsidence event and to define from this study some criteria making possible the estimation of the vulnerability of all the buildings of a city. A first simplified analysis describes the principle of the used methodology which is then applied to the study of all houses of the city of Joeuf, used as a pilot site. This methodology is based on an analysis of the total length of the opened joints, which are considered as similar to cracks in the structure. Then, a typology analysis helps first to distinguish 4 groups (types) of houses which have similar characteristics. On each of these groups, the methodology is applied consistently, based on the geometrical characteristics of the houses facades and then leads to the formulation of vulnerability functions that use the technique of orthogonal regression
APA, Harvard, Vancouver, ISO, and other styles
39

Touzani, Samir. "Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00614038.

Full text
Abstract:
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
40

Beauregard, Benjamin. "Comparaison de modèles de régression logistique utilisés pour l'analyse de données recueillies dans le cadre d'études de type cas-témoins appariés sur le déplacement animal." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29800/29800.pdf.

Full text
Abstract:
L’étude de la sélection des ressources en fonction du déplacement des animaux est un sujet qui intéresse plusieurs chercheurs en écologie, qui cherchent à prédire comment les ressources disponibles influencent le déplacement des animaux dans un environnement hétérogène. Pour ce faire, une stratégie souvent utilisée consiste à comparer les caractéristiques des lieux visités à celles des lieux disponibles mais non visités à différents instants. Comme l’étendue du territoire des lieux disponibles est généralement imposant, un échantillonnage aléatoire des lieux non-visités devient pratiquement inévitable. Toutefois, une méthode d’échantillonnage non adéquate peut induire un biais dans les inférences. L’échantillonnage des lieux non-visités peut se faire selon une étude longitudinale cas-témoins appariée dont la variable réponse prend la valeur 1 dans le cas d’une ressource sélectionnée et la valeur 0 dans le cas contraire. Un modèle de régression logistique peut donc être ajusté aux données. L’objectif de ce mémoire est d’étudier les avantages et les limites de divers modèles de régression logistique, tout particulièrement le modèle à effets mixtes, dans le cadre d’études cas-témoins appariées. Une étude de simulation ainsi que l’analyse de données réelles nous a permis de comparer les inférences obtenues par le modèle mixte à ceux d’un modèle à effets fixes. Les conclusions observables indiquent que les modèles mixtes sont plus performants que les modèles fixes lorsque le type d’environnement est "homogène" et "très homogène" avec une faible force de sélection, mais rarement dans d’autres situations.
APA, Harvard, Vancouver, ISO, and other styles
41

El, Jabri Mohammed. "Etude de l'organisation spatiale du tissu conjonctif par analyse d'images basée sur une approche multiéchelles." Phd thesis, Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21831.

Full text
Abstract:
L'objectif de ce travail est de caractériser le tissu musculaire en évaluant sa qualité à partir de données d'imagerie. Plus précisement, on se propose de développer des outils de prédiction de la tendreté de la viande bovine, basés sur le processus de vision artificielle, en étudiant le tissu conjonctif intramusculaire qui contribue de manière significative à la dureté intrinsèque de la viande. Les images des coupes de muscles, ont été acquises avec deux types d'éclairage : lumière blanche polarisée et ultraviolet. Notre contribution pour analyser ces images est basée sur une approche multiéchelle. Deux méthodes de segmentation ont été proposées, elles sont basées sur la transformée en ondelettes discrète, notamment l'algorithme "à trous". La première repose sur le seuillage universel et la seconde sur l'algorithme de K-moyennes appliqué à l'image résultante d'une sommation sur les plans d'ondelettes. Un autre volet de ce travail concerne l'extraction des paramètres et la décision. L'information retenue est la distribution des tailles d'objets éléments de la trame conjonctive de viande. Les outils statistiques que sont la régression linéaire et les réseaux de neurones ont été appliqués aux données issues des étapes de traitement des images. Le modèle final qui a été retenu pour la prévision de la tendreté a été déterminé selon un critère de maximisation du R2. Le choix du nombre de paramètres a été basé sur un critère de validation croisée (Leave one out). Les résultats de prédiction, issus de la base de données d'étude, sont très encourageants, mettant en évidence une corrélation certaine entre les paramètres d'images et la qualité sensorielle de la viande en particulier la tendreté
APA, Harvard, Vancouver, ISO, and other styles
42

Poilleux-Milhem, Hélène. "Test de validation adaptatif dans un modèle de régression : modélisation et estimation de l'effet d'une discontinuité du couvert végétal sur la dispersion du pollen de colza." Paris 11, 2002. http://www.theses.fr/2002PA112297.

Full text
Abstract:
L'étude de la dissémination de trans-gènes dans l'environnement constitue l'une des parties de la thèse. Plusieurs modélisations paramétriques de la fonction de dispersion de pollen ont déjà été élaborées en milieu homogène (plantes émettant du pollen marqué entourées de plantes identiques non marquées). Afin de prédire la "pollution génétique" dans des dispositifs de cultures variés, il convient de tenir compte de l'effet d'une discontinuité dans une culture ( e. G. Une route traversant un champ) sur la dispersion du pollen. Cet effet est modélisé et estimé pour deux expériences en champ sur le colza. Il correspond alors à une accélération de la dispersion du pollen qui dépend de la largeur de la discontinuité. Des méthodes graphiques de diagnostic ont permis de conclure que la modélisation par des fonctions constantes par morceaux, de la décroissance de la fonction de dispersion individuelle et de l'effet de la discontinuité, est celle ajustant au mieux les données. Avant d'utiliser les modèles paramétriques pour prédire la pollution génétique, il est indispensable de disposer d'outils de validation. Aussi nous proposons un test de validation de modèle paramétrique dans un cadre de régression non linéaire, les observations étant gaussiennes, indépendantes et de même variance. Ce test ne nécessite aucune connaissance a priori sur la fonction de régression et la variance des observations. Il généralise les tests d'hypothèses linéaires élaborés par Baraud et al (Ann. Statist. 2003, Vol. 31) au cadre non linéaire. Il est asymptotiquement de niveau α et asymptotiquement puissant sur une classe de fonctions que nous avons caractérisée. Il atteint la vitesse de séparation optimale au sens adaptatif minimax pour des classes de fonctions höldériennes, isotropes ou anisotropes. La vitesse de séparation pour des alternatives directionnelles est proche de la vitesse paramétrique. Une étude de simulation valide la procédure à distance finie
This thesis framework is the spread of genetically modified organisms in the environment. Several parametric models of the individual pollen dispersal distribution have already been proposed for homogeneous experiments (plants emitting marked pollen surrounded by the same unmarked plants). In order to predict the "genetic pollution" in an agricultural landscape, a discontinuity effect on pollen flows in a cultivated area (e. G. A road crosses a field) has to be taken into account. This effect was modelled and estimated: according to the size of the discontinuity, it may correspond to a significant acceleration of the pollen flow. Graphical diagnosis methods show that the modelling of the individual pollen dispersal distribution and of the discontinuity effect, is best fitting the data when using constant piecewise functions. Prior to using parametric models to predict genetic pollution, goodness-of-fit tools are essential. We therefore propose a goodness-of-fit test in a nonlinear Gaussian regression model, where the errors are independent and identically distributed. This test does not require any knowledge on the regression function and on the variance of the observations. It generalises the linear hypothesis tests proposed by Baraud et al (Ann. Statist. 2003, Vol. 31) to the nonlinear hypothesis. It is asymptotically of level α and a set of functions over which it is asymptotically powerful is characterized. It is rate optimal among adaptive procedures over isotropic and anisotropic Hölder classes of alternatives. It is consistent against directional alternatives that approach the null hypothesis at a rate close to the parametric rate. According to a simulation study, this test is powerful even for fixed sample sizes
APA, Harvard, Vancouver, ISO, and other styles
43

Delgard, Marie Lise. "Étude des effets et du rôle des herbiers à Zostera noltii sur la biogéochimie des sédiments intertidaux." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00847777.

Full text
Abstract:
Cette étude a été menée afin de mieux comprendre l'influence de l'herbier à Zosteranoltii du Bassin d'Arcachon, herbier affecté par une sévère régression depuis les années2000, sur la dynamique biogéochimique des sédiments intertidaux de cette lagune. Dans cet environnement côtier dynamique, il s'agissait de caractériser cette influence sur demultiples échelles spatiales (i.e. de la racine à l'écosystème) et temporelles (i.e. tidale, diurne, saisonnière et interannuelle). Des mesures par voltammétrie in situ de la composition des eaux porales des sédiments intertidaux non végétalisés ont montré que (i) les distributions verticales des espèces réduites variaient avec les marées et que (ii) la dynamique de l'oxygène dissous en réponse aux cycles tidaux et diurnes était contrôlée par l'activité photosynthétique et les migrations verticales du microphytobenthos. L'étude de l'influence de l'herbier sur cette dynamique via des pertes d'oxygène au niveau des racines a été initiée en mesurant les variations des concentrations en oxygène à l'intérieur des lacunes aérifères de ces plantes. L'organisation des lacunes de Zostera noltii est présentée pour la première fois dans cette étude. La distribution verticale de nutriments dans les eaux porales de sédiments végétalisés et de sédiments nus a été caractérisée pendant la période de croissance de l'herbier. La présence de Zostera noltii a induit une zonation verticale marquée de cette distribution qui reflète l'évolution avec la profondeur de l'équilibre entre la production de nutriments résultant de l'exsudation de matière organique labile par les parties souterraines de la plante (source) et le pompage de ces nutriments par les racines (puits). L'existence d'un pompage de carbone inorganique dissous et de silice dissoute par les racines de l'herbier a été mise en évidence. Des mesures d'échanges benthiques d'oxygène dissous sur des sédiments nus et colonisés par Zostera noltii ont permis de caractériser la saisonnalité et l'hétérogénéité spatiale du métabolisme benthique (respiration et production primaire brute) en relation avec les distributions d'herbier et/ou de macrofaune benthique. Dans les sédiments végétalisés, la forte variabilité spatio-temporelle de ce métabolisme benthique était largement contrôlée par la biomasse de feuilles d'herbier. A l'échelle de la lagune, nos calculs ont montré que la regression de l'herbier à Zostera noltii entre 2005 et 2007 a induit une diminution significative des taux de respiration et de production de la zone intertidal de la lagune. L'évolution interannuelle de la biogéochimie de sédiments colonisés par Zostera noltii a été étudiée en 2006 et en 2010/2011 sur une zone située dans une partie du Bassin d'Arcachon particulièrement affectée par le déclin des herbiers (secteur de Cassy). Contrairement aux observations réalisées sur l'herbier bien portant en 2006, l'herbier en déclin augmenterait le relargage de nutriments dans les sédiments via la stimulation de la production d'ammonium ou de la dissolution du phosphore particulaire. La régression des herbiers fournirait un apport significatif de phosphore vers la colonne d'eau de la lagune, d'une magnitude comparable aux apports par les rivières ou à ceux liés au pompage tidal.
APA, Harvard, Vancouver, ISO, and other styles
44

Bitar, Mohammad. "L'impact de la réglementation bancaire sur la stabilité et l'efficience des banques islamiques : une analyse comparée avec les banques conventionnelles." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENG017/document.

Full text
Abstract:
Cette thèse de doctorat est une première tentative d'examiner si les réglementations bancaires ont le même impact sur la stabilité et l'efficience des banques islamiques que sur celles des banques conventionnelles. Suite aux nouvelles recommandations de Bâle III, nous étudions l'impact des exigences minimales en matière de fonds propres, de liquidité et de levier financier sur la stabilité et l'efficience des banques islamiques comparativement aux banques conventionnelles. Une première étude exploratoire utilise l'analyse en composantes principales (ACP), les méthodes Logit et Probit et les régressions MCO pour montrer que les banques islamiques disposent d'un capital plus élevé, qu'elles sont plus liquides, plus profitables, mais moins stables que leurs homologues conventionnelles. Une deuxième étude empirique examine la stabilité des banques islamiques et utilise la régression quantile pour montrer que les banques islamiques sont moins stables que les banques classiques. L'étude prouve également que des exigences de fonds propres renforcées améliorent la stabilité des banques islamiques les plus petites et les plus liquides, tandis que le levier financier est négativement associé à la stabilité de ce type de banques. Des contraintes de liquidité plus fortes renforcent la stabilité des grandes banques islamiques alors que l'effet est inverse pour les petites banques. Enfin, nous examinons l'efficience des banques islamiques en utilisant la méthode d'enveloppement des données (DEA). Nous constatons que les banques islamiques sont plus efficientes que les banques conventionnelles. Nous trouvons aussi que des exigences de capital et de liquidité accrues pénalisent l'efficience des petites banques islamiques très liquides, alors que l'inverse est vrai pour le levier financier. Ces résultats montrent notamment qu'en matière de réglementation du capital pour les petites banques islamiques très liquides, un choix est à opérer entre une efficience accrue ou une stabilité renforcée
This PhD dissertation is the first attempt to examine whether banking regulations have the same impact on the stability and the efficiency of Islamic than for conventional banks. We benefit of Basel III recommendations to investigate the impact of bank capital, liquidity and leverage requirements on the stability and the efficiency of Islamic banks compared to conventional banks. A first exploratory study uses Principal Component Analysis, Logit and Probit methods, and OLS regressions and shows that Islamic banks have higher capital, liquidity, and profitability, but that they are less stable than their conventional counterparts. A second empirical study examines the stability of Islamic banks using conditional quantile regressions and proves that Islamic banks are less stable than conventional banks. It also shows that higher capital and lower leverage improve the adjusted profits of small and highly liquid Islamic banks. Liquidity is positively associated with the stability of large Islamic banks while an opposite effect is detected when small Islamic banks are examined. Finally, we study the efficiency of Islamic banks using Data Envelopment Analysis (DEA) and find that Islamic banks are more efficient than conventional banks. We also find that higher capital and liquidity requirements penalize the efficiency of small and highly liquid Islamic banks, while the opposite is true for financial leverage. These results show that concerning capital requirements for small and highly liquid Islamic banks, a possible trade-off could be found between stability and efficiency
APA, Harvard, Vancouver, ISO, and other styles
45

Bougeard, Stéphanie. "Description et prédiction à partir de données structurées en plusieurs tableaux : Application en épidémiologie animale." Phd thesis, Université Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00267595.

Full text
Abstract:
Ce travail de recherche s'inscrit dans le cadre des méthodes factorielles qui permettent de décrire et prédire des données structurées en plusieurs tableaux. Les objectifs et la nature des données d'épidémiologie analytique dans le domaine vétérinaire ont amené à centrer le travail sur les méthodes de régression multibloc, qui orientent la description de plusieurs tableaux de variables vers l'explication d'un autre tableau. Un des principaux objectifs est de contribuer à la réflexion sur la sensibilité de ces méthodes à la multicolinéarité. Des méthodes statistiques existantes sont présentées et reliées dans un cadre unifié, relevant soit de critères à maximiser comparables, soit d'un continuum général les reliant. De nouvelles méthodes peu vulnérables à l'égard de la multicolinéarité, et s'appliquant au cas de données structurées en deux puis en (K+1) tableaux, sont proposées. L'intérêt de ces méthodes, ainsi que des continuums qui leur sont associés, est illustré sur la base d'études de cas réels en épidémiologie. Ce travail de recherche a permis d'appliquer les méthodes multiblocs au domaine de l'épidémiologie animale, dans lequel elles n'avaient pas encore été utilisées.
APA, Harvard, Vancouver, ISO, and other styles
46

Arwin, Arwin. "Modélisation des ressources en eau et leur exploitation énergétique sur l'exemple du bassin supérieur du citarum en Indonésie." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT048H.

Full text
Abstract:
A partir de fichiers de longues series hydrometeorologiques concernant le bassin versant des rivieres citarum-saguling dans l'ile de java, on etudie d'abord l'hydrometeorologie detaillee du bassin superieur de citarum-saguling pour donner un portrait climatique general du bassin et ensuite on essaie d'etablir un modele continu de pluie-debit saisonnier et un modele continu de debit saisonnier pour la gestion optimale du barrage reservoir de saguling en vue de l'exploitation de l'energie en avenir incertain. Apres on essaie aussi des modeles discrets. Dans cette etude, on utilise les chaines de markov discretes d'une part pour l'identification d'une situation climatique et d'autre part pour la simulation de series synthetiques a utiliser pour la gestion des ressources en eau en avenir incertain. Toutefois, il est d'abord realise l'etude en avenir certain de la gestion optimale d'un ou deux reservoirs en cascade a l'aide de la methode de bellman dite de programmation dynamique. L'optimisation est conduite de maniere concrete sur l'exemple reel du bassin indonesien deja mentionne mais elle est l'occasion d'une etude critique a caractere academique des conditions de convergence et de duree de calcul afferent a la methode de bellman. En particulier une procedure economique designee par methode du couloir est etudiee en detail. Le gain de temps de calcul ainsi obtenu est spectaculaire et l'optimisation peut etre menee sur un microordinateur. Enfin on termine par une approche stochastique fondee sur un avenir incertain modelise a l'aide des regles simples qui pourraient etre incorporees dans un systeme expert en vue de la gestion en temps reel
APA, Harvard, Vancouver, ISO, and other styles
47

Radermecker, Anne-Sophie. "La valeur marchande du nom d'artiste. Une étude empirique sur le marché de la peinture flamande (1946-2015)." Doctoral thesis, Universite Libre de Bruxelles, 2019. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/285721.

Full text
Abstract:
À partir d’une base de données de plus de 13 000 résultats de vente de tableaux flamands (XVe-XVIe siècles), l’objectif de la recherche est d’analyser la réception marchande du nom d’artiste, et la façon dont les différentes stratégies d’identification exploitées pour conférer une identité aux tableaux anciens affectent la propension à payer des acheteurs. Après une introduction à la problématique du nom d’artiste et sa réception critique dans différents domaines de recherche (linguistique, histoire de l’art, sciences cognitives, marketing, économie), la création d’un indice des prix permet de retracer pour la première fois l’évolution du marché de la peinture flamande entre 1946 et 2015, et de procéder à l’identification des principales variables intervenant dans la formation des prix. Un premier volet est consacré au marché des tableaux déterminés, pour lesquels le nom de l’artiste est connu. Successivement sont envisagés les marchés des œuvres autographes (noms de marque historiques), de Pieter II Brueghel (nom de marque premium) et des œuvres de collaboration (co-branding). Le second volet porte sur le marché des tableaux indéterminés, soit des biens pour lesquels l’identité de l’artiste demeure inconnue. Les différentes alternatives nominales de l’échantillon font l’objet d’études de cas approfondies, portant successivement sur l’économie des degrés d’attribution (noms indirects), les maîtres à noms de convention (noms fictifs) et les désignations spatio-temporelles. La question des réattributions est envisagée dans un dernier temps (rebranding). La principale contribution de cette étude est de démontrer que sur le marché de l’art ancien, non seulement les noms historiques importent, mais également les multiples alternatives nominales utilisées par les parties prenantes des champs savant et marchand pour labelliser les œuvres indéterminées. Noms indirects, noms provisoires et désignations spatio-temporelles fonctionnent comme des labels qui participent à la création de valeur autour des tableaux flamands. Ces stratégies d’identification réduisent significativement l’incertitude et l’asymétrie d’information qui pèsent sur l’identité de l’artiste et/ou les origines de l’œuvre, tout en affectant différemment les prix de vente en fonction du degré d’information véhiculé et de son efficacité. Du point de vue du marché, toute œuvre d’art peut ainsi être perçue comme un agrégat d’informations, parfois plus estimé que l’objet physique per se.
Doctorat en Histoire, art et archéologie
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
48

Delecroix, Michel. "Sur l'estimation et la prévision non paramétrique des processus ergodiquesCycles économiques et taches solaires." Lille 1, 1987. http://www.theses.fr/1987LIL10146.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Bessaoud, Faïza. "Étude de facteurs de risque classiques et alimentaires du cancer du sein sur une population cas-témoins de l'Hérault et intérêt de la méthode de régression spline logistique." Montpellier 1, 2005. http://www.theses.fr/2005MON1T019.

Full text
Abstract:
Le cancer du sein est en progression constante. Son incidence, en France, a considérablement augmenté au cours de ces dernières décennies. Comparativement aux autres départements de France, le département de l'Hérault occupe une place médiane en terme d'incidence. La modification des habitudes alimentaires, notamment la consommation d'alcool, et des modes de vie sont de plus en plus impliqués dans la survenue du cancer du sein. L'étude cas-témoins réalisée dans ce département a pour but d'étudier l'impact de la consommation de boissons alcoolisées, et en particulier de vin, sur le risque de cancer du sein. Les facteurs hormonaux et alimentaires associés au cancer du sein sont pris en compte. Nous développons dans ce travail une méthode statistique récente permettant la modélisation des effets non linéaires. Cette méthode, fondée sur l'adaptation des fonctions splines au modèle logistique, détermine des seuils adaptés aux variations de la probabilité de survenue de la maladie.
APA, Harvard, Vancouver, ISO, and other styles
50

Nyock, Ilouga Samuel. "La congruence objective entre le profil structurel organisationnel et l'individu : effets sur la satisfaction au travail et l'engagement normatif envers l'organisation : utilisation du modèle de la régression polynomiale." Lille 3, 2007. http://www.theses.fr/2007LIL30001.

Full text
Abstract:
Nous ne pouvons pas comprendre la dynamique psychologique de l'individu au travail si nous ne nous intéressons pas à l'interaction complexe entre ses motivations et les pratiques organisationnelles. Or dans les travaux classiques cette dialectique n'est pas prise en compte. C'est ce que nous avons tenté de montrer dans la première partie de notre travail. Dans la seconde partie, la recherche à consisté à montrer que si l'existence de liens entre la personnalité de l'individu et l'organisation est établie, elle peut servir de point de départ pour la construction du climat psychologique en tenant compte, non seulement des interactions en boucle alimentant chacune des deux composantes, mais aussi et surtout, des attitudes et comportements au travail. Dans cette perspective, nous avons utilisé les indices bivariés de la congruence objective qui consistent mathématiquement à la résolution de l'équation de régression polynomiale. Les indices de la congruence permettent d'étudier les relations entre le couple de facteurs (le profil structurel organisationnel et les références culturelles individuelles) et les variables dépendantes (la satisfaction au travail et l'engagement normatif envers l'organisation) sur la base des coefficients qui leur sont associés dans cette équation de modélisation structurelle. Cette procédure permet d'examiner la forme de la surface de réponse qui représente les relations entre les deux facteurs et les attitudes des salariés en trois dimensions. Les facteurs pris séparément doivent obéir à un ensemble de contraintes, préservant ainsi les effets directs de chacune des deux variables indépendantes, pris séparément (Edwards, 1993, 1994). Le résultat principal de notre étude révèle que l'effet de congruence objective sur la satisfaction au travail et l'engagement normatif envers l'organisation entre la perception de la valorisation organisationnelle de l'implication envers les collègues et l'importance individuelle accordée à la solidarité interpersonnelle, est bien réel. Cet effet est plus marqué chez les salariés gabonais par rapport à leurs homologues français. On observe par ailleurs que les niveaux de satisfaction et d'engagement normatif, relatifs au soutien social, augmentent avec la congruence et diminue avec le décalage
We cannot understand the psychological dynamics of an individual at work if we do not take into account the complex interactions between his motivations and the organisational practices. Yet, the researches done so far have not taken into account this approach. And it is what we have tried to demonstrate in the first of our work. In the second part, our goal was to show that if the existence of links between the personality of an individual and the organisation around him is established, this can serve as a starting point for the construction of the psychological climate. Taking into account not only all the interactions between the two components, but also and almost individuals' attitudes and behaviours at work. In this perspective, we have used objective congruence indices which consist mathematically in the solution of the equation of polynomial regression. These congruence indices permit to study the links between the factors couple (the organisational structural profile and the individual cultural references) and the dependent variables (satisfaction at work and the normative commitment toward the organisation) on the basis of coefficients which are given to them in the structural modelling equation. This procedure permits to examine the form of answers surface which represent the relations between the two factors and employees attitudes in three dimensions. The factors taken separately must obey to a gathering of constraints, so preserving the direct effects of each of the two independent variables, taken separately (Edwards, 1993, 1994). The main result of our work reveals that objective congruence effect, on the satisfaction at work and the normative commitment toward the organisation between the idea of the organisational improved status of involvement toward the colleagues and the individual importance attached to interpersonal solidarity, is really true. This effect is more showed on Gabonese employees than on their French counterparts. Moreover, it is noticed that levels of satisfaction and normative commitment, related to social support, increase with the congruence and decrease with the gap
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography