To see the other types of publications on this topic, follow the link: Régression en design aléatoire.

Dissertations / Theses on the topic 'Régression en design aléatoire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 39 dissertations / theses for your research on the topic 'Régression en design aléatoire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gaïffas, Stéphane. "Régression non-paramétrique et information spatialement inhomogène." Paris 7, 2005. https://tel.archives-ouvertes.fr/tel-00011261.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Gaiffas, Stéphane. "Régression non-paramétrique et information spatialement inhomogène." Phd thesis, Université Paris-Diderot - Paris VII, 2005. http://tel.archives-ouvertes.fr/tel-00011261.

Full text
Abstract:
Nous étudions l'estimation non-paramétrique d'un signal à partir de
données bruitées spatialement inhomogènes (données dont la quantité
varie sur le domaine d'estimation). Le prototype d'étude est le modèle
de régression avec design aléatoire. Notre objectif est de comprendre
les conséquences du caractère inhomogène des données sur le problème
d'estimation dans le cadre d'étude minimax. Nous adoptons deux points
de vue : local et global. Du point de vue local, nous nous intéressons
à l'estimation de la régression en un point avec peu ou beaucoup de
données. En traduisant cette propriété par différentes hypothèses sur
le comportement local de la densité du design, nous obtenons toute une
gamme de nouvelles vitesses minimax ponctuelles, comprenant des
vitesses très lentes et des vitesses très rapides. Puis, nous
construisons une procédure adaptative en la régularité de la
régression, et nous montrons qu'elle converge avec la vitesse minimax
à laquelle s'ajoute un coût minimal pour l'adaptation locale. Du point
de vue global, nous nous intéressons à l'estimation de la régression
en perte uniforme. Nous proposons des estimateurs qui convergent avec
des vitesses dépendantes de l'espace, lesquelles rendent compte du
caractère inhomogène de l'information dans le modèle. Nous montrons
l'optimalité spatiale de ces vitesses, qui consiste en un renforcement
de la borne inférieure minimax classique pour la perte uniforme. Nous
construisons notamment un estimateur asymptotiquement exact sur une
boule de Hölder de régularité quelconque, ainsi qu'une bande de
confiance dont la largeur s'adapte à la quantité locale de données.
APA, Harvard, Vancouver, ISO, and other styles
3

Monnier, Jean-Baptiste. "Quelques contributions en classification, régression et étude d'un problème inverse en finance." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00650930.

Full text
Abstract:
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
APA, Harvard, Vancouver, ISO, and other styles
4

Nguyen, Ngoc Bien. "Adaptation via des inéqualités d'oracle dans le modèle de regression avec design aléatoire." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4716/document.

Full text
Abstract:
À partir des observations Z(n) = {(Xi, Yi), i = 1, ..., n} satisfaisant Yi = f(Xi) + ζi, nous voulons reconstruire la fonction f. Nous évaluons la qualité d'estimation par deux critères : le risque Ls et le risque uniforme. Dans ces deux cas, les hypothèses imposées sur la distribution du bruit ζi serons de moment borné et de type sous-gaussien respectivement. En proposant une collection des estimateurs à noyau, nous construisons une procédure, qui est initié par Goldenshluger et Lepski, pour choisir l'estimateur dans cette collection, sans aucune condition sur f. Nous prouvons ensuite que cet estimateur satisfait une inégalité d'oracle, qui nous permet d'obtenir les estimations minimax et minimax adaptatives sur les classes de Hölder anisotropes
From the observation Z(n) = {(Xi, Yi), i = 1, ..., n} satisfying Yi = f(Xi) + ζi, we would like to approximate the function f. This problem will be considered in two cases of loss function, Ls-risk and uniform risk, where the condition imposed on the distribution of the noise ζi is of bounded moment and of type sub-gaussian, respectively. From a proposed family of kernel estimators, we construct a procedure, which is initialized by Goldenshluger and Lepski, to choose in this family a final estimator, with no any assumption imposed on f. Then, we show that this estimator satisfies an oracle inequality which implies the minimax and minimax adaptive estimation over the anisotropic Hölder classes
APA, Harvard, Vancouver, ISO, and other styles
5

Pham, Ngoc Thanh Mai. "Problèmes inverses et analyse en ondelettes adaptées." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00439112.

Full text
Abstract:
Nous abordons l'étude de deux problèmes inverses, le problème des moments de Hausdorff et celui de la déconvolution sur la sphère ainsi qu'un problème de régression en design aléatoire. Le problème des moments de Hausdorff consiste à estimer une densité de probabilité à partir d'une séquence de moments bruités. Nous établissons une borne supérieure pour notre estimateur ainsi qu'une borne inférieure pour la vitesse de convergence, démontrant ainsi que notre estimateur converge à la vitesse optimale pour les classes de régularité de type Sobolev. Quant au problème de déconvolution sur la sphère, nous proposons un nouvel algorithme qui combine la méthode SVD traditionnelle et une procédure de seuillage dans la base des Needlets sphériques. Nous donnons une borne supérieure en perte Lp et menons une étude numérique qui montre des résultats fort prometteurs. Le problème de la régression en design aléatoire est abordé sous le prisme bayésien et sur la base des ondelettes déformées. Nous considérons deux scenarios de modèles a priori faisant intervenir des gaussiennes à faible et à grande variance et fournissons des bornes supérieures pour l'estimateur de la médiane a posteriori. Nous menons aussi une étude numérique qui révèle de bonnes performances numériques.
APA, Harvard, Vancouver, ISO, and other styles
6

Willer, Thomas. "Estimation non paramétrique et problèmes inverses." Phd thesis, Université Paris-Diderot - Paris VII, 2006. http://tel.archives-ouvertes.fr/tel-00121197.

Full text
Abstract:
On se place dans le cadre de
l'estimation non paramétrique pour les problèmes inverses, où une
fonction inconnue subit une transformation par un opérateur
linéaire mal posé, et où l'on en observe une version bruitée par
une erreur aléatoire additive. Dans ce type de problèmes, les
méthodes d'ondelettes sont très utiles, et ont été largement
étudiées. Les méthodes développées dans cette thèse s'en
inspirent, mais consistent à s'écarter des bases d'ondelettes
"classiques", ce qui permet d'ouvrir de nouvelles perspectives
théoriques et pratiques. Dans l'essentiel de la thèse, on utilise
un modèle de type bruit blanc. On construit des estimateurs
utilisant des bases qui d'une part sont adaptées à l'opérateur, et
d'autre part possèdent des propriétés analogues à celles des
ondelettes. On en étudie les propriétés minimax dans un cadre
large, et l'on implémente ces méthodes afin d'en étudier leurs
performances pratiques. Dans une dernière partie, on utilise un
modèle de regression en design aléatoire, et on étudie les
performances numériques d'un estimateur reposant sur la
déformation des bases d'ondelettes.
APA, Harvard, Vancouver, ISO, and other styles
7

Picard, Céline. "Le design aléatoire : une nouvelle approche conceptuelle du design d'objet." Bordeaux 3, 2006. http://www.theses.fr/2006BOR30067.

Full text
Abstract:
Quelques designers trouvent une nouvelle voie conceptuelle et productive afin de sortir d’une production industrielle massive et standardisée mais aussi d’une surconsommation tendant à désincarner l’usager. Ils cherchent à repositionner le design dans une perspective plus libre, moins rationaliste et donc plus créative. L’introduction d’une part d’aléatoire, de non-maîtrise, et ce selon deux principes distincts, va faire naître des objets « hors normes ». Tout d’abord, l'aléatoire est envisagé lors de la production de l’objet : le design aléatoire « terminé ». Dans un second cas, l'aléatoire intervient lors du parachèvement de l’objet par le consommateur : le design aléatoire « non terminé ». Dans les deux postures, le designer ne peut connaître avec exactitude la forme finale de sa propre création. A la fois le cadre de ce design ne s’inscrit plus dans une démarche connue mais en plus ces objets s’apparentent plus à des œuvres artistiques. Le « design aléatoire », foncièrement transversal, tend à remettre en question la fonction même du designer comme les limites du design d’objet
A few designers have find a new conceptual and productive way to get out of a large industrial and standardized mass production, but also to get away from an over consumption that tends to disembody the customer. They try to set up design into an unrestricted, less rationalist and therfore more creative prespective. Introducing some part of chance, out of control, based on two distinctive principles, generates non-standard objects. First of all, introducing some part of chance is already envisaged during the production process (« finished aleatory design »). In the second instance, introducing some part of chance takes place once the object is in the hands of the customer who gives it its final touch (« unfinished aleatory design »). In both situations, the designer is not able to describe exactly the final form of his own creation/artwork. These two approaches are getting far from well-known design approach, but furthermore all these objects can be considered as Art and no more as functional products. Undoubtedly transverse, « aleatory design » questions the role of the designer as well as the limits of objects designing
APA, Harvard, Vancouver, ISO, and other styles
8

Mauk, Pheakdei. "Modélisation mathématique du micro-crédit." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00942553.

Full text
Abstract:
Le travail soumis commence par un aperçu du micro-crédit tel qu'il a été introduit au Bangladesh par M. Yunus. Puis on donne un modèle stochastique des retards de versement. Comme ces retards ne donnent pas lieu à une sanction financière, ils constituent, de fait, une baisse du taux réel de crédit. Ce taux est alors, lui-même, aléatoire. On calcule un taux espéré en fonction de la probabilité de retard de remboursement hebdomadaire. On déduit que ce taux espéré est d'environ 3.5% inférieur au taux (annoncé) du cas déterministe si l'on considère que 3% des retards atteignent 4 semaines. Le travail se poursuit par une étude statistique de données du micro-crédit en Thaïlande. On commence par présenter un modèle de régression logistique du taux de remboursement par rapport aux 23 variables mesurées sur un échantillon de 219 groupes d'emprunteurs. On présente ensuite une sélection des variables les plus pertinentes selon un critère AIC ou BIC par une méthode "backward stepwise". Finalement des expériences sur des sous-échantillons montrent une bonne stabilité du choix des variables obtenues par la sélection.
APA, Harvard, Vancouver, ISO, and other styles
9

Scornet, Erwan. "Apprentissage et forêts aléatoires." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066533/document.

Full text
Abstract:
Cette thèse est consacrée aux forêts aléatoires, une méthode d'apprentissage non paramétrique introduite par Breiman en 2001. Très répandues dans le monde des applications, les forêts aléatoires possèdent de bonnes performances et permettent de traiter efficacement de grands volumes de données. Cependant, la théorie des forêts ne permet pas d'expliquer à ce jour l'ensemble des bonnes propriétés de l'algorithme. Après avoir dressé un état de l'art des résultats théoriques existants, nous nous intéressons en premier lieu au lien entre les forêts infinies (analysées en théorie) et les forêts finies (utilisées en pratique). Nous proposons en particulier une manière de choisir le nombre d'arbres pour que les erreurs des forêts finies et infinies soient proches. D'autre part, nous étudions les forêts quantiles, un type d'algorithme proche des forêts de Breiman. Dans ce cadre, nous démontrons l'intérêt d'agréger des arbres : même si chaque arbre de la forêt quantile est inconsistant, grâce à un sous-échantillonnage adapté, la forêt quantile est consistante. Dans un deuxième temps, nous prouvons que les forêts aléatoires sont naturellement liées à des estimateurs à noyau que nous explicitons. Des bornes sur la vitesse de convergence de ces estimateurs sont également établies. Nous démontrons, dans une troisième approche, deux théorèmes sur la consistance des forêts de Breiman élaguées et complètement développées. Dans ce dernier cas, nous soulignons, comme pour les forêts quantiles, l'importance du sous-échantillonnage dans la consistance de la forêt. Enfin, nous présentons un travail indépendant portant sur l'estimation de la toxicité de certains composés chimiques
This is devoted to a nonparametric estimation method called random forests, introduced by Breiman in 2001. Extensively used in a variety of areas, random forests exhibit good empirical performance and can handle massive data sets. However, the mathematical forces driving the algorithm remain largely unknown. After reviewing theoretical literature, we focus on the link between infinite forests (theoretically analyzed) and finite forests (used in practice) aiming at narrowing the gap between theory and practice. In particular, we propose a way to select the number of trees such that the errors of finite and infinite forests are similar. On the other hand, we study quantile forests, a type of algorithms close in spirit to Breiman's forests. In this context, we prove the benefit of trees aggregation: while each tree of quantile forest is not consistent, with a proper subsampling step, the forest is. Next, we show the connection between forests and some particular kernel estimates, which can be made explicit in some cases. We also establish upper bounds on the rate of convergence for these kernel estimates. Then we demonstrate two theorems on the consistency of both pruned and unpruned Breiman forests. We stress the importance of subsampling to demonstrate the consistency of the unpruned Breiman's forests. At last, we present the results of a Dreamchallenge whose goal was to predict the toxicity of several compounds for several patients based on their genetic profile
APA, Harvard, Vancouver, ISO, and other styles
10

Migliorati, Giovanni. "Approximation polynômiale par projection L2 discrète aléatoire et application aux problèmes inverses pour les EDP à coefficients stochastiques." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00879543.

Full text
Abstract:
Le sujet principal de cette thèse porte sur l'approximation polynômiale des fonctions aléatoires au moyen de la projection L2 aléatoire discrète, et son application aux problèmes inverses pour les équations aux dérivées partielles avec des données aléatoires. Les motivations proviennent de l'approximation paramétrique de la solution de modèles aux dérivées partielles. La thèse se compose de deux parties, avec un chapitre d'introduction qui résume les techniques modernes de l'approximation polynômiale des fonctions de variables aléatoires. La première partie, du chapitre 1 au chapitre 4, contient l'analyse théorique de la projection L2 aléatoire discrète pour résoudre le problème direct, par exemple, pour rapprocher les moments d'une fonction aléatoire à partir de ses observations, ou pour calculer la solution à un modèle numérique avec des coefficients stochastiques. La stabilité et l'optimalité de l'erreur d'approximation évaluée dans la norme L2 pondérée sont traités. Dans la dernière partie de la thèse, composé des chapitres 5 et 6, la méthodologie développée précédemment pour le problème direct est appliqué aux problèmes inverses pour les équations aux dérivées partielles à coefficients stochastiques. La méthode de factorisation est appliquée dans le cadre de la tomographie par impédance électrique, d'abord dans le cas de coefficient inhomogène, puis dans le cas de coefficient constante par morceaux, à valeurs dans chaque région affectée par l'incertitude. Enfin, dans le chapitre 6 les variantes de la méthode de factorisation proposées dans le chapitre précédent sont accélérés en utilisant les techniques qui ont été présentés dans la première partie de la thèse.
APA, Harvard, Vancouver, ISO, and other styles
11

Ly, Delphine. "Prédictions génomiques des interactions Génotype x Environnement à l'aide d'indicateurs agro-climatiques chez le blé tendre (Triticum aestivum L.)." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22669/document.

Full text
Abstract:
Un des principaux enjeux de l’amélioration des plantes consiste aujourd’hui à faire face au changement climatique, en assurant un rendement élevé et plus stable dans des systèmes agricoles économes en intrants (eau, fertilisants) et respectueux de l’environnement. Les nouvelles variétés de blé devront non seulement être tolérantes aux stress hydriques et aux fortes températures, mais aussi continuer à être productives avec des apports limités en fertilisation, tout en maintenant une qualité du grain adaptés aux différents usages. De nouvelles méthodes de prédiction des réponses des blés à ces stress sont indispensables pour avancer dans cette direction. Dans ce travail, nous avons tout d’abord identifié les stress qui régissaient les interactions entre génotypes et les environnements (GxE) dans les essais considérés, puis développé un modèle génomique de l’adaptation à un stress environnemental (Factorial Regression genomic Best Linear Unbiased Prediction ou FR-gBLUP), en particulier pour le stress hydrique. En émettant l’hypothèse que plus des variétés de blés sont génétiquement proches, plus elles répondront de façon similaire à un stress environnemental donné, nous avons mesuré par validation croisée des gains de précision de prédiction par rapport à un modèle additif variant entre 3.5% et 15.4%. Des simulations complètent l’étude en démontrant que plus la part de variance expliquée par les réponses au stress considéré est importante, plus le modèle FR-gBLUP apporte un gain de précision. Pour prédire les réponses variétales à un stress particulier, les environnements doivent être finement caractérisés pour les stress limitant le développement des plantes. En nous intéressant plus particulièrement au stress azoté en France, nous avons établi des indicateurs de stress à partir d’un modèle de culture, et les avons comparés à des indicateurs classiques, tels que le type de conduite azotée ou l’azote disponible. Nous avons ainsi mis en évidence l’intérêt des modèles de culture pour caractériser les interactions GxE et pour prédire la réponse génomique au stress azoté, à condition que le signal d’interaction soit assez fort. Au-delà de l’application potentielle de ces méthodes pour la sélection ou la recommandation de variétés de blés plus adaptées ou plus résistantes au changement climatique, les résultats de ce travail démontrent aussi l’intérêt de la complémentarité des approches éco-physiologiques et génétiques
In a climate change context, assuring high and stable yield in more sustainable agricultural systems is a major challenge for plant breeding. We are aiming for future wheat varieties which will be heat and drought tolerant, and also productive in limited fertilization input environments. New prediction methods of the response to these stresses are needed to move forward. In this study, we first identified stresses that generated interactions between genotypes and environments (GxE) in our experimental trials and then developed a genomic model for adaptation to a particular environmental stress (Factorial Regression genomic Best Linear Unbiased Prediction ou FR-gBLUP), in our case drought. This model hypothesizes that the more individuals are genetically close, the more their response to a stress will resemble. We used cross-validations to measure prediction accuracy gains compared to an additive model and observed gains between 3.5% and 15.4%. Besides, simulation studies showed that the more the variance explained by the responses to the stress is important, the more the FR-gBLUP model will improve the additive model. Furthermore, fine characterization of the stresses limiting the plants’ growth is required to predict varietal responses to a particular stress. We focused on the particular case of nitrogen stress in France. By establishing crop model based stress indicators and comparing them to classical indicators, such as the management system or the available nitrogen, we pointed out the interest of crop model to characterize GxE interactions and to predict the genomic response to nitrogen stress, as long as the GxE interaction signal is strong enough. Beyond the potential applications of these methods for breeding or recommendation for varieties more adapted or tolerant to environmental stresses, this study also raises the interest of coupling eco-physiological and genetics approaches
APA, Harvard, Vancouver, ISO, and other styles
12

Chiplunkar, Ankit. "Intégration d'information a priori dans la régression de processus Gaussiens : Applications à l'ingénierie aéronautique." Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0037/document.

Full text
Abstract:
Dans cette thèse, nous proposons de construire de meilleurs modèles Processus Gaussiens (GPs) en intégrant les connaissances antérieures avec des données expérimentales. En raison du coût élevé de l’exécution d’expériences sur les systèmes physiques, les modèles numériques deviennent un moyen évident de concevoir des systèmes physiques. Traditionnellement, ces modèles ont été construits expérimentalement et itérativement; une méthode plus rentable de construction de modèles consiste à utiliser des algorithmes d’apprentissage automatique. Nous démontrons comment créer des modèles en intégrant une connaissance antérieure en modifiant les fonctions de covariance. Nous proposons des modèles GP pour différents phénomènes physiques en mécanique des fluides.De même, les lois physiques entre plusieurs sorties peuvent être appliquées en manipulant les fonctions de covariance. Pour chaque application, nous comparons le modèle proposé avec le modèle de l’état de l’art et démontrons les gains de coût ou de performance obtenus
In this thesis, we propose to build better Gaussian Process (GP) modelsby integrating the prior knowledge of Aircraft design with experimental data. Due tothe high cost of performing experiments on physical systems, models become an efficientmeans to designing physical systems. We demonstrate how to create efficient models byincorporating the prior information from engineering design, mainly by changing the covariancefunctions of the GP.We propose GP models to detect onset of non-linearity, detectmodal parameters and interpolate position of shock in aerodynamic experiments. Similarly,physical laws between multiple outputs can be enforced by manipulating the covariancefunctions, we propose to integrate flight-mechanics to better identify loads using thesemodels. For each application we compare the proposed model with the state-of-the-artmodel and demonstrate the cost or performance gains achieved
APA, Harvard, Vancouver, ISO, and other styles
13

Bertin, Karine. "Estimation asymptotiquement exacte en norme sup de fonctions multidimensionnelles." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00008028.

Full text
Abstract:
On étudie deux modèles statistiques: le modèle de régression à pas aléatoire et le modèle de bruit blanc gaussien. Dans ces modèles, le but est d'estimer en norme sup une fonction f inconnue, à partir des observations, en supposant que f appartient à une classe de Holder. Dans le modèle de régression, pour l'estimation d'une fonction unidimensionnelle, on obtient la constante exacte et un estimateur asymptotiquement exact. Dans le modèle de bruit blanc, on s'intéresse à l'estimation sur deux classes de fonctions multidimensionnelles anisotropes dont une est une classe additive. Pour ces deux classes, on détermine la constante exacte et un estimateur asymptotiquement exact et on met en évidence leur lien avec l'"optimal recovery". La dernière partie donne des résultats d'asymptotique exacte dans un cadre adaptatif dans le modèle de bruit blanc. On détermine la constante exacte adaptative et un estimateur asymptotiquement exact adaptatif pour l'estimation sur des classes anisotropes.
APA, Harvard, Vancouver, ISO, and other styles
14

De, Rainville François-Michel. "Design d'expérimentation interactif : Aide à la compréhension de systèmes complexes." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27639/27639.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Abdallah, Mouhammed. "Vulnérabilité des ouvrages en maçonnerie à des mouvements de terrain : méthodologie d'analyse par méthodes statistiques et par plans d'expériences numériques sur les données de la ville de Joeuf." Thesis, Vandoeuvre-les-Nancy, INPL, 2009. http://www.theses.fr/2009INPL019N/document.

Full text
Abstract:
Le contexte de l’étude est celui des mouvements de terrain susceptibles de se produire à la suite d’un affaissement minier caractéristique de Lorraine et de leurs conséquences sur les habitations en maçonnerie traditionnelle. Quand de tels affaissements se produisent, ces habitations subissent en effet des désordres qui résultent des efforts engendrés dans la structure par les mouvements du terrain. La réponse qui caractérise alors l’état global de la structure dépend des caractéristiques géométriques, physiques et mécaniques. Or, la nature discontinue des maçonneries et la complexité des interactions entre blocs dans ces maçonneries rend complexe et difficile la détermination de cette réponse. Il en est de même de l’interaction sol-structure. L’objectif de la recherche consiste donc à étudier, par modélisation numérique avec la méthode des éléments distincts et par la technique des plans d’expérience et des surfaces de réponse, le comportement d’ouvrages en maçonnerie soumis à un affaissement minier caractéristique et à dégager de cette étude des critères permettant d’estimer, à l’échelle d’une ville entière, la vulnérabilité de tous ses bâtiments en maçonnerie. Une première analyse simplifiée expose le principe de la démarche mise en œuvre à l’échelle de la ville de Joeuf, utilisée comme site pilote. Elle repose sur l’analyse de la longueur cumulée des joints ouverts, assimilés à la formation de fissures dans la structure. Ensuite, une analyse typologique permet de distinguer 4 groupes de maisons aux caractéristiques proches. Sur chacun de ces groupes, la démarche est ensuite appliquée de manière systématique. Elle prend en considération des caractéristiques géométriques des façades et aboutit à la formulation de fonctions de vulnérabilité qui font appel à la technique de régression orthogonale
The context of our study concerns ground movements that may occur in Lorraine as a result of mining subsidence events and their impact on traditional masonry houses. When such an event occurs, houses suffer disorders resulting from efforts in the structure caused by the movement of the ground. The response that characterizes the state of the structure depends on the geometrical, physical and mechanical characteristics. However, the discontinuous nature of the masonry and the interactions complexity between masonry blocks makes it difficult to determine that response. The same is true about the soil-structure interaction. The purpose of this research is to study, by numerical modelling with the distinct element method, experimental design planning and response surfaces, the behaviour of masonry structures subjected to a typical mining subsidence event and to define from this study some criteria making possible the estimation of the vulnerability of all the buildings of a city. A first simplified analysis describes the principle of the used methodology which is then applied to the study of all houses of the city of Joeuf, used as a pilot site. This methodology is based on an analysis of the total length of the opened joints, which are considered as similar to cracks in the structure. Then, a typology analysis helps first to distinguish 4 groups (types) of houses which have similar characteristics. On each of these groups, the methodology is applied consistently, based on the geometrical characteristics of the houses facades and then leads to the formulation of vulnerability functions that use the technique of orthogonal regression
APA, Harvard, Vancouver, ISO, and other styles
16

Mfoihaya, Bédja. "Étude de l'exposition de la population française au champ magnétique 50 Hertz." Paris 11, 2010. http://www.theses.fr/2010PA112368.

Full text
Abstract:
Les champs magnétiques (CM) alternatifs de fréquence 50 Hz liés à l'électricité sont suspectés depuis une trentaine d'années d'être responsables de pathologies, plus précisément de leucémies chez l'enfant. Les dernières expertises collectives (WHO 2007, SCENHIR 2009) ont conclu que la dernière grande interrogation en ce qui concerne les CM d'extrêmement basse fréquence (ELF) est l'association statistique observée dans plusieurs analyses conjointes entre l'augmentation du risque de leucémie de l'enfant et une exposition aux CM supérieure à 0,4 µT en valeur moyenne sur 24 heures, sans qu'il n'existe de relation causale. La thèse a pour objectif de caractériser l'exposition de la population française aux champs magnétiques 50 Hz, et en particulier d'identifier les principaux facteurs favorisant l'exposition. Deux échantillons (1000 enfants et 1000 adultes) représentatifs de cette population ont été construits en utilisant la méthode de tirage aléatoire. Chaque personne a porté un EMDEX II mesurant et enregistrant les CM auxquels elle est exposée pendant une durée de 24 heures et a, au fur et à mesure, rempli un emploi du temps ainsi qu'un questionnaire contenant des informations personnelles et des informations relatives à son foyer. Lors de la récupération de l'appareil, l'enquêteur a enregistré les coordonnées GPS du foyer afin d'identifier par la suite l'ensemble des ouvrages électriques se trouvant à proximité du foyer. Pour caractériser les expositions, des modèles de régression non paramétriques ont été réalisés. Ils ont permis d'identifier parmi les données recueillies, les facteurs favorisant les expositions moyennes les plus élevées. Chaque série de mesures de champ magnétique a ensuite été décrite par des indicateurs et une classification ascendante hiérarchique a été appliquée sur ces derniers. Trois classes d'exposition ont ainsi été définies. Une régression logistique a été réalisée pour identifier les facteurs favorisant la probabilité d'appartenir à la classe regroupant les individus les plus exposés
The magnetic fields (MF) at extremely low frequency (ELF) have been suspected, for around 30 years, to be responsible for several pathologies in humans, more precisely, childhood leukemia. The last collective assessment by international expert groups (WHO 2007,SCENHIR 2009) concluded that the last major questioning concerning ELF MF is the statistic correlation observed in several meta-analysis between the increase of childhood leukemia risk and a MF exposure higher than 0,4 µT in means over 24h (Ahlbom et al. , 2000), without any causal relation. To study the exposure of the French population to 50 Hz MF, two representative samples of this population (1000 adults and 1000 children) were created using random selection method. Each volunteer wore an EMDEX II measuring and recording MF during 24-hour period and progressively completed a timetable and a questionnaire containing specific information about himself and his home. When returning the measurement device, the pollster noted GPS coordinates at the front door of volunteer home, in order to identify afterwards electric networks near the home. To characterize mean exposures, nonparametric regression models were applied. They have allowed identifying among the data collected, the factors favoring a higher mean exposure. Each series of MF was then described by indicators and hierarchical clustering was applied. Three classes of exposure were defined. A logistic regression was used to identify factors favoring probability of belonging to the most exposed classes
APA, Harvard, Vancouver, ISO, and other styles
17

Acuna, Diego. "Méthodes scientifiques de conception produit : Approche Franco-Américaine." Paris, ENSAM, 2004. http://www.theses.fr/2004ENAM0010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Mawlawi, Baher. "Random access for dense networks : Design and Analysis of Multiband CSMA/CA." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0112/document.

Full text
Abstract:
Les protocoles de communications à accès aléatoires sont des candidats prometteurs pour les futurs systèmes de communications sans fil dédiés aux applications machine à machine (M2M). Ces méthodes d’accès sont généralement basées sur des techniques d'accès aléatoires mettant en œuvre des concepts simples de sondage de canal et de report de la transmission pour réduire les collisions, tout en évitant l'utilisation d'ordonnanceurs complexes. Parmi les différents protocoles, Carrier sense multiple access/collision avoidance with a Request-To-Send/Clear-To-Send (CSMA/CA-RTS/CTS) est un protocole qui pourrait être adopté pour les scénarios de M2M. Cette approche est efficace pour éviter les collisions entre les paquets de données. Cependant dans le cas d’un réseau très dense, les performances sont dégradées à cause de la forte probabilité de collisions. Pour atténuer cet effet, les collisions entre les messages de contrôles RTS doivent être réduites. Cette thèse propose de résoudre ce problème en divisant le canal commun en sous-canaux pour transmettre les messages de contrôle de demande d’accès au canal ; le canal commun est utilisé dans son ensemble pour la transmission de données. L’ajout d’un degré de liberté pour le message de demande d’accès permet de réduire la probabilité de collision, et donc d’améliorer les performances du système notamment dans des scénarios avec des nombres importants de nœuds souhaitant communiquer. Dans ce travail, nous dérivons ainsi une solution complète de méthode d’accès en s'appuyant sur le CSMA / CA - RTS / CTS et en multiplexant une configuration multi-canal pour les messages RTS et un canal unique pour la transmission de données. Une version améliorée, basée sur l'ordonnancement des utilisateurs, est également étudiée. Un modèle analytique a été développé, analysé et validé par simulations. Celui-ci est une extension du modèle Bianchi. Les performances en termes de débit saturé, de temps de transmission et de la probabilité de rejet de paquets sont discutées. Enfin, les impacts liés à la prise en compte d’une couche physique de type multi porteuses sont discutés dans le dernier chapitre
Opportunistic protocols are promising candidates for future wireless systems dedicated to machine to machine (M2M) communication. Such protocols are usually based on a random access with simple techniques of medium sensing and deferring to reduce collisions while avoiding the use of complex schedulers. Among different protocols, Carrier sense multiple access/collision avoidance with a Request-To-Send/Clear-To-Send (CSMA/CA-RTS/CTS) is an opportunistic protocol which could be adopted for M2M scenarios. Such approach is efficient to avoid collisions between data packets but in a very dense network, the random access used to send the RTS suffers itself from a high probability of collision which degrades the performance. In order to mitigate this effect, RTS collisions should be reduced. This thesis proposes to address this issue by splitting the common channel in sub-channels for transmitting the RTS messages. While the common channel is used as a whole for data transmission. Multiple nodes can then contend in time and frequency for these RTS sub-channels, thereby reducing RTS collisions and increasing overall efficiency. In this work, we thus derive a complete protocol solution relying on CSMA/CA - RTS/CTS multiplexing a multi-channel configuration for RTS messages and a unique channel for data transmission. An enhanced version based on users scheduling is integrated as well. In this thesis, the proposed protocol is investigated from a joint PHY-MAC point of view. This strategy is shown to provide better system performance particularly for loaded networks. An accurate analytical model derived as a straightforward extension of the Bianchi model is analyzed and validated by simulations. Performance in terms of saturation throughput, transmission delay and packet drop probability is discussed
APA, Harvard, Vancouver, ISO, and other styles
19

Khan, Taj Muhammad. "Processor design-space exploration through fast simulation." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00691175.

Full text
Abstract:
Simulation is a vital tool used by architects to develop new architectures. However, because of the complexity of modern architectures and the length of recent benchmarks, detailed simulation of programs can take extremely long times. This impedes the exploration of processor design space which the architects need to do to find the optimal configuration of processor parameters. Sampling is one technique which reduces the simulation time without adversely affecting the accuracy of the results. Yet, most sampling techniques either ignore the warm-up issue or require significant development effort on the part of the user.In this thesis we tackle the problem of reconciling state-of-the-art warm-up techniques and the latest sampling mechanisms with the triple objective of keeping the user effort minimum, achieving good accuracy and being agnostic to software and hardware changes. We show that both the representative and statistical sampling techniques can be adapted to use warm-up mechanisms which can accommodate the underlying architecture's warm-up requirements on-the-fly. We present the experimental results which show an accuracy and speed comparable to latest research. Also, we leverage statistical calculations to provide an estimate of the robustness of the final results.
APA, Harvard, Vancouver, ISO, and other styles
20

Sabir, Essaïd. "MAC protocols design and a cross-layered QoS framework for next generation wireless networks." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00544071.

Full text
Abstract:
Ce manuscrit est centré sur la conception, l'amélioration et l'évaluation des protocoles des couches RESEAU, MAC et PHY. En particulier, nous nous focalisons sur la conception de nouveaux protocoles distribués pour une utilisation optimale/améliorée des ressources radio disponibles. Par ailleurs, nous caractérisons les performances des réseaux ad hoc à accès aléatoire au canal en utilisant des paramètres de plusieurs couches avec aptitude de transfert d'information (data forwarding). La majeure partie de nos analyses se base sur le concept d'interaction entre les couches OSI (cross-layer). En effet, cette nouvelle et attractive approche est devenue en peu de temps omniprésente dans le domaine de recherche et développement et dans le domaine industriel. Les métriques de performances qui nous intéressent sont la stabilité des files d'attentes de transfert, le débit, le délai et la consommation d'énergie. Principalement, la compréhension de l'interaction entre les couches MAC/PHY et routage du standard IEEE 802.11e DCF/EDCF, d'une part, et l'interaction entre noeuds en terme d'interférences, d'autre part, constituent le coeur central de notre travail
APA, Harvard, Vancouver, ISO, and other styles
21

Sleem, Lama. "Design and implementation of lightweight and secure cryptographic algorithms for embedded devices." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD018.

Full text
Abstract:
Nous vivons actuellement dans une ère avec sans cesse de nouveaux appareils technologiques (smartphone, réseaux de capteurs sans fil, aux caméras haute résolution, etc). En partant des médias sociaux, en passant par des caméras de surveillance très puissantes, et sans oublier la surveillance de la santé en temps réel, on constate qu'une grande quantité de données est stockée dans le cloud et les serveurs. Cela représente un grand défi de stockage et de transmission, en particulier dans les plates-formes aux ressources limitées qui sont caractérisées par : (a) des capacités de calcul limitées, (b) une source d'énergie limitées et (c) des infrastructures ouvertes qui transmettent des données sur des réseaux sans fil peu fiables. Dans cette thèse, nous nous concentrons sur l'amélioration de la sécurité des contenus multimédia transmis sur des plates-formes à capacité de calcul limitée, tout en préservant un niveau de sécurité élevé. Dans la première partie, nous avons étudié les réseaux ad hoc véhiculaire. Nous avons proposé un état de l'art qui permet de résumer la plupart des travaux récents et d'explorer presque tous les aspects de ce domaine en illustrant les différents aspects que possède cette plateforme. Ensuite, afin de proposer une nouvelle solution de sécurité et de valider sa robustesse et le niveau de caractère aléatoire d'une image chiffrée, nous avons proposé un test simple et efficace. Celui-ci est basé sur des outils pour tester statistiquement le caractère aléatoire de nombres pseudo aléatoires, TestU01 et Practrand. Après avoir effectué ces tests sur des algorithmes de chiffrement bien connus, certaines failles ont été exposées et une nouvelle proposition visant à améliorer le système de chiffrement ultra-léger Speck est proposée. La principale contribution de ce travail est d'obtenir une meilleure version par rapport à Speck. Dans cette nouvelle proposition, appelée Speck-R, nous utilisons seulement 7 itérations contrairement à Speck qui en utilise 26 et nous réduisons le temps d'exécution d'au moins 50%. Tout d'abord, nous validons que Speck-R répond aux tests de statistiques pour mesurer l'aléatoire, proposés précédemment. De plus, nous avons rajouté un système de clé dynamique qui procure plus de sécurité contre les attaques liées à la clé. Speck-R a été implémenté sur différentes cartes de type arduino et dans tous les cas, Speck-R était plus rapide que Speck. Ensuite, afin de prouver que ce chiffrement peut être utilisé pour sécuriser les images, en particulier dans les réseaux VANETS/IoV, plusieurs tests ont été effectués et les résultats montrent que Speck-R possède effectivement le haut niveau de sécurité souhaité. Des expérimentations valident notre proposition du point de vue de la sécurité et de la performance et démontrent la robustesse du système proposé face aux types d'attaques les plus connus
Living in an era where new devices are astonishing considering their high capabilities, new visions and terms have emerged. Moving to smart phones, Wireless Sensor Networks, high-resolution cameras, pads and much more, has mandated the need to rethink the technological strategy that is used today. Starting from social media, where apparently everything is being exposed, moving to highly powerful surveillance cameras, in addition to real time health monitoring, it can be seen that a high amount of data is being stored in the Cloud and servers. This introduced a great challenge for their storage and transmission especially in the limited resourced platforms that are characterized by: (a) limited computing capabilities, (b) limited energy and source of power and (c) open infrastructures that transmit data over wireless unreliable networks. One of the extensively studied platforms is the Vehicular Ad-hoc Networks which tends to have many limitations concerning the security field. In this dissertation, we focus on improving the security of transmitted multimedia contents in different limited platforms, while preserving a high security level. Limitations of these platforms are taken into consideration while enhancing the execution time of the secure cipher. Additionally, if the proposed cipher is to be used for images, the intrinsic voluminous and complex nature of the managed images is also taken into account. In the first part, we surveyed one of the limited platforms that is interesting for many researchers, which is the Vehicular Ad-hoc Networks. In order to pave the way for researchers to find new efficient security solutions, it is important to have one reference that can sum most of the recent works. It almost investigates every aspect in this field shedding the light over different aspects this platform possesses. Then, in order to propose any new security solution and validate its robustness and the level of randomness of the ciphered image, a simple and efficient test is proposed. This test proposes using the randomness tools, TestU01 and Practrand, in order to assure a high level of randomness. After running these tests on well known ciphers, some flaws were exposed. Proceeding to the next part, a novel proposal for enhancing the well-known ultra lightweight cipher scheme, Speck, is proposed. The main contribution of this work is to obtain a better version compared to Speck. In this proposal, 26 rounds in Speck were reduced to 7 rounds in Speck-R while enhancing the execution time by at least 50%. First, we validate that Speck-R meets the randomness tests that are previously proposed. Additionally, a dynamic substitution layer adds more security against key related attacks and highly fortifies the cipher. Speck-R was implemented on different limited arduino chips and in all cases, Speck-R was ahead of Speck. Then, in order to prove that this cipher can be used for securing images, especially in VANETS/IoV, where images can be extensively re/transmitted, several tests were exerted and results showed that Speck-R indeed possesses the high level of security desired in any trusted cipher. Extensive experiments validate our proposal from both security and performance point of views and demonstrate the robustness of the proposed scheme against the most-known types of attacks
APA, Harvard, Vancouver, ISO, and other styles
22

Maillard, Odalric-Ambrym. "APPRENTISSAGE SÉQUENTIEL : Bandits, Statistique et Renforcement." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00845410.

Full text
Abstract:
Cette thèse traite des domaines suivant en Apprentissage Automatique: la théorie des Bandits, l'Apprentissage statistique et l'Apprentissage par renforcement. Son fil rouge est l'étude de plusieurs notions d'adaptation, d'un point de vue non asymptotique : à un environnement ou à un adversaire dans la partie I, à la structure d'un signal dans la partie II, à la structure de récompenses ou à un modèle des états du monde dans la partie III. Tout d'abord nous dérivons une analyse non asymptotique d'un algorithme de bandit à plusieurs bras utilisant la divergence de Kullback-Leibler. Celle-ci permet d'atteindre, dans le cas de distributions à support fini, la borne inférieure de performance asymptotique dépendante des distributions de probabilité connue pour ce problème. Puis, pour un bandit avec un adversaire possiblement adaptatif, nous introduisons des modèles dépendants de l'histoire et traduisant une possible faiblesse de l'adversaire et montrons comment en tirer parti pour concevoir des algorithmes adaptatifs à cette faiblesse. Nous contribuons au problème de la régression en montrant l'utilité des projections aléatoires, à la fois sur le plan théorique et pratique, lorsque l'espace d'hypothèses considéré est de dimension grande, voire infinie. Nous utilisons également des opérateurs d'échantillonnage aléatoires dans le cadre de la reconstruction parcimonieuse lorsque la base est loin d'être orthogonale. Enfin, nous combinons la partie I et II : pour fournir une analyse non-asymptotique d'algorithmes d'apprentissage par renforcement; puis, en amont du cadre des Processus Décisionnel de Markov, pour discuter du problème pratique du choix d'un bon modèle d'états.
APA, Harvard, Vancouver, ISO, and other styles
23

Salameh, Farah. "Méthodes de modélisation statistique de la durée de vie des composants en génie électrique." Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/16622/1/Salameh_Farah.pdf.

Full text
Abstract:
La fiabilité constitue aujourd’hui un enjeu important dans le contexte du passage aux systèmes plus électriques dans des secteurs critiques tels que l’aéronautique, l’espace ou le nucléaire. Il s’agit de comprendre, de modéliser et de prédire les mécanismes de vieillissement susceptibles de conduire les composants à la défaillance et le système à la panne. L’étude des effets des contraintes opérationnelles sur la dégradation des composants est indispensable pour la prédiction de leur durée de vie. De nombreux modèles de durée de vie ont été développés dans la littérature dans le contexte du génie électrique. Cependant, ces modèles présentent des limitations car ils dépendent du matériau étudié et de ses propriétés physiques et se restreignent souvent à un ou deux facteurs de stress, sans intégrer les interactions pouvant exister entre ces facteurs. Cette thèse présente une nouvelle méthodologie pour la modélisation de la durée de vie des composants du génie électrique. Cette méthodologie est générale ; elle s’applique à différents composants sans a priori sur leurs propriétés physiques. Les modèles développés sont des modèles statistiques estimés sur la base de données expérimentales issues de tests de vieillissement accéléré où plusieurs types de stress sont considérés. Les modèles visent alors à étudier les effets des différents facteurs de stress ainsi que de leurs différentes interactions. Le nombre et la configuration des tests de vieillissement nécessaires à construire les modèles (bases d’apprentissage) sont optimisés de façon à minimiser le coût expérimental tout en maximisant la précision des modèles. Des points expérimentaux supplémentaires aléatoirement configurés sont réalisés pour valider les modèles (bases de test). Deux catégories de composants sont testées : deux types d’isolants couramment utilisés dans les machines électriques et des sources de lumière OLED. Différentes formes des modèles de durée de vie sont présentées : les modèles paramétriques, non paramétriques et les modèles hybrides. Tous les modèles développés sont évalués à l’aide de différents outils statistiques permettant, d’une part, d’étudier la pertinence des modèles et d’autre part, d’évaluer leur prédictibilité sur les points des bases de test. Les modèles paramétriques permettent de quantifier les effets des facteurs et de leurs interactions sur la durée de vie à partir d’une expression analytique prédéfinie. Un test statistique permet ensuite d’évaluer la significativité de chacun des paramètres inclus dans le modèle. Ces modèles sont caractérisés par une bonne qualité de prédiction sur leurs bases de test. La relation entre la durée de vie et les contraintes est également modélisée par les arbres de régression comme méthode alternative aux modèles paramétriques. Les arbres de régression sont des modèles non paramétriques qui permettent de classifier graphiquement les points expérimentaux en différentes zones dans lesquelles les contraintes sont hiérarchisées selon leurs effets sur la durée de vie. Ainsi, une relation simple, graphique, et directe entre la durée de vie et les contraintes est obtenue. Cependant, à la différence des modèles paramétriques continus sur le domaine expérimental étudié, les arbres de régression sont constants par morceaux, ce qui dégrade leur qualité de prédiction sur la base de test. Pour remédier à cet inconvénient, une troisième approche consiste à attribuer un modèle linéaire à chacune des zones identifiées avec les arbres de régression. Le modèle résultant, dit modèle hybride, est donc linéaire par morceaux et permet alors de raffiner les modèles paramétriques en évaluant les effets des facteurs dans chacune des zones tout en améliorant la qualité de prédiction des arbres de régression.
APA, Harvard, Vancouver, ISO, and other styles
24

Ploé, Patrick. "Surrogate-based optimization of hydrofoil shapes using RANS simulations." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0012/document.

Full text
Abstract:
Cette thèse présente un framework d’optimisation pour la conception hydrodynamique de forme d’hydrofoils. L’optimisation d’hydrofoil par simulation implique des objectifs d’optimisation divergents et impose des compromis contraignants en raison du coût des simulations numériques et des budgets limités généralement alloués à la conception des navires. Le framework fait appel à l’échantillonnage séquentiel et aux modèles de substitution. Un modèle prédictif est construit en utilisant la Régression par Processus Gaussien (RPG) à partir des données issues de simulations fluides effectuées sur différentes géométries d’hydrofoils. Le modèle est ensuite combiné à d’autres critères dans une fonction d’acquisition qui est évaluée sur l’espace de conception afin de définir une nouvelle géométrie qui est testée et dont les paramètres et la réponse sont ajoutés au jeu de données, améliorant ainsi le modèle. Une nouvelle fonction d’acquisition a été développée, basée sur la variance RPG et la validation croisée des données. Un modeleur géométrique a également été développé afin de créer automatiquement les géométries d’hydrofoil a partir des paramètres déterminés par l’optimiseur. Pour compléter la boucle d’optimisation,FINE/Marine, un solveur fluide RANS, a été intégré dans le framework pour exécuter les simulations fluides. Les capacités d’optimisation ont été testées sur des cas tests analytiques montrant que la nouvelle fonction d’acquisition offre plus de robustesse que d’autres fonctions d’acquisition existantes. L’ensemble du framework a ensuite été testé sur des optimisations de sections 2Dd’hydrofoil ainsi que d’hydrofoil 3D avec surface libre. Dans les deux cas, le processus d’optimisation fonctionne, permettant d’optimiser les géométries d’hydrofoils et confirmant les performances obtenues sur les cas test analytiques. Les optima semblent cependant être assez sensibles aux conditions opérationnelles
This thesis presents a practical hydrodynamic optimization framework for hydrofoil shape design. Automated simulation based optimization of hydrofoil is a challenging process. It may involve conflicting optimization objectives, but also impose a trade-off between the cost of numerical simulations and the limited budgets available for ship design. The optimization frameworkis based on sequential sampling and surrogate modeling. Gaussian Process Regression (GPR) is used to build a predictive model based on data issued from fluid simulations of selected hydrofoil geometries. The GPR model is then combined with other criteria into an acquisition function that isevaluated over the design space, to define new querypoints that are added to the data set in order to improve the model. A custom acquisition function is developed, based on GPR variance and cross validation of the data.A hydrofoil geometric modeler is also developed to automatically create the hydrofoil shapes based on the parameters determined by the optimizer. To complete the optimization loop, FINE/Marine, a RANS flow solver, is embedded into the framework to perform the fluid simulations. Optimization capabilities are tested on analytical test cases. The results show that the custom function is more robust than other existing acquisition functions when tested on difficult functions. The entire optimization framework is then tested on 2D hydrofoil sections and 3D hydrofoil optimization cases with free surface. In both cases, the optimization process performs well, resulting in optimized hydrofoil shapes and confirming the results obtained from the analytical test cases. However, the optimum is shown to be sensitive to operating conditions
APA, Harvard, Vancouver, ISO, and other styles
25

Li, Ling. "Sequential Design of Experiments to Estimate a Probability of Failure." Phd thesis, Supélec, 2012. http://tel.archives-ouvertes.fr/tel-00765457.

Full text
Abstract:
This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.
APA, Harvard, Vancouver, ISO, and other styles
26

Ghienne, Martin. "Conception et caractérisation de liaisons boulonnées pour la réduction robuste de vibrations de structures." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1146/document.

Full text
Abstract:
La conception des structures assemblées nécessite de disposer d'outils de simulation prédictifs permettant de minimiser les écarts entre les comportements réel et simulé de ces structures. Et ce, d'autant plus que les exigences en terme de performance du système sont élevées et qu'une conception optimale est recherchée. Lors du dimensionnement des structures assemblées, la pratique généralement adoptée en bureau d'étude consiste à définir un coefficient de sécurité permettant de tenir compte de la variabilité du comportement réel de ces structures. L'inconvénient est de conduire nécessairement à un surdimensionnement qui peut aller à l'encontre des objectifs de dimensionnement optimal de ces structures. Les liaisons sont le siège de phénomènes non-linéaires tels que le contact ou le frottement et différentes sources d'incertitude induisent une variabilité sur les caractéristiques dynamiques réelles des liaisons. Malgré les capacités des calculateurs actuels, la prise en compte conjointe des phénomènes non linéaires et des incertitudes lors de la simulation de structures assemblées complexes reste difficilement envisageable par une approche directe. L'objectif de ce travail est de proposer une approche pragmatique de caractérisation du comportement vibratoire des structures légères assemblées en tenant compte de la variabilité des paramètres des liaisons. L'intérêt de cette approche est de pouvoir être intégrée dans une phase de dimensionnement robuste. On peut ainsi envisager de dimensionner une solution d'amortissement des vibrations d'une structure assemblée en tenant compte de la variabilité du comportement réel des liaisons de cette structure. Ce travail étudie d'abord le comportement dynamique d'une structure légère réelle afin d'identifier un modèle nominal «juste suffisant» des liaisons considérées. Une approche non intrusive de caractérisation du comportement vibratoire d'une structure en présence de paramètres incertains est ensuite proposée. Cette approche, intitulée approche SMR (pour Stochastic Model Reduction), exploite le fait que la variabilité des vecteurs propres d'une structure est généralement d'un ordre de grandeur inférieur à la variabilité des fréquences propres associées ce qui permet de réduire considérablement le coût de calcul de l'approche tout en gardant une bonne précision sur l'estimation des fréquences propres aléatoires de la structure. Le principe de l'approche est alors d'adapter la modélisation stochastique à chaque fréquence propre aléatoire en fonction d'une exigence de précision globale sur l'ensemble des fréquences propres aléatoires recherchées. Le point clé de cette approche consiste à identifier le modèle stochastique adapté à chaque configuration de fréquence propre, pour cela un indicateur sans coût de calcul supplémentaire est proposé. Finalement, un modèle stochastique des liaisons de la structure considérée est proposé et l'approche SMR est utilisée dans un processus d'optimisation basé sur le principe du maximum de vraisemblance pour identifier les paramètres de ce modèle. Cette dernière étape de la démarche proposée permet alors de caractériser le comportement vibratoire de structures assemblées constituées de nombreuses liaisons en tenant compte de la variabilité du comportement de chacune des liaisons. La démarche mise en place dans le cadre de cette thèse est alors concrétisée par la proposition d'une stratégie originale de réduction robuste des vibrations d'une structure assemblée légère
Predictive models are needed to properly design assembled structures. The main issue with this kind of structure is to deal with non-linear phenomena as contact or friction while considering sources of uncertainties mainly responsible for the deviation between the effective behavior of the structure and results from deterministic simulations. This work aims to provide a pragmatic approach to characterize the vibrational behavior of light assembled structures considering the variability of parameters of the joints. This approach would be useful for robust design of solutions, such as solutions for damping vibrations, dedicated to assembled structures and taking into account the variability of the real behavior of each joint.In this work, the dynamical behavior of an actual light structure is studied in order to identify a "just sufficient" nominal model of the considered joints. A non intrusive approach is then proposed to reduce the vibrational stochastic model of a structure with random parameters is then proposed. This approach, referred as the SMR approach (for Stochastic Model Reduction approach), takes advantage of the order of variability of random eigenvectors which is usually lower than the variability of corresponding random eigenfrequencies. It then allows to significantly reduce the computational cost for a given accuracy to estimate the structure random eigenfrequencies. The cornerstone of this approach is to adapt the stochastic modeling to each random eigenfrequency depending on a global accuracy requirement on the whole set of sought random eigenfrequency. The key point is then to identify the stochastic model used for each configuration of random eigenfrequency. A computationally free indicator is then proposed. Finally, a stochastic mechanical model of the joints of the studied structure is proposed. The SMR approach is used in an optimization process based on the maximum likelihood principle to identify the parameters of this stochastic model. This last step allows to characterize the vibrational behavior of assembled structures involving many joints taking into account the variability of each joints. This work is then concluded by applying the proposed approach to the design of an original strategy for robust reduction of vibration of light structures
APA, Harvard, Vancouver, ISO, and other styles
27

Tricaud, Clémence. "Essais en économie politique et publique." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX019.

Full text
Abstract:
Cette thèse s'inscrit dans les domaines de l'Économie Politique et Publique. À travers l'utilisation de méthodes quasi-expérimentales et de données administratives, son objectif est d’atteindre une meilleure compréhension du comportement des citoyens et des élus.Les deux premiers chapitres, en collaboration avec Vincent Pons, étudient le comportement des électeurs. Le premier chapitre évalue dans quelle mesure les électeurs votent de manière expressive ou stratégique et les conséquences sur les résultats électoraux. Nous exploitons le seuil qui détermine la qualification des candidats pour le second tour des élections législatives et cantonales françaises. En utilisant la méthode de la régression sur discontinuités (Regression Discontinuity Design RDD), nous comparons les résultats électoraux selon que deux ou trois candidats se présentent. Les résultats montrent que la présence d'un troisième candidat augmente significativement la participation électorale et réduit le nombre de voix obtenue par les deux premiers candidats. Surtout, dans environ 1/5ème des élections, la présence d'un.e troisième candidat.e provoque la perte du candidat qui, parmi les deux premiers, était le plus proche idéologiquement. Nous montrons ainsi qu'une large fraction des électeurs préfère voter expressivement plutôt que stratégiquement et que, dans ce contexte, la règle majoritaire conduit souvent à des résultats sous-optimaux.Le deuxième chapitre explore le type d’information susceptible d'affecter le comportement des électeurs et des candidats, en évaluant l'impact d'une information spécifique: le classement des candidats. En utilisant une RDD, nous isolons l'impact du classement des candidats au premier tour sur les résultats du second tour, au sein d'élections françaises où jusqu'à trois ou quatre candidats peuvent se qualifier pour le second tour. Nous montrons qu'être classé.e marginalement premier.ère, deuxième ou troisième au premier tour augmente significativement la probabilité qu’un.e candidat.e maintienne sa candidature au second tour et gagne. L’impact reste significatif même lorsque deux candidats seulement se qualifient (et qu'il n'y a donc pas de place pour le vote stratégique), ce qui suggère que le désir de voter pour le.a vainqueur.e joue un rôle clé dans la décision de vote des électeurs.Le troisième chapitre étudie le comportement des élus et en particulier la réticence des maires à coopérer en matière de politiques publiques. J’exploite la loi de 2010, qui en France, a forcé les communes non intégrées à rejoindre une intercommunalité. J’étudie l’impact causal de leur intégration en utilisant la méthode des doubles différences. Mes résultats montrent que les communes résistaient afin d'échapper aux conséquences économiques locales de l'intégration: les communes urbaines résistaient afin d'éviter la construction de nouveaux logements, tandis que les communes rurales résistaient afin d'éviter la perte de services publics locaux. Je constate premièrement que les communes contraintes d'entrer dans une intercommunalité ont connu une augmentation significative du nombre de permis de construire délivrés par an. Cet effet se manifeste principalement dans les communes densément construites et qui font face à une forte demande immobilière: des communes où davantage de constructions accentuerait la congestion, et dans lesquelles les résidents ont donc de forte chance d’être sujets au syndrome NIMBY (Not In My BackYard). Deuxièmement, je montre, à travers l’exploitation de données sur les crèches et bibliothèques municipales, que les communes rurales ont subi une diminution du nombre de services publics de proximité. Enfin, les résultats révèlent que les communes forcées de s'intégrer ont bénéficié de revenus fiscaux plus élevés et d'un meilleur accès aux transports publics, mais que ces bénéfices n'étaient pas suffisants pour compenser les effets négatifs de l'intégration
This dissertation lies at the intersection of Political Economy and Public Economics. It combines quasi-experimental designs with administrative data to understand the determinants and consequences of citizen and policymaker behavior.The first two chapters, in collaboration with Vincent Pons, study the behavior of voters in elections. In Chapter 1, we assess the extent to which voters behave expressively or strategically and the consequences it has on electoral results. Using a regression discontinuity design (RDD) around the qualification threshold for the runoff of two-round elections in France, we compare electoral results when two or three candidates compete. We find that a third candidate's presence substantially increases participation and reduces the vote share of the top two candidates. Crucially, in about 1/5 of the elections, the presence of a third candidate causes the loss of the candidate among the top two that is ideologically closest to her. Hence, we show that the plurality rule often leads to suboptimal outcomes, because many voters value voting expressively over voting strategically.Chapter 2 investigates which type of information affects voter and candidate behavior, focusing on one specific piece of information: candidate rankings. Building on the data collected for the first project and digitizing electoral results for older elections, we isolate the impact of first-round rankings on second-round outcomes. We use an RDD in French local and parliamentary elections, where up to three or four candidates can qualify for the second round. Results show that arriving marginally first, second, or third in the first round has large effects on a candidate’s likelihood of running and winning in the second round. These results remain strong even when only two candidates qualify (and thus there is no need for coordination), suggesting that the desire to vote for the winner is an important driver of voter behavior.Chapter 3 studies the behavior of policymakers and seeks to understand mayors’ reluctance to cooperate over local public policies. Exploiting a 2010 reform in France that forced non-integrated municipalities to join an intermunicipal community, I assess the causal impact of integration on municipalities that were reluctant to cooperate. I provide new evidence that resistance is driven by local costs of integration: urban municipalities resisted integration to prevent further housing construction, while rural municipalities resisted to avoid losing local public services. Using a difference-in-differences strategy, I first find that municipalities forced to enter a community experienced a large increase in the number of building permits delivered per year. Consistent with NIMBYsm (Not In My BackYard) explaining urban municipalities' resistance, this effect is driven by high-demand and densely built municipalities, where a rise in construction is the most likely to create congestion. Second, exploiting new data on daycare facilities and public libraries, I show that rural municipalities forced to enter a community experienced a decrease in the number of facilities available in their territory. Finally, I find that resisting municipalities benefited from a greater access to public transport and higher fiscal revenues after integration, but that these benefits were not high enough to compensate for the costs of integration
APA, Harvard, Vancouver, ISO, and other styles
28

Autin, Florent. "Point de vue maxiset en estimation non paramétrique." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00008542.

Full text
Abstract:
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
APA, Harvard, Vancouver, ISO, and other styles
29

Chen, Xiao. "Contrôle et optimisation de la perception humaine sur les vêtements virtuels par évaluation sensorielle et apprentissage de données expérimentales." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10019/document.

Full text
Abstract:
Dans un contexte économique où les concurrences internationales sont exacerbées, la customisation, ou personnalisation de masse des produits devient aujourd’hui une stratégie très importante des entreprises pour améliorer la valeur perçue de leurs produits. Cependant, les expériences des plateformes de customisations actuelles en ligne ne sont pas pleinement satisfaisantes car les choix personnalisés sont essentiellement limitées à des couleurs et à des motifs. Les dimensions sensorielles des produits, incluant en particulier l’apparence et le toucher des matières tout autant que le bien-aller du vêtement sont rarement proposés.Dans le cadre de ma thèse doctorale, nous avons proposé une plateforme de co-création, permettant aux commerçants, aux créateurs et aux clients d’acquérir conjointement une nouvelle expérience sur le développement de vêtements personnalisés à la valeur ajoutée plus élevée sans entraîner de surcoûts industriels. La construction de cette plateforme consiste en plusieurs parties. Tout à bord, nous avons sélectionné, par une expérience sensorielle, un logiciel de CAO en confection 3D bien adapté en termes de la qualité de rendu du vêtement virtuel. Ensuite, nous avons proposé un plan d’expérience sensorielle par utilisation d’une nouvelle méthode d’apprentissage actif proposée afin d’acquérir, sans mesures physiques, les paramètres techniques de l’étoffe dans un délai très court. Cette méthode est efficace, rapide, facile à réaliser et notamment très significative pour des transactions des textiles en ligne. Puis nous avons caractérisé quantitativement la perception du vêtement virtuel par des notes numériques sur un ensemble de descripteurs sensoriels normalisés. Ces derniers concernent l’apparence et le toucher de la matière, ainsi que le fit du vêtement. Les données sensorielles ont été obtenues respectivement dans deux autres expériences sensorielles. Par apprentissage de ces données, nous avons établi deux modèles. Le premier permet de caractériser la relation entre la perception sur l’apparence et le toucher du matériau virtuel et les paramètres techniques correspondants, constituant une entrée du logiciel de CAO en confection. Le deuxième modèle permet de caractériser la relation entre la perception du fit du vêtement virtuel et les paramètres des patrons. A l'aide des deux modèles précédents, les créateurs et consommateurs peuvent ajuster les éléments initiaux de conception pour les matières et les patrons du vêtement selon leurs attentes au niveau du sensoriel
Under the exacerbated worldwide competition, the mass customization or personalization of products is now becoming an important strategy for companies to enhance the perceived value of their products. However, the current online customization experiences are not fully satisfying for consumers because the choices are mostly limited to colors and motifs. The sensory fields of products, particularly the material’s appearance and hand as well as the garment fit are barely concerned.In my PhD research project, we have proposed a new collaborative design platform. It permits merchants, designers and consumers to have a new experience during the development of highly valued personalized garments without extra industrial costs. The construction of this platform consists of several parts. At first, we have selected, through a sensory experiment, an appropriate 3D garment CAD software in terms of rending quality. Then we have proposed an active leaning-based experimental design in order to find the most appropriate values of the fabric technical parameters permitting to minimize the overall perceptual difference between real and virtual fabrics in static and dynamic scenarios. Afterwards, we have quantitatively characterized the human perception on virtual garment by using a number of normalized sensory descriptors. These descriptors involve not only the appearance and the hand of the fabric but also the garment fit. The corresponding sensory data have been collected through two sensory experiments respectively. By learning from the experimental data, two models have been established. The first model permits to characterize the relationship between the appearance and hand perception of virtual fabrics and corresponding technical parameters that constitute the inputs of the 3D garment CAD software. The second model concerns the relationship between virtual garment fit perception and the pattern design parameters. These two models constitute the main components of the collaborative design platform. Using this platform, we have realized a number of garments meeting consumer’s personalized perceptual requirements
APA, Harvard, Vancouver, ISO, and other styles
30

Djimeu, Wouabe Eric. "Essays on Civil War, HIV/AIDS, and Human capital in Sub-Saharan African Countries." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00599616.

Full text
Abstract:
This thesis is based on three essays. The first chapter analyses the impact of 27 years of civil war in Angola on human capital, expenditures per adult equivalent and fertility. The prediction of the effects of civil war is done through a neoclassical unitary household model in the tradition of Rosenzweig. Using instrumental variable method, this thesis shows that civil war has a negative and disastrous impact in short-term on health of children, this effect is persistent. Civil war has no impact on expenditures per adult equivalent. It increases enrollment and decreases fertility in the short term. The second chapter ofthis thesis analyzes the effectiveness of a social program in a conflict country such as Angola and explores whether this effectiveness depends on the intensity of the conflict. Our identification strategy is based on the political geography of the deployment of the program based on a model of spatial competition of Hotelling. This thesis shows that the Angola Social Fund had a positive impact on expenditures per adult equivalent and on one of the main anthropometric measurements namely the height for age z-score. The program's effectiveness in function to the intensity of the conflict is analyzed using the local instrumental variable estimator. The thesis shows that the program's effectiveness increases with the intensity of the conflict. The last chapter of this thesis analyzes in the case of Cameroon, the impact of teacher training on HIV/AIDS. The two criteria for selecting participating schools, leads us to choose as identification strategy the regression discontinuity design. This thesis shows that 15 to 17 year old girls in teacher training schools are between 7 and 10 percentage points less likely to have started childbearing. For 12 to 13 year old girls, the likelihood of self-reported abstinence and condom use is also significantly higher in treated schools.
APA, Harvard, Vancouver, ISO, and other styles
31

Godzinski, Alexandre. "Three empirical essays on moral hazard identification in insurance." Thesis, Paris, EHESS, 2017. http://www.theses.fr/2017EHES0106.

Full text
Abstract:
L’aléa moral est une source de distorsion économique. La prédiction classique dans un cadre simple est qu’une meilleure couverture conduit à un effort moindre. Cette thèse étudie dans quelle mesure cette prédiction est ou non vérifiée empiriquement dans des cadres plus complexes. Le premier chapitre s’intéresse aux absences pour raison de santé. La politique étudiée est le jour de carence pour arrêt maladie dans la fonction publique de l’Etat en France. Cette politique de remboursement moins généreuse a notamment pour but de réduire l’absentéisme. Elle conduit à une baisse de la prévalence des absences de courte durée. Mais elle conduit aussi à une hausse de la prévalence des absences de longue durée. En conséquence, la prévalence de l’ensemble des absences pour raison de santé reste inchangée. Les deux chapitres suivants s’intéressent aux systèmes de bonus-malus d’un assureur automobile irlandais. Le deuxième chapitre s’intéresse à l’introduction d’un état très protecteur : la protection à vie du bonus. Cette protection est octroyée automatiquement et gratuitement aux assurés sous des conditions restrictives d’historique de sinistre et d’ancienneté. Comparé à la situation dans laquelle cet état protecteur n’existe pas, le taux de sinistre des assurés protégés augmente, tandis que le taux de sinistre des agents non protégés diminue, dans l’espoir d’être récompensés par la protection. L’existence de la protection est à l’origine d’un transfert intertemporel. Les assurés renoncent à de l’utilité présente en exerçant un effort supérieur, afin d’être récompensés par la protection et de profiter d’une utilité future plus élevée due à un effort moindre. Le troisième chapitre étudie la réaction juste après que l’assuré est récompensé par la protection à vie du bonus. Le taux de sinistre augmente immédiatement, mais seulement quand la protection existe depuis quelque temps. Cela suggère que l'effet d'un changement incitatif dépend de sa nature, mais aussi de son contexte
Moral hazard is a source of economic distortion. The classical prediction in a simple framework is that a better coverage leads to a lower effort. This thesis studies the extent to which this prediction is empirically verified in more complex settings. The first chapter focuses on health-related absences. The policy under study is the one-day waiting period for sick leave in the French central civil service. This less generous reimbursement policy notably aims at reducing absenteeism. It leads to a decrease in the prevalence of short-term absences. But it also leads to an increase in the prevalence of long-term absences. As a result, the prevalence of all health-related absences stay unchanged. The two following chapters focus on bonus-malus systems used by an Irish car insurer. The second chapter focuses of the introduction on a highly protecting state: the lifetime bonus protection. This protection is granted automatically and freely to insurees under restrictive conditions on past claims and seniority. Compared to the situation in which this protecting state does not exist, the claims rate of protected insurees increases, but the claims rate of unprotected insurees decreases, in the hope of being rewarded with the protection. The existence of the protection induces an intertemporal transfer. Insurees waive present utility by exerting more effort, so as to be rewarded with the protection and to enjoy more future utility due to lower future effort. The third chapter studies the reaction just after the insuree is rewarded with the lifetime bonus protection. The claims rate increases immediately, but only when the protection exists for some time. This suggests that the effect of an incentive change depends on its nature, but also on its context
APA, Harvard, Vancouver, ISO, and other styles
32

Sasseville, Maxime. "Description des facteurs prédictifs de résultats d’une intervention de prévention et de gestion des maladies chroniques en contexte de soins première ligne." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/6018.

Full text
Abstract:
Résumé : Objectif : Identifier les facteurs associés avec le succès d’une intervention multidisciplinaire de prise en charge et de prévention des maladies chroniques dans un contexte de soins de santé de première ligne. Devis : Étude corrélationnelle prédictive d’analyse secondaire des données du projet PR1MaC, un essai randomisé contrôlé analysant les effets d’une intervention intégrant un programme de prise en charge et de prévention Contexte : Huit cliniques de soins de première ligne de la région Saguenay-Lac-Saint-Jean. Participants : un échantillon de 160 patients (52,5% d’hommes) référés par des professionnels de première ligne. L’analyse a porté sur le groupe intervention seulement. Mesure de résultats primaire : Mesure d’amélioration significative dans les huit domaines du «Health Education Impact Questionnaire». Résultat : L’analyse de régression multivariée a démontré qu’être plus jeune, être célibataire et avoir un salaire plus bas a mené à plus d’amélioration au niveau du domaine « Bien-être émotionnel »; avoir de bonnes habitudes alimentaires et cibler moins de facteurs de risque durant l’intervention a mené à plus d’amélioration au niveau du domaine « Approches et attitudes constructives »; être plus jeune, avoir plus de temps de contact avec les professionnels et avoir une concertation des professionnels a mené à plus d’amélioration dans le domaine « Approches et attitudes constructives »; avoir plus de temps de contact avec les professionnels a aussi eu une influence sur l’amélioration du domaine « Engagement positif et actif dans la vie » et avoir un plus grand nombre de professionnels intervenant chez une même personne a démontré plus d’amélioration dans le domaine « Acquisition des techniques et habiletés ». Aucun facteur prédictif n’a pu être identifié pour les domaines « Comportements de santé », « Intégration sociale et soutien » et « Auto-surveillance et discernement ». Seulement les résultats statistiquement significatifs sont présentés (valeur p ≥ 0,05). La petite taille de l'échantillon ainsi que la possibilité d'une perte de signification des résultats après certains ajustements statistiques suggèrent que ces observations devraient faire l'objet d'une validation plus approfondie dans d'autres études. Conclusion : La tentative d’identification des facteurs prédictifs de résultats de cette recherche contribue à la compréhension des mécanismes complexes de l’efficacité et offre des pistes quant à l’optimisation des programmes de prévention et de gestion des maladies chroniques. // Abstract : Context : Research on the factors associated with the successes of chronic disease prevention and management (CDPM) interventions is scarce. Objectives : To identify the factors associated with the successes of an interprofessional CDPM intervention among adult patients in primary healthcare (PHC) settings. Design : Secondary analysis of data from the PR1MaC project; a pragmatic randomized controlled trial looking at the effects of an intervention involving the integration of CDPM services in PHC. Settings : Eight PHC practices in the Saguenay - Lac - Saint - Jean region of Quebec, Canada. Participants : A sample of 160 patients (84 males) referred by PHC providers constituted the sample (mean age 52.66 ± 11.5 years); 98.5% presented two or more chronic conditions analysis focused on the intervention arm sample only. Main and secondary outcome measures : Dichotomic substantive improvement in the eight domains of the Health Education Impact questionnaire (hei Q) measured at baseline and three months later. Results : Multivariate logistic regression analysis showed that being younger, being single and having a lower family income led to a better improvement in the emotional wellbeing domain; having healthy eating habits and less objectives during the intervention led to improvement in the constructive attitudes and approaches domain; being younger, a longer intervention and a consensus of professionals led to improvement in the health services navigation domain; a longer intervention led to improvement in the positive and active engagement in life domain and having more professionals involved led to improvement in the Skills and techniques acquisition domain. No predictive factors were identified for the Health - directed behaviour, Social interaction and support and S elf - monitoring and insight domains. Only significant results are presented here (p - value ≥ 0.05). The small sample and the lost of significance after statistical adjustments suggest that observations should be validated by other studies. Conclusion: In an attempt to make causal inferences in regards to improvement, this research contributes to the understanding of the complex mechanisms of efficiency and provides information about the optimisation of CDPM program delivery.
APA, Harvard, Vancouver, ISO, and other styles
33

Lochmann, Alexia. "Essays on the economics of migration and cultural identity." Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01E018.

Full text
Abstract:
Cette thèse vise à mettre en lumière l’interaction entre la mobilité humaine, l’identité culturelle et la mondialisation. Le rôle essentiel que la mobilité humaine et l’identité culturelle jouent dans l’histoire du développement économique est indéniable, car ces deux phénomènes accompagnent l’humanité dans l’espace et le temps. Les questions auxquelles je réponds dans cette thèse se concentrent sur trois aspects de ces phénomènes, qui sont au cœur du débat public actuel. J’aborde ces questions en utilisant des dossiers historiques que j’ai numérisé dans le cadre de ma thèse afin de construire une base de données originale. Je fournis des cadres conceptuels, historiques et théoriques pour chaque sujet, tout en m’appuyant sur des méthodes économétriques rigoureuses pour déduire la causalité. Après une introduction sur l’économie de la migration et de la diversité, le cœur de cette thèse comprend trois articles scientifiques. Le premier article évalue les effets de la formation linguistique sur l’intégration économique des immigrants, le deuxième met en évidence le rôle de l’identité culturelle et des facteurs économiques dans la décision d’émigrer, et le troisième étudie les effets que des informations fausses peuvent avoir sur la formation de l’identité culturelle
This dissertation aims at shedding light on the interplay between human mobility, cultural identity and globalization. The critical role that human mobility and cultural identity play in the history of economic development is undeniable, for both phenomena accompany humankind throughout space and time. The questions I answer in this dissertation intend to focus on three aspects of these phenomena, that are at the core of the current public debate. I address these questions using novel data, partly coming from recently digitized historical files in the context of this doctorate. I provide conceptual, historical and theoretical frames for each topic, while relying on rigorous state-of-the-art econometric methods to infer causality. Following an introduction on the economics of migration and diversity, the core of this dissertation comprises three research papers. The first paper evaluates the effects of language training on the economic integration of immigrants; the second highlights the role of cultural identity and economic factors when taking the decision to emigrate, and the third investigates the effects that misleading information can have on the formation of cultural identity
APA, Harvard, Vancouver, ISO, and other styles
34

Dubourg, Vincent. "Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697026.

Full text
Abstract:
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.
APA, Harvard, Vancouver, ISO, and other styles
35

Gstalter, Étienne. "Réduction d’ordre de modèle de crash automobile pour l’optimisation masse / prestations." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2576.

Full text
Abstract:
Cette thèse est une contribution à un thème de recherche sur les applications de la réduction de modèle à l’ingénierie RENAULT. Elle fait suite aux travaux du projet IRT SystemX ROM (Réduction de modèles et Optimisation Multidisciplinaire) et aux thèses CIFRE RENAULT [Vuong], [Charrier]. L’application industrielle principale du thème est la mise au point de la structure d’un véhicule sollicité en crash; des travaux sont également en cours sur la combustion, l’acoustique et l’aérodynamique. Les travaux de cette thèse sont à la fois un apport à la méthode générique ReCUR et son adaptation à l’optimisation de la caisse d’un véhicule pour le crash. RENAULT utilise largement l’optimisation pour la mise au point de la caisse en crash, avec un outil d’optimisation numérique basé sur la méthode des plans d’expériences. Cette méthode nécessite beaucoup de calculs crash car cette simulation est considérée comme une boite noire, en utilisant uniquement les entrées et sorties. La méthode ReCUR prend le contre-pied en exploitant un maximum d’informations de chaque simulation crash, dans le but de réduire fortement leur nombre. Les travaux de cette thèse ont permis de remplir cet objectif pour les applications de mise au point au nominal et pour l’optimisation robuste dans des cas complexes comme le choc frontal et arrière
This thesis is a part of a global research work dedicated to reduced-order modelling applications in the Renault engineering direction. It's research topic has been improved in the IRT System)('s project on Reduced Order Model and Multi-disciplinary Optimization. Some previous thesis can help understand the context. ([Vuong], [Charrier]). The main industrial application of the research theme is the focus on a body structure, in a crash loading. Some research works on acoustic, combustion and aerodynamic are currently ongoing. This thesis is both a contribution to the generic ReCUR method, and its application to a car body structure optimization for crash loadings. Engineering teams at Renault uses optimization to obtain the best crash simulation, with a numerical optimization software, based on designs of experiments. It requires a lot of crash simulation because each simulation is considered as unique, with only one response for each parameter. Only Inputs and Outputs are known. The ReCUR method consider that each simulation is a huge mine that needs our attention. We hope that we can decrease the number of crash simulation required to compute a model, by using much more data for each simulation
APA, Harvard, Vancouver, ISO, and other styles
36

Martínez, Vargas Danae Mirel. "Régression de Cox avec partitions latentes issues du modèle de Potts." Thèse, 2019. http://hdl.handle.net/1866/22552.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Gagnon, Philippe. "Sélection de modèles robuste : régression linéaire et algorithme à sauts réversibles." Thèse, 2017. http://hdl.handle.net/1866/20583.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Nambeu, Christian O. "Imputation en présence de données contenant des zéros." Thèse, 2010. http://hdl.handle.net/1866/4724.

Full text
Abstract:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Single imputation is often used in surveys to compensate for item nonresponse. In some cases, the variable requiring imputation contains a large amount of zeroes. This is especially frequent in business surveys that collect economic variables. In this thesis, we study the properties of two imputation procedures frequently used in practice and show that they lead to biased estimators, in general. Motivated by a mixture regression model, we then propose three imputation procedures and study their properties in terms of bias. For the proposed imputation procedures, we consider a jackknife variance estimator that is consistent for the true variance, provided the overall sampling fraction is negligible. Finally, we perform a simulation study to evaluate the performance of point and variance estimators in terms of relative bias and mean square error.
APA, Harvard, Vancouver, ISO, and other styles
39

Morin, Léonard Ryo. "Traffic prediction and bilevel network design." Thesis, 2020. http://hdl.handle.net/1866/24801.

Full text
Abstract:
Cette thèse porte sur la modélisation du trafic dans les réseaux routiers et comment celle-ci est intégrée dans des modèles d'optimisation. Ces deux sujets ont évolué de manière plutôt disjointe: le trafic est prédit par des modèles mathématiques de plus en plus complexes, mais ce progrès n'a pas été incorporé dans les modèles de design de réseau dans lesquels les usagers de la route jouent un rôle crucial. Le but de cet ouvrage est d'intégrer des modèles d'utilités aléatoires calibrés avec de vraies données dans certains modèles biniveaux d'optimisation et ce, par une décomposition de Benders efficace. Cette décomposition particulière s'avère être généralisable par rapport à une grande classe de problèmes communs dans la litérature et permet d'en résoudre des exemples de grande taille. Le premier article présente une méthodologie générale pour utiliser des données GPS d'une flotte de véhicules afin d'estimer les paramètres d'un modèle de demande dit recursive logit. Les traces GPS sont d'abord associées aux liens d'un réseau à l'aide d'un algorithme tenant compte de plusieurs facteurs. Les chemins formés par ces suites de liens et leurs caractéristiques sont utilisés afin d'estimer les paramètres d'un modèle de choix. Ces paramètres représentent la perception qu'ont les usagers de chacune de ces caractéristiques par rapport au choix de leur chemin. Les données utilisées dans cet article proviennent des véhicules appartenant à plusieurs compagnies de transport opérant principalement dans la région de Montréal. Le deuxième article aborde l'intégration d'un modèle de choix de chemin avec utilités aléatoires dans une nouvelle formulation biniveau pour le problème de capture de flot de trafic. Le modèle proposé permet de représenter différents comportements des usagers par rapport à leur choix de chemin en définissant les utilités d'arcs appropriées. Ces utilités sont stochastiques ce qui contribue d'autant plus à capturer un comportement réaliste des usagers. Le modèle biniveau est rendu linéaire à travers l'ajout d'un terme lagrangien basé sur la dualité forte et ceci mène à une décomposition de Benders particulièrement efficace. Les expériences numériques sont principalement menés sur un réseau représentant la ville de Winnipeg ce qui démontre la possibilité de résoudre des problèmes de taille relativement grande. Le troisième article démontre que l'approche du second article peut s'appliquer à une forme particulière de modèles biniveaux qui comprennent plusieurs problèmes différents. La décomposition est d'abord présentée dans un cadre général, puis dans un contexte où le second niveau du modèle biniveau est un problème de plus courts chemins. Afin d'établir que ce contexte inclut plusieurs applications, deux applications distinctes sont adaptées à la forme requise: le transport de matières dangeureuses et la capture de flot de trafic déterministe. Une troisième application, la conception et l'établissement de prix de réseau simultanés, est aussi présentée de manière similaire à l'Annexe B de cette thèse.
The subject of this thesis is the modeling of traffic in road networks and its integration in optimization models. In the literature, these two topics have to a large extent evolved independently: traffic is predicted more accurately by increasingly complex mathematical models, but this progress has not been incorporated in network design models where road users play a crucial role. The goal of this work is to integrate random utility models calibrated with real data into bilevel optimization models through an efficient Benders decomposition. This particular decomposition generalizes to a wide class of problems commonly found in the literature and can be used to solved large-scale instances. The first article presents a general methodology to use GPS data gathered from a fleet of vehicles to estimate the parameters of a recursive logit demand model. The GPS traces are first matched to the arcs of a network through an algorithm taking into account various factors. The paths resulting from these sequences of arcs, along with their characteristics, are used to estimate parameters of a choice model. The parameters represent users' perception of each of these characteristics in regards to their path choice behaviour. The data used in this article comes from trucks used by a number of transportation companies operating mainly in the Montreal region. The second article addresses the integration of a random utility maximization model in a new bilevel formulation for the general flow capture problem. The proposed model allows for a representation of different user behaviors in regards to their path choice by defining appropriate arc utilities. These arc utilities are stochastic which further contributes in capturing real user behavior. This bilevel model is linearized through the inclusion of a Lagrangian term based on strong duality which paves the way for a particularly efficient Benders decomposition. The numerical experiments are mostly conducted on a network representing the city of Winnipeg which demonstrates the ability to solve problems of a relatively large size. The third article illustrates how the approach used in the second article can be generalized to a particular form of bilevel models which encompasses many different problems. The decomposition is first presented in a general setting and subsequently in a context where the lower level of the bilevel model is a shortest path problem. In order to demonstrate that this form is general, two distinct applications are adapted to fit the required form: hazmat transportation network design and general flow capture. A third application, joint network design and pricing, is also similarly explored in Appendix B of this thesis.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography