To see the other types of publications on this topic, follow the link: Join.me.

Dissertations / Theses on the topic 'Join.me'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 48 dissertations / theses for your research on the topic 'Join.me.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

OUAHRANI, ABDERRAHIM. "Estimation jointe dans la loi de pareto." Paris 6, 1998. http://www.theses.fr/1998PA066266.

Full text
Abstract:
Le theme principal de cette these est l'estimation jointe des deux parametres d'une loi de pareto exacte, l'etude de leur consistance et leur normalite asymptotique. Dans cette optique, nous proposons un estimateur joint obtenu par une technique inspiree par le maximum de vraisemblance conditionnelle, et etudions sa convergence en probabilite. Nous proposons egalement un estimateur joint dans le cas du modele de hall (1982) et etudions sa convergence. Puis, nous utilisons une autre methode due a lloyd ((1952), (utilisee entre autres par sarhan (1954)) et permettant de construire un estimateur joint. Ensuite, nous etudions la convergence presque sure de cet estimateur ainsi obtenu et la vitesse de convergence correspondante. Pour conclure, nous donnons quelques resultats de simulations relativement a ces estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
2

Baghiani, Abdelaziz. "Production jointe et théorie des ressources non renouvelables." Toulouse 1, 1992. http://www.theses.fr/1992TOU10012.

Full text
Abstract:
Par opposition à la production simple, on entend par production jointe celle de plusieurs biens simultanément dans un même processus. En théorie des ressources non renouvelables, le raffinage du pétrole brut constitue un des exemples les plus marquants de la production simple. Nous définissons ces extrants liés comme des biens résultants d'une même méthode de production en ce sens qu'il est impossible de produire l'un sans l'autre, ils sont produits dans des proportions fixes ou variables, selon la qualité du minerai extrait et les installations du raffinage. Un préalable introductif concernant les "enjeux du raffinage" est fondamental pour appréhender l'historique et l'évolution de l'industrie du raffinage jusqu'à la nouvelle orientation et l'actuelle stratégie d'intégration des pays producteurs de l'amont vers l'aval de la filière pétrolière. L'examen d'un modèle traitant des points importants qui influence cette nouvelle orientation. Les composantes clefs de ce modèle sont : Oricedes de stockage ; Fluctuation de la demande ; Qualités du minerai extrait le développement du modèle, selon le relâchement d'une hypothèse à l'autre, fournit des résultats consistants avec la théorie d'épuisement déjà connue de la firme, dont le respect de la règle d'hotelling sur la croissance du profit marginal à un taux égal aux taux d'intérêt<br>What we mean by the joint production in opposition to the simple production is one of several goods simultaneously in a same process. In the theory of on renewable resources, the crude oil refining constitutes one of the most striking examples of the simple production. We may define the linked extracts as the resulting goods of the same method of production, indeed it is impossible to produce one without the other one; as a matter of fact they are produced in thin or variable proportions according to the quality of the extracted ore and the refining fittings. An introductory preliminary concerning the "refining stakes" is fundamental to apprehend the history and the evolution of the refining industry until the new orientation and the current integration strategy of the oil producing countries from upstream to downstream in the oil channel. The examination of a pattern dealing with the important points which influence this new orientation. The key constituents of this pattern are: - stocking processes ; - fluctuation in the demand ; - extracted ore quality. The pattern development according to the loosening of on hypothesis to another one gives substantial results together with exhaustion theory which is already known by the firm, in addition to the strict following of the hotteling rule concerning the development of the marginal profit at a race equal to the interest rates
APA, Harvard, Vancouver, ISO, and other styles
3

Demanze, Olivier. "Problème des moments multi-dimensionnel et sous-normalité jointe." Lille 1, 2002. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2002/50376-2002-139.pdf.

Full text
Abstract:
On s'intéresse au problème multi-dimensionnel des moments sur des ensembles compacts arbitraires ou juste fermés (non bornés) par le billet des méthodes d'extensions d'opérateurs symétriques. Les résultats obtenus permettent, entre autres, de donner des représentations de polynômes positifs sur des sous-ensembles de R exposant n (R ensemble des réels). On donne également des réponses aux versions opératorielles de ces problèmes des moments. Celles-ci permettent d'obtenir plusieurs critères de sous-normalité jointe (en particulier pour des opérateurs non bornés à domaine dense invariant) et d'hyponormalité. Ces critères sont alors appliqués à certains opérateurs particuliers comme les multi-shifts à poids unilatéraux et bilatéraux. Enfin, on donne deux notions différentes de minimalité d'extension normale ainsi que des relations spectrales entre ces extensions et le multi-opérateur sous-normal.
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Floch Edith. "Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00753829.

Full text
Abstract:
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
APA, Harvard, Vancouver, ISO, and other styles
5

El, Aoud Sofiene. "Dynamique jointe stock/option et application aux stratégies de trading sur options." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0020/document.

Full text
Abstract:
Cette thèse explore théoriquement et empiriquement les implications de la dynamique jointe action/option sur divers problématiques liées au trading d’options. Dans un premier temps, nous commençons par l’étude de la dynamique jointe entre une option sur un stock et une option sur l’indice de marché. Le modèle CAPM fournit un cadre mathématique adéquat pour cette étude car il permet de modéliser la dynamique jointe d’un stock et son indice de marché. En passant aux prix d’options, nous montrons que le beta et la volatilité idiosyncratique, paramètres du modèle, permettent de caractériser la relation entre les surfaces de volatilité implicite du stock et de l’indice. Nous nous penchons alors sur l’estimation du paramètre beta sous la probabilité risque-neutre en utilisant les prix d’options. Cette mesure, appelée beta implicite, représente l’information contenue dans les prix d’options sur la réalisation du paramètre beta dans le futur.Pour cette raison, nous essayons de voir, si le beta implicite a un pouvoir prédictif du beta futur.En menant une étude empirique, nous concluons que le beta implicite n’améliore pas la capacité de prédiction en comparaison avec le beta historique qui est calculé à travers la régression linéaire des rendements du stock sur ceux de l’indice. Mieux encore, nous remarquons que l’oscillation du beta implicite autour du beta futur peut entraîner des opportunités d’arbitrage, et nous proposons une stratégie d’arbitrage qui permet de monétiser cet écart. D’un autre côté, nous montrons que l’estimateur du beta implicite pourrait être utilisé pour la couverture d’options sur le stock en utilisant des instruments sur l’indice, cette couverture concerne notamment le risque de volatilité et aussi le risque de delta. Dans la deuxième partie de notre travail, nous nous intéressons au problème de market making sur options. Dans cette étude, nous supposons que le modèle de dynamique du sous-jacent sous la probabilité risque-neutre pourrait être mal spécifié ce qui traduit un décalage entre la distribution implicite du sous-jacent et sa distribution historique.Dans un premier temps, nous considérons le cas d’un market maker risque neutre qui vise à maximiser l’espérance de sa richesse future. A travers l’utilisation d’une approche de contrôle optimal stochastique, nous déterminons les prix optimaux d’achat et de vente sur l’option et nous interprétons l’effet de présence d’inefficience de prix sur la stratégie optimale. Dans un deuxième temps, nous considérons que le market maker est averse au risque et essaie donc de réduire l’incertitude liée à son inventaire. En résolvant un problème d’optimisation basé sur un critère moyenne-variance, nous obtenons des approximations analytiques des prix optimaux d’achat et de vente. Nous montrons aussi les effets de l’inventaire et de l’inefficience du prix sur la stratégie optimale. Nous nous intéressons par la suite au market making d’options dans une dimension plus élevée. Ainsi, en suivant le même raisonnement, nous présentons un cadre pour le market making de deux options ayant des sous-jacents différents avec comme contrainte la réduction de variance liée au risque d’inventaire détenu par le market-maker. Nous déterminons dans ce cas la stratégie optimale et nous appuyons les résultats théoriques par des simulations numériques.Dans la dernière partie de notre travail, nous étudions la dynamique jointe entre la volatilité implicite à la monnaie et le sous jacent, et nous essayons d’établir le lien entre cette dynamique jointe et le skew implicite. Nous nous intéressons à un indicateur appelé "Skew Stickiness Ratio"qui a été introduit dans la littérature récente. Cet indicateur mesure la sensibilité de la volatilité implicite à la monnaie face aux mouvements du sous-jacent. Nous proposons une méthode qui permet d’estimer la valeur de cet indicateur sous la probabilité risque-neutre sans avoir besoin d’admettre des hypothèses sur la dynamique du sous-jacent. [...]<br>This thesis explores theoretically and empirically the implications of the stock/option joint dynamics on applications related to option trading. In the first part of the thesis, we look into the relations between stock options and index options under the risk-neutral measure. The Capital Asset Pricing Model offers an adequate mathematical framework for this study as it provides a modeling approach for the joint dynamics between the stock and the index. As we compute option prices according to this model, we find out that the beta and the idiosyncratic volatility of the stock, which are parameters of the model, characterize the relation between the implied volatility surface of the stock and the one of the index. For this reason, we focus on the estimation of the parameter beta under the risk-neutral measure through the use of option prices.This measure, that we call implied beta, is the information contained in option prices concerning the realization of the parameter beta in the future. Trying to use this additional information, we carry out an empirical study in order to investigate whether the implied beta has a predictive power of the forward realized beta. We conclude that the implied beta doesn’t perform better than the historical beta which is estimated using the linear regression of the stock’s returns onthe index returns. We conclude also that the oscillation of the implied beta around the forward realized beta can engender arbitrage opportunities, and we propose an arbitrage strategy which enables to monetize this difference. In addition, we show that the implied beta is useful to hedge stock options using instruments on the index. In the second part of our work, we consider the problem of option market making. We suppose that the model used to describe the dynamics of the underlying under the risk-neutral probability measure can be misspecified which means thatthe implied distribution of the underlying may be different from its historical one. We consider first the case of a risk neutral market maker who aims to maximize the expectation of her final wealth. Using a stochastic control approach, we determine the optimal bid and ask prices on the option and we interpret the effect of price inefficiency on the optimal strategy. Next to that, we suppose that the market maker is risk averse as she tries to minimize the variance of her finalwealth. We solve a mean-variance optimization problem and we provide analytic approximations for the optimal bid and ask prices. We show the effects of option inventory and price inefficiency on the optimal strategy. We try then to extrapolate the study to a higher dimension in order to see the effect of joint dynamics of the different underlyings on the optimal strategy. Thus, we study market making strategies on a pair of options having different underlyings with the aim to reduce the risk due to accumulated inventories in these two options. Through the resolution of the HJB equation associated to the new optimization problem, we determine the optimal strategy and we support our theoretical finding with numerical simulations. In the final part of the thesis, we study the joint dynamics of the at-the-money implied volatility and the spot process. We try to establish a relation between this joint dynamics and the implied skew through the use of a quantity called the Skew Stickiness Ratio which was introduced in the recent literature. The Skew Stickiness Ratio quantifies the effect of the log-return of the spot on the increment of theat-the-money volatility. We suggest a model-free approach for the estimation of the SSR (Skew Stickiness Ratio) under the risk-neutral measure, this approach doesn’t depend on hypothesis on the dynamics of the underlying. [...]
APA, Harvard, Vancouver, ISO, and other styles
6

Le, floch Edith. "Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112214/document.

Full text
Abstract:
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée<br>Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach
APA, Harvard, Vancouver, ISO, and other styles
7

Lampel, Jean-Louis. "Topologie d'un espace solitaire dans l'oeuvre jointe d'edward hopper ou l'annonciation d'amerique." Lyon 2, 1991. http://www.theses.fr/1991LYO20044.

Full text
Abstract:
Edward hopper a suivi ses pere ou pairs un temps court puis rejoint la capitale de l'art, paris. Il se fabrique la une amerique de solitude, fuite et couleurs paradisiaques. A son retour, il chasse l'amerique, une traque metatopique dont les mots cles sont ecran, nullepart, desastre (d'autres s'enchainent aussi) hantent le chevalet. Un fantome hante l'amerique : l'absence, celle d'un passe sans passe et l'europe castratrice. Hopper fait tabula rasa. Il annonce le rien du desastre de notre siecle barbare. Son oeuvre est la quintessence de notre siecle<br>Edward hopper followed his fathers, then left america to learn what art was really all about, that is to say, about the places of one's heart. As every american knows, love plus the essence of art are where one is not. Hopper made pictures of an undless quest for a holy grail : america. His fathers were homer and eakins. He worked all through his long life to make us see that america as such is nowhere, ametatopia for the centuries to come, a land of good hope and nightmares. Hopper painted an angel, a puritan annunciation - a contradiction in terms as regards the protestant creed which rejects the dogma of a virgin having a fatherless child. America has a father but he is lost and found on the road. Hopper painted the absolute loneliness of an american child longing for a dead father (a real maverick) so far that his oeuvre is the quintessence of our century, a century of blood, sweat and tears, to quote somebody famous
APA, Harvard, Vancouver, ISO, and other styles
8

Yates, Stéphanie. "Les motifs de la solidarité : Pourquoi les organisations acceptent-elles de joindre des coalitions d'influence?" Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27143/27143.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Couzinet, Anthony. "Approche PDF jointe fluide-particule pour la modélisation des écoulements turbulents diphasiques anisothermes." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7633/1/couzinet.pdf.

Full text
Abstract:
Le contexte général de cette thèse s'inscrit dans le cadre de la modélisation des écoulements turbulents à phase dispersée anisothermes. Les travaux réalisés portent sur la compréhension et la modélisation statistique des mécanismes de transport de température de particules solides dans un écoulement d'air turbulent. Des simulations numériques directes (DNS) couplées aux calculs de trajectoires, de vitesses et de températures de plusieurs dizaines de milliers de particules par simulations de particules discrètes (DPS) ont été menées pour une configuration académique de turbulence homogène isotrope soumise à un gradient de température moyen. Une base de données de simulations a été réalisée pour différentes types de particules (différentes inerties thermiques et dynamiques). Nous avons proposé un modèle Lagrangien stochastique de la turbulence de température mesurée le long de la trajectoire des particules. Ce modèle est utilisé pour fermer les équations aux moments de la phase dispersée dans le cadre de la modélisation statistique des écoulements diphasiques basée sur la fonction de densité de probabilité (pdf) jointe fluide-particule. En particulier, cette modélisation est appliquée pour notre configuration afin de prédire les flux de chaleur et la variance de température des particules. Les résultats obtenus sont confrontés aux résultats des simulations numériques.
APA, Harvard, Vancouver, ISO, and other styles
10

Couzinet, Anthony Simonin Olivier Bédat Benoît. "Approche PDF jointe fluide-particule pour la modélisation des écoulements turbulents diphasiques anisothermes." Toulouse : INP Toulouse, 2008. http://ethesis.inp-toulouse.fr/archive/00000543.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Sodjo, Jessica. "Modèle bayésien non paramétrique pour la segmentation jointe d'un ensemble d'images avec des classes partagées." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0152/document.

Full text
Abstract:
Ce travail porte sur la segmentation jointe d’un ensemble d’images dans un cadre bayésien.Le modèle proposé combine le processus de Dirichlet hiérarchique (HDP) et le champ de Potts.Ainsi, pour un groupe d’images, chacune est divisée en régions homogènes et les régions similaires entre images sont regroupées en classes. D’une part, grâce au HDP, il n’est pas nécessaire de définir a priori le nombre de régions par image et le nombre de classes, communes ou non.D’autre part, le champ de Potts assure une homogénéité spatiale. Les lois a priori et a posteriori en découlant sont complexes rendant impossible le calcul analytique d’estimateurs. Un algorithme de Gibbs est alors proposé pour générer des échantillons de la loi a posteriori. De plus,un algorithme de Swendsen-Wang généralisé est développé pour une meilleure exploration dela loi a posteriori. Enfin, un algorithme de Monte Carlo séquentiel a été défini pour l’estimation des hyperparamètres du modèle.Ces méthodes ont été évaluées sur des images-test et sur des images naturelles. Le choix de la meilleure partition se fait par minimisation d’un critère indépendant de la numérotation. Les performances de l’algorithme sont évaluées via des métriques connues en statistiques mais peu utilisées en segmentation d’image<br>This work concerns the joint segmentation of a set images in a Bayesian framework. The proposed model combines the hierarchical Dirichlet process (HDP) and the Potts random field. Hence, for a set of images, each is divided into homogeneous regions and similar regions between images are grouped into classes. On the one hand, thanks to the HDP, it is not necessary to define a priori the number of regions per image and the number of classes, common or not.On the other hand, the Potts field ensures a spatial consistency. The arising a priori and a posteriori distributions are complex and makes it impossible to compute analytically estimators. A Gibbs algorithm is then proposed to generate samples of the distribution a posteriori. Moreover,a generalized Swendsen-Wang algorithm is developed for a better exploration of the a posteriori distribution. Finally, a sequential Monte Carlo sampler is defined for the estimation of the hyperparameters of the model.These methods have been evaluated on toy examples and natural images. The choice of the best partition is done by minimization of a numbering free criterion. The performance are assessed by metrics well-known in statistics but unused in image segmentation
APA, Harvard, Vancouver, ISO, and other styles
12

BALLARDIN, MARCO. "La droite raison jointe à la foi: prospettive cartesiane nella riflessione teologica di dom Desgabets." Doctoral thesis, Università Cattolica del Sacro Cuore, 2009. http://hdl.handle.net/10280/601.

Full text
Abstract:
La tesi si propone di illustrare quella peculiare forma di interpretazione del cartesianesimo elaborata dal lorenese dom Robert Desgabets (1610-1678). In costante dialogo con i dibattiti teologici, filosofici, epistemologici e scritturali del secondo Seicento, il lavoro si concentra in maniera particolare sull’analisi di alcuni manoscritti teologici del benedettino, conservati nella Biblioteca municipale di Epinal, in Francia. Il serrato confronto con questi inediti permette di dare voce ad una lettura del pensiero di Cartesio assai lontana da quella veicolata dalla storiografia tradizionale, che enfatizza, viceversa, gli stretti legami tra le premesse cartesiane e le conclusioni di Spinoza. La produzione gabetiana, infatti, preferisce piuttosto ricondurre il cartesianesimo a quella secolare “philosophia christiana”, che ebbe in Agostino, Anselmo, Bernardo e nei migliori esponenti della Scolastica i suoi più illustri rappresentanti. Fulcro di questa interpretazione è, in particolare, l’esaltazione della collaborazione e della reciprocità di ragione e fede, in un continuo slancio apologetico in favore della ragionevolezza della religione cristiana.<br>The doctor degree thesis investigates Desgabets’s peculiar form of Cartesianism, particularly focusing on theological manuscripts conserved in the Municipal Library of Epinal, France. In constant dialogue with theological, philosophical, epistemological and scriptural debates of the second half of the 17th century, the perspective of the Benedictine illustrates an interpretation of Cartesian thought far from those transmitted from the traditional philosophical historiography, which emphasizes, on the contrary, the bond between Descartes’s premises and Spinoza’s conclusions. Desgabets’s works, in fact, prefer to lead back Cartesianism to that secular Christian philosophy, which had in Augustin of Hippo, Anselm of Canterbury, Bernard of Clairvaux, and the best authors of Scholasticism as well, its most illustrious representatives. The main element of this interpretation, in particular, is the emphasis on the fecund relationships between faith and reason, united to a continuous apologetic tension in favour of the reasonableness of the Christian religion.
APA, Harvard, Vancouver, ISO, and other styles
13

BALLARDIN, MARCO. "La droite raison jointe à la foi: prospettive cartesiane nella riflessione teologica di dom Desgabets." Doctoral thesis, Università Cattolica del Sacro Cuore, 2009. http://hdl.handle.net/10280/601.

Full text
Abstract:
La tesi si propone di illustrare quella peculiare forma di interpretazione del cartesianesimo elaborata dal lorenese dom Robert Desgabets (1610-1678). In costante dialogo con i dibattiti teologici, filosofici, epistemologici e scritturali del secondo Seicento, il lavoro si concentra in maniera particolare sull’analisi di alcuni manoscritti teologici del benedettino, conservati nella Biblioteca municipale di Epinal, in Francia. Il serrato confronto con questi inediti permette di dare voce ad una lettura del pensiero di Cartesio assai lontana da quella veicolata dalla storiografia tradizionale, che enfatizza, viceversa, gli stretti legami tra le premesse cartesiane e le conclusioni di Spinoza. La produzione gabetiana, infatti, preferisce piuttosto ricondurre il cartesianesimo a quella secolare “philosophia christiana”, che ebbe in Agostino, Anselmo, Bernardo e nei migliori esponenti della Scolastica i suoi più illustri rappresentanti. Fulcro di questa interpretazione è, in particolare, l’esaltazione della collaborazione e della reciprocità di ragione e fede, in un continuo slancio apologetico in favore della ragionevolezza della religione cristiana.<br>The doctor degree thesis investigates Desgabets’s peculiar form of Cartesianism, particularly focusing on theological manuscripts conserved in the Municipal Library of Epinal, France. In constant dialogue with theological, philosophical, epistemological and scriptural debates of the second half of the 17th century, the perspective of the Benedictine illustrates an interpretation of Cartesian thought far from those transmitted from the traditional philosophical historiography, which emphasizes, on the contrary, the bond between Descartes’s premises and Spinoza’s conclusions. Desgabets’s works, in fact, prefer to lead back Cartesianism to that secular Christian philosophy, which had in Augustin of Hippo, Anselm of Canterbury, Bernard of Clairvaux, and the best authors of Scholasticism as well, its most illustrious representatives. The main element of this interpretation, in particular, is the emphasis on the fecund relationships between faith and reason, united to a continuous apologetic tension in favour of the reasonableness of the Christian religion.
APA, Harvard, Vancouver, ISO, and other styles
14

Montaigu, Mathieu. "Caractérisation de goujons de polymères renforcés de fibres de verre (PRFV) pour les dalles de chaussée jointées." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1626.

Full text
Abstract:
Les joints de chaussées sont mis en oeuvre pour contrôler la fissuration due aux conditions thermiques et environnementales. Par ailleurs, les goujons d?acier sont couramment utilisés au Québec dans la réalisation de dalles de chaussées en béton jointées, appelées communément dalles courtes goujonnées. Ils permettent le transfert des charges dues au trafic entre les dalles au niveau des joints. Il s?avère aujourd?hui que les conditions environnementales rencontrées en Amérique du Nord (et plus particulièrement au Québec) et l?emploi de sels de déglaçage en hiver, favorisent les phénomènes de corrosion et de dégradation au niveau des joints qui sont un élément structural prépondérant vis-à-vis de la durabilité de ces structures de chaussées. Des goujons de polymères renforcés de fibres de verre (PRFV) peuvent être une alternative sans corrosion à ceux d?acier et/ou revêtus d?époxy actuellement mis en oeuvre. Ils permettent une conception de durabilité accrue et à coûts moindres (durée de service allongée, entretiens réduits). Ce projet propose une série d?essais en laboratoire, pour d?une part caractériser les propriétés et le comportement à court et long terme de goujons de PRFV, et d?autre part réaliser des expérimentations structurales sur des spécimens de dalles de chaussées jointées. Un des objectifs est de proposer une méthodologie de design en vue de leur utilisation dans de futurs projets.Les goujons de PRFV qui font l?objet de ces essais sont fabriqués par la compagnie Pultrall Inc. de Thedford Mines (Québec, Canada). Deux types de goujons de PRFV sont étudiés dans le cadre de ce projet de recherche (résine polyester et vinylester) ; couvrant une gamme de sept diamètres allant de 25,4 mm à 44,5 mm.
APA, Harvard, Vancouver, ISO, and other styles
15

KERYER, GILLES. "Etude de correlateurs optiques a correlation jointe mono ou multicanaux : application a la reconnaissance des formes." Paris 11, 1996. http://www.theses.fr/1996PA112050.

Full text
Abstract:
Ce travail porte sur les possibilites offertes, en correlation et multicorrelation, par l'utilisation de modulateurs spatiaux de lumiere rapides a cristal liquide ferroelectrique. La these debute par une etude experimentale sur l'apport de tels modulateurs dans un correlateur a correlation conjointe tout optique (jtc). Des pics de correlation eleves et fins sur un fond peu chahute en sont les principales caracteristiques. Ces proprietes resultent d'un comportement non lineaire du modulateur optiquement adresse dans le plan de fourier qui est montre etre en accord avec la theorie proposee par b. Javidi. Une comparaison avec une architecture de type vander-lugt, utilisant un filtre de phase pure binaire (bpomf), egalement non lineaire au sens du filtre adapte, mettant en uvre un modulateur spatial de meme technologique mais electriquement adresse, tourne a l'avantage du premier en raison de sa commodite de realisation et sa plus grande robustesse. Une diminution de la robustesse du correlateur vis-a-vis des deformations de formes a reconnaitre par rapport a celles de references resulte de l'augmentation du caractere selectif engendre par la non linearite. Base sur une fonction de cout tres simple et un algorithme de recuit simule, un apprentissage de references composites in situ (sur le correlateur) donne des resultats en parfait accord avec les references calculees a partir du modele deduit dans la premiere partie, confirmant au passage la justesse de ce dernier. Le multiplexage spatial, naturel dans le jtc, dont on a montre les limites, peut etre complete par une augmentation du nombre de voies dans le plan de fourier. Deux architectures de jtc multivoies sont proposees, puis realisees et dont les performances sont enfin evaluees. La premiere solution utilise les effets sur la reproduction du spectre d'un remplissage incomplet des pixels du modulateur place dans le plan d'entree. Le second utilise un ensemble de reseaux, dont un dammann, en regime de fourier pour reproduire le spectre de la scene. Une comparaison avec une bpomf a quatre voies, montre toute la simplification qu'apporte l'architecture a spectre conjoint et l'utilisation d'un modulateur optiquement adresse de grande resolution. Dans ce dernier cas, des capacites en nombre de correlations de notre jtc multivoies sont evaluees raisonnablement a 6000 correlations par seconde
APA, Harvard, Vancouver, ISO, and other styles
16

Cheynet, Magali. ""Joindre le chief avecques les membres". Remembrer et compiler l'histoire de Charlemagne dans la deuxième moitié du XVe siècle." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCA147.

Full text
Abstract:
Dans la deuxième moitié du XVe siècle, les Croniques et conquestes de Charlemaine de David Aubert, l’Histoire de Charlemagne de Jean Bagnyon et l’anonyme Cronique associee ont cherché à rassembler et compiler les récits associés à Charlemagne. Composées dans des milieux différents à un moment où tant la réécriture en prose que le personnage de l’empereur étaient en vogue, ces compilations ont recyclé des chansons de geste et des chroniques des siècles précédents pour (re)constituer une histoire cohérente du personnage. Leur résultat est tantôt une biographie princière, tantôt un fragment cyclique qui s’arrête à la mort de l’empereur. La prose donne une forme nouvelle à ces récits inédits par leur organisation et leur extension, mais banals par leur matériau, recyclé de compilation en compilation. Par l’étude du contexte historique, et surtout la comparaison des versions proposées, dans leur récit, leurs articulations et leur présentation, nous souhaitons montrer comment la compilation est le reflet d’une lecture critique et organisée propre aux nouvelles habitudes de la fin du Moyen Âge. Le remaniement oriente sa propre lecture en fonction d’un public familier de la tradition littéraire : les morceaux de bravoure sont réécrits, comme l’épisode de Roncevaux, d’autres sont triés et oubliés en fonction du projet propre à chacune des œuvres. La compilation oscille entre la reconnaissance des textes et la déprise introduite par le nouvel ensemble. Au cœur de notre questionnement se trouve la double dynamique de fixation et de malléabilité de la mémoire, érigée au Moyen Âge comme modalité de l’activité littéraire. Nous proposons en annexe la transcription de la Cronique associee (ms Paris, Arsenal 3324) pour rendre ce texte plus facilement accessible<br>In the second half of the fifteenth century, David Aubert’s Croniques et conquestes de Charlemaine, Jean Bagnyon’s Histoire de Charlemagne and the anonymous Cronique associee tried to collect and compile the stories linked to Charlemagne. Composed in various circles, when both rewriting in prose and Charlemagne himself were popular, these compilations recycled epic songs and chronicles written in the previous centuries to piece together a coherent story of this character. What results is either a princely biography or a cyclic fragment that is interrupted when the emperor dies. The prose form revives these stories whose structure and scope were novel but whose material had become trite after being compiled again and again. By studying the historical context, and especially by comparing the composition, narrative structure and presentation of different versions, I wish to show how the compilation reflects a critical and organized reading which epitomizes the new practices of the late Middle Ages. The rewriting process bears its own guidelines, depending on a reading public who is familiar with literary tradition: the purple patches, such as the Roncesvalles episode, are rewritten, while other passages are sorted away or forgotten, in keeping with the objective of each specific work. Through compilation, texts are either recognized or abandoned, blended within the new unit. At the heart of my investigation is the twofold dynamic of the fixation and malleability of memory, fashioned in the Middle Ages as a modality of literary activity. A transcript of the Cronique associee (ms Arsenal 3324) is appended to the dissertation in order to make this text more readily accessible
APA, Harvard, Vancouver, ISO, and other styles
17

Sanfourche, Martial. "Traitement de séquences d'images pour l'estimation jointe de la structure et du mouvement : Application à l'imagerie aérienne." Cergy-Pontoise, 2005. http://biblioweb.u-cergy.fr/theses/05CERG0219.pdf.

Full text
Abstract:
Nous nous intéressons à la reconstruction 3D de scènes urbaines à partir de séquences d'images aériennes, partiellement calibrées, acquises dans une configuration de prise de vue rasante. La méthode de reconstruction proposée comprend deux étapes. Dans la première, un processus d'auto-calibrage est mis en oeuvre. Il en résulte un affinage des paramètres de prise de vue et une estimation éparse du relief de la scène. La deuxième étape correspond à la densification de la structure 3D précédente. Elle consiste en un processus de mise en correspondance dense combinant un critère de similarité multi-vue prenant en compte les occultations et un terme de régularisation respectant les discontinuités de la surface 3D recherchée. Pour améliorer la résolution de la reconstruction, nous utilisons les images temporellement proches dans un processus préalable de super-résolution générant des images de meilleure résolution. Nous présentons des résultats sur données de synthèse et données réelles<br>We address urban scene 3D reconstruction from partially calibrated side looking aerial image sequences. We proceed in two steps. The first step corresponds to an auto-calibration step. Camera motion parameters and 3D position of some scene points are jointly refined by bundle adjustment. In the second step, a multi frame dense matching method is used to obtain a dense 3D reconstruction in the form of digital surface model. Matching lays on a global pixelwise criterion with explicit account for occlusion effects and a spatial regularisation with a discontinuity preserving L1-norm penalization term. Optimisation is achieved thanks to an efficient graph-based algorithm. In order to improve the resolution of the reconstruction, temporally close images are used to generate best resolution images by a super-resolution process. Then super-resolved images are matched. We present results and evaluation on synthetic and real image sequences
APA, Harvard, Vancouver, ISO, and other styles
18

Sanfourche, Martial Philipp-Foliguet Sylvie. "Traitement de séquences d'images pour l'estimation jointe de la structure et du mouvement Application à l'imagerie aérienne /." Cergy-Pontoise : Université de Cergy-Pontoise, 2008. http://biblioweb.u-cergy.fr/theses/05CERG0219.pdf.

Full text
Abstract:
Reproduction de : Thèse doctorat : Electronique : Cergy-Pontoise : 2005.<br>Thèse soutenue au sein de l'équipe Image Estimation Décision (IED) du département Traitement de l'Information et Modélisation (DTIM) à l'Onera Châtillon en collaboration avec l'Equipe de Traitement d'Images et du Signal (ETIS) de l'université de Cergy-Pontoise/Ensea. Titre provenant de l'écran titre. Bibliogr. p.175-180.
APA, Harvard, Vancouver, ISO, and other styles
19

Bricola, Julien. "Optimisation structurale de dalles de chaussées en béton jointées avec des goujons en matériaux composites en polymères renforcés de fibres de verre (PRFV)." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6158.

Full text
Abstract:
Résumé: Au Québec, la majorité du réseau routier, construit dans les années 1960-1970, montre des signes manifestes de vieillissement. Aussi, l’augmentation du trafic routier et les conditions climatiques rigoureuses, rendent difficile l’entretien et l’exploitation des chaussées routières dans ce territoire nord-américain. Effectivement, ces conditions environnementales engendrent des dégâts importants pour les chaussées routières, principalement en hiver. L’emploi de sels de déglaçage pour lutter contre le gel accentue les facteurs de dégradation des routes surtout pour les chaussées rigides jointées en béton. Les phénomènes de détérioration se manifestent notamment par la corrosion des aciers au niveau des joints qui sont des éléments structuraux garantissant la durabilité des routes. Les chaussées rigides jointées ou « dalles courtes goujonnées » sont encore principalement dimensionnées avec des goujons en acier placés au droit des joints. Un des rôles de ces structures est de contrôler la fissuration due aux conditions thermiques et environnementales. Pour pallier ces désordres, le Ministère des Transports du Québec (MTQ) se tourne vers de nouvelles techniques et des matériaux plus performants afin d'assurer la pérennité des ouvrages. Avec l'évolution rapide des méthodes et des connaissances en matière de conception des chaussées, ainsi qu'avec l'apparition de nouvelles technologies et de nouveaux produits, le ministère met l'accent sur la recherche et le développement. Cela a permis de mettre au point des techniques novatrices et de concevoir diverses technologies au contexte québécois. Justement, un des axes de recherche et de développement se porte sur les matériaux composites qui ont récemment donné de bons résultats dans le domaine du génie civil. C’est pourquoi des goujons en polymères renforcés de fibres de verre (PRFV) apparaissent comme une solution à la corrosion des armatures de liaison en acier. Elles accroissent ainsi une durabilité à moindres coûts : la durée de service est allongée, l’entretien et l’impact sur les personnes et le trafic sont réduits. Ce projet propose une optimisation de dimensionnement structural sur des spécimens de dalles de chaussées jointées, en vue de leur utilisation dans de nouveaux projets.Les goujons de PRFV qui font l’objet de ces essais sont fabriqués par la compagnie Pultrall Inc. de Thetford Mines (Québec, Canada). La résine utilisée pour les PRFV est uniquement une résine vinylester et les goujons ont des diamètres allant de 28,6 mm à 34,9 mm. Enfin, un seul type de sol est utilisé dans le cadre de ce projet ; il s’agit d’un type de sol dont la particularité recherchée est son module de réaction.||Abstract: In Quebec, the majority of the road network was built in the 60's - 70's and show obvious signs of ageing. Moreover, the increase of road traffic and the rigorous weather conditions, render the maintenance and the exploitation of roads in this Northern American part quite difficult. Indeed, these environmental conditions cause severe damages for roads, especially in winter. The degradation factor of the jointed rigid pavement is intensified by the highway salt. So, the phenomena of deteriorations appears mainly by the corrosion of the steel at the joints (structural elements) guaranteeing the durability of roads. The jointed rigid pavements or "short jointed pavements" are still mainly sized with steel dowels placed at the lining of joints. One of the main functions of these structures is to control the formation of cracking due to the thermal and environmental conditions. In order to reduce these , disorders, the Ministry of Transport of Quebec (MTQ) turned towards new techniques and innovative materials to ensure the longevity of roads. With the rapid evolution of specific methods and knowledge in roads design, joined with technologies and new products, the MTQ emphasizes the research and development. That way, advanced techniques and diverse technologies in the Quebecois context are settled. As a matter of fact, one of the axes of these development researches concerns the composite materials which have recently been given good results in the civil engineering area. That is why Glass Fibre-Reinforced Polymer (GFRP) dowels bars appear as a solution to the steel corrosion. In fact, they provide better durability with lower costs: the increase of service life as well as the decrease of maintenance persons and traffics impac. Thus, this project proposes an optimization of structural design of GFRP dowels for transverse jointed highway pavement slabs, also keeping in mind their use in new projects. The GFRP dowels which are given in this essay are made by the Pultrall Inc. Company from Thetford Mines (Quebec, Canada). The resin used for the polymer materials is only vinylester resin and the dowels have diameters going from 28.6 mm to 34.9 mm. Finally, only a stiff base is used for the road, its particularity is the modulus of subgrade reaction.
APA, Harvard, Vancouver, ISO, and other styles
20

Milioris, Dimitrios. "Trend Detection and Information Propagation in Dynamic Social Networks." Palaiseau, Ecole polytechnique, 2015. https://tel.archives-ouvertes.fr/tel-01152275/document.

Full text
Abstract:
Au cours de la dernière décennie, la dissémination de l'information au travers des réseaux sociaux a augmenté de façon spectaculaire. L'analyse des interactions entre les utilisateurs de ces réseaux donne la possibilité de la prédiction en temps réel de l'évolution de l'information. L'étude des réseaux sociaux présentent de nombreux défis scientifiques, comme par exemple : (a) peut on trouver un compromis entre la qualité, l'autorité, la pertinence et l'actualité du contenu ? (b) Peut on utiliser les interactions entre les groupes d'utilisateurs pour révéler les utilisateurs influents, pour prédire les pics de trafic ? (c) la publicité, les spams, et autres trafics non pertinent peuvent ils être détectés et écartés ? Dans cette thèse, nous proposons une nouvelle méthode pour effectuer la détections dans les textes courts des sujets et des tendances, et leur classification. Au lieu de découper les textes en mots ou en n-grames comme le font la plupart des autres méthodes qui utilisent des sac-de- mots, nous introduisons la Complexité Jointe, qui est définie comme le cardinal de l'ensemble des facteurs communs distincts entre les deux textes, un facteur étant une chaîne de caractères consécutifs. L'ensemble des facteurs d'un texte est décomposé en temps linéaire en une structure efficace de mémoire appelée arbre suffixe et on obtient par le superposition des deux arbres, en temps moyen sous-linéaire, la complexité jointe des deux textes. La méthode a été largement testée à grande échelle pour des sources de texte de Markov d'ordre fini et permet en effet une bonne discrimination des sources (langue, etc). La simulation de la production des textes par processus de Markov est une approximation satisfaisante de la génération de textes en langage naturel. La méthode de la complexité jointe est indépendante de la langue agnostique puisque nous pouvons détecter les similitudes entre deux textes sans avoir recours à l'analyse sémantique. Elle ne nécessite pas une analyse sémantique sur la base d'une grammaire spécifique, par conséquent, il ne est pas nécessaire de construire un dictionnaire spécifique. La méthode proposée peut aussi être utilisé pour détecter un changement de thème dans une conversation, ainsi qu'un changement de style d'un écrivain dans un texte. Dans la deuxième partie de la thèse, nous profitons de la faible densité de l'espace des données, ce qui nous a motivé de façon naturelle à appliquer la théorie de Compressive Sensing extrapolée du problème de la localisation des objets physiques. Le Compressive Sensing stipule que les signaux qui sont rares ou compressibles peuvent être récupérés à partir d'un nombre très réduit de projections aléatoires incohérentes dans une base appropriée, contrairement aux méthodes traditionnelles dominées par la théorie classique de Nyquist-Shannon de l'échantillonnage. Grâce à la faible densité spatiale des sujets, nous appliquons la théorie pour récupérer un vecteur d'indicateur, à partir de l'ensemble des tweets. Le procédé fonctionne en conjonction avec un filtre de Kalman pour mettre à jour des états d'un système dynamique comme étape de raffinement. Dans cette thèse, nous exploitons des ensembles de données recueillies en utilisant le flux de l'API de Twitter, sur des tweets collectés en plusieurs langues et nous obtenons des résultats très prometteurs lorsque l'on compare ces méthodes au meilleur de l'existant<br>During the last decade, the information within Dynamic Social Networks has increased dramatically. The ability to study the interaction and communication between users in these networks can provide real time valuable prediction of the evolution of the information. The study of social networks has several research challenges, e. G. (a) real time search has to balance between quality, authority, relevance and timeliness of the content, (b) studying the information of the correlation between groups of users can reveal the influential ones, and predict media consumption, network and traffic resources, (c) detect spam and advertisements, since with the growth of social networks we also have a continuously growing amount of irrelevant information over the network. By extracting the relevant information from online social networks in real time, we can address these challenges. In this thesis a novel method to perform topic detection, classification and trend sensing in short texts is introduced. Instead of relying on words as most other existing methods which use bag-of-words or n-gram techniques, we introduce Joint Complexity, which is defined as the cardinality of a set of all distinct common factors, subsequences of characters, of two given strings. Each short sequence of text is decomposed in linear time into a memory efficient structure called Suffix Tree and by overlapping two trees, in linear or sublinear average time, we obtain the cardinality of factors that are common in both trees. The method has been extensively tested for Markov sources of any order for a finite alphabet and gave good approximation for text generation and language discrimination. The proposed method is language-agnostic since we can detect similarities between two texts in any loosely character-based language. It does not use semantics or based on a specific grammar, therefore there is no need to build any specific dictionary or stemming technique. The proposed method can be used to capture a change of topic within a conversation, as well as the style of a specific writer in a text. In the second part of the thesis, we take advantage of the nature of the data, which motivated us in a natural fashion to use of the theory of Compressive Sensing driven from the problem of target localization. Compressive Sensing states that signals which are sparse or compressible in a suitable transform basis can be recovered from a highly reduced number of incoherent random projections, in contrast to the traditional methods dominated by the well- established Nyquist-Shannon sampling theory. Based on the spatial nature of the data, we apply the theory of Compressive Sensing to perform topic classification by recovering an indicator vector, while reducing significantly the amount of information from tweets. The method works in conjunction with a Kalman filter to update the states of a dynamical system as a refinement step. In this thesis we exploit datasets collected by using the Twitter streaming API, gathering tweets in various languages and we obtain very promising results when comparing to state-of-the-art methods
APA, Harvard, Vancouver, ISO, and other styles
21

Robert, Nicolas. "Vers une production durable de multiples services écosystémiques : Analyse par la simulation de la production jointe de bois et de non-bois en forêt." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-01058410.

Full text
Abstract:
Les écosystèmes produisent de nombreux biens et services contribuant au bien-être des sociétés. Cependant, l'utilisation intensive des ressources naturelles a compromis le fonctionnement de certains de ces écosystèmes ainsi que les services qu'ils rendent. La dégradation de certains services tels que le climat et la biodiversité a entraîné une prise de conscience de leur rôle dans fonctionnement des sociétés ainsi qu'une croissance de la valeur qui leur est accordée.Pour contrecarrer la dégradation des services rendus par les écosystèmes, des mécanismes de rémunération de leur production ont été mis en place tels que le marché européen du carbone ou les obligations de compensation lorsque des ouvrages ou infrastructures dégradent la biodiversité. Toutefois, lorsque les mécanismes mis en oeuvre ne concernent qu'un seul service, ils peuvent avoir des effets, positifs ou négatifs, sur la fourniture d'autres services produits conjointement. Afin d'éviter les effets indésirables, tels que la destruction d'un service pour en produire un autre, ou des inefficacités comme le double-paiement d'une même activité, il est nécessaire de mieux connaître les relations entre les productions des écosystèmes. Par cette thèse, nous contribuons à l'identification de ces relations entre produits et services en développant une approche par la simulation de la production jointe de bois et de non-bois en forêt.
APA, Harvard, Vancouver, ISO, and other styles
22

Zaatour, Riadh. "Propriétés empiriques et modélisation d’actifs en haute fréquence." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2014ECAP0027/document.

Full text
Abstract:
Cette thèse explore théoriquement et empiriquement certains aspects de la formation et de l’évolution des prix des actifs financiers observés en haute fréquence. Nous commençons par l’étude de la dynamique jointe de l’option et de son sous-jacent. Les données haute fréquence rendant observable le processus de volatilité réalisée du sous-jacent, nous cherchons à savoir si cette information est utilisée pour fixer les prix des options. Nous trouvons que le marché ne l’exploite pas. Les modèles de volatilité stochastique sont donc à considérer comme des modèles à forme réduite. Cette étude permet néanmoins de tester la pertinence d’une mesure de couverture empirique que nous appelons delta effectif. C’est la pente de la régression des rendements des prix de l’option sur ceux du sous-jacent. Elle fournit un indicateur de couverture assez satisfaisant et indépendant de toute modélisation. Pour la dynamique des prix, nous nous tournons dans les chapitres suivants vers des modèles plus explicites de la microstructure du marché. L’une des caractéristiques de l’activité de marché est son regroupement, ou clustering. Les processus de Hawkes, processus ponctuels présentant cette caractéristique, fournissent donc un cadre mathématique adéquat pour l’étude de cette activité. La représentation Markovienne de ces processus, ainsi que leur caractère affine quand le noyau est exponentiel, permettent de recourir aux puissants outils analytiques que sont le générateur infinitésimal et la formule de Dynkin pour calculer différentes quantités qui leur sont reliées, telles que les moments ou autocovariances du nombre d’évènements sur un intervalle donné. Nous commençons par un cadre monodimensionnel, assez simple pour éclairer la démarche, mais suffisamment riche pour permettre des applications telles que le groupement des instants d’arrivée d’ordres de marché, la prévision de l’activité de marché à venir sachant l’activité passée, ou la caractérisation de formes inhabituelles, mais néanmoins observées, de signature plot où la volatilité mesurée décroît quand la fréquence d’échantillonnage augmente. Nos calculs nous permettent aussi de rendre la calibration des processus de Hawkes instantanée en recourant à la méthode des moments. La généralisation au cas multidimensionnel nous permet ensuite de capturer, avec le clustering, le phénomène de retour à la moyenne qui caractérise aussi l’activité de marché observée en haute fréquence. Des formules générales pour le signature plot sont alors obtenues et permettent de relier la forme de celui-ci à l’importance relative du clustering ou du retour à la moyenne. Nos calculs permettent aussi d’obtenir la forme explicite de la volatilité associée à la limite diffusive, connectant la dynamique de niveau microscopique à la volatilité observée macroscopiquement, par exemple à l’échelle journalière. En outre, la modélisation des activités d’achat et de vente par des processus de Hawkes permet de calculer l’impact d’un méta ordre sur le prix de l’actif. On retrouve et on explique alors la forme concave de cet impact ainsi que sa relaxation temporelle. Les résultats analytiques obtenus dans le cas multidimensionnel fournissent ensuite le cadre adéquat à l’étude de la corrélation. On présente alors des résultats généraux sur l’effet Epps, ainsi que sur la formation de la corrélation et du lead lag<br>This thesis explores theoretical and empirical aspects of price formation and evolution at high frequency. We begin with the study of the joint dynamics of an option and its underlying. The high frequency data making observable the realized volatility process of the underlying, we want to know if this information is used to price options. We find that the market does not process this information to fix option prices. The stochastic volatility models are then to be considered as reduced form models. Nevertheless, this study tests the relevance of an empirical hedging parameter that we call effective delta. This is the slope of the regression of option price increments on those of the underlying. It proves to be a satisfactory model-independent hedging parameter. For the price dynamics, we turn our attention in the following chapters to more explicit models of market microstructure. One of the characteristics of the market activity is its clustering. Hawkes processes are point processes with this characteristic, therefore providing an adequate mathematical framework for the study of this activity. Moreover, the Markov property associated to these processes when the kernel is exponential allows to use powerful analytical tools such as the infinitesimal generator and the Dynkin formula to calculate various quantities related to them, such as moments or autocovariances of the number of events on a given interval. We begin with a monovariate framework, simple enough to illustrate the method, but rich enough to enable applications such as the clustering of arrival times of market orders, prediction of future market activity knowing past activity, or characterization of unusual shapes, but nevertheless observed, of signature plot, where the measured volatility decreases when the sampling frequency increases. Our calculations also allow us to make instantaneous calibration of the process by relying on the method of moments. The generalization to the multidimensional case then allow us to capture, besides the clustering, the phenomenon of mean reversion, which also characterizes the market activity observed in high frequency. General formulas for the signature plot are then obtained and used to connect its shape to the relative importance of clustering or mean reversion. Our calculations also allow to obtain the explicit form of the volatility associated with the diffusive limit, therefore connecting the dynamics at microscopic level to the macroscopic volatility, for example on a daily scale. Additionally, modelling buy and sell activity by Hawkes processes allows to calculate the market impact of a meta order on the asset price. We retrieve and explain the usual concave form of this impact as well as its relaxation with time. The analytical results obtained in the multivariate case provide the adequate framework for the study of the correlation. We then present generic results on the Epps effect as well as on the formation of the correlation and the lead lag
APA, Harvard, Vancouver, ISO, and other styles
23

Barnoud, Anne. "Imagerie géophysique de l'île volcanique de Basse-Terre en Guadeloupe, par inversion de données sismologiques, gravimétriques et magnétiques." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU017/document.

Full text
Abstract:
Les volcans sont des édifices complexes et hétérogènes. Imager leur structure demande des méthodes adaptées au contexte ainsi qu'à la nature, à la qualité et à la quantité des données disponibles.Ce travail porte sur l'imagerie géophysique de l'île volcanique de Basse-Terre en Guadeloupe, par inversion de données gravimétriques et magnétiques, par tomographie d'ondes de surface extraites de corrélations de bruit sismique et par tomographie de temps d'arrivée des séismes de l'arc des Petites Antilles. Nous obtenons ainsi les premiers modèles tridimensionnels de l'île de Basse-Terre en termes de densité, aimantation et vitesses sismiques. La gravimétrie et le magnétisme conduisent à des modèles de densité et d'aimantation avec une très bonne résolution latérale dans les premiers kilomètres, mais avec une résolution verticale très faible. Les ondes de surface issues des corrélations de bruit présentent une bonne résolution verticale dans les premiers kilomètres, mais résolvent mal les variations latérales de vitesses. La tomographie de temps d'arrivée permet d'imager les vitesses sismiques jusqu'à des profondeurs élevées, avec une bonne résolution latérale, mais une mauvaise résolution verticale. Nous proposons une méthode pour inverser conjointement les données sismologiques et gravimétriques pour produire un modèle de vitesses et de densité qui bénéficie des résolutions complémentaires des différents jeux de données.Nos résultats soulignent une tendance NNO-SSE, avec des vitesses et des densités qui diminuent vers le sud en moyenne, conformément à la migration du volcanisme du nord vers le sud au cours de l'histoire géologique de l'île. Nous observons de faibles densités, vitesses sismiques et aimantations au niveau du dôme du volcan de la Soufrière ainsi que dans la région de Bouillante sur la côte ouest, reflétant la forte altération hydrothermale de ces zones. Deux anciens centres éruptifs majeurs, caractérisés par de fortes densités et vitesses sismiques, sont identifiés : l'un au niveau de la vallée de Beaugendre, l'autre au nord au niveau de la vallée de Petite Plaine<br>Volcanoes are complex and heterogeneous edifices. Imaging their structures requires methods that are adapted to the context and to the nature, quality and quantity of available data. This work focuses on the geophysical imaging of the volcanic island of Basse-Terre in Guadeloupe, by performing inversions of gravimetric and magnetic data, ambient noise based surface wave tomography, and travel time tomography from earthquakes of the Lesser Antilles arc. We therefore obtain the first three-dimensional models of Basse-Terre island in terms of density, magnetisation and seismic velocities. Gravimetry and magnetism lead to density and magnetisation models with a very good lateral resoltuion within the first kilometres but with very low vertical resolution. Surface wave tomography from noise correlations shows a good vertical resolution within the first kilometres, but poorly resolves the lateral velocity variations. Travel time tomography allows imaging seismic velocities up to great depths with a good lateral resolution but a poor vertical resolution. We propose a method to invert jointly the seismological and gravimetric data in order to produce a velocity and density model that takes advantage of the complementary resolutions associated with the different datasets.Our results outline a NNW-SSE trend, with velocities and densities roughtly decreasing southwards, in accordance with the southward migration of volcanism across the geological history of the island. We observe low densities, seismic velocities and magnetisations in the area of the dome of the Soufrière volcano as well as in the Bouillante area along the western coast, reflecting the high hydrothermal alteration of these areas. Two major old eruptive centres are identified in the areas of Beaugendre Valley and Petite Plaine Valley
APA, Harvard, Vancouver, ISO, and other styles
24

Boucher, Guillaume. "Biphoton Frequency-Correlations Engineering and Measurement with a Semiconductor Microcavity." Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC071.

Full text
Abstract:
Ce travail porte sur l'ingénierie et la caractérisation des propriétés temps-fréquence de paires de photons générées par une source semiconductrice. Ce dispositif utilise la conversion paramétrique à température ambiante pour émettre des paires de photons se propageant dans des directions opposées et aux longueurs d'onde télécom. Une microcavité intégrée à la source permet d'augmenter l'efficacité de l'interaction nonlinéaire par résonance du champ de pompe transverse. Nous présentons la théorie de la conversion paramétrique dans cette source et nous montrons comment les propriétés spatiales et spectrales du faisceau de pompe influencent les propriétés des photons, en particulier leur degré d'intrication en fréquence, permettant un ingénierie souple. La variété d'états pouvant être produits est illustrée à l'aide de l'amplitude spectrale jointe. Deux techniques permettant la caractérisation de l'intensité spectrale jointe ont été implémentées. La première est un spectrographe à photons uniques ; la seconde, basée sur la stimulation du processus de conversion paramétrique, a permis une amélioration dramatique de la résolution et du temps d'intégration. Les deux approches ont permis la démonstration de l'ingénierie des corrélations en fréquences en variant la taille et la courbure du faisceau de pompe. Des exemples d'états plus exotiques et une méthode pour caractériser leur fonction de Wigner chronocyclique sont étudiés théoriquement. La relation entre les propriétés temps-fréquence et le degré d'intrication en polarisation de la paire est aussi explorée<br>This work is focused on the engineering and characterization of the frequency-time properties of photon pairs generated with a semiconductor source. This device emits photons propagating in opposite directions at telecom wavelengths using spontaneous parametric down-conversion at room temperature. A microcavity integrated in the source allows the resonance of the transverse pump beam, enhancing the efficiency of the nonlinear interaction. We give a theoretical description of the down-conversion process in the source and we show how the spatial and spectral properties of the pump beam impact the properties of the photons, in particular their degree of entanglement in frequency allowing a versatile engineering. The variety of states that can be produced is illustrated using the Joint Spectral Amplitude. Two techniques allowing the characterization of the Joint Spectral Intensity have been implemented. The first one is a single photon spectrograph. The second one, based on the stimulation of the down-conversion process showed a dramatic improvement in terms of resolution and integration time. Both techniques allowed the demonstration of the frequency correlation engineering by varying the waist and curvature radius of the pump beam. Examples of more exotic states and a technique to characterize their chronocyclic Wigner function are theoretically investigated. The relationship between time-frequency properties and degree of entanglement in polarization of the biphoton is also explored
APA, Harvard, Vancouver, ISO, and other styles
25

Marín, Urías Luis Felipe. "Reasoning about space for human-robot interaction." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/1195/.

Full text
Abstract:
L'interaction Homme-Robot est un domaine de recherche qui se développe de manière exponentielle durant ces dernières années, ceci nous procure de nouveaux défis au raisonnement géométrique du robot et au partage d'espace. Le robot pour accomplir une tâche, doit non seulement raisonner sur ses propres capacités, mais également prendre en considération la perception humaine, c'est à dire "Le robot doit se placer du point de vue de l'humain". Chez l'homme, la capacité de prise de perspective visuelle commence à se manifester à partir du 24ème mois. Cette capacité est utilisée pour déterminer si une autre personne peut voir un objet ou pas. La mise en place de ce genre de capacités sociales améliorera les capacités cognitives du robot et aidera le robot pour une meilleure interaction avec les hommes. Dans ce travail, nous présentons un mécanisme de raisonnement spatial de point de vue géométrique qui utilise des concepts psychologiques de la "prise de perspective" et "de la rotation mentale" dans deux cadres généraux: - La planification de mouvement pour l'interaction homme-robot: le robot utilise "la prise de perspective égocentrique" pour évaluer plusieurs configurations où le robot peut effectuer différentes tâches d'interaction. - Une interaction face à face entre l'homme et le robot : le robot emploie la prise de point de vue de l'humain comme un outil géométrique pour comprendre l'attention et l'intention humaine afin d'effectuer des tâches coopératives<br>Human Robot Interaction is a research area that is growing exponentially in last years. This fact brings new challenges to the robot's geometric reasoning and space sharing abilities. The robot should not only reason on its own capacities but also consider the actual situation by looking from human's eyes, thus "putting itself into human's perspective". In humans, the "visual perspective taking" ability begins to appear by 24 months of age and is used to determine if another person can see an object or not. The implementation of this kind of social abilities will improve the robot's cognitive capabilities and will help the robot to perform a better interaction with human beings. In this work, we present a geometric spatial reasoning mechanism that employs psychological concepts of "perspective taking" and "mental rotation" in two general frameworks: - Motion planning for human-robot interaction: where the robot uses "egocentric perspective taking" to evaluate several configurations where the robot is able to perform different tasks of interaction. - A face-to-face human-robot interaction: where the robot uses perspective taking of the human as a geometric tool to understand the human attention and intention in order to perform cooperative tasks
APA, Harvard, Vancouver, ISO, and other styles
26

Ferrari, Fabio Valerio. "Cooperative POMDPs for human-Robot joint activities." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC257/document.

Full text
Abstract:
Objectif de cette thèse est le développent de méthodes de planification pour la résolution de tâches jointes homme-robot dans des espaces publiques. Dans les espaces publiques, les utilisateurs qui coopèrent avec le robot peuvent facilement se distraire et abandonner la tâche jointe. Cette thèse se focalise donc sur les défis posés par l’incertitude et imprévisibilité d’une coopération avec un humain. La thèse décrit l’état de l’art sur la coopération homme-robot dans la robotique de service, et sur les modèles de planification. Elle présente ensuite une nouvelle approche théorique, basée sur les processus décisionnels de Markov partiellement observables, qui permet de garantir la coopération de l’humain tout au long de la tâche, de façon flexible, robuste et rapide. La thèse introduit une structure hiérarchique qui sépare l’aspect coopératif d’une activité jointe de la tâche en soi. L’approche a été appliquée dans un scénario réel, un robot guide dans un centre commercial. La thèse présente les expériences effectuées pour mesurer la qualité de l’approche proposée, ainsi que les expériences avec le robot réel<br>This thesis presents a novel method for ensuring cooperation between humans and robots in public spaces, under the constraint of human behavior uncertainty. The thesis introduces a hierarchical and flexible framework based on POMDPs. The framework partitions the overall joint activity into independent planning modules, each dealing with a specific aspect of the joint activity: either ensuring the human-robot cooperation, or proceeding with the task to achieve. The cooperation part can be solved independently from the task and executed as a finite state machine in order to contain online planning effort. In order to do so, we introduce a belief shift function and describe how to use it to transform a POMDP policy into an executable finite state machine.The developed framework has been implemented in a real application scenario as part of the COACHES project. The thesis describes the Escort mission used as testbed application and the details of implementation on the real robots. This scenario has as well been used to carry several experiments and to evaluate our contributions
APA, Harvard, Vancouver, ISO, and other styles
27

Jouan, Julia. "Valorisation économique et environnementale des complémentarités culture-élevage à travers la production locale de légumineuses : approche par modélisation de l’Ouest de la France." Thesis, Rennes, Agrocampus Ouest, 2020. http://www.theses.fr/2020NSARE054.

Full text
Abstract:
Cette thèse de doctorat porte sur les complémentarités culture-élevage permises par les légumineuses, dans la région de l'Ouest de la France. Une évaluation économique et environnementale de ces complémentarités est réalisée depuis l’échelle de l’exploitation agricole jusqu’à celle de la région.Le principal apport de cette thèse est l’élaboration d’un modèle bioéconomique SYNERGY qui modélise les échanges locaux de cultures (dont les légumineuses) et d’effluents entre des exploitations de grandes cultures et des exploitations d'élevage. Ce modèle prend en compte l’effet précédent des légumineuses et comprend des rations alternatives avec ces cultures riches en protéines. Les principaux résultats de simulation montrent que les aides couplées aux légumineuses accroissent leurproduction mais n’engendrent pas une meilleure valorisation des complémentarités techniques. Un moyen d’accroître l'utilisation de légumineuses en alimentation animale est de labelliser les produits animaux sans OGM. Cependant, les échanges locaux simulés restant faibles, les légumineuses sont en grande partie importées de l’extérieur de la région. Ainsi, les résultats économiques et environnementaux ne sont pas améliorés à l’échelle régionale et l'autonomie en protéines diminue. Enfin, à l’échelle des filières, nous montrons que les échanges de légumineuses engendrent des coûts de transaction élevés, peu réduits par les contrats existants. Le développement de marchés valorisant les ressources locales pourrait encourager la culture de légumineuses<br>This Ph.D. thesis studies crop-livestock complementarities enabled by legumes in the region of western France. Economic and environmental assessment of these complementarities is performed from the farm scale to the regional scale. The main contribution of this research is the development of the bio-economic model SYNERGY, which represents local exchanges of crops (including legumes) and manure between crop-oriented farms and livestock-oriented farms. This model represents the pre-crop effect of legumes and includes alternative rations with these high-protein crops. The main simulation results show that coupled subsidies to legumesincrease their production but do not lead to better valuation of technical complementarities. One way to increase the use of legumes in animal feed is to label GMO-free animal products. However, since the simulated local exchanges of legumes remain low, these crops are largely imported from outside the region. Thus, the economic and environmental results do not improve at the regional scale, and protein self-sufficiency decreases.Finally, at the scale of the agro-food chain, exchanges of legumes lead to high transaction costs, which current contracts reduce only slightly. Developing markets that value local resources could foster legume production.increase their production but do not lead to better valuation of technical complementarities. One way to increase the use of legumes in animal feed is to label GMO-free animal products. However, since the simulated local exchanges of legumes remain low, these crops are largely imported from
APA, Harvard, Vancouver, ISO, and other styles
28

Zaouche, Mounia. "Modélisation spatiale multi-sources de la teneur en carbone organique du sol d'une petite région agricole francilienne." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS080.

Full text
Abstract:
Cette thèse porte sur l’estimation spatiale de la teneur superficielle en carbone organiquedu sol ou teneur en SOC (pour ’Soil Organic Carbon content’), à l’échelle d’une petite région agricolefrancilienne. La variabilité de la teneur en SOC a été identifiée comme étant l’une des principales sourcesd’incertitude de la prédiction des stocks de SOC, dont l’accroissement favorise la fertilité des sols etl’atténuation des émissions de gaz à effet de serre. Nous utilisons des données provenant de sourceshétérogènes décrites selon différentes résolutions spatiales (prélèvements de sol, carte pédologique, imagessatellitaires multispectrales, etc) dans le but de produire d’une part une information spatiale exhaustive,et d’autre part des estimations précises de la teneur en SOC sur la région d’étude ainsi qu’une uneévaluation des incertitudes associées. Plusieurs modèles originaux, dont certains tiennent compte duchangement du support, sont construits et plusieurs approches et méthodes de prédiction sont considérées.Parmi elles, on retrouve des méthodes bayésiennes récentes et performantes permettant non seulementd’inférer des modèles sophistiqués intégrant conjointement des données de résolution spatiale différentemais aussi de traiter des données en grande dimension. Afin d’optimiser la qualité de la prédictiondes modélisations multi-sources, nous proposons également une approche efficace et rapide permettantd’accroître l’influence d’un type de données importantes mais sous-représentées dans l’ensemble de toutesles données initialement intégrées<br>In this thesis, we are interested in the spatial estimation of the topsoil organic carbon(SOC) content over a small agricultural area located West of Paris. The variability of the SOC contenthas been identified as one of the main sources of prediction uncertainty of SOC stocks, whose increasepromotes soil fertility and mitigates greenhouse gas emissions. We use data issued from heterogeneoussources defined at different spatial resolutions (soil samples, soil map, multispectral satellite images, etc)with the aim of providing on the one hand an exhaustive spatial information, and on the other accurateestimates of the SOC content in the study region and an assessment of the related uncertainties. Severaloriginal models, some of which incorporate the change of support, are built and several approaches andprediction methods are considered. These include recent and powerful Bayesian methods enabling notonly the inference of sophisticated models integrating jointly data of different spatial resolutions butalso the exploitation of large data sets. In order to optimize the quality of prediction of the multi-sourcedata modellings, we also propose an efficient and fast approach : it allows to increase the influence of animportant but under-represented type of data, in the set of all initially integrated data
APA, Harvard, Vancouver, ISO, and other styles
29

Arnaud, Amandine. "Evaluation de l’état de santé et des conditions de vie des personnes sans domicile à partir d’enquêtes épidémiologiques : difficultés méthodologiques et pratiques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS384/document.

Full text
Abstract:
En France, depuis les années 80, les personnes sans domicile ont fait l’objet de nombreux dénombrements, d’enquêtes tentant de les caractériser et de comprendre le phénomène d’exclusion afin d’orienter les politiques publiques d’assistance. Cependant rares sont les enquêtes réalisées avec un souci de représentativité et plus rares encore sont celles qui tentent d’évaluer l’état de santé des personnes sans domicile de manière objective, alors que la privation de logement est connue pour impacter durablement la santé. Ceci peut s’expliquer par le fait que les personnes sans domicile constituent une population au « contour flou », très hétérogène, évoluant constamment (en nombre et profils), dispersée et très mobile sur le territoire francilien mais également entre la rue et les différentes formes d’hébergement possibles. Ces particularités constituent autant de contraintes et difficultés à chaque étape de la réalisation d’une enquête dont les résultats se veulent extrapolables à une population donnée.Ce travail de thèse présente l’état des connaissances et le dispositif d’aide aux personnes sans domicile en 2007 et son évolution jusqu’en 2016. Il compile des connaissances sur l’état de santé et les conditions de vie des personnes sans domicile en Île-de-France, grâce à des enquêtes épidémiologiques, menées par l’Observatoire du Samusocial de Paris, s’intéressant à la santé mentale, les ectoparasites ou encore l’anémie. Il détaille les principaux obstacles, méthodologiques et pratiques, rencontrés lors de ces enquêtes et les solutions retenues pour les surmonter. Enfin, il conclut à la possibilité de faire des estimations de prévalences raisonnables et fiables en santé<br>Since the 80’s, many surveys have been carried to count and describe homeless people, and to understand the exclusion’s phenomenon to advice French public assistance policies. However, only a few surveys have been done ensuring representativeness and even fewer attempted in assessing the health status of homeless people in an objective way, whereas housing deprivation (homelessness) is known to have a durable impact on health. This can be explained by the fact that this population is difficult to define, as it is very heterogeneous and constantly evolving (number and profile wise). The homeless are also scattered and highly mobile within the Ile-de-France territory, and also between streets and different forms of accommodation. These particularities are all constraints to epidemiological surveys among homeless people, and the generalization of their results.This PhD thesis presents the state of knowledge on homelessness and what has been done in order to give support to this population between 2007 and 2016. It compiles knowledge on the health status and living conditions of homeless people in Ile-de-France based on epidemiological surveys carried out by the Observatoire du Samusocial de Paris focusing on mental health, ectoparasites or anemia. It details the main methodological and practical obstacles encountered during these investigations, the solutions chosen to overcome them and concludes by affirming that reasonable and reliable estimates of prevalence can be produced in the field of health
APA, Harvard, Vancouver, ISO, and other styles
30

Doussoulin, bustos Jean Pierre. "Grands cycles de la biosphère, systèmes de valeurs et opportunités d’économie circulaire à échelle territoriale : le cas de traitement des déchets ménagers au centre Ivry-Paris XIII." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV088/document.

Full text
Abstract:
Cette thèse se propose de tenter d’évaluer les opportunités de l’économie circulaire à l’échelle territoriale et d’y engager le rôle que jouent les cycles biogéochimiques, les systèmes économiques et les frontières entre l’économie et l’environnement au cours du projet de transformation du centre de traitement de déchets ménagers à Ivry-Paris XVIII. Pour y parvenir, on peut adopter trois dimensions différentes. L’une, inspirée par la définition de biosphère proposée par Vernadsky, analyse le parcours des molécules dans la biosphère. Les deuxième, plus proche de la perspective privilégiée par Sraffa et Leontief, conduit à reconstituer une historie de la pensée économique sur la base de l’interface entre l’économie et l’environnement. La troisième, inspirée de la méthode de Jason Moore, consiste à confronter les positionnements des acteurs autour de la régulation des frontières entre les processus d’appropriation de l’économie et la préservation de l’environnement.Répondrons alors à la question suivante : Quelle circularité dans les grands cycles de la biosphère?. On peut constater que certain parcours de molécules peuvent être circulaires et/ou linéales en fonction de la temporalité de cycle. Cette notion du temps de cycle nous a aidé à cadrer les discussions sur la mesure des cycles, mais sur tout fourni un cadre pour la compréhension de la structure de la relation autour du sujet des opportunités d'économie circulaire à Paris.Nous nous proposons d’étudier une définition contextuelle de l’économie circulaire : un cadre d’analyse durable ?. La question de la nécessité d’une approche holistique pour étudier les cycles de la nature, est aussi ancienne que l’économie. Ce qui est en jeu derrière le capitalisme, c’est sa capacité de porter la vie, on se reporte à l’ouvrage L’économie et le vivant de René Passet. Il convient donc de se placer dans une perspective holistique des concepts utilisés pour l’économie écologique et l’écologie industrielle.Revenons au prix et à la structure de valeur, quel système de valeur dans les bouclages de flux entre la nature et l’économie?. La thèse propose un cadre conceptuelle d’analyse pour explorer les étapes permettant d’élaborer sa stratégie d’économie circulaire en utilisant les trois dimensions d’analyse. L’application du modèle d’économie circulaire a pour intérêt de faciliter l’identification et le choix d’un ensemble cohérent d’indicateurs interdépendants (système d’indicateurs) permettant la caractérisation des différentes dimensions de bouclage de flux de matière et d’énergie. Il est souvent possible de mesurer le bouclage des certains processus en utilisant les indicateurs proposés par Liu Yifang et pour la fondation Ellen MacArthur.Répondrons alors à la question suivante : Quel projet de transformation du centre Ivry-Paris XIII pour demain, alors que la gouvernance sur les frontières entre l’économie et l’environnement évolue ?. Pour répondre à cette question, nous avons exploré trois cas d'étude : 1. Le cas d’une mise en décharge du déchet sans mécanismes de bouclage. 2. Le cas d’un compostage urbain qui considère un bouclage de flux de la matière. 3. Le cas d’une incinération de déchets qui examine un bouclage de flux d'énergie. Le passage de l’incinération vers une variation plus vertueuse de compostage urbain a été fait en utilisant un compostage urbain de proximité (bénévole). Nous devons constater que le prix de vente du compost pose un problème d’équilibre financier dans le système de la valeur du compostage et donc, éventuellement des subventions seront nécessaires à sa bonne marche. Ensuite la tonne de compost écoulée peut être subventionnée, à hauteur du prix de la mise en décharge. Finalement, le projet de reconstruction de l’usine de traitement d’Ivry-Paris XIII montre aussi une certaine complexité d'interaction entre acteurs publics, privés, et la société civile, qui pose la question des capacités de concertation de l’État<br>1. Introduction : This thesis attempts to evaluate the opportunities of the circular economy at the territorial scale and to engage the role of biogeochemical cycles, economic systems and the institutional boundaries between the environment and the economy, during the transformation project of the waste treatment center at Ivry-Paris XVIII. To achieve this thesis, three different dimensions can be taken into consideration. The first one, inspired by the definition of biosphere proposed by Vernadsky, analyzes the pathways of molecules such as nitrogen in the biosphere. The second one, closer to the perspective supported by Sraffa and Leontief, leads to reconstruct a history of economics based on the interface between economy and environment. The third one, inspired by Moore's dialectical method, is to confront the positioning of the actors around the regulation of the boundaries between the processes of appropriation of the economy and the preservation of the environment.2. Methodology : The fourth part of the thesis aims at proposing a conceptual framework of successive or simultaneous steps to develop its strategy of circular economy using the three analysis dimensions, In this context, The thesis proposes a Sraffa’s typology of ten structures of the system to formalize economic-physical relations.The application of the circular economy model has the advantage of facilitating the identification and selection of a coherent set of interdependent indicators (system of indicators) enabling the characterization of the different dimensions of the close of material and energy flows. It is often possible to measure the closure of the loops of certain processes using indicators proposed by Liu Yifang and the Ellen MacArthur Foundation.3. Case of study - What Ivry-Paris XIII plant project would suit for tomorrow? : To answer this question, we explored three cases of study. 1. The case of landfilling of waste without looping mechanisms, 2. The case of urban composting which considers close the loops of the matter flow. 3. The case of incineration of waste which examines looping of energy flows.On the basis of the results of the indicators, our three case studies correspond to different flows configurations in the same territory.The move from incineration to urban composting has been explained on the basis of non-profit urban composting. This volunteer characteristic of the house composting can be illustrated by a Sraffian profit rate equal to zero. We must note that the selling price of compost poses a financial problem in the value system and hence subsidies will be necessary for its smooth running. Then, the ton of compost can be subsidized, at the price of a landfill.We will also be able to propose an alternative subsidy to household composting therefore; an industrial composting that can be carried out by a recycling company such as Bio Yvelines Services. In addition, the transition to the incineration can be managed by the Metropolitan Household Waste Agency (Syctom). The project of rebuilding the Ivry-Paris XIII treatment plant also shows a certain complexity of interaction between public and private actors and civil society, which raises the question of the state's capacity for a public discussion
APA, Harvard, Vancouver, ISO, and other styles
31

Marin-Urias, Luis Felipe. "Planification et contrôle de mouvements en interaction avec l'homme. Reasoning about space for human-robot interaction." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00468918.

Full text
Abstract:
L'interaction Homme-Robot est un domaine de recherche qui se développe de manière expo-nentielle durant ces dernières années, ceci nous procure de nouveaux défis au raisonnement géométrique du robot et au partage d'espace. Le robot pour accomplir une tâche, doit non seulement raisonner sur ses propres capacités, mais également prendre en considération la perception humaine, c'est à dire "Le robot doit se placer du point de vue de l'humain". Chez l'homme, la capacité de prise de perspective visuelle commence à se manifester à partir du 24ème mois. Cette capacité est utilisée pour déterminer si une autre personne peut voir un objet ou pas. La mise en place de ce genre de capacités sociales améliorera les capacités cognitives du robot et aidera le robot pour une meilleure interaction avec les hommes. Dans ce travail, nous présentons un mécanisme de raisonnement spatial de point de vue géométrique qui utilise des concepts psychologiques de la "prise de perspective" et "de la rotation mentale" dans deux cadres généraux: - La planification de mouvement pour l'interaction homme-robot: le robot utilise "la prise de perspective égocentrique" pour évaluer plusieurs configurations où le robot peut effectuer differentes tâches d'interaction. - Une interaction face à face entre l'homme et le robot : le robot emploie la prise de point de vue de l'humain comme un outil géométrique pour comprendre l'attention et l'intention humaine afin d'effectuer des tâches coopératives.
APA, Harvard, Vancouver, ISO, and other styles
32

Zaatour, Riadh. "Propriétés empiriques et modélisation d'actifs en haute fréquence." Phd thesis, Ecole Centrale Paris, 2014. http://tel.archives-ouvertes.fr/tel-01020277.

Full text
Abstract:
Cette thèse explore théoriquement et empiriquement certains aspects de la formation et de l'évolution des prix des actifs financiers observés en haute fréquence. Nous commençons par l'étude de la dynamique jointe de l'option et de son sous-jacent. Les données haute fréquence rendant observable le processus de volatilité réalisée du sous-jacent, nous cherchons à savoir si cette information est utilisée pour fixer les prix des options. Nous trouvons que le marché ne l'exploite pas. Les modèles de volatilité stochastique sont donc à considérer comme des modèles à forme réduite. Cette étude permet néanmoins de tester la pertinence d'une mesure de couverture empirique que nous appelons delta effectif. C'est la pente de la régression des rendements des prix de l'option sur ceux du sous-jacent. Elle fournit un indicateur de couverture assez satisfaisant et indépendant de toute modélisation. Pour la dynamique des prix, nous nous tournons dans les chapitres suivants vers des modèles plus explicites de la microstructure du marché. L'une des caractéristiques de l'activité de marché est son regroupement, ou clustering. Les processus de Hawkes, processus ponctuels présentant cette caractéristique, fournissent donc un cadre mathématique adéquat pour l'étude de cette activité. La représentation Markovienne de ces processus, ainsi que leur caractère affine quand le noyau est exponentiel, permettent de recourir aux puissants outils analytiques que sont le générateur infinitésimal et la formule de Dynkin pour calculer différentes quantités qui leur sont reliées, telles que les moments ou autocovariances du nombre d'évènements sur un intervalle donné. Nous commençons par un cadre monodimensionnel, assez simple pour éclairer la démarche, mais suffisamment riche pour permettre des applications telles que le groupement des instants d'arrivée d'ordres de marché, la prévision de l'activité de marché à venir sachant l'activité passée, ou la caractérisation de formes inhabituelles, mais néanmoins observées, de signature plot où la volatilité mesurée décroît quand la fréquence d'échantillonnage augmente. Nos calculs nous permettent aussi de rendre la calibration des processus de Hawkes instantanée en recourant à la méthode des moments. La généralisation au cas multidimensionnel nous permet ensuite de capturer, avec le clustering, le phénomène de retour à la moyenne qui caractérise aussi l'activité de marché observée en haute fréquence. Des formules générales pour le signature plot sont alors obtenues et permettent de relier la forme de celui-ci à l'importance relative du clustering ou du retour à la moyenne. Nos calculs permettent aussi d'obtenir la forme explicite de la volatilité associée à la limite diffusive, connectant la dynamique de niveau microscopique à la volatilité observée macroscopiquement, par exemple à l'échelle journalière. En outre, la modélisation des activités d'achat et de vente par des processus de Hawkes permet de calculer l'impact d'un méta ordre sur le prix de l'actif. On retrouve et on explique alors la forme concave de cet impact ainsi que sa relaxation temporelle. Les résultats analytiques obtenus dans le cas multidimensionnel fournissent ensuite le cadre adéquat à l'étude de la corrélation. On présente alors des résultats généraux sur l'effet Epps, ainsi que sur la formation de la corrélation et du lead lag.
APA, Harvard, Vancouver, ISO, and other styles
33

Fournier, Élise. "Modélisation et simulation des écoulements réactifs turbulents : validation et évaluation de la résolution de l'équation de transport de la fonction de densité de probalilité jointe de la composition (PDF) dans un réacteur de précipitation de type Taylor-Couette." Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPL068N.

Full text
Abstract:
La simulation numérique de réacteurs industriels promet de devenir un outil précieux aidant à prospecter de nouvelles technologies de mélange, à dimensionner et à optimiser les conditions de fonctionnement du réacteur. Ces calculs deviennent difficiles dans le cas de réactions rapides (polymérisations anioniques, précipitations) où existe un fort couplage entre la réaction chimique et le mélange. Ce travail de thèse a pour but d'évaluer et de valider la simulation d'écoulements réactifs pour des applications de génie chimique avec une méthode que nous avons choisie pour sa capacité à tenir compte des interactions entre processus de mélange turbulent et réactions chimiques rapides. La méthode sélectionnée est une méthode basée sur la résolution numérique des équations de Navier-Stokes en milieu turbulent et l'équation de transport de la fonction de densité de probabilité jointe de la composition (PDF) à l'aide d'un algorithme de Monte-Carlo. L'évaluation s'est faite sur un réacteur de précipitation semi-batch de type Taylor-Couette. Chaque étape du calcul a été validée expérimentalement. Au terme de ce travail, il a été montré que l'emploi de ce type d'approche pour le calcul d'un réacteur industriel est hasardeux et délicat. Il demande une validation de l'écoulement, le calage de 2 constantes de modélisation et la connaissance précise des cinétiques de réaction. Enfin, l'utilisation d'un algorithme de type Monte-Carlo engendre un bruit numérique qui selon le type d'écoulement peut nuire à la fiabilité des résultats. Le cas traité n'a pas donné des résultats totalement conformes à l'expérience. La méthode numérique utilisée n'est pas pour autant remise en question car le cas traité était par nature délicat<br>Numerical simulation of industrial reactor promises to be a precious tool that could help in prospecting new mixing technologies, in scaling-up and optimising reactors. Fast reactions, such as polymerisation and precipitations, are difficult to handle when mixing processes and reactions strongly interacts. This work aims at evaluating and validating reactive flow simulation for chemical engineering reactors using a special method which is able to take into account mixing reaction interaction for fast reactions. This method is based on solving Navier-Stokes equations in turbulent flow and then on solving the transport equation of the jointtcomposition Probability Density Function (PDF) with a Monte-Carlo solver. The validation is carried-out on a semi-batch Taylor-Couette precipitator. Each calculation step is validated. Finally, comparison between experiment and simulation proved that the method we chose has to be handle with special cares. Calculation has to be validated and 2 model constants have to be fitted and chemical kinetics known quite precisely. Besides, Monte-Carlo algorithm produces numerical noise which can highly affect reliability of the results. The calculation of the specific studied reactor didn'nt give completely good agreement with experiments. Nevertheless, the discrepancy is assigned not to the numerical approach but to the fact that the studied reactive flow is rather tricky to be calculated
APA, Harvard, Vancouver, ISO, and other styles
34

Ali, Muhammad. "Contribution to decisional human-robot interaction: towards collaborative robot companions." Phd thesis, INSA de Toulouse, 2012. http://tel.archives-ouvertes.fr/tel-00719684.

Full text
Abstract:
L'interaction homme-robot arrive dans une phase intéressante ou la relation entre un homme et un robot est envisage comme 'un partenariat plutôt que comme une simple relation maitre-esclave. Pour que cela devienne une réalité, le robot a besoin de comprendre le comportement humain. Il ne lui suffit pas de réagir de manière appropriée, il lui faut également être socialement proactif. Pour que ce comportement puis être mise en pratique le roboticien doit s'inspirer de la littérature déjà riche en sciences sociocognitives chez l'homme. Dans ce travail, nous allons identifier les éléments clés d'une telle interaction dans le contexte d'une tâche commune, avec un accent particulier sur la façon dont l'homme doit collaborer pour réaliser avec succès une action commune. Nous allons montrer l'application de ces éléments au cas un système robotique afin d'enrichir les interactions sociales homme-robot pour la prise de décision. A cet égard, une contribution a la gestion du but de haut niveau de robot et le comportement proactif est montre. La description d'un modèle décisionnel d'collaboration pour une tâche collaboratif avec l'humain est donnée. Ainsi, l'étude de l'interaction homme robot montre l'intéret de bien choisir le moment d'une action de communication lors des activités conjointes avec l'humain.
APA, Harvard, Vancouver, ISO, and other styles
35

Camblor, Benjamin. "Exploitation du mouvement du robot pour améliorer la conscience de situation dans la collaboration humain-robot." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0069.

Full text
Abstract:
Un enjeu de l'usine du futur est de préserver la santé et le confort des opérateurs tout en améliorant leur productivité. La robotique collaborative est une solution qui permet, par une assistance appropriée, de focaliser l'opérateur sur les tâches dont il a l'expertise, tout en délégant les charges et contraintes à un robot collaboratif. On parle ici de combiner les qualités des robots industriels (fortes capacités physiques, répétabilité, force, endurance, vitesse, etc) et celles des humains (variabilité, réactions face à l'incertitude).Ce travail de recherche s'inscrit dans le cadre du projet ANR Pacbot (ANR-20-CE10-0005). L'objectif général du projet est de concevoir un système cobotique semi-autonome pour l'assistance, capable de choisir, de synchroniser et de coordonner des tâches réparties entre l'humain et le robot en s'adaptant à différents types de variabilité des gestes professionnels, tout en anticipant des situations dangereuses. Ce système a notamment pour vocation d'ordonnancer les tâches en minimisant le risque d'erreurs humaines. L'étude du facteur humain dans les milieux industriels a montré que la majorité des accidents étaient due à des erreurs humaines ou de prises de décisions. Ces dernières seraient, dans la majorité des cas, causées par une mauvaise conscience de situation des opérateurs.Cette thèse propose d’utiliser le mouvement du robot comme un moyen de communication qui soutient la conscience de la situation d’un humain dans la collaboration humain-robot. Un des points importants de notre contribution est que ces mouvements, que nous appelons mouvements de signalisation, peuvent être générés tout en permettant au robot de réaliser des actions grâce à la redondance de ses articulations. Le choix du mouvement comme moyen de communication est inspiré d'une analyse d'accidents de robotique industrielle. Cette analyse a mis en évidence plusieurs schémas semblables d'accidents en lien avec une mauvaise conscience de la situation. A l'aide de l'identification des risques d'erreurs humaines observés, le choix d'utiliser le robot comme un canal de communication à part entière semble être une solution prometteuse de prévention d'accidents et de sécurité.Nous avons observé un effet bénéfique des mouvements de signalisation sur la conscience de la situation dans deux études expérimentales. Dans la première étude, nous avons montré qu'ils permettent à un robot collaboratif de communiquer à propos de son état ou de ses actions avec ses partenaires humains et ainsi de le ré-introduire dans la boucle d'action du robot. Dans la seconde étude, nous avons proposé leur utilisation pour attirer l'attention d'un humain et l'extraire de situations accidentogènes. Aussi, nous avons montré que le non mouvement pouvait aussi être considéré comme un moyen de communication efficace. Enfin, nous avons proposé des recommandations pour la conception et le choix des mouvements à générer en fonction des différents types de contextes<br>One of the challenges of Industry 4.0 is to preserve the health and comfort of operators while improving their productivity. Collaborative robotics is a solution which, through appropriate assistance, enables the operator to focus on tasks for which he has expertise, while delegating loads and constraints to a collaborative robot. This involves combining the strengths of industrial robots (high physical capacity, repeatability, strength, endurance, speed, etc.) with those of humans (variability, reactions to uncertainty).This research work is part of the ANR Pacbot project (ANR-20-CE10-0005). The overall aim of the project is to design a semi-autonomous cobotic system for assistance, capable of selecting, synchronizing and coordinating tasks distributed between human and robot, adapting to different types of variability in professional gestures, while anticipating dangerous situations. In particular, this system is designed to schedule tasks while minimizing the risk of human error. The study of the human factor in industrial environments has shown that the majority of accidents are due to human error or decision-making. In most cases, the latter are caused by operators poor situation awareness.This thesis proposes to use robot motion as a means of communication that supports human situation awareness in human-robot collaboration. One of the important points of our contribution is that these movements, referred to as signaling motions, can be generated while enabling the robot to perform actions thanks to the redundancy of its joints. The choice of motion as a means of communication was inspired by an analysis of industrial robotics accidents. This analysis highlighted a number of similar accident patterns linked to poor situational awareness. By identifying the risks of human error observed, the choice of using the robot as a communication channel in its own right appears to be a promising accident prevention and safety solution.A beneficial effect of signaling motions on situation awareness has been observed in two experimental studies. In the first study, we showed that they enable a collaborative robot to communicate about its state or actions with its human partners, and thus reintroduce them into the robot's action loop. In the second study, we proposed their use to attract a human's attention and extract him/her from accident-prone situations. We also argued that non-motion could also be considered an effective means of communication. Finally, recommendations were proposed for the design and choice of motion to be generated in different types of context
APA, Harvard, Vancouver, ISO, and other styles
36

Bouchakri, Rima. "Conception physique statique et dynamique des entrepôts de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2015. http://www.theses.fr/2015ESMA0012/document.

Full text
Abstract:
Les entrepôts de données permettent le stockage et la consolidation, en une seule localité, d'une quantité gigantesque d'information pour être interrogée par des requêtes décisionnelles complexes dites requêtes de jointures en étoiles. Afin d'optimiser ses requêtes, plusieurs travaux emploient des techniques d'optimisations comme les index de jointure binaires et la fragmentation horizontale durant la phase de conception physique d'un entrepôt de données. Cependant, ces travaux proposent des algorithmes statiques qui sélectionnent ces techniques de manière isolée et s'intéressent à l'optimisation d'un seul objectif à savoir les performances des requêtes. Notre principale contribution dans cette thèse est de proposer une nouvelle vision de sélection des techniques d'optimisation. Notre première contribution est une sélection incrémentale qui permet de mettre à jour de manière continuelle le schéma d'optimisation implémenté sur l'ED, ce qui assure l'optimisation continuelle des requêtes décisionnelles. Notre seconde contribution est une sélection incrémentale jointe qui combine deux techniques d'optimisation pour couvrir l'optimisation d'un maximum de requêtes et respecter au mieux les contraintes d'optimisation liées à chacune de ces techniques. A l'issu de ces propositions, nous avons constaté que la sélection incrémentale engendre un coût de maintenance de l'ED. Ainsi, notre troisième proposition est une formulation et r!:solution du problème multi-objectif de sélection des techniques d'optimisation où il faut optimiser deux objectifs: la performance des requêtes et le coût de maintenance de l'ED<br>Data Warehouses store into a single location a huge amount of data. They are interrogated by complex decisional queries called star join queries. To optimize such queries, several works propose algorithms for selecting optimization techniques such as Binary Join Indexes and Horizontal Partitioning during the DW physical design. However, these works propose static algorithms, select optimization techniques in and isolated way and focus on optimizing a single objective which is the query performance. Our main contribution in this thesis is to propose a new vision of optimization techniques selection. Our first contribution is an incremental selection that updates continuously the optimization scheme implemented on the DW, to ensure the continual optimization of queries. To deal with queries complexity increase, our second contribution is a join incremental selection of two optimization techniques which covers the optimization of a maximum number or queries and respects the optimization constraints. Finally, we note that the incremental selection generates a maintenance cost to update the optimization schemes. Thus, our third prop05ilion is to formulate and resolve a multi-objective selection problem or optimization techniques where we have two objectives to optimize : queries performance and maintenance cost of the DW
APA, Harvard, Vancouver, ISO, and other styles
37

Langlois, Barbara. "Incitations économiques pour la régulation de la fourniturede bouquets de services écosystémiques dans les agroécosystèmes." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLA010/document.

Full text
Abstract:
Les agroécosystèmes font face à un déclin des services écosystémiques (SE) de régulation, non-marchands. Nous l’interprétons via deux concepts économiques : les biens publics qui appellent une régulation, et la production jointe qui souligne les conséquences des interactions entre SE dans leur régulation.Cette thèse étudie comment accroître la fourniture de SE non-marchands par des incitations économiques, en prenant en compte la multiplicité des SE et les interactions entre eux.Nous étudions d’abord la régulation des biens publics joints à l’aide de microéconomie théorique. Ensuite, nous menons une analyse appliquée avec des données agroécologiques simulées et des méthodes numériques pour définir les solutions coût-efficientes et les incitations pour leur mise en œuvre. Nous comparons plus particulièrement les incitations basées sur les actions et sur les résultats.Nous montrons théoriquement que les interactions entre SE rendent leur régulation plus complexe, notamment avec des incitations basées sur les résultats, et quand le coût varie selon les bouquets de SE. Dans l’analyse appliquée, nous montrons que prendre en compte le coût de la fourniture des SE est crucial pour maximiser leur fourniture avec un budget limité. Nous montrons que les incitations basées sur les résultats sélectionnent les solutions coût-efficientes mais induisent un budget plus élevé que les incitations basées sur les actions, à cause des interactions entre SE. Enfin, nous montrons que l’analyse à l’échelle du paysage et l’hétérogénéité modifient les solutions qui maximisent les SE, mais pas les propriétés des deux types d’incitations.Nos résultats soulignent que les politiques agro-environnementales doivent cibler les services écosystémiques de manière intégrée, si possible à l’échelle de la ferme ou du paysage et considérer le coût de leur fourniture. Les incitations basées sur les résultats ne sont pas la solution à tous les problèmes des politiques agroenvironnementales<br>Agroecosystems show a decline in regulating, non-marketed ecosystem services (ES). We interpret this decline through two economic concepts: public goods, which call for regulation, and joint production, which underlines the role of interactions among ecosystem services in their regulation.This thesis studies how to increase the provision of non-marketed ES through the implementation of economic incentives, while accounting for their multiplicity and the complex interactions among them.We first study the regulation of joint public goods with microeconomic theory. We then carry an applied analysis with simulated agroecological data and numerical methods to define cost-efficient solutions and simulate the implementation these solutions with economic incentives. We especially compare result-based and action-based incentives.We show theoretically that interactions among ES make their regulation more complex, especially with result-based incentives and when the production cost varies among bundles of ES. In the applied analysis, we show that accounting for the cost is crucial to maximise ES with a limited budget. We show that result-based incentives select cost-efficient bundles of ES but lead to higher policy budgets than action-based ones, due to interactions among ES. Eventually, we show that considering the landscape scale and heterogeneity plays on the solutions maximising ES, but not on the comparison between result-based and action-based incentives.Our results underline that agri-environmental policies need to target ES in a integrative way, at the farm or landscape scale, and consider the cost of providing non-marketed ES. Result-based incentives don’t solve all issues of agri-environmental policies
APA, Harvard, Vancouver, ISO, and other styles
38

Gorfti, Ilyass. "Le mariage et le ministère public, partie principale : une étude de l'évolution du droit marocain à la lumière du droit français." Thesis, Toulon, 2013. http://www.theses.fr/2013TOUL0069.

Full text
Abstract:
Le droit de la famille s’est contractualisé et laisse aujourd’hui de larges espaces pouvant être régis par les seules volontés individuelles. Néanmoins, le mariage étant un acte très important, la loi prévoit que l’État se devait d’agir toujours en cette matière. La dimension institutionnelle du mariage traduit le contrôle exercé sur le mariage et sur la famille, par le ministère public.Depuis 2004 le Ministère public marocain occupe en droit de la famille la qualité de partie principale. Il peut déclencher toute action afin d’appliquer les dispositions du Code de la famille. L’observateur extérieur ne pouvait que louer pareille réforme, toutefois tout en ayant cette audace manifeste les dispositions concernant le Ministère public en matière familiale restent contradictoires. L’article 3 du Code de la famille et l’article 9 du Code de procédure civile, deux textes promulgués le même jour, sont antinomiques.Force est de constater que le mariage et le ministère public, partie principale suscite de multiples questions. De façon plus générale, quel est l’état actuel de ces deux institutions et comment évoluent - elles? C’est précisément à cette interrogation que notre travail a pour vocation de répondre. Pour mener à bien notre étude, il était utile de s’intéresser aux solutions consacrées par le droit français, lorsque ce dernier a été confronté à des questions identiques à celles que connaît le droit marocain actuellement<br>The family law has been contracted, and is giving more importance to individual wills. Since marriage is a very important act, the state always has to intervene in this subject. The institutional dimension of marriage reflects the controlover marriage and family matters from the public prosecutor. Since 2004, the public prosecutor represents one of the most important parties in Moroccan family law. He can take anyaction to reinforce the provisions of the Family law. The external observer could only be pleased by such a reform. However the provisions of the family law remain contradictory. Article 3 of the Family Code, and the Article 9 of the Civil Code Procedure, promulgated two texts on the same day that are contradictory. It is clear that marriage and public prosecutor raise many questions. Generally, what is the current status of these two institutions and how do they progress? this question is precisely what our work aims to answer. To carry out our study, it was important to focus on the solutions founded by French law, when it faced issues similar to those that Moroccan lawis currently dealing with
APA, Harvard, Vancouver, ISO, and other styles
39

Douguet, Jean-Marc. "Systèmes agraires et Soutenabilité, un enjeu pour la préservation d'une eau de qualité en Bretagne, un problème d'évaluation." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2001. http://tel.archives-ouvertes.fr/tel-00497251.

Full text
Abstract:
La Bretagne, région agricole française est confrontée a un problème de soutenabilité. Du fait d'une croissance forte de l'agriculture à la fin du XXième siècle, de fortes pressions se sont exercée sur le milieu naturel, en particulier sur l'eau. La dégradation de la qualité de l'environnement a engendré de fortes répercussions tant aux niveaux écologique, économique que social. La préservation de la qualité de l'eau est devenue un enjeu majeur pour le développement économique, social et culturel de la Bretagne. La qualité de l'eau y est considérée comme un capital naturel critique au sens où de son maintien dépend le processus de soutenabilité. Notre analyse repose sur une évaluation des modes de production agricole compatibles avec une optique forte de la soutenabilité. Conceptualisée à partir d'une approche en termes de production jointe élargie au domaine écologique et appliquée au cas le la Bretagne à travers le modèle M3ED-AGRI, notre démarche vise en une analyse structurelle des systèmes de production agricole. Le modèle M3ED-AGRI constitue le support à une analyse coût-efficacité permettant de caractériser et de classer diverses alternatives d'évolution de l'agriculture. Insérer dans les contextes local, régional, national et international, les scénarios d'évolution permettent la mise en évidence des implications et les justifications quant au choix des alternatives. Traduite au niveau local, la démarche repose sur l'utilisation d'indicateurs insérés dans un outil informatique interactif afin de favoriser l'insertion des acteurs sociaux dans le processus d'évaluation. De la sorte, il est possible de délimiter les marges de manoeuvre et les motivations de chacun ainsi que de favoriser l'apprentissage social.
APA, Harvard, Vancouver, ISO, and other styles
40

Ali, Muhammad. "Contributions to decisional human-robot interaction : towards collaborative robot companions." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0003/document.

Full text
Abstract:
L'interaction homme-robot arrive dans une phase intéressante ou la relation entre un homme et un robot est envisage comme 'un partenariat plutôt que comme une simple relation maitre-esclave. Pour que cela devienne une réalité, le robot a besoin de comprendre le comportement humain. Il ne lui suffit pas de réagir de manière appropriée, il lui faut également être socialement proactif. Pour que ce comportement puis être mise en pratique le roboticien doit s'inspirer de la littérature déjà riche en sciences sociocognitives chez l'homme. Dans ce travail, nous allons identifier les éléments clés d'une telle interaction dans le contexte d'une tâche commune, avec un accent particulier sur la façon dont l'homme doit collaborer pour réaliser avec succès une action commune. Nous allons montrer l'application de ces éléments au cas un système robotique afin d'enrichir les interactions sociales homme-robot pour la prise de décision. A cet égard, une contribution a la gestion du but de haut niveau de robot et le comportement proactif est montre. La description d'un modèle décisionnel d'collaboration pour une tâche collaboratif avec l'humain est donnée. Ainsi, l'étude de l'interaction homme robot montre l'intéret de bien choisir le moment d'une action de communication lors des activités conjointes avec l'humain<br>Human Robot Interaction is entering into the interesting phase where the relationship with a robot is envisioned more as one of companionship with the human partner than a mere master-slave relationship. For this to become a reality, the robot needs to understand human behavior and not only react appropriately but also be socially proactive. A Companion Robot will also need to collaborate with the human in his daily life and will require a reasoning mechanism to manage thecollaboration and also handle the uncertainty in the human intention to engage and collaborate. In this work, we will identify key elements of such interaction in the context of a collaborative activity, with special focus on how humans successfully collaborate to achieve a joint action. We will show application of these elements in a robotic system to enrich its social human robot interaction aspect of decision making. In this respect, we provide a contribution to managing robot high-level goals and proactive behavior and a description of a coactivity decision model for collaborative human robot task. Also, a HRI user study demonstrates the importance of timing a verbal communication in a proactive human robot joint action
APA, Harvard, Vancouver, ISO, and other styles
41

Tiss, Amal. "Joint Reconstruction of Longitudinal Positron Emission Tomography Studies for Tau Protein Imaging." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS387.pdf.

Full text
Abstract:
L’accumulation des filaments appariés en hélices de la protéine tau (PHF tau) entraine un déclin cognitif rencontré dans la démence causée par la maladie d’Alzheimer (MA). Le radiotraceur 18F AV-1451, utilisé dans la tomographie par émission de positons (TEP), permet l’observation de la protéine tau in vivo. Pour déterminer le taux de dépôt des PHF tau dans le cerveau, l'approche classique consiste à effectuer deux scans séparés de 2 à 3 ans et à reconstruire les images TEP séparément. L’image différence obtenue souffre d’une grande variation dans l’intensité du signal. Un essai clinique nécessiterait alors un échantillon plus large pour déceler une différence significative entre un groupe recevant un traitement potentiel et un groupe contrôle. Notre nouvelle approche vise à reconstruire l’image différence directement des données TEP pour réduire la variance en introduisant une dépendance temporelle linéaire et en considérant la différence entre les doses injectées et le recalage entre les deux images. Pour valider la méthode, nous simulons différents niveaux de dépôt accru des PHF tau en créant une image artificielle à partir de données réelles d’un patient. Nous appliquons ensuite la méthode aux données de 123 sujets : 109 sains, 10 atteints de trouble cognitif léger et 4 souffrants de MA. La reconstruction jointe montre un meilleur contraste dans l'image différence créée par les simulations numériques et une variance considérablement réduite dans le changement du ratio de la valeur de fixation normalisée chez les sujets. La variance réduite de notre méthode entraine un échantillon plus petit pour un potentiel essai clinique contre la MA<br>The accumulation of the paired helical filament tau protein leads to the cognitive decline seen in Alzheimer’s disease (AD). The Positron Emission Tomography tracer, [18F]-AV-1451, permits the observation of PHF tau in vivo. To determine the rate of tau deposition in the brain, the conventional approach involves scanning the subject two times (2-3 years apart) and reconstructing the images separately. Region-specific rates of accumulation are derived from the difference image which suffers from an increased intensity variation making this approach inadequate for clinical trial looking at the effect of a candidate drug on tau because the increased variation leads to a higher sample size required. We propose a joint longitudinal image reconstruction where the tau deposition difference image is reconstructed directly from measurements leading to a lower intensity variation. This approach introduces a linear temporal dependency and accounts for spatial alignment, and the different injected doses. We validate the reconstruction method by simulating higher tau accumulation in real data at different intensity levels. We additionally reconstruct the data from 123 subjects: 109 healthy subjects, 10 suffering from mild cognitive impairment, and 4 diagnosed with AD. The joint reconstruction shows better contrast in the difference image obtained by the numerical simulations and a drastically reduced variance in the change of the Standard Uptake Value Ratio among subjects. The decreased variance of our method leads to a smaller sample size for a potential clinical trial evaluating the effect of a candidate drug against AD
APA, Harvard, Vancouver, ISO, and other styles
42

Nguyen, Cong-Danh. "Workload- and Data-based Automated Design for a Hybrid Row-Column Storage Model and Bloom Filter-Based Query Processing for Large-Scale DICOM Data Management." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC019/document.

Full text
Abstract:
Dans le secteur des soins de santé, les données d'images médicales toujours croissantes, le développement de technologies d'imagerie, la conservation à long terme des données médicales et l'augmentation de la résolution des images entraînent une croissance considérable du volume de données. En outre, la variété des dispositifs d'acquisition et la différence de préférences des médecins ou d'autres professionnels de la santé ont conduit à une grande variété de données. Bien que la norme DICOM (Digital Imaging et Communication in Medicine) soit aujourd'hui largement adoptée pour stocker et transférer les données médicales, les données DICOM ont toujours les caractéristiques 3V du Big Data: volume élevé, grande variété et grande vélocité. En outre, il existe une variété de charges de travail, notamment le traitement transactionnel en ligne (en anglais Online Transaction Processing, abrégé en OLTP), le traitement analytique en ligne (anglais Online Analytical Processing, abrégé en OLAP) et les charges de travail mixtes. Les systèmes existants ont des limites concernant ces caractéristiques des données et des charges de travail. Dans cette thèse, nous proposons de nouvelles méthodes efficaces pour stocker et interroger des données DICOM. Nous proposons un modèle de stockage hybride des magasins de lignes et de colonnes, appelé HYTORMO, ainsi que des stratégies de stockage de données et de traitement des requêtes. Tout d'abord, HYTORMO est conçu et mis en œuvre pour être déployé sur un environnement à grande échelle afin de permettre la gestion de grandes données médicales. Deuxièmement, la stratégie de stockage de données combine l'utilisation du partitionnement vertical et un stockage hybride pour créer des configurations de stockage de données qui peuvent réduire la demande d'espace de stockage et augmenter les performances de la charge de travail. Pour réaliser une telle configuration de stockage de données, l'une des deux approches de conception de stockage de données peut être appliquée: (1) conception basée sur des experts et (2) conception automatisée. Dans la première approche, les experts créent manuellement des configurations de stockage de données en regroupant les attributs des données DICOM et en sélectionnant une disposition de stockage de données appropriée pour chaque groupe de colonnes. Dans la dernière approche, nous proposons un cadre de conception automatisé hybride, appelé HADF. HADF dépend des mesures de similarité (entre attributs) qui prennent en compte les impacts des informations spécifiques à la charge de travail et aux données pour générer automatiquement les configurations de stockage de données: Hybrid Similarity (combinaison pondérée de similarité d'accès d'attribut et de similarité de densité d'attribut) les attributs dans les groupes de colonnes; Inter-Cluster Access Similarity est utilisé pour déterminer si deux groupes de colonnes seront fusionnés ou non (pour réduire le nombre de jointures supplémentaires); et Intra-Cluster Access La similarité est appliquée pour décider si un groupe de colonnes sera stocké dans une ligne ou un magasin de colonnes. Enfin, nous proposons une stratégie de traitement des requêtes adaptée et efficace construite sur HYTORMO. Il considère l'utilisation des jointures internes et des jointures externes gauche pour empêcher la perte de données si vous utilisez uniquement des jointures internes entre des tables partitionnées verticalement. De plus, une intersection de filtres Bloom (intersection of Bloom filters, abrégé en ) est appliqué pour supprimer les données non pertinentes des tables d'entrée des opérations de jointure; cela permet de réduire les coûts d'E / S réseau. (...)<br>In the health care industry, the ever-increasing medical image data, the development of imaging technologies, the long-term retention of medical data and the increase of image resolution are causing a tremendous growth in data volume. In addition, the variety of acquisition devices and the difference in preferences of physicians or other health-care professionals have led to a high variety in data. Although today DICOM (Digital Imaging and Communication in Medicine) standard has been widely adopted to store and transfer the medical data, DICOM data still has the 3Vs characteristics of Big Data: high volume, high variety and high velocity. Besides, there is a variety of workloads including Online Transaction Processing (OLTP), Online Analytical Processing (OLAP) and mixed workloads. Existing systems have limitations dealing with these characteristics of data and workloads. In this thesis, we propose new efficient methods for storing and querying DICOM data. We propose a hybrid storage model of row and column stores, called HYTORMO, together with data storage and query processing strategies. First, HYTORMO is designed and implemented to be deployed on large-scale environment to make it possible to manage big medical data. Second, the data storage strategy combines the use of vertical partitioning and a hybrid store to create data storage configurations that can reduce storage space demand and increase workload performance. To achieve such a data storage configuration, one of two data storage design approaches can be applied: (1) expert-based design and (2) automated design. In the former approach, experts manually create data storage configurations by grouping attributes and selecting a suitable data layout for each column group. In the latter approach, we propose a hybrid automated design framework, called HADF. HADF depends on similarity measures (between attributes) that can take into consideration the combined impact of both workload- and data-specific information to generate data storage configurations: Hybrid Similarity (a weighted combination of Attribute Access and Density Similarity measures) is used to group the attributes into column groups; Inter-Cluster Access Similarity is used to determine whether two column groups will be merged together or not (to reduce the number of joins); and Intra-Cluster Access Similarity is applied to decide whether a column group will be stored in a row or a column store. Finally, we propose a suitable and efficient query processing strategy built on top of HYTORMO. It considers the use of both inner joins and left-outer joins. Furthermore, an Intersection Bloom filter () is applied to reduce network I/O cost.We provide experimental evaluations to validate the benefits of the proposed methods over real DICOM datasets. Experimental results show that the mixed use of both row and column stores outperforms a pure row store and a pure column store. The combined impact of both workload-and data-specific information is helpful for HADF to be able to produce good data storage configurations. Moreover, the query processing strategy with the use of the can improve the execution time of an experimental query up to 50% when compared to the case where no is applied
APA, Harvard, Vancouver, ISO, and other styles
43

Gorfti, Ilyass. "Le mariage et le ministère public, partie principale : une étude de l'évolution du droit marocain à la lumière du droit français." Electronic Thesis or Diss., Toulon, 2013. http://www.theses.fr/2013TOUL0069.

Full text
Abstract:
Le droit de la famille s’est contractualisé et laisse aujourd’hui de larges espaces pouvant être régis par les seules volontés individuelles. Néanmoins, le mariage étant un acte très important, la loi prévoit que l’État se devait d’agir toujours en cette matière. La dimension institutionnelle du mariage traduit le contrôle exercé sur le mariage et sur la famille, par le ministère public.Depuis 2004 le Ministère public marocain occupe en droit de la famille la qualité de partie principale. Il peut déclencher toute action afin d’appliquer les dispositions du Code de la famille. L’observateur extérieur ne pouvait que louer pareille réforme, toutefois tout en ayant cette audace manifeste les dispositions concernant le Ministère public en matière familiale restent contradictoires. L’article 3 du Code de la famille et l’article 9 du Code de procédure civile, deux textes promulgués le même jour, sont antinomiques.Force est de constater que le mariage et le ministère public, partie principale suscite de multiples questions. De façon plus générale, quel est l’état actuel de ces deux institutions et comment évoluent - elles? C’est précisément à cette interrogation que notre travail a pour vocation de répondre. Pour mener à bien notre étude, il était utile de s’intéresser aux solutions consacrées par le droit français, lorsque ce dernier a été confronté à des questions identiques à celles que connaît le droit marocain actuellement<br>The family law has been contracted, and is giving more importance to individual wills. Since marriage is a very important act, the state always has to intervene in this subject. The institutional dimension of marriage reflects the controlover marriage and family matters from the public prosecutor. Since 2004, the public prosecutor represents one of the most important parties in Moroccan family law. He can take anyaction to reinforce the provisions of the Family law. The external observer could only be pleased by such a reform. However the provisions of the family law remain contradictory. Article 3 of the Family Code, and the Article 9 of the Civil Code Procedure, promulgated two texts on the same day that are contradictory. It is clear that marriage and public prosecutor raise many questions. Generally, what is the current status of these two institutions and how do they progress? this question is precisely what our work aims to answer. To carry out our study, it was important to focus on the solutions founded by French law, when it faced issues similar to those that Moroccan lawis currently dealing with
APA, Harvard, Vancouver, ISO, and other styles
44

Gay, Laura. "Processus d'Ornstein-Uhlenbeck et son supremum : quelques résultats théoriques et application au risque climatique." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEC025/document.

Full text
Abstract:
Prévoir et estimer le risque de canicule est un enjeu politique majeur. Évaluer la probabilité d'apparition des canicules et leurs sévérités serait possible en connaissant la température en temps continu. Cependant, les extrêmes journaliers (maxima et minima) sont parfois les seules données disponibles. Pour modéliser la dynamique des températures, il est courant d'utiliser un processus d'Ornstein-Uhlenbeck. Une estimation des paramètres de ce processus n'utilisant que les suprema journaliers observés est proposée. Cette nouvelle approche se base sur une minimisation des moindres carrés faisant intervenir la fonction de répartition du supremum. Les mesures de risque liées aux canicules sont ensuite obtenues numériquement. Pour exprimer explicitement ces mesures de risque, il peut être utile d'avoir la loi jointe du processus d'Ornstein-Uhlenbeck et de son supremum. L'étude se limite tout d'abord à la fonction de répartition / densité jointe du point final du processus et de son supremum. Cette probabilité admet une densité, solution de l'équation de Fokker-Planck, obtenue explicitement et utilisant les fonctions spéciales paraboliques cylindriques. La preuve de l'expression de la densité repose sur une décomposition sur une base hilbertienne de l'espace via une méthode spectrale. On étudie également le processus d'Ornstein-Uhlenbeck oscillant, dont le paramètre de drift est constant par morceaux selon le signe du processus. La transformée de Laplace du temps d'atteinte de ce processus est déterminée et la probabilité que le processus soit positif en un temps donné est calculée<br>Forecasting and assessing the risk of heat waves is a crucial public policy stake. Evaluate the probability of heat waves and their severity can be possible by knowing the temperature in continuous time. However, daily extremes (maxima and minima) might be the only available data. The Ornstein-Uhlenbeck process is commonly used to model temperature dynamic. An estimation of the process parameters using only daily observed suprema of temperatures is proposed here. This new approach is based on a least square minimization using the cumulative distribution function of the supremum. Risk measures related to heat waves are then obtained numerically. In order to calculate explicitly those risk measures, it can be useful to have the joint law of the Ornstein-Uhlenbeck process and its supremum. The study is _rst limited to the joint density / distribution of the endpoint and supremum of the Ornstein-Uhlenbeck process. This probability admits a density, solution of the Fokker-Planck equation and explicitly obtained as an expansion involving parabolic cylinder functions. The proof of the density expression relies on a decomposition on a Hilbert basis of the space via a spectral method. We also study the oscillating Ornstein-Uhlenbeck process, which drift parameter is piecewise constant depending on the sign of the process. The Laplace transform of this process hitting time is determined and we also calculate the probability for the process to be positive on a fixed time
APA, Harvard, Vancouver, ISO, and other styles
45

Verdet, Florian. "Exploring variabilities through factor analysis in automatic acoustic language recognition." Phd thesis, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00954255.

Full text
Abstract:
Language Recognition is the problem of discovering the language of a spoken definitionutterance. This thesis achieves this goal by using short term acoustic information within a GMM-UBM approach.The main problem of many pattern recognition applications is the variability of problemthe observed data. In the context of Language Recognition (LR), this troublesomevariability is due to the speaker characteristics, speech evolution, acquisition and transmission channels.In the context of Speaker Recognition, the variability problem is solved by solutionthe Joint Factor Analysis (JFA) technique. Here, we introduce this paradigm toLanguage Recognition. The success of JFA relies on several assumptions: The globalJFA assumption is that the observed information can be decomposed into a universalglobal part, a language-dependent part and the language-independent variabilitypart. The second, more technical assumption consists in the unwanted variability part to be thought to live in a low-dimensional, globally defined subspace. In this work, we analyze how JFA behaves in the context of a GMM-UBM LR framework. We also introduce and analyze its combination with Support Vector Machines(SVMs).The first JFA publications put all unwanted information (hence the variability) improvemen tinto one and the same component, which is thought to follow a Gaussian distribution.This handles diverse kinds of variability in a unique manner. But in practice,we observe that this hypothesis is not always verified. We have for example thecase, where the data can be divided into two clearly separate subsets, namely datafrom telephony and from broadcast sources. In this case, our detailed investigations show that there is some benefit of handling the two kinds of data with two separatesystems and then to elect the output score of the system, which corresponds to the source of the testing utterance.For selecting the score of one or the other system, we need a channel source related analyses detector. We propose here different novel designs for such automatic detectors.In this framework, we show that JFA's variability factors (of the subspace) can beused with success for detecting the source. This opens the interesting perspectiveof partitioning the data into automatically determined channel source categories,avoiding the need of source-labeled training data, which is not always available.The JFA approach results in up to 72% relative cost reduction, compared to the overall resultsGMM-UBM baseline system. Using source specific systems followed by a scoreselector, we achieve 81% relative improvement.
APA, Harvard, Vancouver, ISO, and other styles
46

Hennebelle, Andy. "Joindre le passé et le présent par les études paléoécologiques dans un contexte d’aménagement écosystémique de la forêt boréale du Québec." Thesis, 2020. http://hdl.handle.net/1866/25245.

Full text
Abstract:
Les enjeux actuels de protection et d’aménagement des écosystèmes, notamment en forêt boréale, se heurtent à des incertitudes liées aux changements climatiques. En effet, les changements climatiques ont et vont avoir des conséquences appréciables sur la composition, la structure et le fonctionnement dynamique des écosystèmes boréaux. La dynamique de ces écosystèmes dépend aussi de perturbations telles que les feux, les épidémies d’insectes ou encore les chablis dont les régimes naturels (occurrence, surface, sévérité...) sont modifiés par les changements climatiques. À cela s’ajoutent les impacts directs et indirects des activités humaines qui ne cesseront d’augmenter et d’interférer avec le fonctionnement des écosystèmes. Dans ce contexte, il est donc difficile de savoir jusqu’à quel point les capacités de résistance et de résilience des écosystèmes seront altérées. De cette problématique émerge des préoccupations relatives à la préservation de l’intégrité des écosystèmes et à la pérennisation des usages que nous en avons. De nombreux efforts ont déjà été menés en réponse à ces interrogations par, entre autres, la création d’un aménagement écosystémique des forêts au Québec dont l’objectif est de réduire l’écart entre les forêts naturelles et les forêts aménagées. Il ne faut cependant pas négliger le fait que les écosystèmes sont des entités dynamiques qui possèdent des capacités de résistance et de résilience (adaptation) en réponse à des contraintes environnementales (climat, perturbations...). Ces interactions se manifestent depuis le retrait du dernier glacier qui recouvrait le Québec pendant la dernière ère glaciaire. Très rapidement les écosystèmes se sont différenciés et ont suivi leur propre dynamique jusqu’aux forêts que nous pouvons observer aujourd’hui. Pour préserver durablement ces écosystèmes il faut donc en comprendre l’état actuel et le fonctionnement écologique à long-terme posant ainsi la question des méthodes qui permettent de reconstruire cette histoire écologique. Ces méthodes peuvent être déployées suivant deux échelles : l’échelle spatiale et l’échelle temporelle, souvent considérées comme antagonistes. En effet, il est de coutume de remplacer l’échelle temporelle par l’échelle spatiale comme par exemple avec des inventaires extensifs de végétation qui donnent une image des écosystèmes contemporains. Au contraire, vouloir décrire la dynamique d’un écosystème sur le long terme s’effectue au détriment de l’échelle spatiale comme en paléoécologie. Plus la profondeur temporelle étudiée est importante, moins les données sont abondantes et plus les reconstructions doivent se baser sur des témoins indirects des variables d’intérêt (e.g. végétation, feux, etc..) dont la présence et l’abondance doivent être interprétées via des bio-indicateurs, notamment le pollen et les charbons. L’objectif de ce doctorat est de réconcilier les échelles, temporelle et spatiale, dans les études paléoécologiques et écologiques récentes avec pour territoire d’étude les écosystèmes forestiers boréaux du sous domaine de la pessière à mousses de l’Ouest du Québec (PMO). Dans un premier temps une étude de la diversité écosystémique actuellement présente et de son histoire pluri-millénaire permet d’appuyer la mise en place de cibles d’aménagement écosystémique à plus petite échelle. Les reconstructions holocènes de la végétation et des feux utilisées dans ce premier chapitre ont mis en évidence des difficultés dans l’analyse conjointe de plusieurs bio-indicateurs. Ces difficultés sont principalement liées au manque de connaissances du rôle des processus taphonomiques dans les enregistrements de bio-indicateurs retrouvés dans les archives sédimentaires. Les deux autres chapitres de ce doctorat ont permis de mieux comprendre ces liens qui existent entre les écosystèmes et certains des bio-indicateurs qu’ils génèrent. Il a ainsi été possible de développer des outils méthodologiques pour faciliter l’interprétation des bio-indicateurs. À terme, ces outils permettront de mieux comprendre les dynamiques à long-terme des écosystèmes forestiers boréaux de la PMO.<br>In the boreal forests, current objectives in terms of protection and management of ecosystems are facing uncertainties due to climate change. Indeed, ongoing and future climate change have and will have noticeable consequences on boreal ecosystems composition, structure and dynamic (Figure I.1). Ecosystem dynamic is also influenced by natural disturbances such as fire, insect outbreaks and windthrows for which regimes (occurrence, surface, severity...) will be modified by climate change. Moreover, direct and indirect impacts of human activities will keep on increasing and interfering with ecosystems functioning. Thus, knowing how the resistance and resilience of ecosystems will be affected is challenging. By the same token, protecting ecosystems integrity and sustaining the usages we have of them raise concerns. Many efforts have been put in place as an answer to these questions such as in Québec with the establishment of an ecosystem based management of forest which aims at reducing the gap between natural and managed forests. Nevertheless, one should not neglect that ecosystems are dynamic entities with resistance and resilience capacities (adaptation) in response to environmental constraints (climate, disturbances...). These interactions are occurring since the retreat of the glacier that was covering Québec during the last Ice Age. Quickly, ecosystems differentiated and followed their own path until reaching their current state. In order to protect the ecosystems we need to understand their current state and their long-term dynamic thus asking the question of the methods available to access ecological history of the ecosystems. Methods can be applied following spatial and temporal scales often considered as antagonistics (Figure I.2). Indeed, temporal scale is often replaced by spatial scale such as for extensive inventories. On the contrary, the description of long-term ecosystem dynamic can be done at the expense of spatial scale such as in paleoecology. The longer the temporal scale is, the less the data are abundant and the more reconstructions rely on indirect indicators of (e.g: fire, vegetation, ...) which presence and abundance must be described via proxies as pollen or charcoal (Figure I.2). The objective of this thesis is to reconcile the two scales, temporal scale and spatial scale, in paleoecological studies and contemporary ecological studies with the Quebec western spruce-feathermoss subdomain (PMO) as study area. First, the current ecosystem diversity and its pluri-millennial history have been studied and support the establishment of low scale ecosystemic management targets. The Holocene reconstructions of vegetation and fire from the first chapter highlighted the challenges of multi-proxy analyses. These difficulties are mostly due to the lack 13 of knowledge concerning the influence of taphonomic processes in the recording of bio-proxies in a sedimentary archive. The two other chapters composing this thesis helped to understand the links existing between the ecosystems and the bio-proxy signals they generate in order to develop methodological tools to facilitate their interpretation. Overall, these tools will allow us to better understand long-term dynamics of boreal forest ecosystems in the PMO.
APA, Harvard, Vancouver, ISO, and other styles
47

Breton, Etienne. "Residence and Autonomy in Postcolonial Maharashtra." Thèse, 2013. http://hdl.handle.net/1866/10242.

Full text
Abstract:
Réalisé à l'aide de données harmonisées par le Integrated Public Use Microdata Series (IPUMS).<br>Ce mémoire de maîtrise propose une réévaluation de la question désormais centenaire de la « fission » ou « nucléarisation » du ménage joint hindou (MJH). En utilisant la perspective dite « atomiste » développée par Michel Verdon (1998), nous jetons les bases d’une nouvelle modélisation de la formation et de la composition des ménages au Maharashtra postcolonial. Le mémoire sera divisé en quatre sections. La première introduit les principaux éléments de la perspective « atomiste », qu’elle opposera, dans la seconde section, aux axiomes « collectivistes » et aux explications « culturalistes » généralement rencontrés dans l’analyse ethnographique des ménages en Inde occidentale. La troisième section fournit une application qualitative de la perspective atomiste, et ce, en dressant un bref portrait ethnographique du ménage au Maharashtra pour les trois décennies suivant l’indépendance de l’Inde. La quatrième section offre une application statistique de la perspective atomiste en utilisant des données socioéconomiques et sociodémographiques rassemblées dans cinq rondes des National Sample Surveys (NSS) indiens; combinant nos hypothèses atomistes avec les « taux d’autonomie résidentielle » développés par Ermisch et Overton (1985), nous quantifions les tendances et divers déterminants de la composition des ménages au Maharashtra durant les années 1983 à 2004. Nos résultats ne montrent aucun signe d’une nucléarisation du MJH durant les années couvertes par les NSS, et indiquent qu’il s’est même produit une intensification de la subordination résidentielle et domestique des jeunes couples basés au Maharashtra entre 1993 et 2004.<br>This M.Sc. thesis offers a reappraisal of the century-old issue of the ‘fission’ or ‘nuclearization’ of the hindu joint household (HJH). Using Michel Verdon’s ‘atomistic perspective’ (1998), we provide a new modelling of household formation and composition in postcolonial Maharashtra. The thesis is divided into four major sections. In the first section, we introduce the main lineaments of the ‘atomistic’ perspective and we oppose it, in the second section, to the ‘collectivistic’ set of axioms and the ‘culturalist’ explanations generally used in ethnographic analyses of household formation and composition in Western India. In the third section, we apply Verdon’s atomistic framework by presenting a brief qualitative portrait of the household in Maharashtra for the first three decades after India’s independence. The fourth section offers a statistical application of the atomistic perspective using socioeconomic and demographic data available in five separate samples of India’s National Sample Surveys; combining atomistic hypotheses with Ermisch and Overton’s (1985) ‘loneship ratios’, we quantify the effects of several determinants of residential autonomy and household composition in Maharahstra for the years 1983-2004. Our results show no sign of a nuclearization of the HJH in Maharashtra, and indicate that there was even a rise in the residential and domestic subordination of young Maharashtrian couples from 1993 to 2004.
APA, Harvard, Vancouver, ISO, and other styles
48

Coelhoso, João Pedro Esteves. "Factors influencing mobile marketing acceptance in higher education students in the United Arab Emirates." Doctoral thesis, 2019. http://hdl.handle.net/10284/7695.

Full text
Abstract:
Technology advancements in mobile communication has seen a rapid rise in recent years. Likewise, the use of mobile technologies has proven to be of extreme importance in consumer’s life. The main goal of this study is to investigate and identify the impact of marketing activities on the acceptance of mobile marketing practiced by higher education students. Assisted by the Technology Acceptance Model (TAM) and Uses and Gratifications Theory, this study tests a conceptual model that explain factors influencing mobile marketing acceptance. The study was conducted in Federal Higher Education Institutions in the UAE. A descriptive, explanatory research that used a quantitative survey methodology was adopted. This study surveyed 402 higher education students using a probabilistic stratified sampling method. The overall findings revealed that risk acceptance, providing information, sharing content, accessing content, perceived value and personal attachment have a positive influence in mobile marketing acceptance, and it validates a new model using Structural Equation Modelling. Furthermore, this study highlights the current state of mobile marketing utilization along with preferred types of services used. This research has the potential to benefit companies to create better mobile marketing strategies, in which they can incorporate within their product and services and recommends actions to create a more effective mobile marketing campaign that benefits both consumers and organizations.<br>Os avanços tecnológicos na comunicação móvel tiveram um rápido aumento nos últimos anos. Da mesma forma, o uso das tecnologias móveis provou ser de extrema importância na vida do consumidor. O principal objetivo deste estudo é investigar e identificar o impacto das atividades de marketing na aceitação do marketing móvel praticado por estudantes do ensino superior. Assistido pelo Modelo de Aceitação de Tecnologia (TAM) e pela Teoria de Usos e Gratificações, este estudo testa um modelo conceitual que explica os fatores que influenciam a aceitação do marketing móvel. Foi adotada uma metodologia de pesquisa quantitativa, descritiva e explicativa auxiliada pelo uso do questionário. O estudo foi realizado em instituições federais de ensino superior nos Emirados Árabes Unidos. Este estudo pesquisou 402 estudantes do ensino superior usando um método probabilístico de amostragem estratificada. As descobertas gerais revelaram que a aceitação de riscos, fornecimento de informações, compartilhamento de conteúdo, acesso a conteúdo, valor percebido e vinculação pessoal influenciam positivamente a aceitação do marketing móvel e validam um novo modelo usando a Modelagem de Equações Estruturais. Além disso, este estudo destaca o estado atual da utilização do marketing móvel juntamente com os diferentes tipos de serviços mais utilizados. Esta pesquisa tem o potencial de beneficiar as empresas na criação de melhores estratégias de marketing móvel para que possam ser incorporadas nos produtos e serviços e recomenda ações para criar uma campanha de marketing móvel mais eficaz que beneficie tanto os consumidores quanto as organizações.<br>Les progrès technologiques dans la communication mobile ont augmenté rapidement ces dernières années. De même, l’utilisation des technologies mobiles s’est avérée d’une importance capitale dans la vie du consommateur. L'objectif principal de cette étude est d'étudier et d'identifier l'impact des activités de marketing sur l'acceptation du marketing mobile pratiqué par les étudiants de l'enseignement supérieur. Assistée du modèle d'acceptation technologique (TAM) et de la théorie des usages et des gratifications, cette étude teste un modèle conceptuel qui explique les facteurs qui influencent l'acceptation du marketing mobile. L'étude a été menée dans des établissements d'enseignement supérieur fédéraux des Émirats Arabes Unis. Une recherche descriptive et explicative utilisant une méthodologie de recherche quantitative a été adoptée. Cette étude a examiné 402 étudiants de l'enseignement supérieur utilisant une méthode probabiliste d'échantillonnage stratifié. Les conclusions générales ont révélé que l'acceptation des risques, la fourniture d'informations, le partage de contenu, l'accès au contenu, la valeur perçue et les liens personnels influencent positivement l'acceptation du marketing mobile et valide un nouveau modèle utilisant la modélisation par équation structurelle. En outre, cette étude met en évidence l’état actuel de l’utilisation du marketing mobile ainsi que des différents types de services les plus utilisés. Cette recherche pourrait aider les entreprises à créer de meilleures stratégies de marketing mobile afin de les intégrer à des produits et services, et recommande des actions pour créer une campagne de marketing mobile plus efficace, bénéfique pour les consommateurs et les organisations.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography