To see the other types of publications on this topic, follow the link: DEA, Méthode.

Dissertations / Theses on the topic 'DEA, Méthode'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'DEA, Méthode.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nguyen, Thi Thanh Huyen. "Mesurer la performance des universités au Vietnam en termes d’efficience : Une application de la méthode DEA." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1G016/document.

Full text
Abstract:
Avec l’apparition d’une économie basée sur les connaissances, le rôle de l’enseignement supérieur prend de plus en plus d’importance. Pour le Vietnam, ces dernières décennies ont été marquées par une explosion de la demande en études supérieures. Néanmoins, les lacunes actuelles des universités en matière de gestion et d’utilisation des ressources ont limité leur compétitivité, surtout à l’échelon régional et international. Un système de mesure de leur performance devient donc incontournable, plus précisément de l’efficience. Notre étude a pour objectif de construire ce système en utilisant trois techniques : l’analyse de sensibilité, l’approche DEA méta-frontière et les indices de Malmquist
With the emergence of a knowledge-based economy, the role of higher education is becoming increasingly important. For Vietnam, recent decades have seen an explosion in the demand for higher education. Nevertheless, the current deficiencies of universities in management and in using resources have limited their competitiveness, particularly at regional and international levels. A system of performance measurement becomes indispensable, especially the efficiency. Our study aims to build it, using three techniques: sensitivity analysis, DEA metafrontier and Malmquist index
APA, Harvard, Vancouver, ISO, and other styles
2

Geffroy, Bernard. "Efficience et productivité : application de la méthode dea aux opérateurs locaux de telecommunications americains." Paris, ENST, 1999. http://www.theses.fr/1999ENST0004.

Full text
Abstract:
La thèse se donne pour objectif de quantifier l'efficience des opérateurs de telecommunications et son évolution, aux Etats-Unis, en se fondant sur le principe de comparaison prône par le yardstick compétition. La recherche s'inscrit dans la théorie ensembliste de la production (shephard 1953, 1970, fare, grossskopf, lovell 1994, russell 1998), afin de proposer un instrument de mesure adéquat de l'efficience. Elle recommande les mesures d'efficience de debreu-farrell 1951, 1957 qui sont les exactes répliques des fonctions de distance radiale de shephard 1953, 1970, permettant une description exhaustive des technologies de productions multi-produites. La recherche s'inscrit dans la théorie économique des nombres indices (Samuelson et swamy 1974, diewert 1976, 1978, 1992, 1995, 1996) afin de proposer un instrument adequat de mesure de l'évolution de l'efficience. La qualité de la mesure de l'évolution d'un agrégat de quantité par un indice dépend de son invariance globale aux conditions de base de calcul, incompatible avec des technologies de production complexes. Le principe d'invariance local (diewert 1976, 1992), garantit la qualité de la spécification de l'indice : exactitude et superlativité, en présence de technologies complexes. La spécification d'indice de malmquist est satisfaisante car elle est exact et superlative pour une fonction translog générale de distance, et car elle est identique à la mesure de debreu-farrell. La contribution de la recherche opérationnelle en théorie de la production au travail tient dans la technique non paramétrique de calibrage de la frontière d'efficience, et dans la mesure de la distance d'un point intérieur a celle-ci : la méthode data envelopment analysis (charnes, cooper et rhodes 1978, banker, charnes, et cooper 1984, seiford 1996). Enfin, l'auteur mesure l'efficience, décompose les gains de productivité des opérateurs américains entre 1991 et 1996, à l'aide des mesures définies.
APA, Harvard, Vancouver, ISO, and other styles
3

Tarnaud, Albane. "A "DEA-Financial" approach to assess portfolio performance." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL12003.

Full text
Abstract:
Cette thèse de doctorat étudie la transposition d’une méthodologie héritée de la théorie de la production, couramment appelée "méthode DEA", à l’analyse de la performance des actifs financiers. Elle souligne la pertinence de l’utilisation d’un estimateur tel que DEA, présente en détail la méthodologie qui lui est traditionnellement associée et fournit une revue de la littérature appliquant cette méthodologie à des portefeuilles d’actifs financiers. La méthodologie étudiée requiert la définition de conditions de régularité caractérisant la technologie commune à chaque entité étudiée. Elle implique donc une définition rigoureuse des intrants et produits caractérisant la technologie de production. La littérature actuelle considère implicitement un processus de génération du rendement des investissements dans des portefeuilles d’actifs par le niveau risque. Cette thèse propose un traitement différent basé sur l’idée de production jointe, également héritée de la théorie de la production et selon laquelle des intrants peuvent générer des produits indésirables et inévitables. L’approche proposée dans cette thèse considère les divers types de risque associés à l’investissement comme des produits indésirables. Cette thèse propose donc une définition d’un processus de production financier et étudie les implications théoriques d’une telle définition sur le traditionnel ensemble d’axiomes. Elle recommande également la prise en compte d’une possible préférence pour le risque là où seule l’aversion au risque est généralement supposée, et rappelle la pertinence d’inclure dans les cadres théoriques des mesures de risque associées à des préférences telles que la prudence ou la tempérance
This doctoral thesis studies the transposition of a methodology inherited from production theory, and commonly referred to as “DEA” (Data Envelopment Analysis) only, to the study of performance of financial assets. It underlines the accuracy of using DEA as an estimator to assess the performance of financial assets, provides a detailed presentation of the methodology associated to DEA and a review of the literature that applies this methodology to the performance measurement of portfolios of financial assets.The traditional methodology requires the definition of regularity conditions that characterize the technology shared by all entities. It then implies a rigorous definition of inputs and outputs that characterize the production technology. The current literature implicitly assumes a production process that generates returns on investment in portfolios of financial assets by the level of risk taken. This thesis proposes a different treatment based on the idea of joint productions inherited from production theory and according to which inputs can generate undesirable outputs that cannot be freely disposed of. The approach proposed in this thesis then considers the various types of risk associated to the investment as undesirable outputs. This thesis proposes a definition a financial production process and studies the theoretical implications of such a definition on the traditional set of axioms. It also recommends taking into account a possible preference for risk where only risk aversion is generally assumed and reminds the importance to include in the theoretical frameworks some measures of risk associated to preferences for some risks, such as prudence or temperance
APA, Harvard, Vancouver, ISO, and other styles
4

Chemak, Fraj. "Comportement des producteurs agricoles et efficacité d'usage de la ressource en eau : Cas des périmètres irrigués de la région de Sidi Bouzid en semi aride Tunisien." Montpellier 1, 2007. http://www.theses.fr/2007MON10015.

Full text
Abstract:
Menacée par le développement économique et social, l'eau est un bien de plus en plus rare. Comprendre les stratégies des irrigants et identifier les paramètres de maîtrise des technologies de production constituent des éléments fondamentaux pour modifier les consommations du secteur irrigué sans pour autant compromettre les objectifs de production. Dans cette perspective, nous avons analysé les performances de l'activité en irrigué dans la région de Sidi Bouzid. Nous avons réalisé des enquêtes auprès d'un échantillon d'exploitations des périmètres publics et privés. L'application de l'approche Data Envelopment Analysis (DEA) nous a permis de mesurer l'efficacité technique et aIlocative. Ainsi nous avons révélé une inefficacité technique d'usage des facteurs de production. L'efficacité moyenne d'usage de la ressource en eau n'atteint que 68%. La comparaison entre les systèmes de production révèle un gaspillage de la ressource plus important chez les exploitations des périmètres privés que celles des périmètres publics. Ainsi la stratégie de création de puits de suIface, comme deuxième source d'irrigation, se révèle être à l'encontre d'un usage durable d'une nappe phréatique déjà surexploitée. Mais en analysant les mesures d'efficacité allocative, cette stratégie s'explique. En effet, la profitabilité d'une activité, basée sur l'irrigation à partir de puits de surface, semble plus intéressante que celle réalisée à partir d'irrigation publique. L'efficacité aIlocative moyenne des exploitations des périmètres privés atteint 73% contre seulement 53% pour celles des périmètres publics. La pratique de cultures maraîchères est un facteur déterminant de cette profitabilité. Nous montrons par ailleurs que la structure foncière (superficie et nombre de parcelle) et l'intensification du facteur terre affectent négativement l'efficacité technique
Threatened by the economic and social development, water is an increasingly rare good. More than ever concerned, Tunisia achieved a successfully water supply management policy. Today, this policy reached its limits with a mobilization rate of 87%. Hence, efforts should target to the demand management. Understanding farmer's strategies and identifying the parameters controlling production technologies are the fundamental elements to modify the consumption of irrigated sector without compromising production objectives. Ln this regard, the objective of this investigation is to analyze the performance of irrigated farms in the region of Sidi Bouzid. First, farm's survey was carried out in both public and private irrigated areas. Second, an analysis of the production system within theses farms showed an appropriate technology process. Moreover, the application of Data Envelopment Analysis (DEA) approach allowed the measurement of technica1 and allocative efficiency. Empirical findings revealed a technical inefficiency use of inputs. The average technical efficiency of water resource was onl y 68%. The comparison between both production systems revealed more important resources wasting in private farms than in public ones. Thus, the surface weIl creation strategy, as a second source of irrigation, was found to be against the sustainable use of an already overexploited ground water. However, such strategy is justified when analyzing allocative efficiency scores. Lndeed, the profitability of an activity, based on wells irrigation, appears to be much more interesting than that based on public resource. The average allocative efficiency of private farms was 73% compared to only 53% for public farms. The Horticultural cropping practice is a determinant factor of this profitability. In addition, results indicate the negative effect of land structure (area and a number of plots) and land input intensification on technical efficiency
APA, Harvard, Vancouver, ISO, and other styles
5

Herimalala, Rahobisoa. "Mesure de l'efficience-X dans les processus d'innovation des entreprises : une approche fondée sur la méthode DEA." Caen, 2016. http://www.theses.fr/2016CAEN0502.

Full text
Abstract:
Cette thèse traite la problématique du manque d’innovation dans les entreprises à partir de l’approche par les activités. Elle propose dans un premier temps une représentation théorique du processus d’innovation, et une formalisation de son efficience basée sur le concept de l’efficience-X. Ensuite, elle développe un cadre méthodologique à la lumière de l’équation "manque d’innovation/inefficience-X dans les processus d’innovation". En l’occurrence, nous avons élaboré une mesure de type benchmarking de l’efficience-X des processus d’innovation. Cette démarche est fondée sur la méthode DEA. L’étude empirique sur un échantillon de 124 entreprises innovantes de la région Normandie montre que le problème de congestion semble être la forme la plus répandue de l’inefficience-X dans les processus d’innovation. Ce résultat traduit les difficultés des entreprises à transformer leur capacité d’innovation par les activités en valeur. Ainsi, le manque d’innovation est plutôt dû à ces difficultés sous forme d’inefficience-X qu’au manque de capacité d’innovation. Ce travail a abouti à l’élaboration d’un outil opérationnel d’enquête-diagnostic, qui a été déposé sous la marque DYAMI® EQUATION INNOVATION
This thesis deals with the problematic of the lack of innovation in the enterprises based on the activity approaches. It first suggests a theoretical scheme of the innovation process, and a formalization of its efficiency based on the concept of the X-efficiency. Secondly, it develops a methodological framework in order to highlight the relationship between "lack of innovation/X-inefficiency in the innovation processes". Then, we have performed a benchmarking model for measuring the X-inefficiency of the innovation process. This framework is based on the DEA method. The empirical study on a sample of 124 innovative companies of Normandy region shows that congestion problem seems to be the most common form of X-inefficiency of innovation process. This highlights the difficulties of the companies in transforming their innovation capacity into value. Then, the lack of innovation is due to these difficulties under X-inefficiency form rather than the insufficiency of innovation capacity. This thesis has led to the implementation of a diagnostic support tool that is registered under the label DYAMI® EQUATION INNOVATION
APA, Harvard, Vancouver, ISO, and other styles
6

Vyt, Dany. "Mesure de la performance d'un réseau de points de vente : une approche géomarketing par la méthode DEA." Rennes 1, 2006. http://www.theses.fr/2006REN1G006.

Full text
Abstract:
Dans un contexte concurrentiel exacerbé, les réseaux de distribution doivent pouvoir évaluer avec rigueur et précision les performances individuelles de chacun de leur point de vente. L'objectif de cette recherche consiste à fournir aux réseaux de distribution une technique d'évaluation de la performance individuelle qui considère l'environnement local de chaque détaillant. L'efficience de chaque magasin est estimée à partir de la technique d'enveloppement des données. Cette recherche s'appuie sur une collaboration avec l'enseigne Champion. Trois déclinaisons de la DEA sont évaluées. Dans le cadre particulier de cette recherche, seule la méthode DEA en deux étapes présente un pouvoir discriminant suffisamment important pour fournir une portée opérationnelle et managériale des travaux. Nous montrons que l'environnement des supermarchés contribue à l'explication du chiffre d'affaires et que toutes les variables locales n'influencent pas la catégorie avec la même force.
APA, Harvard, Vancouver, ISO, and other styles
7

Pichetti, Sylvain. "La concurrence par comparaison, applications en économie de la santé." Besançon, 2002. http://www.theses.fr/2002BESA0001.

Full text
Abstract:
La concurrence par comparaison constitue un mécanisme de réglementation qui repose sur la comparaison des performances de firmes confrontées à des environnements positivement corrélés. La faible diffusion de ce mécanisme dans l'économie contraste avec l'intérêt théorique qu'il suscite. Une plus large diffusion du mécanisme passe par une réflexion sur les moyens de comparer les performances d'entités évoluant dans des environnements hétérogènes. La méthode DEA constitue une réponse pertinente au problème que constitue la comparabilité des firmes. Le potentiel important de la méthode DEA comme méthode de comparaison est illustré dans deux applications originales centrées sur le secteur de la santé. La première vise à estimer l'efficacité d'établissements hospitaliers dans le but d'assigner à chaque établissement une valeur normative du point ISA. La deuxième application originale vise à estimer l'efficacité des dépenses de santé au niveau départemental à l'aide de la méthode DEA
Yardstick competition is a way of regulating several regional monopolies so as to induce a form of competition that weakens individual firms' monopolies of information and hence improves the terms of the trade-off between allocative, productive and distributional efficiency. This is done by making the reward to one firm depend on its performance relative to that of other firms. This promising mechanism is however rarely applied in economics. This phenomenon can be explained by the fact that it is difficult to compare firms whose environments are heterogeneous. The DEA method is very convenient to treat this problem. The important potential of the method as a way of comparison is illustrated by two original contributions centered on health economics. The first one aims at estimating the efficiency of hospitals in order to assign to each of them a budget target. The second one aims at estimating the efficiency of health expenses at the departmental level through the DEA method
APA, Harvard, Vancouver, ISO, and other styles
8

Feng, Chenpeng. "A study on DEA-based environmental performance evaluation and quota allocation." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLE028/document.

Full text
Abstract:
Les problèmes environnementaux attire depuis longtemps l’attention du milieu académique. Cette thèse porte sur l’évaluation de la performance environnementale et l’allocation des quotas, deux problématiques importantes des problèmes environnementaux. Nous faisons appel à l’analyse d’enveloppement des données (data envelopment analysis (DEA) en anglais) qui est un outil de programmation mathématique connu pour évaluer l’efficacité des groupes de décideurs - DMUs (decision making units). Plus précisément, les modèles à gain total nul (zero sum gains (ZSG) en anglais), les modèles centralisés et à frontière uniforme sont des techniques souvent utilisées pour l’évaluation de la performance environnementale et l’allocation des quotas. En revanche, les modèles ZSG-DEA existants sont non linéaires, ce qui engendre des goulets d’étranglement dans l’application réelle. En outre, l’approche à frontière uniforme proposée par Gomes and Lins (2008) ne s’applique qu’au cas avec une sortie indésirable unique de la technologie de production et sous l’hypothèse de rendements d’échelle variables (variable returns-to-scale (VRS) en anglais). De plus elle ne peut pas prendre en compte l’intérêt global des DMUs, tandis que les modèles centralisés se concentrent uniquement sur l’intérêt global et ignorent les intérêts individuels.Cette thèse présente nos trois contributions principales sur ces deux sujets. Le premier travail (chapitre 3) met l’accent sur l’évaluation de la performance environnementale. Les modèles ZSG-DEA existants sont transformés pour la première fois en modèles linéaires ou linéaires paramétrés grâce à des propriétés analytiques. Ensuite, les modèles linéarisés sont adoptés pour évaluer la performance environnementale de 30 régions chinoises. Le deuxième travail présenté dans le chapitre 4 traite l’allocation des quotas de sorties indésirables en tenant compte des intérêts individuels. Le chapitre 5 traite le même sujet mais prend en compte en même temps les intérêts globaux et les intérêts individuels. Deux modèles ZSG-DEA améliorés sous les hypothèses VRS et CRS (constant returns-to-scale, ou rendements d’échelle constants) sont proposés dans le chapitre 4 pour surmonter l’infaisabilité des modèles existant dans la littérature. Comme la frontière uniforme joue un rôle important dans l’allocation des ressources, en nous basant sur les propriétés analytiques que nous démontrons, nous proposons un algorithme itératif pour calculer le plan d’allocation de quotas lorsque tous les DMUs forment une frontière uniforme. Ensuite, l’algorithme est testé avec une étude empirique sur l’allocation des trois types de déchets industriels parmi 30 régions chinoises. Enfin, le chapitre 5 développe une méthode innovante à deux étapes pour l’attribution de la réduction des émissions de carbone (carbon emission abatement (CEA) en anglais). La méthode proposée est appliquée pour l’attribution de CEAs parmi les pays de l’OCDE
The environmental problems have drawn academia’s attention for a long time. This thesis focuses on environmental performance evaluation and quota allocation, which are two crucial issues of the environmental problems. Data envelopment analysis (DEA) is a mathematical programming tool to evaluate the relative efficiencies of decision making units (DMUs). Specifically, the techniques such as zero sum gains (ZSG) DEA models, centralized DEA models and the uniform frontier are used in environmental performance evaluation and quota allocation. Nevertheless, the ZSG-DEA models in the literature are nonlinear ones, which bring up bottlenecks in real application. In addition, the uniform frontier proposed by Gomes and Lins (2008) can only allocate single undesirable output under variable returns-to-scale (VRS) assumption and it pays no attention to the overall interest, while the centralized models merely concentrate on the overall interest and ignore individual ones.This thesis mainly consists of three works about two topics. The first topic (Chapter 3) focuses on environmental performance evaluation. For the first time, the existing ZSG-DEA models are transformed into linear or parametric linear ones through objective substitution and analytical properties. Then the linearized models are adopted to evaluate the environmental efficiencies of 30 administrative regions in China. The second topic focuses on quota allocation of undesirable outputs with consideration of the individual interests (Chapter 4) or the overall and individual interests (Chapter 5). Two improved ZSG-DEA models under VRS and constant returns-to-scale (CRS) assumptions are proposed to overcome the infeasibility of the existing models. As the uniform frontier plays an important role in resource allocation, based on the analyses of models’ properties, an iterative algorithm is devised to calculate the quota allocation plan when all the DMUs form a uniform frontier. Then the algorithm is tested by an empirical study of allocating the quotas of three industrial wastes for 30 administrative regions in China. Finally, Chapter 5 develops a novel two-step method of allocating carbon emissions abatement (CEA). In the empirical example, the proposed method is applied to the CEAs allocation for the countries in Organization for Economic Co-operation and Development (OECD)
APA, Harvard, Vancouver, ISO, and other styles
9

Nguyen-Thi-Thanh, Huyen. "La mesure de la performance des hedge funds." Orléans, 2007. http://www.theses.fr/2007ORLE0508.

Full text
Abstract:
Autrefois méconnus et réservés uniquement à des individus fortunés, les hedge funds sont devenus, à l’heure actuelle, un des véhicules de placement préférés des investisseurs institutionnels et individuels. Avec environ 10 000 hedge funds sur le marché, les investisseurs ont besoin d’outils d’évaluation de performance adaptés pour pouvoir sélectionner et suivre ces fonds de manière efficace. Les performances des hedge funds, étant largement influencées par leur mode de gestion, qui diffère de celui des fonds classiques (les mutual funds et les fonds de pension), nécessitent la mise en œuvre des traitements adaptés. Or, les outils proposés dans la littérature sont principalement destinés aux fonds classiques. En tant que tels, ils ne répondent pas aux caractéristiques des hedge funds. Partant, l’objectif de cette thèse est d’examiner trois problèmes qui s’inscrivent dans la thématique de la mesure de la performance des hedge funds, à savoir : 1. Les caractéristiques des données de rentabilité des hedge funds ; une attention particulière est portée au problème de rentabilités lissées, manifesté par l’autocorrélation temporelle des rentabilités. 2. Les mesures de performance pour les hedge funds et l’impact du choix de mesure sur l’évaluation de la performance de ces fonds. 3. L’application de la méthode "Data Envelopment Analysis" (DEA) dans la mesure de la performance locale et de la performance globale des hedge funds. La méthode DEA permet à chaque investisseur de concevoir une mesure personnalisée autorisant la prise en compte des caractéristiques non-gaussiennes des rentabilités des hedge funds et des préférences individuelles de l’investisseur.
APA, Harvard, Vancouver, ISO, and other styles
10

Goncalves, Olga. "Benchmarking et performances des destinations : Approche par les frontières d'efficience et application aux stations de sports d'hiver." Perpignan, 2012. http://www.theses.fr/2012PERP1133.

Full text
Abstract:
Première activité économique au monde, le secteur touristique souffre dans sa globalité d’une forte accentuation de la concurrence et les destinations de sports d’hiver sont particulièrement touchées (baisse de la fréquentation, aléas climatiques, etc. ). Au niveau français, l’importance économique du tourisme d’hiver et les difficultés auxquelles il est confronté interpellent la compétitivité des destinations « neiges » et appellent aux analyses en termes de performance, qui, dans notre économie contemporaine est une problématique centrale pour les praticiens de la gestion. Dans ce contexte, le besoin d’adopter des stratégies appropriées devient l’enjeu majeur des professionnels du tourisme qui cherchent à maintenir un avantage compétitif. Ainsi, l’optimalité des choix managériaux et stratégiques est indispensable. Face à ces questions fondamentales, se pose également celle de repenser les critères d’évaluation de la performance des stations. L’un des enjeux de ce travail doctoral consiste à valoriser l’utilisation de méthodes quantitatives de benchmarking (notamment la méthode des frontières efficientes non-paramétriques) afin de traiter diverses problématiques dans le domaine des Sciences de Gestion. Au-delà de la simple mesure de performance des unités productives évaluées, le gestionnaire s'intéresse plus fondamentalement à l'explication de ces performances et pointe du doigt les problèmes liés à la qualité de l’organisation interne et aux choix stratégiques. Cette thèse vise également à fournir des pistes de réflexion et constitue une aide à la prise de décision sur le devenir des stations tant pour les professionnels des destinations touristiques de montagne, que pour le monde politique qu’il soit de niveau local ou national
Tourism is one of the first economic activities in the world but this sector faces an intense competition and ski resorts destinations are particularly affected (attendance decrease, climate change, etc. ). In this context, French ski resorts destinations’ performance is questioned and the need to adopt appropriate strategies constitutes an important challenge for tourism decision-makers. In order to maintain their competitive advantage, destination’ managers need to drive optimal strategic and managerial choices. The need to adopt new criteria to evaluate ski resorts’ performance becomes an important issue. One of the challenges of this doctoral thesis is to promote the use of benchmarking quantitative methods (as the non-parametric efficient frontier methods) to address various issues in the field of Management Sciences. Beyond the performance measurement of decision making units, it is also important to explain these performances to highlight problems about organizational quality and strategic choices. The aim of this thesis is also to provide guidelines for both mountain professional decision-makers and policy makers (at the local or national level) to ensure the development and the attractiveness of ski resorts destination
APA, Harvard, Vancouver, ISO, and other styles
11

Kim, Sun Ae. "L'évaluation de l'efficience des bibliothèques universitaires et leur effet sur le travail des étudiants à l'université." Lyon 3, 2003. http://www.theses.fr/2003LYO33022.

Full text
Abstract:
Ce travail évalue l'efficience des différentes activités de 76 bibliothèques universitaires dans le processus de production et d'utilisation de leurs services pour une période de deux années consécutives (1999 et 2000). Une méthode non paramétrique, dite Data Envelopment Analysis (DEA) est utilisée pour déterminer leurs efficiences. Elle est capable d'appliquer simultanément des facteurs multiples de production et d'identifier les sources et le niveau d'inefficience pour les bibliothèques inefficientes. Le travail analyse aussi comment les efficiences des bibliothèques varient selon les différents indicateurs, à savoir l'évolution dans le temps, la différence de statut et le niveau des dépenses. Les résultats montrent, d'une part qu'il y a une supériorité en terme d'efficience pour les bibliothèques spécialisées et celles ayant un haut niveau de dépenses documentaires, d'autre part que l'efficience est plutôt associée à la production déficitaire qu'à l'emploi excessif des inputs
APA, Harvard, Vancouver, ISO, and other styles
12

Hoefkens-Bilon, Isabelle. "Evaluation de la performance de la recherche universitaire française en Sciences Humaines et Sociales : observations, premières analyses et création d'outils pour l'aide à la décision publique." Rennes 1, 2001. http://www.theses.fr/2001REN10004.

Full text
Abstract:
L'évaluation de la recherche est devenue un des points clés de le politique de la recherche dans la plupart des pays industrialisés. Cela est essentiellement dû à l'accroissement des demandes de financement public confrontées à un budget qui ne s'accroît pas de façon similaire. Pour résoudre ce problème, les gouvernements ont demandé des évaluations de la performance de la recherche dans le but de mettre en place des mécanismes de meilleure allocation de fonds publics. Nous avons dans cette optique mis au point un indicateur composite (grâce à l'analyse discriminante) de la performance des équipes de recherche universitaire afin d'établir un classement facilitant la prise de décision publique en matière d'accréditation et d'allocation des fonds. Ces résultats ont ensuite été confrontés à ceux obtenus grâce à l'analyse d'enveloppement des données (méthode DEA).
APA, Harvard, Vancouver, ISO, and other styles
13

Essid, Hédi. "L'induction statistique dans le modèle DEA avec inputs quasi-fixes : développements théoriques et une application au secteur de l'éducation tunisien." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50374-2007-Essid.pdf.

Full text
Abstract:
L'objet de notre thèse est l'analyse de l'efficacité et de la productivité des organisations dans un contexte multivarié. En particulier, notre thèse s'inscrit dans la lignée des travaux qui cherchent à développer les assises statistiques des estimateurs non paramétriques des frontières d'efficacité de type Data Envelopment Analysis (DEA). Ainsi, nous nous intéressons aux propriétés statistiques de cet estimateur, notamment celles de la convergence et du biais. D'autant plus, la distribution d'échantillonnage pour cet estimateur fait aussi l'objet de notre étude ; et ce afin d'utiliser les techniques de l'inférence statistique dans l'analyse de l'efficacité et de la productivité. Dans notre analyse, nous distinguons entre les inputs contrôlables et les inputs quasi-fixes ou non discrétionnaires. Ces derniers entrent désormais, dans le processus de production de l'organisation sans être pourtant sous son contrôle. Pour mener notre étude, nous définissons un modèle statistique permettant la caractérisation du Processus Générateur des Données (PGD) ; et nous utilisons la méthode du noyau pour construire un estimateur convergent de ce processus. En se basant sur cet estimateur, nous utilisons la méthodologie bootstrap pour corriger le biais des estimateurs des scores d'efficacité, construire des intervalles de confiance et développer un problème de test d'hypothèses statistiques concernant la nature des rendements d'échelle des organisations. Nous étudions ensuite la variation de l'efficacité dans un modèle complet de variation de la productivité. Cette étude est menée en utilisant l'indice de productivité de Malmquist. Ce dernier est estimé par la méthode DEA avec inputs quasi-fixes. Pour évaluer la précision statistique des estimateurs, nous définissons un modèle statistique intertemporel permettant la caractérisation du Processus Générateur des Données Intertemporel (PGDI) ; et d'utiliser ainsi la méthodologie bootstrap pour corriger le biais des estimateurs et construire des intervalles de confiance pour l'indice de Malmquist ainsi que pour ses composantes. Enfin, nous appliquons notre analyse au secteur de l'éducation tunisien. Par cela, nous visons en premier lieu, le développement d'une mesure de l'efficacité de l'éducation dont nous pouvons étudier sa significativité statistique. En second lieu, nous voulons vérifier si la variation de la productivité dans le secteur de l'éducation est réelle ou plutôt perverse.
APA, Harvard, Vancouver, ISO, and other styles
14

HOLLENDER, CHABI SYLVIE. "La relation prix-qualité : une analyse en termes d'efficience." Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR1EC01.

Full text
Abstract:
La méthode data envelopment analysis (d. E. A. ), traditionnellement utilisée pour étudier l'efficience productive des entreprises, est, ici, appliquée à l'étude de la relation prix-qualité. Cette approche permet, en effet, d'analyser l'efficience des produits c'est-a-dire l'existence et, le cas échéant, l'intensité du lien entre le prix et la qualité d'un produit. Apres avoir adapté et interprété les hypothèses et modelés de cette méthode relativement a notre problématique, nous appliquons cette analyse a dix catégories de produits. Nous constatons que la relation prix-qualité est spécifique à la catégorie de biens. Pour certaines, nous trouvons des corrélations très fortes tandis que pour d'autres, la relation est inexistante voire négative. Les différences d'efficience constatées d'un marché à l'autre sont, ensuite, expliquées. Une partie des facteurs explicatifs provient d'une collecte de données auprès des acheteurs potentiels de ces différents marchés. Les raisons du choix d'un produit, différant d'une catégorie à l'autre, sont intégrées dans l'analyse. Nous constatons que les articles choisis par les consommateurs sont plus efficients lorsque les choix sont fondés sur des critères importants de qualité. Cependant, ce type d'information n'est, généralement, disponible que pour les biens durables. Pour les biens de consommation courante, le consommateur sélectionne, en moyenne, des produits plus efficients mais également de meilleure qualité lorsque la dépense qu'il consent pour l'achat du bien est faible. Par ailleurs, la capacité des consommateurs à traiter l'information est testée au moyen d'un exercice de classement. Les classements effectues par les répondants sont ensuite compares a un ensemble de classements pouvant être considérés comme << rationnels >>, déterminés à partir d'un programme de surclassement simple. Les résultats montrent qu'en général, les consommateurs peuvent traiter l'information rationnellement même si certains éléments (relatifs aux individus, à la difficulté de l'exercice et a la catégorie de produits) viennent moduler la perfection de ce traitement. Nous évaluons, enfin, les pertes subies par les consommateurs en raison de l'inefficience de leurs choix. Nous montrons que l'ampleur des pertes est, sur certains marchés, extrêmement importante, allant jusqu'à représenter près de la moitié de la dépense totale consentie par l'ensemble.
APA, Harvard, Vancouver, ISO, and other styles
15

Jardin, Mathieu. "Trois essais sur la relation entre performance et salaire : une application à l'économie du sport." Rennes 1, 2012. http://www.theses.fr/2012REN1G017.

Full text
Abstract:
Cette thèse est une compilation de trois études illustrant, à travers la relation entre performance et salaire, chacune des deux facettes de l'économie du sport. La première facette considère le sport comme un objet d'étude en lui-même (Chap 3). La seconde facette considère le sport comme un laboratoire permettant de tester des théories économiques (Chap. 1 et 2). Le chap. 1 traite du lien entre la concentration des salaires au sein d'une organisation et sa performance. Nous proposons une modélisation de tournoi où la probabilité de victoire d'une équipe dépend notamment de la concentration de ses salaires. La relation étudiée peut être positive ou négative suivant la valeur prise par un paramètre. Nous estimons ensuite la valeur de ce paramètre pour un échantillon de matchs de baseball américain. Nos résultats indiquent que la concentration nuit à la performance. Le chap. 2 questionne la linéarité de la relation entre concentration des salaires et performance. Nous répliquons les spécifications paramétriques habituellement utilisées en adaptant l'échelle du cadre d'estimation (même échantillon que dans le Chap. 1). Puis, les comparons avec des estimations semi-paramétriques laissant la relation s'établir librement. Nous démontrons alors la non linéarité de la relation. Le chap. 3 évalue, à l'aide d'une analyse en enveloppement des données, l'efficience des clubs de football professionnels Français de première division (L1) entre 2005 et 2009. Nous construisons de plus des indices de Malmquist avec les performances des clubs à chaque saison afin d'en connaitre l'évolution. Les clubs de L1 sont globalement efficients mais la performance moyenne décroit sur la période
This dissertation compile three studies aiming at illustrate both aspects of sports economics through the relation between performance and salary. The first aspect considers sport as an object of study (Chap. 3). The second one is about the utilization of sport as a laboratory where economical theories can be tested (Chap. 1 et 2). Chapter 1 study the relation between the intra-organization wage concentration and its performance. We propose to model a tournament where a team probability of victory is function (among others) of the wage concentration. The relation can be positive or negative depending of a parameter value. We then estimate this parameter value for a sample of American baseball matches. Our results show that wage concentration decreases the performance. Chapter 2 question the linearity of the wage concentration / performance relation. We replicate the parametric specifications usually employed with some modifications regarding to the estimations framework scale (same sample as in Chap. 1). Then, we compare these results with some semi-parametrical estimations which allow the relation to be established freely. We are thus able to demonstrate the relation non linearity. Chapter 3 evaluates the French first division football clubs efficiency between 2005 and 2009, with a Data Envelopment Analysis (DEA). In addition, we compute Malmquist indexes from clubs performances of each season in order to know the efficiency evolution. French clubs are globally efficient but the average performance has been decreasing over the studied period
APA, Harvard, Vancouver, ISO, and other styles
16

Mazeau, Delphine. "L'efficience des banques françaises dans le cadre de l'Union économique et monétaire européenne." Bordeaux 4, 2000. http://www.theses.fr/2000BOR40033.

Full text
Abstract:
L'étude de la performance des banques, traditionnellement realisee par l'analyse financiere des comptes et selon des criteres de rentabilite, trouve une nouvelle dimension dans le developpement des outils theoriques et pratiques de l'efficience productive, que nous exploitons dans cette these. Ce concept conduit a apprecier la performance des etablissements en comparant leurs resultats. Une banque est plus efficiente qu'une autre si, pour le meme niveau de ressources employees, elle offre un niveau de production de biens et services plus important et/ou de meilleure qualite. Il existe deux grandes classes de techniques permettant de mesurer l'efficience productive des banques. L'une releve des methodes econometriques et donc de l'estimation d'une fonction de production, de cout ou de profit ; l'autre des techniques de programmation lineaire et revient a comparer directement les institutions entre elles. La methode que nous avons choisie pour realiser ces travaux, l'analyse par enveloppement des donnees (dea), appartient a la seconde categorie. Nous l'avons mise en ŭvre sur la periode 1995-1996 afin d'evaluer la performance des banques francaises au moment ou les premiers signes concrets de sortie de crise apparaissent. Nos mesures montrent que leur niveau d'efficience technique et allocative ne depasse pas 80% et revelent donc une situation vulnerable mais perfectible. Toutefois, le niveau d'efficacite approche 90 - 95% en fin de decennie. Nous nous sommes alors interroge sur les moyens d'ameliorer l'efficacite des banques. Dans cette logique, nous avons mesure l'efficience du reseau d'un etablissement francais, de nouveau par la methode dea. Enfin, nous avons envisage les principaux determinants de l'efficience productive bancaire.
APA, Harvard, Vancouver, ISO, and other styles
17

Ben, Cheikh Jalal. "Expansion du crédit et de la masse monétaire : analyse comparative de l’efficience des banques conventionnelles et islamiques à l’aide de la méthode mathématique Data Envelopment Analysis (DEA)." Thesis, Paris 2, 2017. http://www.theses.fr/2017PA020015.

Full text
Abstract:
Cette thèse se concentre sur la compréhension et l'analyse de l'efficacité technique des banques islamiques et conventionnelles. La thèse est divisée en deux parties : dans la première partie, l'étude fournit des illustrations théoriques utiles pour une comparaison détaillée entre les banques conventionnelles et islamiques, couvrant les différences en terme du système bancaire, la structure organisationnelle, la création monétaire, la structure du bilan, le rôle de la banque centrale et leurs impacts sur les cycles économiques. La deuxième partie se focalise sur le calcul des scores d'efficacité technique, pour essayer de comprendre la répartition des scores sous trois hypothèses principales : Constant Return to Scale (CRS), Variable Return to Scale (VRS), et Scale Efficiency (SE). La deuxième partie comprend également une analyse de régression pour explorer les différentes variables financières qui affectent l'efficacité technique, et qui expliquent la différence entre les scores des deux catégories de banques. L'échantillon de cette étude contient 1 425 banques commerciales et 85 banques islamiques tirées de la base Bankscope. La méthode utilisée dans la première partie combine la Data Envelopment Analysis (DEA) et l'Analyse Descriptive, tandis que la deuxième partie est réalisée selon la régression Tobit. Les résultats de cette étude montrent que les scores de type Scale Efficiency sont préférables pour représenter l’efficacité, par rapport aux scores CRS et VRS. L'étude montre également que les banques islamiques sont statistiquement plus efficaces que les banques conventionnelles. De plus, l'étude a révélé que le rendement de l’actif moyen, le ratio prêt net / actif total, la marge nette d'intérêts et le ratio des capitaux propres par rapport au total des actifs ont une incidence importante sur le rendement
This thesis focuses on two parts: providing theoretical understanding and investigation of technical efficiency score in Islamic and conventional banks. This study is divided into two parts. In the first part, the study provides useful theoretical illustrations regarding the comparison between conventional banks and Islamic banks in greater details, covering the difference in banking scheme, organization structure, money creation, balance sheet structure, the function of a central bank, and the difference on impact to economic system and economic cycles. The second part is the calculation of technical efficiency score to understand how the distribution of score across banks under three primary assumptions: Constant Return to Scale, Variable return to Scale and Scale Efficiency. The second part involves regression analysis in understanding financial variables affecting technical efficiency and how different the score between Islamic and conventional banks. The sample of this study is 1,425 commercial banks and 85 Islamic banks (Data downloaded from Bankscope Database). The method used in the first part is Data Envelopment Analysis and Descriptive Analysis, while the method used in the second part is Tobit regression. The findings in this study shows that Scale Efficiency score is better to represent efficiency score compared to Variable Return to Scale and Constant Return to Scale. The study also shows that Islamic banks are statistically more efficient than conventional banks. Moreover, the study found that return on average asset, net loan to total asset ratio, net interest margin, and equity to total asset ratio significantly affect the efficiency score
APA, Harvard, Vancouver, ISO, and other styles
18

Kablan, Sandrine. "Mesure de l'efficacité des banques de l'UEMOA selon trois perspectives : la zone monétaire, la région d'Afrique subsaharienne et relativement au pays ancre." Paris 10, 2009. http://www.theses.fr/2009PA100062.

Full text
Abstract:
L'objet de cette thèse est d'analyser l'efficacité des banques de la zone UEMOA en adoptant trois angles différents. Nous recourons à la méthode d'enveloppement des données (DEA) et à celle des frontières stochastiques (SFA) pour estimer respectivement l'efficacité technique et l'efficacité-coût des banques, puis dans un second temps nous nous évertuons à expliquer les déterminants de cette efficacité, ou à la relier au concept de développement financier. Afin de mener à bien une telle étude, nous présentons dans un premier chapitre la zone d'étude, son évolution et les caractéristiques de son système bancaire. Dans un second chapitre, nous effectuons une revue de la littérature théorique et empirique portant sur les différentes mesures de l'efficacité, les différences qu'elles présentent, leurs avantages et inconvénients. Enfin, le chapitre trois constitue l'apport principal de notre thèse et propose trois études empiriques avec l'application de méthodes plus ou moins différentes de calculs d'indicateurs de l'efficacité technique et de l'efficacité-coût. La première application se propose de mesurer l'efficacité des banques de l'UEMOA et ses facteurs déterminants, à l'issue des réformes bancaires de 1996. Les résultats indiquent des évolutions similaires pour les deux types d'efficacité (technique et coût) pour la plupart des pays de l'UEMOA. Une analyse plus détaillé suivant le type de banque (locales privées, étrangères ou publiques) revèle que les premières sont les plus efficaces, suivies par les secondes, puis les troisièmes. Enfin l'efficacité des banques dépend des variables telles que la solidité financière, le ratio de créances douteuses par pays, la concentration bancaire et le PIB par habitant. La deuxième application élargit la région d'analyse à l'Afrique subsaharienne, et tente de lier la question de l'efficacité à celle du développement financier. Des différences dans l'efficacité-coût des banques apparaissent suivant les sous-régions. Tandis que les résultats sur les déterminants de l'efficacité des banques viennent conforter ceux trouvés dans l'application précédente, il ressort que le développement financier est atténué par l'inflation et quelque peu par la concentration. Enfin la dernière application vise à mesurer l'efficacité des systèmes bancaires de la zone UEMOA et de la France en isolant les spécificités environnementales des entités considérées. Nos résultats montrent alors que les deux systèmes bancaires présentent des degrès d'efficacité assez proches et élevés de l'ordre de 80% sur la période 2000-2004. Le rapprochement des deux systèmes bancaires nous amène à suggérer la mise en oeuvre de réformes inspirées du modèle français, qui permettrait au système bancaire de l'UEMOA de jouer plus activement son rôle d'intermédiaire financier
The aim of this thesis is to analyze banking efficiency in the WAEMU (West African Economic and Monetary Union) zone by adopting three different angles. We use data envelopment analysis (DEA) and the stochastic frontier analysis (SFA) to estimate respectively technical and cost-efficiency of banks, then in a second step we strive to explain the efficiency determinants or to link it to the concept of financial development. To carry out such a study, we describe the studied zone in a first chapter,its evolution and the characteristics of its banking system. In a second chapter, we conduct a theoretical and empirical literature review on the various methods of efficiency measurement ; the differences they present, their advantages and disavantages. Finally, chapter three is the main contribution of our thesis. It relates three empirical studies with the application of more or less different methods for the calculation of technical and cost-efficiency indicators. The first study aims at measuring banking efficiency in the WAEMU and its determinants, following the banking reforms at 1996. The results show similar trends for both types of of efficiency (technical and cost) for most WAEMU countries. A more detailed analysis on the type of bank (local private, foreign or public) indicates that the former are the most efficient ones, followed by the second ones, then the third ones. Lastly, banking efficiency depends on variables such as financial strength, the ratio of non performing loans to total loans in the country, bank concentration and GDP per capita. The second empirical analysis extends the analysis to subsaharan Africa, and attempts to link the question of efficiency to that of financial development. Differences in banking cost- efficiency appear given the sub-regions. While the results on the determinants of banking efficiency reinforce those found in the previous application, it is clear that financial development is mitigated by inflation and somehow concentration. The final empirical analysis is to measure the efficiency of banking systems in the WAEMU zone and France, taking into account in the frontier the specificities of each geographical regions. In this case, our result show that the two banking systems display quite close efficiency scores : about 80% over the period 2000-2004. Bringing together the two banking systems, we were able to suggest the implementation of reforms inspired by the french model. This would allow WAEMU banking system to play more active role as a financial intermediary
APA, Harvard, Vancouver, ISO, and other styles
19

Belarouci, Matthieu. "The relation between technical efficiency and stock returns : evidence from the US airline industry." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL12028/document.

Full text
Abstract:
Ce travail de recherche vise à explorer la relation entre deux mesures de performance: l’efficience technique par la méthode d’enveloppement des données (DEA) et les rentabilités financières. Toutes deux relèvent de modélisations distinctes de l’entreprise et de son environnement mais s’accordent sur la typologie des facteurs susceptibles d’affecter la performance. Chacune propose un cadre d’analyse permettant leurs différenciations en facteurs déterministes exogènes d’une part et en facteurs endogènes relevant de la volonté stratégique de la firme ou d’attributs spécifiques d’autre part. Par le biais d’une application au secteur du transport civil aérien américain sur la période 1990-2012, la thèse met en évidence l’existence d’une relation statistique entre efficience technique, mesurée par la méthode DEA, et rentabilités. Nous observons que l’efficience technique, calculée sur la base des rapports officiels du Département du Transport Américain (US DOT), complète l’information comptable dans la valorisation des entreprises. En outre, la décomposition Hicks-Moorsteen et Färe-Primont de la productivité totale indique que les changements d’efficience technique sont associés aux rentabilités spécifiques. En revanche, les variations de la productivité issues de facteurs technologiques sont associées aux facteurs de risque systémique spécifiés par le modèle Fama-French-Carhart. La persistance de l’efficience technique au cours des cinq périodes consécutives suggère que l’amélioration de l’efficience entraine une réduction du risque systémique reflétée par la réduction du coût des fonds propres exigés
This investigation explores the relation between two performance measures: technical efficiency and stock returns. Technical efficiency and stock returns are complementary measures. While the abnormal returns - that is to say, the diffrence between the expected and the realized returns - measures the ability of the management at picking investment projects effiently, technical efficiency focuses on the management ability at implementing these investment projects. In addition, both recognize that the performance of the firm ensues from the exposure to common exogenous factors and from the management strategy specific to each firm. They propose in both cases a decomposition of the performance in pure managerial effects and exogenous effects. Through an application on the US airline industry over the period 1990-2012, the study reveals the value relevance of technical efficiency in stock valuation. In addition, the analysis of the Total Factor Productivity (TFP) decompositions based on Hicks-Moorsteen and Färe-Primont indicates that the effect of efficiency information on returns is twofold. First, the changes in pure technical effiency are related to the firms-specific returns. Next, technological change is associated with the variance of returns explained by systemic risks estimated with the Fama-French-Carhart model. Moreover, technological change is positively related to stock returns, while technical efficiency is negatively related. Given technical efficiency is persistent over the five consecutive years, results suggest that improvements in technical efficiency imply the reduction in the firm’s exposure to systematic risk. It results a reduction in the firms’ required rate of returns
APA, Harvard, Vancouver, ISO, and other styles
20

Ngo, Cong Khanh. "Etude et amélioration de l'organisation de la production de dispositifs médicaux stériles." Phd thesis, Grenoble 1, 2009. http://tel.archives-ouvertes.fr/tel-00371165.

Full text
Abstract:
Dans les établissements de santé, la stérilisation des dispositifs médicaux occupe une place primordiale dans la lutte contre l'infection. On appelle dispositif médical un instrument de chirurgie ou d'exploration utilisé lors d'une intervention ou d'un examen. Dans cette thèse nous étudions et proposons des améliorations de l'organisation de la production de dispositifs médicaux stériles en appliquant au milieu hospitalier des méthodes habituellement utilisées pour évaluer et améliorer les performances de systèmes de production industriels. Nous avons construit un modèle de simulation spécifique représentant le service de stérilisation du Centre Hospitalier Privé Saint Martin de Caen. Nous montrons les améliorations que nous avons pu obtenir en modifiant certains points de l'organisation. Par la suite nous avons cherché à dégager les spécificités des services de stérilisation de plusieurs établissements hospitaliers, dans le but d'effectuer une comparaison des différents types d'organisation et d'identifier les services les plus performants. Cette comparaison, réalisée à partir de données issues d'une enquête menée auprès d'établissements de la région Rhône-Alpes, repose sur des ratios de comparaison, sur la méthode DEA (Data Envelopment Analysis) et sur un modèle générique de simulation que nous avons élaboré. Dans cette thèse, nous proposons également des pistes pour analyser un service de stérilisation générique en utilisant des méthodes analytiques stochastiques. Nous commençons par dresser un état de l'art sur l'utilisation de modèles stochastiques analytiques pour l'analyse de systèmes de production de soins, puis nous étudions la possibilité d'utiliser une méthode analytique pour analyser notre modèle générique d'un service de stérilisation. Une modélisation par réseau de files d'attente du modèle générique est enfin présentée.
APA, Harvard, Vancouver, ISO, and other styles
21

Botti, Laurent. "Pour une gestion de la touristicité des territoires : stratégie collective et management de l'attractivité." Montpellier 1, 2009. http://www.theses.fr/2009MON10025.

Full text
Abstract:
La dimension économique du phénomène touristique est réelle et par conséquent, la question de la gestion de la touristicité des territoires est une problématique importante pour les décideurs. Cette thèse se concentre sur deux déterminants de la touristicité. Elle aborde tout d'abord le management des attractions touristiques. Elle montre comment deux classifications peuvent, une fois articulées autour de la notion de temps, préciser comment gérer de manière performante l'attractivité d'un territoire. Cette dernière est approchée dans ce travail d'une part par le nombre d'arrivées sur le territoire, comme le préconise l'OMT et, d'autre part, par le nombre de nuitées. Ce faisant, cette thèse discute de la manière de mesurer la performance des organisations en charge de la touristicité d'un territoire et teste empiriquement le lien entre E-attraction et longue durée de séjour à partir de la méthode DEA et de la procédure de Simar et Wilson (2007). Cette thèse concerne aussi la gestion de l'aptitude avec laquelle les acteurs de la destination vont se regrouper autour d'une stratégie collective. Elle précise pourquoi les acteurs d'une destination doivent unir leurs forces pour développer des stratégies qui leur permettent de se confronter à la concurrence d'autres territoires. Elle souligne aussi pourquoi ces pratiques doivent principalement viser une différenciation du produit-destination en signalant sa qualité. A partir de l'étude d'un cas de stratégie institutionnelle, cette thèse fait ressortir l'attitude réticente des opérateurs touristiques de petite taille. Elle présente alors des explications à cette hésitation en empruntant d'une part aux spécificités de la très petite entreprise (Torrès, 2004) et en étudiant, d'autre part, le réseau social d'une top-down stratégie effective. Cette thèse concerne donc principalement les Destination Management Organizations (DMO) dont la tâche tient dans l'optimisation de la touristicité d'un territoire
Our major aim is to elevate the accuracy in reflecting the performance of tourism destinations, as well as focusing on those determinants that lead to a better performance. For that purpose, we first establish a link between works on tourist attraction theory. We show that two classifications can be linked by a common unit of measurement: time. This is of particular interest for destination management because it improves knowledge about the central element of the destination and provides a means for the destinations manager to anticipate the tourist's length of stay and to optimize their attraction offer. In line with this reflexion, we employ an efficiency assessment procedure based on Data Envelopment Analysis (DEA) and the procedure of Simar and Wilson (2007). We make an evaluation of the French regions for the rationalisation of their tourism strategies and precise which kinds of tourism attractions can improve destination competitiveness. Furthermore, a focus on tourism destination competition can be of particular interest to collective strategy theory aiming at destination development. Tourism destinations are generally dominated by small land medium sized enterprises and more precisely by micro-businesses which often have reservations to employ such collective strategy. This situation is illustrated in our work by the strategy used by a seaside destination in the south of France, Argelès-sur-Mer. This situation implies that the Destination Management Organizations (DMO) which want to develop their destination through a collective strategy have to have a good knowledge of this type of organizations. The aim of our research is to investigate and clarify such small tourism business reservation to participation in local collective strategies. Its contribution lies in the interpretation of such resistance in relation to the proximity management of small and medium sized enterprises theory (Torrès, 2004), and by doing a network analysis
APA, Harvard, Vancouver, ISO, and other styles
22

Ben, Hadj Fredj Mejdi. "Les déterminants macro-économiques et financiers de l'efficience bancaire de pays émergents : cas de la Tunisie." Thesis, Tours, 2016. http://www.theses.fr/2016TOUR1005.

Full text
Abstract:
Notre objectif de ce travail est d’étudier l’efficience du marché financier tunisien avant et après la révolution de Jasmin de 2011 et de déterminer les facteurs macroéconomiques et financiers qui influencent le score d’efficience de ce marché. Notre méthodologie consiste à utiliser dans un premier temps le modèle GARCH multivarié pour estimer le coefficient de corrélation entre les rendements du marché et ceux des différentes banques et le coefficient Béta. Comme ce modèle suppose des résidus qui suivent la loi normale multivariée qui est une hypothèse non vérifiée dans la pratique, nous allons utiliser dans un deuxième temps la théorie des copules pour donner une plus grande souplesse dans la modélisation des données multivariées. Les facteurs les plus influents sont déterminés en utilisant le modèle de régression linéaire,le modèle de données de Panel et le modèle TOBIT. Les résultats empiriques montrent que le marché tunisien n’est pas efficient ni avant ni après la révolution. Beaucoup d’actions sont proposées pour améliorer le degré d’efficience de ce marché
Our objective of this work is to study the efficiency of the Tunisian financial market before and after the Jasmin revolution of 2011 and identify macro-economic and financial factors that influence the efficiency score of this market. Our methodology is to use at first multivariate GARCH model to estimate the correlation between market returns and those of individual banks and the Beta coefficient. As this model assumes the residues that follow the multivariate normal law is untested in practice, we used in a second step the copula theory to provide more flexibility in modeling multivariate data. The most influential factors are determined using the linear regression model, the panel data model and TOBIT model. The empirical results show that the Tunisian market is not efficient either before or after the revolution. Many actions are proposed to improve the degree of efficiency of this market
APA, Harvard, Vancouver, ISO, and other styles
23

Shen, Zhiyang. "Essays on Green Productivity." Electronic Thesis or Diss., Lille 1, 2016. http://www.theses.fr/2016LIL12004.

Full text
Abstract:
Pour faire face à une croissance continue de la population et maintenir un haut niveau de développement économique, les activités de production font porter un fardeau de plus en plus lourd à l'environnement naturel. Aujourd’hui, l’enjeu est clairement de se tourner vers un développement économique durable. Par conséquent, l’analyse de la relation entre les activités de production et leur impact environnemental attire beaucoup d'attention. Cette thèse a pour objectif de prendre en compte les externalités négatives liées aux outputs indésirables dans l’estimation d’une technologie de production et cherche à étudier leur impact sur la performance économique en général et sur la mesure des gains de productivité en particulier. L’intégration des externalités négatives comme les émissions de carbone dans la mesure de la productivité globale des facteurs fait référence à la notion de « productivité durable » ou de « green productivity ». Ce travail de thèse s’appuie sur une définition et une estimation non paramétrique des technologies de production pour lesquelles les fonctions distance directionnelles sont des outils appropriés pour définir et mesurer des indicateurs de productivité incluant une notion d’efficacité environnementale. Grâce à quelques développements méthodologiques originaux, nous parvenons à de nouveaux indicateurs de productivité totale des facteurs et à l’estimation de prix implicites des émissions de carbone pour les différents pays développés et en développement. Sur la base des résultats de nos analyses empiriques, nous tentons ainsi d’apporter des informations utiles aux décideurs et aux pouvoirs publics pour l’évaluation des réglementations environnementales entre pays et pour la définition de nouvelles politiques économiques respectueuses de l’environnement
As economic development and population growth, human’s production activity lays a heavy burden on the natural environment. In order to maintain sustainable development, investigating the relationship between economic development and environmental impact has received much attention. This thesis takes into account undesirable factors in production technology and tries to integrate the negative externality of carbon emissions into the measurement of economic performance, referred to as green productivity. This thesis employs a nonparametric estimation approach with directional distance function to analyze environmental efficiency, total factor productivity, and carbon shadow prices among different developed and developing countries at the macro level. We propose new contributions to the measurement and decomposition of productivity indices which capture environmental efficiency. Based on empirical results, we discuss the current environmental regulations and economic policies among countries, to provide useful information for decision and policy makers from an economic point of view
APA, Harvard, Vancouver, ISO, and other styles
24

Garrab, Mehdi. "L'apport des ressources, capacités et capacités dynamiques à la performance." Thesis, Paris 2, 2014. http://www.theses.fr/2014PA020075.

Full text
Abstract:
Dans cette thèse nous avons tenté d’expliquer la performance des entreprises en se basant sur l’approche basée sur les ressources (RBV) et l’approche basée sur les capacités dynamiques (DCV),deux approches relevant de la théorie des ressources qui gagneraient à être intégrées. Pour aborder la problématique, nous avons développé deux axes de recherche : « La détention des ressources/capacités et la Performance » et « La gestion des ressources/capacités et la Performance ». Le premier modèle conceptuel a présenté les relations liant les différentes capacités opérationnelles à la performance. Le modèle conceptuel global a traité de la relation « Capacités opérationnelles – Environnement -Stratégie de diversification - Capacités dynamiques- Performance ». Notre posture épistémologique dans cette recherche se voulait positiviste. Au niveau des choix méthodologiques nous avons opté pour une démarche hypothético-déductive avec une approche quantitative basée sur des données secondaires collectées de la base de données française DIANE et des statistiques de l’INSEE, et pour évaluer les capacités nous avons eu recours à la méthode DEA. La première étude empirique a testé la relation capacités opérationnelles-performance sur quatre échantillons mono-sectoriels représentatifs de l’industrie manufacturière française : le secteur pharmaceutique, le secteur automobile, le secteur de la chimie et le secteur de l’habillement. La seconde étude empirique a testé le modèle mettant en relation les capacités opérationnelles, les capacités dynamiques, l’environnement et la diversification,sur la base d’un échantillon plurisectoriel regroupant les quatre secteurs. Les résultats ont permis de découvrir en premier lieu, l’importance de la capacité financière pour tous les secteurs, en deuxième lieu, le rôle modérateur de l’environnement et de la diversification et en troisième lieu l‘importance des capacités dynamiques d’apprentissage (d’absorption) et adaptative dans l’explication de la performance. Ces résultats peuvent servir les décisions managériales et l'action publique
In this thesis we have tried to explain business performance based on the resource-based View (RBV) and the Dynamic capabilities View (DCV), two approaches within the resource-based theory (RBT)that benefits from being integrated. To address the problem, we have developed two main stream of research: "The detention of resources / capabilities and performance" and "The management of resources / capabilities and performance." The first conceptual model presented the relations linking the various operational capabilities to performance. The global conceptual model has focused the relation “Ordinary capabilities – Environment – Diversification strategy- Dynamic capabilities –Performance”. Our epistemological position in this research wished to be positivist. At the methodological level we opted for a hypothetical-deductive approach with a quantitative approach based on secondary data collected from the French database DIANE and INSEE statistics, and to evaluate capabilities we used the DEA method. The first empirical study that aims on “ordinary capabilities – performance” link, is based on four industries samples representing the French manufacturing industry: the pharmaceutical industry, the automotive industry, the chemical industry and the clothing industry. The second study tested the empirical model linking ordinary capabilities,dynamic capabilities, environment and diversification, based on a multisectorial sample comprising the four sectors. The results revealed first the importance of financial capability for all sectors, second the moderating role of the environment and the diversification and thirdly the magnitudes of dynamic learning (absorption) and adaptive capabilities in explaining performance. These results could serve managerial decisions and public policy
APA, Harvard, Vancouver, ISO, and other styles
25

Jin, Qianying. "Ordinal classification with non-parametric frontier methods : overview and new proposals." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1A007.

Full text
Abstract:
Suivant l'idée de séparer deux groupes par une hypersurface, la frontière convexe (C) générée par la méthode d'analyse de l'enveloppe des données (DEA) est utilisée pour la séparation dans la classification. Aucune hypothèse sur la forme de l'hypersurface n'est nécessaire si l'on utilise une frontière DEA. De plus, son raisonnement sur l'appartenance est très clair en se référant à une observation de référence. Malgré ces points forts, le classificateur basé sur la frontière DEA n'est pas toujours performant dans la classification. Par conséquent, cette thèse vise à modifier les classificateurs frontaliers existants et à proposer de nouveaux classificateurs frontaliers pour le problème de la classification ordinale. Dans la littérature, tous les axiomes utilisés pour construire la frontière C de la DEA sont conservés pour générer une frontière de séparation, sans argumenter leur correspondance avec les informations de base correspondantes. C'est ce qui motive notre travail au chapitre 2, où les liens entre les axiomes et les informations de base sont examinés. Tout d'abord, en réfléchissant à la relation monotone, les variables caractéristiques du type d'entrée et du type de sortie sont incorporées. En outre, le modèle de la somme minimale des écarts est proposé pour détecter la relation monotone sous-jacente si cette relation n'est pas donnée a priori. Deuxièmement, un classificateur de frontière nonconvexe (NC) est construit en assouplissant l'hypothèse de convexité. Troisièmement, la mesure de la fonction de distance directionnelle (DDF) est introduite pour fournir des implications managériales, bien qu'elle ne modifie pas les résultats de la classification par rapport à la mesure radiale. Les résultats empiriques montrent que le classificateur à frontière NC a la plus grande précision de classification. Une comparaison avec six classificateurs classiques révèle également la supériorité de l'application du classificateur à frontière NC. Alors que la relation des variables caractéristiques suggère souvent la prise en compte d'une relation monotone, le problème parallèle de la prise en compte d'une relation non monotone est rarement pris en compte. Au chapitre 3, une hypothèse d'élimination généralisée qui limite l'élimination dans une fourchette de valeurs est développée pour caractériser la relation non monotone. Au lieu d'avoir une seule frontière de séparation, une coque de séparation NC qui se compose de plusieurs frontières est construite. En ajoutant l'hypothèse de convexité, une coque séparatrice C est alors construite. Un exemple illustratif montrent que le classificateur de coques NC surpasse le classificateur C. En outre, une comparaison avec certains classificateurs frontaliers existants révèle également la supériorité de l'application du classificateur de coque NC. Le chapitre 4 propose de nouveaux classificateurs frontaliers permettant de prendre en compte différentes combinaisons d'informations de classification. En réfléchissant à la relation monotone, un classificateur NC est construit. Si la relation de substitution existe, alors un classificateur C est généré. Les classificateurs NC et C génèrent tous deux deux des frontières où chacun enveloppe un groupe. L'intersection de deux frontières est connue sous le nom de chevauchement, ce qui peut entraîner des classifications erronées. Le chevauchement est réduit en permettant aux deux frontières de se déplacer vers l'intérieur dans la mesure où le coût total de la classification erronée est minimisé. Les frontières déplacées sensibles aux coûts sont alors utilisées pour séparer les groupes. Les règles discriminantes sont également conçues pour intégrer les informations sur les coûts. Les résultats empiriques montrent que le classificateur NC assure une meilleure séparation que le classificateur C. En outre, la mesure de la DDF proposée surpasse la mesure radiale couramment utilisée en fournissant une séparation raisonnable
Following the idea of separating two groups with a hypersurface, the convex (C) frontier generated from the data envelopment analysis (DEA) method is employed as a separating hypersurface in classification. No assumption on the shape of the separating hypersurface is required while using a DEA frontier. Moreover, its reasoning of the membership is quite clear by referring to a benchmark observation. Despite these strengths, the DEA frontier-based classifier does not always perform well in classification. Therefore, this thesis focuses on modifying the existing frontier-based classifiers and proposing novel frontier-based classifiers for the ordinal classification problem. In the classification literature, all axioms used to construct the C DEA frontier are kept in generating a separating frontier, without arguing their correspondence with the related background information. This motivates our work in Chapter 2 where the connections between the axioms and the background information are explored. First, by reflecting on the monotonic relation, both input-type and output-type characteristic variables are incorporated. Moreover, the minimize sum of deviations model is proposed to detect the underlying monotonic relation if this relation is not priori given. Second, a nonconvex (NC) frontier classifier is constructed by relaxing the commonly used convexity assumption. Third, the directional distance function (DDF) measure is introduced for providing further managerial implications, although it does not change the classification results comparing to the radial measure. The empirical results show that the NC frontier classifier has the highest classification accuracy. A comparison with six classic classifiers also reveals the superiority of applying the NC frontier classifier. While the relation of the characteristic variables often suggests consideration of a monotonic relation, its parallel problem of considering a non-monotonic relation is rarely considered. In Chapter 3, a generalized disposal assumption which limits the disposability within a value range is developed for characterizing the non-monotonic relation. Instead of having a single separating frontier, a NC separating hull which consists of several frontiers is constructed to separate the groups. By adding the convexity assumption, a C separating hull is then constructed. An illustrative example is used to test the performance. The NC hull classifier outperforms the C hull classifier. Moreover, a comparison with some existing frontier classifiers also reveals the superiority of applying the proposed NC hull classifier. Chapter 4 proposes novel frontier classifiers for accommodating different mixes of classification information. To be specific, by reflecting on the monotonic relation, a NC classifier is constructed. If there is a priori information of the substitution relation, then a C classifier is generated. Both the NC and C classifiers generate two frontiers where each envelops one group of observations. The intersection of two frontiers is known as the overlap which may lead to misclassifications. The overlap is reduced by allowing the two frontiers to shift inwards to the extent that the total misclassification cost is minimized. The shifted cost-sensitive frontiers are then used to separate the groups. The discriminant rules are also designed to incorporate the cost information. The empirical results show that the NC classifier provides a better separation than the C one does. Moreover, the proposed DDF measure outperforms the commonly used radial measure in providing a reasonable separation
APA, Harvard, Vancouver, ISO, and other styles
26

Godard, Marie-Elodie. "Relaxations structurales dans les poly(α-n-alkyl)acrylates de méthyle : influence de la longueur de la chaîne alkyle latérale." Rouen, 1999. http://www.theses.fr/1999ROUES093.

Full text
Abstract:
Du fait de leur nature instable, les verres à l'état amorphe évoluent vers des états d'équilibre thermodynamiques plus favorables. Qualifié de relaxation structurale, ce phénomène fait appel à différents mouvements moléculaires, locaux ou coopératifs. Ce travail s'inscrit dans le cadre général de l'étude des mouvements moléculaires lents dans les matériaux désordonnés et notamment de l'étude de l'influence des interactions intermoléculaires sur ces phénomènes de relaxation structurale. Pour cela, nous avons étudié la transition principale α et la transition secondaire β dans les poly(α-n-alkyl)acrylates de méthyle grâce à trois techniques expérimentales complémentaires : les Courants de Dépolarisation Thermostimulés (CDTS), la Spectroscopie Diélectrique (SD) et l'Analyse Enthalpique Différentielle (AED). Pour chacune de ces techniques, nous avons utilisé un modèle d'interprétation phénoménologique : Williams-Hoffman-Passaglia pour les CDTS, Vogel-Tamman-Fülcher pour la SD et Tool-Narayanaswamy-Moynihan pour l'AED. Chacun de ces modèles fait intervenir une énergie d'activation apparente et une température caractéristique de la structure étudiée. La liaison de ces paramètres à la structure des matériaux montre que l'augmentation de la longueur de la chaîne latérale accélère la relaxation principale α mais n'influence pas la transition secondaire β. L'interprétation des résultats expérimentaux de SD et d'AED par le concept Strong-Fragile de Angell montre que l'augmentation de la chaîne latérale amène à une stabilisation thermodynamique de la structure. Grâce à l'approche thermodynamique d'Adam-Gibbs, l'évaluation du nombre d'entités relaxantes et de l'enthalpie élémentaire associée à chacune de ces entités a permis de mettre en évidence une longueur critique de la chaîne latérale séparant deux types de contribution à la relaxation principale α
This work is placed under the general framework of slow molecular movements study in disordered materials. Due to their metastable nature, glasses at amorphous state evolve towards more stable thermodynamic states, this is called the structural relaxation. This work deals with the influence of the lateral chain length, i. E. The influence of the intermolecular interactions, on the main a relaxation and the secondary b relaxation processes in polymethyl(α-n-alkyl)acrylates. This was done using three complementary techniques : the ThermoStimulated Current Depolarization (TSDC), the Dielectric Spectroscopy (SD) and the Differential Scanning Calorimetry (DSC). The analyse of the experimental results lead us to constat that the increase of the lateral chain length increases the relaxation rate of the α relaxation, but has no influence on the β relaxation. The analyse of the results thanks to Angell's Strong-Fragile concept has helped us to show that the longuest the lateral the lateral chain, the more thermodynamically stable the polymer. Thanks to the thermodynamic approach of Adam-Gibbs, we also have evaluated the number of relaxing species and the elemental energy associated to each particle. This has allowed us to show the presence of a critical chain length that separates two kinds of contribution to the main α relaxation
APA, Harvard, Vancouver, ISO, and other styles
27

Ojo, Oluwaseun. "Cost efficiency analysis of pesticide use reduction in crop activities on french farms." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL12006/document.

Full text
Abstract:
Suite au Grenelle de l’environnement proposant une réduction de 50% des pesticides dans l’agriculture française, l’objet central de cette thèse est d’estimer les potentiels progrès de productivité et de diminution de ces inputs pour les grandes cultures. Dans cette perspective, le recours aux modèles d’analyse d’activités et les estimations de fonction de coût par des approches non paramétriques comme Data Envelopment Analysis (DEA) et/ou Free Disposal Hull (FDH) sont mobilisés afin d’évaluer les réductions potentielles de coût global et des dépenses en pesticide pour ce type de cultures. S’appuyant d’une part sur un panel reprenant environ 600 exploitations situées dans le département de la Meuse au cours de la période 1992-2003 et d’autre part sur un échantillon de 700 exploitations de l’Eure & Loir observées en 2008, notre recherche vise à établir une relation de dominance coût entre les technologies utilisant plus ou moins de pesticide à l’hectare. En conséquence deux fonctions de coût caractérisées par des niveaux de dépenses de pesticides à l’hectare différents (haut et faible) sont comparées. La fonction de coût non paramétrique est estimée de manière robuste pour réduire la sensibilité des résultats à l’éventuelle présence d’outliers. Les résultats indiquent que des réductions substantielles de coût sont envisageables si les agriculteurs géraient leurs inputs plus efficacement. De plus, les pratiques culturales utilisant moins de pesticide à l’hectare apparaissent plus compétitives en matière de coût. Cette conclusion indique que l’adoption de ces nouvelles pratiques économes en intrants et donc plus favorables à l’environnement serait bénéfique à la fois pour les agriculteurs et pour l’ensemble de la société
In the context of the agreement of about 50% reduction in pesticide uses according to the accords du “Grenelle de l’environnement” (the Environment Round Table) in France, the central part of this study is to use some efficiency analysis to estimate the substantial productivity improvements and cost reductions on French farms. By employing Activity Analysis Models and estimating cost frontiers with non-parametric approaches such as Data Envelopment Analysis (DEA) and Free Disposal Hull (FDH)], total cost and/or pesticide expense reductions are evaluated on crop farms. Based on this, a sample of 600 and 700 farms in the Meuse and Eure & Loir departments were respectively observed over a 12 year period (1992-2003) and in year 2008. A non parametric cost function is essentially employed to assess the cost efficiency dominance between technologies using either more or less pesticide and a robust approach frontier is introduced in order to reduce the sensitivity of the cost frontier to the influence of potential outliers, thus improving the accuracy of the result. With respect to this, two cost functions characterized by a relatively lower or higher pesticide level per ha are compared. The estimated efficiency scores indicated that substantial efficiency improvements are possible on French crop farms with a strong potential for cost decreases if farmers could manage inputs more efficiently. Therefore, agricultural practices using less pesticide per ha are more cost competitive which does not only benefit the farmers but also the society, thereby promoting new agricultural practices that are more environmentally friendly
APA, Harvard, Vancouver, ISO, and other styles
28

Shen, Zhiyang. "Essays on Green Productivity." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL12004/document.

Full text
Abstract:
Pour faire face à une croissance continue de la population et maintenir un haut niveau de développement économique, les activités de production font porter un fardeau de plus en plus lourd à l'environnement naturel. Aujourd’hui, l’enjeu est clairement de se tourner vers un développement économique durable. Par conséquent, l’analyse de la relation entre les activités de production et leur impact environnemental attire beaucoup d'attention. Cette thèse a pour objectif de prendre en compte les externalités négatives liées aux outputs indésirables dans l’estimation d’une technologie de production et cherche à étudier leur impact sur la performance économique en général et sur la mesure des gains de productivité en particulier. L’intégration des externalités négatives comme les émissions de carbone dans la mesure de la productivité globale des facteurs fait référence à la notion de « productivité durable » ou de « green productivity ». Ce travail de thèse s’appuie sur une définition et une estimation non paramétrique des technologies de production pour lesquelles les fonctions distance directionnelles sont des outils appropriés pour définir et mesurer des indicateurs de productivité incluant une notion d’efficacité environnementale. Grâce à quelques développements méthodologiques originaux, nous parvenons à de nouveaux indicateurs de productivité totale des facteurs et à l’estimation de prix implicites des émissions de carbone pour les différents pays développés et en développement. Sur la base des résultats de nos analyses empiriques, nous tentons ainsi d’apporter des informations utiles aux décideurs et aux pouvoirs publics pour l’évaluation des réglementations environnementales entre pays et pour la définition de nouvelles politiques économiques respectueuses de l’environnement
As economic development and population growth, human’s production activity lays a heavy burden on the natural environment. In order to maintain sustainable development, investigating the relationship between economic development and environmental impact has received much attention. This thesis takes into account undesirable factors in production technology and tries to integrate the negative externality of carbon emissions into the measurement of economic performance, referred to as green productivity. This thesis employs a nonparametric estimation approach with directional distance function to analyze environmental efficiency, total factor productivity, and carbon shadow prices among different developed and developing countries at the macro level. We propose new contributions to the measurement and decomposition of productivity indices which capture environmental efficiency. Based on empirical results, we discuss the current environmental regulations and economic policies among countries, to provide useful information for decision and policy makers from an economic point of view
APA, Harvard, Vancouver, ISO, and other styles
29

Berre, David. "Les nouveaux enjeux économiques et environnementaux des productions animales : développements méthodologiques par une approche interdisciplinaire des frontières d’efficience." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL12016/document.

Full text
Abstract:
Identifier des systèmes de productions agricoles capables de produire plus en prélevant moins de ressources et en émettant moins d’externalités négatives apparait comme une nécessité au regard du défi de nourrir 9,6 milliards d’êtres humains en 2050. Dans un programme ANR-EPAD multidisciplinaire, nous avons proposé d’explorer les outils micro-économiques d’analyse de la productivité que sont les frontières d’efficience pour apporter un nouveau regard sur le développement durable des productions animales.Empiriquement, les modèles ont montré que selon les objectifs poursuivis dans la réduction de l’éco-inefficience (réduction des inputs ou de la pollution, augmentation des outputs), les marges de progression variaient notablement. L’exploration des modèles "duaux" a démontré que les méthodes de frontières d’efficience permettent de définir les coûts implicites des externalités non-monétaires. Nos évaluations du prix d’équivalent carbone sont proches des niveaux observés des taxes carbones. Le calcul de coûts négatifs pour les excédents azotés a souligné l’intérêt des débats actuels sur l’intégration des outputs indésirable dans la méthode DEA (Data Envelopment Analysis), mais également la nature ambivalente de cet indicateur (source de pollution pour le sol ou l’air, ou de richesse en tant que fertilisant organique). Enfin, nous avons développé une approche innovante de modélisation des déterminants de l’éco-efficience. En couplant le modèle "whole-farm" GAMEDE à la méthode DEA, nous avons mis en évidence les pistes de réflexion qu’ouvre l’exploration de nouveaux types de modélisation en agronomie comme la "simulation-based optimization" ou l’ "inverse modelling"
The challenge of feeding 9.6 billion people in 2050 requires to identify sustainable livestock production systems that are able to produce more agricultural products while consuming less resources and producing less externalities. As part of a multidisciplinary research program (ANR-EPAD), we explored microeconomic tools for productivity analysis such as efficient frontiers to shed a new light on sustainable development of livestock production. Our models empirically showed that the progress margins can significantly differ depending on the objectives pursued in the context of eco-inefficiency reduction (input and pollution reduction, output augmentation). Exploration of "dual" models also showed that efficient frontier methods were relevant to provide an economic valuation of non-monetary negative externalities. For instance, our results on the economic value of carbon emissions were close to the observed carbon tax levels. The possibility for farmers to consider that nitrogen surpluses can generate some revenue illustrates the current debate on the integration of undesirable outputs in the Data Envelopment analysis (DEA), and the ambivalence of this indicator of environmental impact as well (either considered as a source of pollution to the air or soil as well as a source of income through organic fertilization). We developed an innovative approach to assess the determinants of eco-efficiency in livestock production. By combining GAMEDE (a "whole-farm" model) with a DEA methodology, we highlighted the potential for further questioning raised by the exploration of new types of modelling in agronomy (such as "simulation-based optimization" or "inverse modelling")
APA, Harvard, Vancouver, ISO, and other styles
30

Berre, David. "Les nouveaux enjeux économiques et environnementaux des productions animales : développements méthodologiques par une approche interdisciplinaire des frontières d’efficience." Electronic Thesis or Diss., Lille 1, 2014. http://www.theses.fr/2014LIL12016.

Full text
Abstract:
Identifier des systèmes de productions agricoles capables de produire plus en prélevant moins de ressources et en émettant moins d’externalités négatives apparait comme une nécessité au regard du défi de nourrir 9,6 milliards d’êtres humains en 2050. Dans un programme ANR-EPAD multidisciplinaire, nous avons proposé d’explorer les outils micro-économiques d’analyse de la productivité que sont les frontières d’efficience pour apporter un nouveau regard sur le développement durable des productions animales.Empiriquement, les modèles ont montré que selon les objectifs poursuivis dans la réduction de l’éco-inefficience (réduction des inputs ou de la pollution, augmentation des outputs), les marges de progression variaient notablement. L’exploration des modèles "duaux" a démontré que les méthodes de frontières d’efficience permettent de définir les coûts implicites des externalités non-monétaires. Nos évaluations du prix d’équivalent carbone sont proches des niveaux observés des taxes carbones. Le calcul de coûts négatifs pour les excédents azotés a souligné l’intérêt des débats actuels sur l’intégration des outputs indésirable dans la méthode DEA (Data Envelopment Analysis), mais également la nature ambivalente de cet indicateur (source de pollution pour le sol ou l’air, ou de richesse en tant que fertilisant organique). Enfin, nous avons développé une approche innovante de modélisation des déterminants de l’éco-efficience. En couplant le modèle "whole-farm" GAMEDE à la méthode DEA, nous avons mis en évidence les pistes de réflexion qu’ouvre l’exploration de nouveaux types de modélisation en agronomie comme la "simulation-based optimization" ou l’ "inverse modelling"
The challenge of feeding 9.6 billion people in 2050 requires to identify sustainable livestock production systems that are able to produce more agricultural products while consuming less resources and producing less externalities. As part of a multidisciplinary research program (ANR-EPAD), we explored microeconomic tools for productivity analysis such as efficient frontiers to shed a new light on sustainable development of livestock production. Our models empirically showed that the progress margins can significantly differ depending on the objectives pursued in the context of eco-inefficiency reduction (input and pollution reduction, output augmentation). Exploration of "dual" models also showed that efficient frontier methods were relevant to provide an economic valuation of non-monetary negative externalities. For instance, our results on the economic value of carbon emissions were close to the observed carbon tax levels. The possibility for farmers to consider that nitrogen surpluses can generate some revenue illustrates the current debate on the integration of undesirable outputs in the Data Envelopment analysis (DEA), and the ambivalence of this indicator of environmental impact as well (either considered as a source of pollution to the air or soil as well as a source of income through organic fertilization). We developed an innovative approach to assess the determinants of eco-efficiency in livestock production. By combining GAMEDE (a "whole-farm" model) with a DEA methodology, we highlighted the potential for further questioning raised by the exploration of new types of modelling in agronomy (such as "simulation-based optimization" or "inverse modelling")
APA, Harvard, Vancouver, ISO, and other styles
31

Chu, Junfei. "Méthodes d’amélioration pour l'évaluation de l'enveloppement des données évaluation de l'efficacité croisée." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC096/document.

Full text
Abstract:
L'évaluation croisée d'efficacité basée sur la data envelopment analysis (DEA) a été largement appliquéepour l'évaluation d'efficacité et le classement des unités de prise de décision (decision-making units, DMUs). A l’heureactuelle, cette méthode présente toujours deux défauts majeurs : la non-unicité des poids optimaux attachés aux entréeset aux sorties et la non Pareto-optimalité des résultats d’évaluation. Cette thèse propose des méthodes alternatives poury remédier. Nous montrons d’abord que les efficacités croisées visées dans les modèles traditionnels avec objectifssecondaires ne sont pas toujours atteignables pour toutes les DMUs. Nous proposons ensuite un modèle capable detoujours fournir des objectifs d'efficacité croisée atteignables pour toutes les DMUs. Plusieurs nouveaux modèles avecobjectifs secondaires bienveillants ou agressifs et un modèle neutre sont proposés. Un exemple numérique est utilisépour comparer les modèles proposés à ceux qui existent dans la littérature. Nous présentons ensuite une approched'évaluation croisée d'efficacité basée sur l'amélioration de Pareto. Cette approche est composée de deux modèles etd’un algorithme. Les modèles sont utilisés respectivement pour estimer si un ensemble donné de scores d’efficacitécroisée est Pareto-optimal et pour améliorer l’efficacité croisée de cet ensemble si cela est possible. L'algorithme estutilisé pour générer un ensemble Pareto-optimal de scores d'efficacité croisée pour les DMUs. L'approche proposéeest finalement appliquée pour la sélection de projets de R&D et comparée aux approches traditionnelles. En outre,nous proposons une approche d’évaluation croisée d’efficacité qui traite simultanément les deux problématiquesmentionnées ci-dessus. Un modèle de jeu de négociation croisée est proposé pour simuler la négociation entre chaquecouple de DMUs au sein du groupe afin d'identifier un ensemble unique de poids à utiliser pour le calcul de l'efficacitécroisée entre eux. De plus, un algorithme est développé pour résoudre ce modèle via une suite de programmes linéaires.L'approche est finalement illustrée en l'appliquant à la sélection des fournisseurs verts. Enfin, nous proposons uneévaluation croisée d'efficacité basée sur le degré de satisfaction. Nous introduisons d'abord la nation de degré desatisfaction de chaque DMU sur les poids optimaux sélectionnés par les autres. Ensuite, un modèle max-min est fournipour déterminer un ensemble des poids optimaux pour chaque DMU afin de maximiser tous les degrés de satisfactiondes DMUs. Deux algorithmes sont ensuite développés pour résoudre le modèle et garantir l’unicité des poids optimauxde chaque DMU, respectivement. Enfin, l’approche proposée est appliquée sur une étude des cas pour la sélection detechnologies
Data envelopment analysis (DEA) cross-efficiency evaluation has been widely applied for efficiencyevaluation and ranking of decision-making units (DMUs). However, two issues still need to be addressed: nonuniquenessof optimal weights attached to the inputs and outputs and non-Pareto optimality of the evaluationresults. This thesis proposes alternative methods to address these issues. We first point out that the crossefficiencytargets for the DMUs in the traditional secondary goal models are not always feasible. We then givea model which can always provide feasible cross-efficiency targets for all the DMUs. New benevolent andaggressive secondary goal models and a neutral model are proposed. A numerical example is further used tocompare the proposed models with the previous ones. Then, we present a DEA cross-efficiency evaluationapproach based on Pareto improvement. This approach contains two models and an algorithm. The models areused to estimate whether a given set of cross-efficiency scores is Pareto optimal and to improve the crossefficiencyscores if possible, respectively. The algorithm is used to generate a set of Pareto-optimal crossefficiencyscores for the DMUs. The proposed approach is finally applied for R&D project selection andcompared with the traditional approaches. Additionally, we give a cross-bargaining game DEA cross-efficiencyevaluation approach which addresses both the issues mentioned above. A cross-bargaining game model is proposedto simulate the bargaining between each pair of DMUs among the group to identify a unique set of weights to beused in each other’s cross-efficiency calculation. An algorithm is then developed to solve this model by solvinga series of linear programs. The approach is finally illustrated by applying it to green supplier selection. Finally,we propose a DEA cross-efficiency evaluation approach based on satisfaction degree. We first introduce theconcept of satisfaction degree of each DMU on the optimal weights selected by the other DMUs. Then, a maxminmodel is given to select the set of optimal weights for each DMU which maximizes all the DMUs’satisfaction degrees. Two algorithms are given to solve the model and to ensure the uniqueness of each DMU’soptimal weights, respectively. Finally, the proposed approach is used for a case study for technology selection
APA, Harvard, Vancouver, ISO, and other styles
32

Shitikova, Karina. "Productivity gains decomposition and distribution of the price effects among stakeholders." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1A006/document.

Full text
Abstract:
La performance financière d'une firme dépend à la fois de son efficacité productive et de l'environnement économique dans lequel cette firme exerce son activité. Cette thèse enrichit cette littérature en développant de nouveaux liens entre l’efficacité productive, la performance financière et la distribution des gains de productivité. Trois contributions principales y sont développées. Premièrement, nous proposons une manière originale de décomposer les écarts de profit entre les firmes au niveau spatial en tenant compte de leur inefficacité productive et en reliant ensuite ces écarts aux avantages/désavantages prix des parties prenantes de la firme. Deuxièmement, nous définissons, d’un point de vue méthodologique, un indicateur de l'environnement prix pour une firme en comparant sa distance à la frontière d'efficacité estimée, d’une part, avec des volumes et, d’autre part, avec des valeurs. Cet effet d'environnement prix a été ensuite appliqué pour l’ensemble des industries américaines sur la période 1987-2014. Troisièmement, nous développons une approche méthodologique pour décomposer l'inefficience technique globale des firmes à un niveau agrégé tel que le secteur ou l’économie en deux composantes : l’inefficacité technique individuelle et l’inefficacité structurelle. Au final, ce travail de thèse tend à montrer que la génération des gains de productivité et leur distribution entre les parties prenantes d’une firme sont les deux facettes d'une même pièce. La première est liée à l'analyse économique de la PGF basée sur l'estimation d'une technologie de production tandis que la seconde traite d'une approche comptable et managériale de la performance des firmes
The financial performance of a firm depends both on its productive efficiency and the economic environment in which this firm performs its activity. This thesis adds to the literature by developing new links between productive efficiency, financial performance and productivity gains distribution. Namely, this doctoral thesis contributes in the three following ways. First, we propose an original way on how to decompose the profit gaps among firms at the cross-sectional level taking into account their productive inefficiency and then relating these productivity-based gaps to the price advantages/disadvantages of the firm’s stakeholders. Second, we define an indicator of price environment for a firm comparing its distance to the volume- and value-based efficiency frontier. These price environment effects were computed for US industries from 1987 to 2014. Third, we suggest a decomposition of the overall technical inefficiency of firms at the aggregated level into two components: individual technical and individual structural inefficiencies. This essay tends to show that generation of productivity gains and their distribution are two sides of the same coin. The former is related to the economic analysis of TFP based on the estimation of a production technology while the latter deals with an accounting approach of business performance
APA, Harvard, Vancouver, ISO, and other styles
33

Ganouati, Janet. "A Cross-efficiency approach to portfolio selection." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1A013.

Full text
Abstract:
Le processus de sélection de portefeuille peut être effectué en deux étapes: la première consiste à évaluer les actifs financiers et la deuxième à déterminer la combinaison d’actifs qui permettrai d‘allouer de façon optimale la richesse. La combinaison des actifs financiers retenue à la fin de ce processus se doit de répondre simultanément et de façon optimale aux différents objectifs de l‘investisseur. Le problème de sélection de portefeuille peut être considéré comme un processus de décision multicritère. Dans cette thèse, plusieurs critères ont été analysés et on a tenté de répondre à la question de combien et où investir ? On a proposé une nouvelle approche multicritère basée sur la méthode d‘enveloppement des données (DEA) et l‘approche de l‘efficacité croisée pour sélectionner un portefeuille d’actifs financier. La première méthodologie proposée consiste à incorporer la méthode d’efficacité croisée dans un espace Moyenne-Variance-Skewness-Kurtosis (MVSK). Le deuxième modèle combine la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu avec la composante risque pour choisir un portefeuille. Finalement, on a proposé d’incorporer la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu dans un modèle d’arbitrage entre profitabilité et efficacité afin de sélectionner un portefeuille. Globalement, ces méthodes ont permis la discrimination entre les actifs financiers et de leur donner un classement unique dans un premier temps, ensuite de sélectionner un portefeuille en prenant en considération les préférences du décideur
The process of portfolio selection could be divided into two stages: the first one is the evaluation of financial assets and the second is to choose the best ones to construct portfolio. It can be considered as Multi-Criteria-Decision-Making (MCDM) process. It consists in selecting a combination of financial assets that can best meet the investors’ objective. In this dissertation, different criteria are analyzed and the question of where and how much money to allocate to each of the financial asset is processed. We propose a new multi-criteria analysis approach to portfolio selection based on Data Envelopment Analysis (DEA) cross-efficiency model. The first methodology consists in nesting the DEA cross-efficiency model into the Mean-Variance-Skewness-Kurtosis (MVSK) space. The second model combines the DEA game cross-efficiency approach with risk component to select portfolio. Finally, we propose a model incorporating the DEA game cross-efficiency into Profitability-Efficiency. Overall, these methodologies provide more discrimination for financial assets by providing unique ranks in a first step and permit to select portfolio by underlying preferences of the decision-maker in a second step
APA, Harvard, Vancouver, ISO, and other styles
34

Dakouo, Cyprien. "La convergence des productivités : comparaison entre la zone euro et les autres pays de l’OCDE." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL12011.

Full text
Abstract:
L’objectif de réduction des écarts de niveaux de vie entre les pays membres de l’Union Monétaire Européenne nécessite la convergence des productivités entre les économies. Notre contribution est de comparer la dynamique sur longue période des Productivités Globales des Facteurs (PGF) des pays de la zone euro à celles d’un ensemble de pays dénommé "autres OCDE". Cet objectif général est subordonné à deux autres plus spécifiques : 1) Analyser les gains de productivité par une approche paramétrique des frontières de production afin d’examiner la sigma-convergence des PGF des deux zones. 2) Etudier les évolutions des inefficacités productives sous-jacentes aux dynamiques de la PGF en s’appuyant sur un modèle d’activités non paramétrique. Nous étudions les évolutions de 11 pays de la zone euro et de 11 pays « autres OCDE entre 1965 et 2015. Nos résultats montrent que la zone euro connait un meilleur taux de croissance tendanciel de la PGF que celui des autres pays de l’OCDE ; bien que les niveaux de productivité de ceux-ci soient plus élevés. Par ailleurs, les variations des inefficacités productives attestent l’existence d’un rattrapage technologique au sein de chaque zone. Ce phénomène se fait non pas vers la frontière mais en dessous de celle-ci. De plus, la réduction des inefficacités structurelles entre le milieu des années 1970 et le début des années 2000 témoignent d’une homogénéisation des mixes d’output/inputs entre les pays membres. La convergence conditionnelle aux variables monétaires budgétaires et réelles conduit à des résultats différents suivant qu’il s’agit du processus de rattrapage technique ou de celui de la convergence structurelle. Toutefois au début des années 2000, un mouvement de divergence s’installe entre les pays de l’Euroland et s’accentue à partir de 2008-2009
The objective of reducing differences in living standards among the Eurozone countries requires the convergence of productivity levels between economies. Our contribution is to compare the long-run dynamics of the Total Factor Productivity (TFP) among the Eurozone countries to that of another group, referred to as "other OECD countries". This general objective is divided into two more specific research subjects: 1) To analyze the productivity gains based on a parametric activity framework of production set to investigate the absolute Sigma-convergence of the TFPs in the two zones. 2) To examine the evolution of the productive inefficiencies underlying the dynamics of the TFP, based on a nonparametric activity model. We observed the evolutions of 11 Eurozone countries, and 11 other OECD countries over the period 1965-2015. Our empirical results show that the level of productivity still seems to be higher in other OECD countries even the growth rate of productivity is greater in the Eurozone. This indicates a catch- up phenomenon between two groups and a sigma-convergence is observed before the end of 1990s. However, the catching up efficiency processes do not move the countries toward the frontier but make them converge below the frontier. Additionally, a significant decrease in structural inefficiencies is noticed between the mid-1970s and the early 2000s which indicates the homogenization of output / input mixes for each zone. The convergence process is conditional to real and monetary variables which may differ according to the technical catch-up or the structural efficiency dynamics. However, it seems that these dynamics have been interrupted since the creation of the Euro and have been even turned to a movement of divergence since the subprime crisis in 2008
APA, Harvard, Vancouver, ISO, and other styles
35

Ferhat, Fouad. "Une analyse économique de la qualité et de l'efficience des universités et des systèmes universitaires : une comparaison au niveau international." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E040/document.

Full text
Abstract:
Cette thèse propose une analyse économique de la qualité et de l'efficience des universités et des systèmes universitaires au niveau international, à travers l'utilisation des indicateurs intrants et extrants et la méthode d'enveloppement des données (Data Envelopment Analysis DEA). La thèse est composée de quatre chapitres. Le premier chapitre intitulé "les classements des universités : une mise en perspective critique" présente et évalue la pertinence des indicateurs intrants/extrants les plus utilisés par les classements des universités. Il est l'occasion d'exposer un certain nombre de critiques présentes dans la littérature et de focaliser sur un problème méthodologique répandu dans les classements. Il s'agit de l'utilisation des inputs (intrants) comme des mesures de la qualité des universités. Une telle pratique confond moyen et résultat et fait l'impasse sur les concepts de base des modèles de comptabilité en termes de fonction de production et d'efficience. Le deuxième chapitre intitulé "caractéristiques et classements des universités : autour de quelques facteurs capables d'expliquer les différences de performance entre les universités", compare les résultats de deux classements: QS-Times et Shanghai et propose une liste de facteurs capables d'expliquer pourquoi il existe de telles différences de qualité, selon ces classements, entre les universités. [...] Le troisième chapitre intitulé "la performance et l'efficience des universités et leurs déterminants: une évaluation à partir des classements mondiaux des universités et de la méthode DEA" évalue sur la base d'une méthode DEA l'efficience de 214 universités issues de 13 pays différentes afin de savoir si les universités les mieux classées parmi les classements traditionnels sont aussi les universités qui utilisent le mieux leurs ressources. [...] Enfin, le quatrième chapitre, titré "l'efficience des systèmes universitaires de 35 pays et leurs déterminants: une évaluation par la méthode DEA et le calcul des indices de Malmquist (2006-2012)" évalue l'efficience et les performances des systèmes universitaires de 35 pays. Il propose de nouveaux scores d'efficience globale qui viennent compléter les deux premières études sur ce sujet d’Agasisti (2011) et St. Aubyn et al (2009). Les nouveautés par rapport à l'article d'Agasisti (2011) sont au nombre de cinq: l'échantillon est plus important (35 pays au lieu de 18), la période d'observation est actualisée, l'évolution de l'efficience entre deux périodes est calculée, le nombre des intrants et des extrants incorporé dans chaque modèle est plus élevé et un modèle spécifique d'évaluation de l'efficience de la recherche est proposé. Il conforte la thèse selon laquelle les systèmes universitaires de la Suisse et du Royaume-Uni sont les plus efficients. Il montre aussi sur la base d'un calcul des indices de Malmquist qu'entre 2006 et 2012 l'efficience en matière d'enseignement des 35 systèmes universitaires évalués a eu tendance à diminuer alors que l'efficience de la recherche et de l'attractivité- réputation de ces mêmes systèmes a plutôt eu tendance à augmenter. Ce qui permet de mieux évaluer l'effet des réformes inspirées par l'usage du classement de Shanghai sur les systèmes universitaires. Ces réformes conduisent les enseignants-chercheurs à délaisser l'enseignement pour la recherche
This thesis aims to economically analyze the quality and efficiency of universities and university systems at an international level of comparison, by using input/output indicators and the Data Envelopment Analysis (DEA) method. The thesis is composed of four chapters. The first chapter entitled "university rankings: a critical perspective" presents and evaluates the relevance of inputs/outputs indicators used by most university rankings. It is the opportunity to present a number of criticisms found in the literature and focus on a common methodological problem in the rankings. It is the use of inputs as measures of university quality. This practice confuses means and results and ignores the basic concepts of accounting models in terms of production functions and efficiency. The second chapter entitled "characteristics and rankings of universities : around some factors that can explain the differences in performance between universities", compares the results of two rankings: QS-Times and Shanghai and offers a list of factors that may explain why there are such differences in quality, according to these rankings between universities. [...] The third chapter entitled "performance and efficiency of universities and their determinants: an evaluation using world university rankings and DEA methodology" evaluates on the basis of a DEA methodology the efficiency of 214 universities from 13 different countries, in order to find if the top ranked universities among traditional rankings are also universities that best utilize their financial and human resources. [...] The fourth chapter titled "efficiency of university systems in 35 countries and its determinants: an assessment by DEA methodology and the calculation of Malmquist indices (2006-2012)" assesses the efficiency and performance of university systems of 35 countries. It offers new scores for overall efficiency that complement the first two studies on this topic in the literature by Agasisti (2011) and St.Aubyn et al (2009). Compared to the article of Agasisti (2011), we identify five new developments in our study : the sample is higher (35 countries instead of 18), the observation period is updated, the evolution of efficiency between two periods is calculated, the number of inputs and outputs incorporated into each model is higher and a specific model for evaluating the efficiency of research is proposed. Our study confirms the thesis that the university systems of Switzerland and the United Kingdom are the most efficient. It also shows based on the calculations of Malmquist indices between 2006 and 2012 that teaching efficiency of 35 reviewed university systems has a tendency of declining while the research efficiency and that of attractivity-reputation is rather increasing. This allows a better assessment of the impact of reforms inspired by the Shanghai ranking on university systems. These reforms led the academic staff of universities to abandon their focus on teaching in favor of research activities
APA, Harvard, Vancouver, ISO, and other styles
36

Tsopela, Alexandra. "Modélisation hydromécanique de la réactivation de faille par la méthode des éléments discrets." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI046/document.

Full text
Abstract:
Les failles dans la croûte supérieure sont des zones de déformation localisées capables de conduire des fluides sur de longues distances. L'estimation de la perméabilité des zones de failles et de leurs propriétés hydromécaniques est cruciale dans nombreux domaines de recherche et applications industrielles. Dans l'industrie pétrolière, et plus particulièrement dans les applications d'exploration et de production, l'intégrité de l'étanchéité des failles doit être évaluée pour la détection des pièges à hydrocarbures. Il existe déjà des approches permettant d'estimer la capacité de scellement latéral d'une faille à partir de la teneur en argile des couches (par exemple le Shale Gouge Ratio). Pourtant, les conditions dans lesquelles la faille se comporte comme un conduit le long de sa structure ne sont pas encore suffisamment contraintes. Dans ce contexte, la géomécanique peut apporter un éclairage complémentaire sur les paramétres qui contrôlent le comportement hydrodynamique de la faille. Ces paramètres comprennent le champ de contraintes, la pression du fluide, l'orientation des structures de la zone de faille et les propriétés des matériaux. Des expériences d'injection à une échelle décamétrique ont été réalisées dans une zone de faille située dans le site expérimental de Tournemire, dans le sud de la France, au cours desquelles la pression et le débit du fluide, la déformation du massif, la sismicité ont été suivis. Sur la base des observations issues de ces expériences, une étude numérique a été réalisée pour explorer l'évolution de la perméabilité etétablir le lien avec la réponse hydromécanique de la faille ainsi que la sismicité induite. Les comportements des failles secondaires, les fractures de la zone endommagée ainsi que la roche encaissante ont été modélisés numériquement en utilisant la méthode des éléments discrets. La modélisation des essais expérimentaux et l'analyse des modèles génériques utilisés pour les études paramétriques ont mis en évidence le rôle majeur des conditions de contrainte in situ. L'effet combiné de la contrainte et de l'orientation des structures de la faille détermine en premier lieu la nature de la réactivation selon le concept de l'état de contrainte critique de la faille décrit dans la littérature. Pour des conditions de contrainte et des éléments structuraux donnés, il a été démontré que selon le niveau de pression du fluide, la faille offre trois gammes différentes de perméabilité : i) perméabilité équivalente à la perméabilité de la formation, ii) 2 à 4 ordres de grandeur plus élevés et iii) plus de 4 ordres de grandeur plus élevés. Alors que pour les deux cas extrêmes, la faille est caractérisée comme étant hydromécaniquement active ou inactive, le second cas est principalement contrôlé par des mécanismes de chenalisation du fluide favorisés par des hétérogénéités aussi bien à l'échelle d'une seule fracture ou qu'à l'échelle du réseau de fractures. Les changements dans les propriétés hydrauliques sont dans certains cas détectés par la sismicité induite lors de l'injection en supposant que la sismicité est l'effet direct de la propagation du fluide, de l'augmentation de la pression du fluide et de la chute de la contrainte effective. Néanmoins, les mécanismes à l'origine de la sismicité induite par injection sont encore peu connus. A partir des résultats expérimentaux du site de Tournemire, le rôle de la diffusivité hydraulique des structures de la faille a été exploré sur la sismicité observée dans le cadre d'une analyse hydro-mécanique. Les résultats indiquent que la microsismicité induite était probablement liée à des perturbations de contrainte résultantes d'une déformation asismique importante plutôt que de la propagation de fluides à travers des structures hydrauliquement connectées
Faults in the Earth crust are localized zones of deformation which can drive fluids over long distances. Estimating the permeability of fault zones and their hydro-mechanical properties is crucial in a wide range of fields of research and industrial applications. In the petroleum industry, and more specifically in exploration and production applications, the seal integrity of faults in low permeability formations (e.g. shale) needs to be evaluated for the detection of hydrocarbon traps. There already exist approaches able to sufficiently estimate the "side-sealing" capacity of a fault based on the clay or shale content of the layers (e.g. Shale Gouge Ratio). Nevertheless, the conditions under which the fault acts as a drain along its structure are still not properly constrained. In this context, the response of the fault is directly controlled by a number of factors that can be better approached from a geomechanics point of view. These factors include the stress field, the fluid pressure, the orientation of the fault-related structures and the material properties. Meso-scale field injection experiments were carried out inside a fault zone located in the Tournemire massif at the South of France during which the fluid pressure, the deformation, the seismicity and the flow rate were monitored. Based on the Tournemire experiments and field observations, a numerical study was performed exploring the evolution of the permeability and how it is related to the fault hydro-mechanical reactivation and potentially to the induced seismicity. Fault-related structures such as subsidiary faults or fractures that were targeted during the experiments together with the surrounding intact rock, were modeled using the Discrete Element method. Modeling of the experimental tests and the analysis of generic models used to perform parametric studies highlighted the primary role of the in-situ stress conditions. The combined effect of stress and orientation of the fault structures determine in the first place the nature of the reactivation according to the critically stressed fault concept reported in the literature. For given stress conditions and structural features, it was shown that depending on the fluid pressure level, the fault offers three different ranges of permeability: i) permeability that is equivalent to the formation's permeability, ii) 2 to 4 orders of magnitude higher and iii) more than 4 orders of magnitude higher. While for the two extreme cases the fault is characterized as hydro-mechanically inactive or active, the second case is mostly controlled by fluid channeling mechanisms promoted by heterogeneities at the scale of a single fracture or at the scale of the fracture network. Changes in the hydraulic properties are in some cases detected by the seismicity triggered during the injection under the assumption that the seismicity is the direct effect of fluid propagation, fluid pressure increase and effective stress drop.However, the mechanisms behind the injection induced seismicity are still poorly understood. Using experimental results from the Tournemire site, the role of the hydraulic diffusivity of the fault-related structures was explored on the recorded seismicity in the framework of a hydro-mechanical analysis. The results suggest that the induced microseismicity was possibly related to stress perturbations caused by a significant aseismic deformation rather than fluid propagation through hydraulically connected structures
APA, Harvard, Vancouver, ISO, and other styles
37

Avenas, Quentin. "Intégration d’une méthode d’actuation électrocinétique sur biocapteur plasmonique." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI122/document.

Full text
Abstract:
Cette thèse porte sur le développement d’un capteur plasmonique intégrant une fonction d’actuation des objets visés. L’objectif est de passer outre la limite de diffusion rencontrée à basse concentration en piégeant les particules sur la surface de détection. La stratégie adoptée est de structurer le film d’or servant à la détection de manière à pouvoir l’utiliser pour mettre en mouvement le fluide et les molécules par le biais de champs électriques. Le transfert de masse est réalisé par diélectrophorèse et électroosmose, deux effets électrocinétiques mis en oeuvre par des électrodes servant à la fois d’actuateur et de capteur plasmonique. Un état de l’art exhaustif et des simulations multiphysiques ont permis de concevoir un prototype de capteur intégré constitué d’électrodes interdigitées en or permettant la détection plasmonique. Le dispositif proposé a été obtenu par microfabrication en salle blanche puis caractérisé avant l’étude de ses performances. Une première phase de tests sur un système modèle, des billes de polystyrène dans de l’eau, a permis d’apporter la preuve de concept du fonctionnement du capteur, qui est effectivement capable de piéger rapidement les objets visés à sa surface afin de les détecter. Les mécanismes de transfert de masse ont été expliqués et la preuve de l’amélioration de la limite de détection par un facteur supérieur à 100 a été apportée. Dans un second temps, les performances du capteur appliqué à des objets biologiques ont été évaluées. Celui-ci piège efficacement des levures et des protéines, mais aucune amélioration n’a été observée dans le cas de la détection spécifique de l’hybridation entre deux brins d’acide désoxyribonucléique (ADN). Les causes de ce résultat ont été discutées et comprises et deux solutions différentes ont été explorées : l’adaptation de la fréquence d’opération et l’optimisation de la géométrie des électrodes. Ainsi, cette étude a permis de souligner la problématique de la mise en oeuvre d’effets électrocinétiques dans des milieux biologiques et de réfléchir aux pistes pertinentes pour sa résolution
This thesis focuses on the development of an integrated plasmonic sensor capable to perform mass transport on targeted objects. The goal is to overcome the diffusion limit by trapping particules directly on the sensing surface. The adopted strategy was to structure the gold layer used for plasmonic detection in order to use the sofabricated structures to set the fluid and the molecules in motion by applying electric fields in the fluid. The mass transfer is realized through dielectrophoresis and electroosmosis, those two electrokinetic effects being operated by electrodes acting as sensor and actuator at the same time. An exhaustive state of the art as well as multiphysical simulations allowed us for designing a prototype for an integrated sensor consisting in gold interdigitated electrodes enabling plasmoninc sensing. The proposed device was obtained through microfabrication in clean room facilities and was characterized before the study of its performances. A first sequence of tests on a model system – polystyrene microbeads in water – brought the proof of concept we needed to validate the correct operation of the sensor, which is indeed capable of quickly trapping targeted objects on its surface and detecting them. The mass transfer mechanisms were explained and we showed the enhancement of the limit of detection by a factor greater than 100. In a second phase, performances of the sensor applied to biological objects were evaluated. It can effectively trap yeasts and proteins but no enhancement has been observed while detecting DNA hybridization events. Causes for this result were discussed and understood and two different solutions were explored: the adaptation of the operating frequency and the optimization of the electrodes geometry. Thus, this study highlighted the problematic of operating electrokinetic effects in biological media and suggested relevant leads towards its resolution
APA, Harvard, Vancouver, ISO, and other styles
38

Cohen, Jonathan. "Formation dynamique d'équipes dans les DEC-POMDPS ouverts à base de méthodes Monte-Carlo." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC225/document.

Full text
Abstract:
Cette thèse traite du problème où une équipe d'agents coopératifs et autonomes, évoluant dans un environnement stochastique partiellement observable, et œuvrant à la résolution d'une tâche complexe, doit modifier dynamiquement sa composition durant l'exécution de la tâche afin de s'adapter à l'évolution de celle-ci. Il s'agit d'un problème qui n'a été que peu étudié dans le domaine de la planification multi-agents. Pourtant, il existe de nombreuses situations où l'équipe d'agent mobilisée est amenée à changer au fil de l'exécution de la tâche.Nous nous intéressons plus particulièrement au cas où les agents peuvent décider d'eux-même de quitter ou de rejoindre l'équipe opérationnelle. Certaines fois, utiliser peu d'agents peut être bénéfique si les coûts induits par l'utilisation des agents sont trop prohibitifs. Inversement, il peut parfois être utile de faire appel à plus d'agents si la situation empire et que les compétences de certains agents se révèlent être de précieux atouts.Afin de proposer un modèle de décision qui permette de représenter ces situations, nous nous basons sur les processus décisionnels de Markov décentralisés et partiellement observables, un modèle standard utilisé dans le cadre de la planification multi-agents sous incertitude. Nous étendons ce modèle afin de permettre aux agents d'entrer et sortir du système. On parle alors de système ouvert. Nous présentons également deux algorithmes de résolution basés sur les populaires méthodes de recherche arborescente Monte-Carlo. Le premier de ces algorithmes nous permet de construire des politiques jointes séparables via des calculs de meilleures réponses successives, tandis que le second construit des politiques jointes non séparables en évaluant les équipes dans chaque situation via un système de classement Elo. Nous évaluons nos méthodes sur de nouveaux jeux de tests qui permettent de mettre en lumière les caractéristiques des systèmes ouverts
This thesis addresses the problem where a team of cooperative and autonomous agents, working in a stochastic and partially observable environment towards solving a complex task, needs toe dynamically modify its structure during the process execution, so as to adapt to the evolution of the task. It is a problem that has been seldom studied in the field of multi-agent planning. However, there are many situations where the team of agents is likely to evolve over time.We are particularly interested in the case where the agents can decide for themselves to leave or join the operational team. Sometimes, using few agents can be for the greater good. Conversely, it can sometimes be useful to call on more agents if the situation gets worse and the skills of some agents turn out to be valuable assets.In order to propose a decision model that can represent those situations, we base upon the decentralized and partially observable Markov decision processes, the standard model for planning under uncertainty in decentralized multi-agent settings. We extend this model to allow agents to enter and exit the system. This is what is called agent openness. We then present two planning algorithms based on the popular Monte-Carlo Tree Search methods. The first algorithm builds separable joint policies by computing series of best responses individual policies, while the second algorithm builds non-separable joint policies by ranking the teams in each situation via an Elo rating system. We evaluate our methods on new benchmarks that allow to highlight some interesting features of open systems
APA, Harvard, Vancouver, ISO, and other styles
39

Gibaud, Robin. "Application de la méthode des éléments discrets aux déformations finies inélastiques dans les multi-matériaux." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI086/document.

Full text
Abstract:
Le formage de matériaux multiphasés comprend des mécanismes complexes en lien avec la rhéologie,la morphologie et la topologie des phases.Du point de vue numérique,la modélisation de ces phénomènes en résolvant les équations aux dérivées partielles (EDP) décrivant le comportement continu des phases n'est pas trivial.En effet,de nombreuses discontinuités associées aux phases se déplacent et peuvent interagir.Ces phénomènes peuvent être conceptuellement déclicats à intégrer au modèlecontinu et coûteux en termes de calcul.Dans cette thèse,la méthode des éléments discrets (DEM) est utilisée pour modéliser phénoménologiquement les déformations finies inélastiques dans les multi-matériaux.Les lois d'interactions attractive-répulsive sont imposées à des particules fictives,dont les ré-arrangements collectifs modélisent les déformations irréversibles de milieux continus.Le comportement numérique des empilements de particules est choisi pourreproduire des traits caractéristiques de la viscoplasticité parfaite etisochore:contrainte d'écoulement,sensibilité à la vitesse de déformation,conservation du volume.Les résultats d'essais de compression de bi-matériaux simples,simulés avec la DEM,sont comparés à la méthode des éléments finis (FEM) et sont en bon accord.Le modèle est entendu pour pouvoir supporter des sollicitations de traction.Une méthode de détection de contacts et d'auto-contacts d'objets physiques estproposée,basée sur l'approximation locale des surfaces libres.Les capacités de la méthodologie globale sont testées sur des mésostructurescomplexes,obtenues par tomographie aux rayons X.La compression à chaud d'un composite métallique dense est modélisée.La co-déformation peut être observées à l'échelle spatiale des phases.Deux cas de matériaux ``poreux'' sont considérés.Premièrement la simulation de la compression puis traction d'alliagesd'aluminium présentant des pores.Ces pores proviennent du coulage du matériau,leur fermeture et ré-ouverture mécanique est modélisée,y compris la coalescence à grande déformation.Deuxièmement la simulation de la compression de mousse métallique de faibledensité.Typiquement utilisée dans le but d'absorber de l'énergie mécanique,la compression jusqu'à densification provoque de nombreuses interactions entreles bras de matière
Forming of multiphase materials involves complex mechanisms linked with therheology,morphology and topology of the phases.From a numerical point of view,modeling such phenomena by solving the partial differential equation (PDE) system accounting for thecontinuous behavior of the phases can be challenging.The description of the motion and the interaction of numerous discontinuities,associated with the phases,can be conceptually delicate and computationally costly.In this PhD,the discrete element method (DEM) is used to phenomenologically model finite inelastic strain inmulti-materials.This framework,natively suited for discrete phenomena,allows a flexible handling of morphological and topological changes.Ad hoc attractive-repulsive interaction laws are designed betweenfictitious particles,collectively rearranging to model irreversible strain in continuous media.The numerical behavior of a packing of particles can be tuned to mimic keyfeatures of isochoric perfect viscoplasticity:flow stress, strain rate sensitivity, volume conservation.The results for compression tests of simple bi-material configurations,simulated with the DEM,are compared to the finite element method (FEM) and show good agreement.The model is extended to cope with tensile loads.A method for the detection of contact and self-contact events of physicalobjects is proposed,based on a local approximation of the free surfaces.The potential of the general methodology is tested on complex mesostructuresobtained by X-ray tomography.The high temperature compression of a dense metallic composite is modeled.The co-deformation can be observed at the length scale of the phases.Two cases of ``porous'' material are considered.Firstly,the simulation of the compression and the tension of aluminum alloys with poresis investigated.These pores stem from the casting of the material,their closure and re-opening is modeled,including the potential coalescence occurring at large strain.Secondly,the compression of a metallic foam,with low relative density,is modeled.Typically used in energy absorption applications,the compression up to densification involves numerous interactions between thearms
APA, Harvard, Vancouver, ISO, and other styles
40

Radi, Kaoutar. "Matériaux bioinspirés : Optimisation du comportement mécanique en utilisant la méthode des éléments discrets." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI066/document.

Full text
Abstract:
Les matériaux naturels tels que l'os et la nacre d’ormeau sont constitués de blocs de construction relativement faibles et présentent pourtant souvent des combinaisons remarquables de rigidité, de résistance à la rupture et de ténacité. Ces performances sont dues en grande partie à leurs architectures de brique et de mortier. De nombreux efforts sont consacrés à la duplication de ces principes dans les matériaux synthétiques. Toutefois, les progrès sont en grande partie basés sur des approches empiriques, qui prennent beaucoup de temps et ne garantissent pas la réalisation optimale.La modélisation est une alternative attrayante pour guider la conception et les voies de traitement de ces matériaux. Dans ce travail, nous développons un modèle numérique basé sur la méthode des éléments discrets (DEM) pour comprendre les mécanismes de renforcement et optimiser les propriétés mécaniques des matériaux de type nacre en fonction de leurs paramètres microstructurales. Le modèle suit l’évolution de la fissure, prend en compte de différents mécanismes de renforcement et évalue quantitativement la rigidité, la résistance à la rupture et la ténacité. Une approche intéressante, basée sur l'imagerie EBSD, est présentée pour modéliser le matériau réel et ses différentes variations microstructurales. Les résultats sont ensuite combinés pour fournir des directives de conception pour les composites synthétiques de type brique et mortier comprenant uniquement des constituants fragiles
Natural materials such as bone and the nacre of some seashells are made of relatively weak building blocks and yet often exhibit remarkable combinations of stiffness, strength, and toughness. Such performances are due in large part to their brick and mortar architectures. Many efforts are devoted to translate these design principles into synthetic materials. However, much of the progress is based on trial-and-error approaches, which are time consuming and do not guarantee that an optimum is achieved.Modeling is an appealing alternative to guide the design and processing routes of such materials. In this work, we develop a numerical model based on Discrete Element Method (DEM) to understand the reinforcement mechanisms and optimize the mechanical properties of nacre-like materials based on their microstructural parameters. The model follows the crack propagation, accounts for different reinforcement mechanisms, and quantitatively assess stiffness, strength, and toughness. An interesting approach, based on EBSD imaging, is presented to model the real material and its different microstructural variations. Results are then combined to provide design guidelines for synthetic brick-and-mortar composites comprising with only brittle constituents
APA, Harvard, Vancouver, ISO, and other styles
41

Dakpo, K. Hervé. "Non-parametric modelling of pollution-generating technologies : theoretical and methodological considerations, with an application to the case of greenhouse gas emissions in suckler breeding systems in French grassland areas." Thesis, Clermont-Ferrand 1, 2015. http://www.theses.fr/2015CLF10474/document.

Full text
Abstract:
La prise en compte des problèmes environnementaux dans la responsabilité sociale des entreprises a généré en économie de nombreuses propositions. Parmi elles, le cadre d’analyse basé sur l’évaluation de la performance en utilisant notamment les techniques d’enveloppement des données (DEA) s’est très vite répandu dans la littérature théorique comme empirique. Ce travail de thèse s’inscrit dans cette logique en mettant l’accent sur la modélisation des technologies polluantes. Par ailleurs, la question des changements climatiques et de la forte contribution de l’agriculture et en particulier de l’élevage dans les émissions de gaz à effet de serre (GES) impose à ce secteur de relever aujourd’hui en plus du défi économique celui de l’amélioration de sa performance environnementale. L’objectif général de cette recherche doctorale est donc de fournir un nouveau cadre d’analyse théorique et empirique dans la modélisation des technologies polluantes afin d’évaluer l’éco-efficience des systèmes productifs, en particulier le cas des émissions de GES en élevage extensif de ruminants. Dans un premier temps, nous montrons les limites théoriques et méthodologiques des modèles existants. Néanmoins, nous insistons sur le fait que les approches basées sur l’estimation de plusieurs sous-technologies indépendantes pour prendre en compte les différents processus présents dans les systèmes productifs sont très prometteuses. Dès lors dans un deuxième temps, nous proposons une nouvelle extension de la méthode « by-production » qui repose sur l’introduction d’interconnections entre les différentes sous-technologies impliquées afin de construire un système plus unifié. Dans un troisième temps, une comparaison empirique utilisant des données d’exploitations de viande ovine de notre extension avec les approches existantes a révélé certaines incohérences de ces dernières. Enfin pour aller plus loin, nous élargissons dans un quatrième temps notre approche afin de prendre en compte les aspects dynamiques et notamment la présence de coûts d’ajustement. Les résultats de l’analyse empirique entreprise avec des données d’exploitations bovines allaitantes (viande) ont révélé la nécessité de prendre en compte ces aspects, mais ont aussi révélé la forte hétérogénéité existante dans les stratégies d’investissements des éleveurs
The growing importance of environmental matters in social responsibility of firms has generated many frameworks of analysis in the economic literature. Among those frameworks, performance evaluation and benchmarking using the non-parametric Data Envelopment Analysis (DEA) have increased at a very fast rate. This PhD research focuses on models that include undesirable outputs such as pollution in the overall production system, to appraise eco-efficiency of decision making units (DMUs). Besides, the recent awareness on the large contribution of agriculture and particularly livestock farming to global warming, has highlighted for this sector the challenge of reaching both economic and environmental performances. In this line, the overall objective of this dissertation is to provide a theoretical and empirical background in modelling pollution-generating technologies and to suggest theoretical improvements that are consistent with the particular case of greenhouse gas emissions in extensive livestock systems. Firstly, we showed that all existing approaches that deal with undesirable outputs in the non-parametric analysis (i.e. DEA) have some strong drawbacks. However, the models grounded on the estimation of multiple independent sub-technologies offer interesting opportunities. Secondly, I developed a new framework that extends the by-production approach through the introduction of some explicit dependence constraints that link the sub-technologies in order to build a unified system. Thirdly, an empirical comparison, using a sample of French sheep meat farms, of this by-production modelling extension with the existing approaches, revealed some inconsistencies of these latter. Finally, we expanded this new by-production formulation to account for dynamic aspects related to the presence of adjustment costs. The application to the case of French suckler cow farms underlined the necessity of accounting for dynamic aspects and also showed high heterogeneity in investment strategies of these farmers
APA, Harvard, Vancouver, ISO, and other styles
42

Sabit, Souhila. "Les méthodes numériques de transport réactif." Phd thesis, Université Rennes 1, 2014. http://tel.archives-ouvertes.fr/tel-01057870.

Full text
Abstract:
La modélisation du transport réactif du contaminant en milieu poreux est un problème complexe cumulant les difficultés de la modélisation du transport avec celles de la modélisation de la chimie et surtout du couplage entre les deux. Cette modélisation conduit à un système d'équations aux dérivées partielles et algébriques dont les inconnues sont les quantités d'espèces chimiques. Une approche possible, déjà utilisée par ailleurs, est de choisir la méthode globale DAE : l'utilisation d'une méthode de lignes, correspondant à la discrétisation en espace seulement, conduit à un système différentiel algébrique (DAE) qui doit être résolu par un solveur adapté. Dans notre cas, on utilise le solveur IDA de Sundials qui s'appuie sur une méthode implicite, à ordre et pas variables, et qui requiert à chaque pas de temps la résolution d'un grand système non linéaire associé à une matrice jacobienne. Cette méthode est implémentée dans un logiciel qui s'appelle GRT3D (Transport Réactif Global en 3D). Le présent travail présente une amélioration de la méthode GDAE, du point de vue de la performance, de la stabilité et de la robustesse. Nous avons ainsi enrichi les possibilités de GRT3D, par la prise en compte complète des équations de précipitation-dissolution permettant l'apparition ou la disparition d'une espèce précipitée. En complément de l'étude de la méthode GDAE, nous présentons aussi une méthode séquentielle non itérative (SNIA), qui est une méthode basée sur le schéma d'Euler explicite : à chaque pas de temps, on résout explicitement l'équation de transport et on utilise ces calculs comme données pour le système chimique, résolu dans chaque maille de façon indépendante. Nous présentons aussi une comparaison entre cette méthode et l'approche GDAE. Des résultats numériques pour deux cas tests, celui proposé par l'ANDRA (cas-test 2D) d'une part, celui proposé par le groupe MoMas (Benchmark "easy case") d'autre part, sont enfin présentés, commentés et analysés.
APA, Harvard, Vancouver, ISO, and other styles
43

Stenger, Agathe. "Contribution à l'indicateur de Hicks-Moorsteen et à la théorie de la productivité." Thesis, Perpignan, 2015. http://www.theses.fr/2015PERP0010/document.

Full text
Abstract:
Ce travail contribue à la définition des mesures de l'efficacité et de la productivité dans la théorie microéconomique. Il présente des apports théoriques et empiriques. En premier lieu, cette thèse élabore une critique sur certaines mesures classiques de l’efficacité et de la productivité. Il est montré que la mesure directionnelle, sous l'hypothèse de rendements d'échelle constants, pose un certain nombre de problèmes quant à l’évaluation des variations de la productivité. De plus, il est établi que la « slacks-based » et la directionnelle « slack-based » mesures (ou mesures de Färe-Lovell) ne permettent pas de caractériser la technologie de production. Il résulte que ce type de mesure ne permet pas d’évaluer l'efficacité et les variations de productivité. Une approche alternative est proposée qui permet de contourner cette difficulté. Ensuite, cette thèse introduit deux nouveaux indicateurs: un indicateur social de Luenberger-Hicks-Moorsteen et un indicateur de productivité généralisé. Le premier permet d'évaluer l'effet des politiques sur les capabilités au sens d'A. Sen. Il consiste en une transposition des indicateurs de Hicks-Moorsteen en considérant le rôle spécifique d’un sous-vecteur prenant en compte les facteurs sociaux. Le second indicateur généralise les indicateurs standards de productivité. Il permet de retrouver à la fois les indicateurs de Luenberger et le Luenberger Hicks-Moortsteen comme cas spéciaux de cet indicateur généralisé. En considérant la version multiplicative de l’indicateur généralisé, on retrouve comme cas particuliers, les indicateurs de Malmquist et le Hicks-Moorsteen. Enfin, cette thèse présente des applications empiriques qui illustrent la méthodologie. Ces études évaluent et comparent la performance des régions touristiques et plus précisément celle du Languedoc-Roussillon, qui mobilise un cadre d'analyse transfrontalier
This phd contributes to the definition of efficiency measures and productivity indicator, in the microeconomic theory. It presents theoretical and empirical contributions. Firstly, this phd develops a review on standard measures of efficiency and productivity. It is shown that the directional measure, under the assumption of constant returns to scale, raises some problems in the assessment of productivity changes. Moreover, it is established that the "slacks-based" and directional "slack-based" measures (or Färe-Lovell measures) do not allow to characterize technology. It follows that such measures do not allow to evaluate efficiency and productivity changes. An alternative approach is proposed which overcomes this difficulty. Then, this phd introduces two new indicators: a social Luenberger-Hicks-Moorsteen indicator and a generalized indicator of productivity. The first mesure the impact of publics policies in the line of the capability theory introduce by A. Sen. This indicator consists on a transposition of the Hicks-Moorsteen indicator by considering a sub-vector of social factors. The second indicator generalizes standards productivity indicators. It allows to find the Luenberger and the Luenberger Hicks-Moortsteen as special cases of this general indicator. Considering the multiplicative version of the generalized indicator, on can find the Malmquist and Hicks-Moorsteen indicators, as special cases. Finally, this phd presents some empirical applications to illustrate the methodology. These studies evaluate and compare the performance of the tourist destination, and specifically for the Languedoc-Roussillon, which involves a cross-border analysis framework
APA, Harvard, Vancouver, ISO, and other styles
44

Moradian, Zabihallah. "Application de la méthode d'émission acoustique pour la surveillance du comportement au cisaillement des joints actifs." Thèse, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1961.

Full text
Abstract:
A key requirement in evaluation of sliding stability of concrete dams is monitoring shear behavior of 1) concrete joints in dam body, 2) concrete-rock interfaces and 3) rock discontinuities in dam foundation. The methodology consisted of creating a database of observed shear behaviors of the mentioned joints using acoustic emission (AE) technique. Joint samples were fabricated by tension splitting of the cores and pouring concrete on rock joint replica for simulating concrete-rock interfaces. Variations of key parameters including joint geometry, normal stress, displacement rate and bonding percentage were incorporated in the analysis. An analysis was also carried out on natural joints from Daniel Johnson (Manic 5) Dam, Quebec, founded on gneiss to granitic rock. Parametric-based and signal-based analysis methods were used to evaluate the potential of AE for monitoring shear behavior of various kinds of joint with different characteristics. Using AE parameters such as amplitude, count, energy, duration and rise time, this study was done as a feasibility study for AE monitoring of sliding surfaces within dam, dam-rock interface or inside rock foundation. It was found that AE has a good capability for showing the initial shear movement of the non-bonded joints. For bonded joints this technique can show that AE activities are occurring before breaking of adhesive bond. This is important because recording AE signals after an initial breakage of the joint would be too late to install stabilization work to be done beforehand. Of course in the eventuality that a rupture includes a sequence of events even recording AE signals of the first break is still useful. It is recommended to use this method combined with other instrumentation methods (e.g. load measuring instruments) to detect the initial shear movement of the bonded joints. Following experimental work and analysis of crack propagation and asperity degradation along shearing process, four different periods were observed in shear stress-displacement behavior of joints. These periods are: 1) Pre-peak linear period in which AE activities are initiated and show the beginning of shear displacement, 2) Pre-peak non-linear period in which AE signals are generated from crack initiation and degradation of the secondary asperities, 3) Post-peak period where first order asperities are sheared off and joints pass their maximum shear strength and 4) Residual period in which AE activities decrease and reach their minimum values. The applicability. of AE localization technique was evaluated using image analysis and scanned surfaces of the joints by laser. The results indicated that this method can locate regions with rupture governing characteristics. This provides the possibility to reinforce support systems and be aware about possible structure failures before any unexpected mechanical disturbance.
APA, Harvard, Vancouver, ISO, and other styles
45

Nguyen, Van Vinh. "Méthodes exactes pour l'optimisation DC polyédrale en variables mixtes 0-1 basées sur DCA et des nouvelles coupes." INSA de Rouen, 2006. http://www.theses.fr/2006ISAM0003.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes exactes pour la programmation DC polyédrale en variables mixtes 0-1, qui occupe une place très importante en Aide à la Décision et Recherche Opérationnelle de par ses nombreuses applications dans différentes branches de sciences appliquées. La thèse comprend deux parties : la première servant de références à l'ensemble du travail, comporte deux chapitres. Dans le premier nous présentons une généralité des méthodes de coupes tandis qu'une introduction à la programmation DC et DCA est décrite dans le deuxième. La seconde partie concernant la programmation DC polyédrale en variables mixtes 0-1 constitue l'épine dorsale de la thèse. Cette partie comporte quatre chapitres. Dans le chapitre 3, nous présentons une nouvelle coupe pour la programmation linéaire en variables mixtes 0-1. Le schéma de DCA&CUT combiné de DCA et cette coupe pour la programmation linéaire en variables mixtes 0-1 est étudié dans le chapitre 4. Des applications de ce modèle dans différents domaines sont ensuite développées dans le chapitre 5. Enfin, la généralisation logique et naturelle de ce schéma de DCA&CUT est traitée dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
46

Ta, Minh Thuy. "Techniques d'optimisation non convexe basée sur la programmation DC et DCA et méthodes évolutives pour la classification non supervisée." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0099/document.

Full text
Abstract:
Nous nous intéressons particulièrement, dans cette thèse, à quatre problèmes en apprentissage et fouille de données : clustering pour les données évolutives, clustering pour les données massives, clustering avec pondération de variables et enfin le clustering sans connaissance a priori du nombre de clusters avec initialisation optimale des centres de clusters. Les méthodes que nous décrivons se basent sur des approches d’optimisation déterministe, à savoir la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution de problèmes de clustering cités précédemment, ainsi que des approches évolutionnaires élitistes. Nous adaptons l’algorithme de clustering DCA–MSSC pour le traitement de données évolutives par fenêtres, en appréhendant les données évolutives avec deux modèles : fenêtres fixes et fenêtres glissantes. Pour le problème du clustering de données massives, nous utilisons l’algorithme DCA en deux phases. Dans la première phase, les données massives sont divisées en plusieurs sous-ensembles, sur lesquelles nous appliquons l’algorithme DCA–MSSC pour effectuer un clustering. Dans la deuxième phase, nous proposons un algorithme DCA-Weight pour effectuer un clustering pondéré sur l’ensemble des centres obtenues à la première phase. Concernant le clustering avec pondération de variables, nous proposons également deux approches: clustering dur avec pondération de variables et clustering floue avec pondération de variables. Nous testons notre approche sur un problème de segmentation d’image. Le dernier problème abordé dans cette thèse est le clustering sans connaissance a priori du nombre des clusters. Nous proposons pour cela une approche évolutionnaire élitiste. Le principe consiste à utiliser plusieurs algorithmes évolutionnaires (EAs) en même temps, de les faire concourir afin d’obtenir la meilleure combinaison de centres initiaux pour le clustering et par la même occasion le nombre optimal de clusters. Les différents tests réalisés sur plusieurs ensembles de données de grande taille sont très prometteurs et montrent l’efficacité des approches proposées
This thesis focus on four problems in data mining and machine learning: clustering data streams, clustering massive data sets, weighted hard and fuzzy clustering and finally the clustering without a prior knowledge of the clusters number. Our methods are based on deterministic optimization approaches, namely the DC (Difference of Convex functions) programming and DCA (Difference of Convex Algorithm) for solving some classes of clustering problems cited before. Our methods are also, based on elitist evolutionary approaches. We adapt the clustering algorithm DCA–MSSC to deal with data streams using two windows models: sub–windows and sliding windows. For the problem of clustering massive data sets, we propose to use the DCA algorithm with two phases. In the first phase, massive data is divided into several subsets, on which the algorithm DCA–MSSC performs clustering. In the second phase, we propose a DCA–Weight algorithm to perform a weighted clustering on the obtained centers in the first phase. For the weighted clustering, we also propose two approaches: weighted hard clustering and weighted fuzzy clustering. We test our approach on image segmentation application. The final issue addressed in this thesis is the clustering without a prior knowledge of the clusters number. We propose an elitist evolutionary approach, where we apply several evolutionary algorithms (EAs) at the same time, to find the optimal combination of initial clusters seed and in the same time the optimal clusters number. The various tests performed on several sets of large data are very promising and demonstrate the effectiveness of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
47

Andurand, Lewis. "Développement d'une méthode de génération de trajectoire versatile pour la réalisation de pièces par procédés DED multi-axes à partir de surfaces facettisées." Electronic Thesis or Diss., Toulon, 2023. http://www.theses.fr/2023TOUL0001.

Full text
Abstract:
La fabrication additive est une catégorie de procédés qui permet l’obtention de pièces mécaniques par apport de matière. Les procédés de type Directed Energy Deposition (DED), combinables avec des robots multi-axes, sont prometteurs pour l’obtention de pièces à la structure complexe. Cependant, les méthodes de génération de trajectoire et les structures des machines utilisées restent un enjeu dont les innovations décupleraient les possibilités industrielles.Cette thèse présente une méthode numérique systématique de génération de trajectoire adaptée aux procédés DED à partir d’une surface facettisée de forme arbitraire. Validée à travers des simulations sur des surfaces minimales tri-périodiques, la méthode permet la création d’un premier trajet de dépôt respectant la contrainte de distance entre la pièce et l’outil. Combinable à de la rétroaction par priorisation de régions, il pourra être modifié ultérieurement selon les contre-indications physiques issues du robot utilisé, du matériau de fabrication et de l’outil
Additive manufacturing is a category of processes that allows the production of mechanical parts by the adding of material. Directed Energy Deposition (DED) processes can be combined with multi-axis robots and are a promising option to obtain parts with complex structures. However, the path generation methods and the machine structures used remain an issue. With innovations in these areas, the industrial possibilities would increase tenfold.This thesis presents a numerical and systematic path generation method based on meshed surfaces and adapted to DED processes. The method was validated through simulations on minimal triply periodic surfaces and allows the creation of a first deposition path that meets the distance constraint between the part and the tool. This first path can be combined with region prioritization feedback to obtain a final path adapted to the physical warnings provided by the robot, the manufacturing material and the tool
APA, Harvard, Vancouver, ISO, and other styles
48

Bednarek, Xavier. "Simulation de l'homogénéisation de poudres dans un mélangeur conique à vis par la méthode des éléments discrets." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEM016.

Full text
Abstract:
Un procédé industriel d’homogénéisation de poudres dans un mélangeur conique à vis est étudié via des simulations numériques utilisant la méthode des éléments discrets (DEM). Après une revue de la littérature, la construction d’une méthode de calibration robuste du modèle numérique est présentée et est suivie de l’étude du procédé de mélange en lui-même.La calibration du modèle DEM se fait en reproduisant numériquement une expérience en laboratoire : la mesure du lieu d’écoulement d’une poudre avec la cellule de cisaillement du rhéomètre FT4 de Freeman Technology. Une procédure automatique et robuste de simulation a été développée. L’impossibilité de simuler un grain de poudre par un grain numérique a nécessité une réflexion sur les paramètres à calibrer. Une analyse de sensibilité sur une large gamme de paramètres a été conduite, que ce soit les paramètres des modèles de forces ou sur ceux dits « collectifs », liés au nombre de grains utilisés et à la distribution granulométrique. L’algorithme d’Efficient Global Optimization (EGO) a été utilisé pour optimiser l’adéquation de la mesure numérique à la mesure expérimentale.L’étude numérique du procédé de mélange est conduite avec un million de particules numériques, pour différentes configurations. La problématique du scale-up, passage d’un mélangeur d’essai à un mélangeur de production, est abordée. Différentes méthodes d’analyse basées sur divers indices de mélanges, l’étude de champs de vitesse, de température granulaire et de dispersion ont été mises en place. Une méthode d’extrapolation temporelle des résultats, basée sur l’algorithme d’appariement de Kuhn, a été développée et testée avec de bons résultats
The homogenization of powders in a conical screw mixer is studied with numerical simulations using the discrete element method (DEM). Following a literature review, two major aspects are presented: a robust calibration method of the numerical model and the study of the mixing process itself.The aim of the calibration of the DEM model is the replication of laboratory measurement by a simulation. We show that the simulation of the measurement of the yield locus with the Freeman Technology’s FT4 shear cell experiment is the best option. We developed an automated and robust simulation procedure. The difficulty of depicting a grain of real powder by a numerical one required some considerations on the parameters to be calibrated. We conduct a sensitivity analysis on a wide range of parameters values, whether they are parameters of the force models or those called "collective" - i.e. related to the number of grains used and to the particle size distribution. The Efficient Global Optimization (EGO) algorithm is used to optimize the degree of fitness between the numerical measurements and the experimental ones.The numerical study of the mixing process was conducted with one million particles, for several configurations. We discuss the issue of the scale-up, from the test mixer to the production mixer. We perform different analysis methods based on various mixing indices and study velocity fields, granular temperature and dispersion. A time extrapolation method based on Kuhn’s Hungarian algorithm solving the assignment problem was also implemented and tested with good results
APA, Harvard, Vancouver, ISO, and other styles
49

Nguyen, Quang Thuan. "Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la planification opérationnelle." Thesis, Metz, 2010. http://www.theses.fr/2010METZ037S/document.

Full text
Abstract:
Cette thèse développe les deux approches locales et globales basées sur la programmation DC et DCA pour l'optimisation combinatoire en variables mixtes 0-1 et leurs applications à la résolution de nombreux problèmes en planification opérationnelle. Plus particulièrement, cette thèse adresse à: l'amélioration de l'algorithme d'approximation extérieure basée sur DCA (appelé DCACUT) introduit par Nguyen V.V. et Le Thi pour la programmation linéaire en variables mixtes 0-1, les combinaisons des algorithmes globaux et DCA et l'étude numérique comparative de ces approches pour la programmation linéaire en variables mixtes 0-1, l'utilisation de DCA à la résolution de la programmation DC en variables mixtes 0-1 en utilisant la pénalité exacte, la mise en œuvre des algorithmes développés à la résolution des problèmes de grande taille en planification opérationnelle comme les problèmes dans le réseau de télécommunication sans fils, les problèmes d’ordonnancement ainsi que le problème d'affectation de tâches des véhicules aériens non pilotés ou bien le problème des tournées de véhicules dans une chaîne d'approvisionnement
This thesis develops two local and global approaches based on DC programming and DCA for mixed 0-1 combinatorial optimization and their applications to many problems in operational planning. More particularly, this thesis consists of: the improvement of the outer approximation algorithm based on DCA (called DCACUT) introduced by Nguyen V.V and Le Thi for mixed 0-1 linear programming, the combinations of global algorithms and DCA and the comparative numerical study of these approaches for mixed 0-1 linear programming, the use of DCA for solving mixed 0-1 programming via an exact penalty technique, the implementation of the algorithms developed for solving large scale problems in operational planning: two problems in wireless telecommunication network, two scheduling problems, an UAV task assignment problem and an inventory routing problem in supply chains
APA, Harvard, Vancouver, ISO, and other styles
50

Tran, Duc Kien. "Modélisation numérique discrète de l'érosion interne par renard hydraulique dans les barrages ou digues en terre." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEC055/document.

Full text
Abstract:
Le travail présenté dans ce mémoire de thèse porte sur la modélisation discrète de l’évolution régressive du front d’un conduit d’érosion qui peut se produire dans les barrages ou digues en remblai. Des outils numériques ont été développés en se basant sur le couplage entre la méthode des éléments discrets (DEM) et la méthode de Boltzmann sur réseau (LBM) pour la description, respectivement, des phases solide et fluide. L’implémentation de la méthode DEM suit une approche standard de type dynamique moléculaire (DM) et les interactions intergranulaires sont modélisées par des contacts unilatéraux visco-élastiques frottants ou bilatéraux (ponts solides) viscoélastiques, afin de permettre la modélisation d’un sol légèrement cohésif. La méthode LBM est implémentée ici avec des temps de relaxation multiples (MRT) et une condition de rebondissement interpolée pour les frontières solides en mouvement, afin d’améliorer la stabilité numérique des calculs. Le schéma du couplage entre les deux méthodes, ainsi que les critères pour le choix des paramètres numériques des deux méthodes. Pour étudier le phénomène visé, un échantillon représentatif de sol granulaire situé au front d’un conduit d’érosion est d’abord assemblé par une procédure de préparation “à sec”, puis testé dans des conditions saturées sous un chargement hydraulique monotone croissant. L’érosion régressive se produit par amas de grains au niveau du front d’érosion ayant subi au préalable une dégradation due à de nombreuses ruptures de ponts solides en traction. L’autre phénomène important observé est la présence d’arcs associés a` des chaines de forces en compression qui parviennent à maintenir parfois totalement, parfois partiellement l’intégrité du matériau non érodé
The work reported in this thesis consists in a discrete modelling of the backward front propagation of an erosion pipe, as can take place in embankment dams or dikes. Some numerical tools have been developed to this end, based on the coupling between the Discrete Element Method (DEM) and the Lattice Boltzmann Method (LBM) for the representation of the solid and uid phases, respectively. The implementation of DEM follows a standard molecular dynamics approach and the interaction among grains are regulated by unilteral frictional visco-elastic and breakable visco-elastic bonds, in order to take into account a slightly cohesive soil behaviour. The LBM was implemented according to the Multiple Relaxation Time (MRT) scheme along with an interpolated non-slip conditions for moving boundaries, in order to improve the numerical stability of the calculations. The coupling scheme is described along with the criteria for the numerical parameters of the two methods. A representative specimen of a granular soil located at the front of an erosion pipe is first assembled by a \dry" preparation precedure and then tested under fully-saturated conditions and increasing hydraulic load over time. Backward erosion is takes place in the form of clusters of grain being eroded at the erosion front after a degradation of the material due to the breakage of tensile bonds. The other interesting feature that was observed is the creation of arches of compressive force chains. These arches enabled the specimen to maintain a stable or metastable configuration under the increasing hydraulic load
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography