To see the other types of publications on this topic, follow the link: Input analyzer.

Dissertations / Theses on the topic 'Input analyzer'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Input analyzer.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Shipp, Clanton Carlton III. "An interactive input analyzer for computer simulations." Thesis, Georgia Institute of Technology, 1997. http://hdl.handle.net/1853/24913.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Hamory, Philip J., John K. Diamond, and Arild Bertelrud. "DESIGN AND CALIBRATION OF AN AIRBORNE MULTICHANNEL SWEPT-TUNED SPECTRUM ANALYZER." International Foundation for Telemetering, 1999. http://hdl.handle.net/10150/606828.

Full text
Abstract:
International Telemetering Conference Proceedings / October 25-28, 1999 / Riviera Hotel and Convention Center, Las Vegas, Nevada<br>This paper describes the design and calibration of a four-channel, airborne, swept-tuned spectrum analyzer used in two hypersonic flight experiments for characterizing dynamic data up to 25 kHz. Built mainly from commercially available analog function modules, the analyzer proved useful for an application with limited telemetry bandwidth, physical weight and volume, and electrical power. The authors discuss considerations that affect the frequency and amplitude calibrations, limitations of the design, and example flight data.
APA, Harvard, Vancouver, ISO, and other styles
3

Regéciová, Dominika. "Aplikace teorie formálních jazyků v oblasti počítačové bezpečnosti." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2018. http://www.nusl.cz/ntk/nusl-386008.

Full text
Abstract:
Computer security is and will always be a critical area that affects everyone. Despite all the efforts made to build safer systems and test them, however, new vulnerabilities and vulnerabilities are still emerging and creating the impression of tilting at windmills. Partial justification of the current state, but also possible solutions, brings in many respects an extraordinary view of security through formal language theory. Emphasis should be put on a more responsible approach to the recognition and processing of inputs, which are often the gateway to many attacks. In this paper, we will get acquainted with this trend and its recommendations for development and will then introduce a new method of detecting SQL injection attacks built on its foundations.
APA, Harvard, Vancouver, ISO, and other styles
4

Löschau, Margit. "Input-Output-Analyse als Methode zur stofflichen Bilanzierung komplexer Entsorgungssysteme." [S.l.] : [s.n.], 2006. http://deposit.ddb.de/cgi-bin/dokserv?idn=980333458.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Nathani, Carsten. "Modellierung des Strukturwandels beim Übergang zu einer materialeffizienten Kreislaufwirtschaft : Koppelung eines Input-Output-Modells mit einem Stoffstrommodell am Beispiel der Wertschöpfungskette "Papier" /." Heidelberg : Physica-Verlag, 2003. http://opac.nebis.ch/cgi-bin/showAbstract.pl?u20=3790800236.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Sayadi, Mohamed Yosri. "Construction et analyse des algorithmes exacts et exponentiels : énumération input-sensitive." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0316.

Full text
Abstract:
Moon et Moser ont prouvé que le nombre maximum des ensembles stables maximaux dans un graphe de n sommets est au plus 3^{n/3}. Cette borne, appelée borne supérieure, est stricte vu l’existence d’une famille des graphes avec un tel nombre appelée borne inférieure. Au contraire de l’énumération des ensembles stables maximaux, avoir deux bornes qui se qui se coïncident n’est pas évident du tout. Et c’est assez courant dans l’énumération « input-sensitive » d’avoir un grand écart. Ce problème concerne même les ensembles les plus classiques comme les ensembles dominants minimaux où le meilleur algorithme connu pour énumérer ces ensembles est en O(1.7159^n) et la meilleure borne inférieure connue est seulement 1.5704^n. Durant cette thèse, on a proposé un algorithme « Mesurer pour Conquérir » pour énumérer tous les ensembles dominants minimaux dans les graphes cordaux en O(1.5048^n). On a étudié aussi l’énumération des ensembles dominants connexes minimaux et les ensembles irredondants maximaux qui sont très proches des ensembles dominants minimaux. On a proposé un algorithme d’énumération des ensembles dominants connexes minimaux dans les graphes bipartis convexes en O(1.7254^n). On a conçu aussi des algorithmes d’énumération des ensembles irredondants maximaux dans les graphes cordaux, les graphes d’intervalles et les forêts en O(1.7549^n), O(1.6957^n ) et O(1.6181^n) respectivement au lieu de l’algorithme trivial en O*(2^n). On a proposé aussi comme une borne inférieure une famille de forêts avec Omega(1.5292^n) ensembles irredondants maximaux. Dans le cas des cographes, l'écart entre les deux bornes est réduit à néant en montrant que le nombre maximum de ces ensembles est Theta(15^{n/6}). Afin de varier, on a étudié un nouvel ensemble défini récemment : L’ensemble tropical connexe minimal. On a proposé une borne inférieure de 1.4961^n, mais sans réussir à améliorer la borne supérieure de 2^n. On a proposé des algorithmes d’énumération des ensembles tropicaux connexes minimaux dans les graphes cobipartis, les graphes d’intervalles et les graphes blocs en O*(3^{n/3}), O(1.8613^n) et O*(3^{n/3}) respectivement. On a établi une borne inférieure de 1.4766^n pour les graphes scindés et de 3^{n/3} pour les graphes cobipartis, les graphes d’intervalles et les graphes blocs. Finalement, comme perspective et pour attirer l’attention de la communauté sur l’énumération des ensembles dominants totaux minimaux, on a montré que le nombre maximum de ces ensembles est Ω(1.5848^n)<br>Moon and Moser proved that the maximum number of maximal independent sets in a graph of n vertices is at most 3^{n/3}. This maximum number, called upper bound, is tight given the existence of a family of graphs with such a number called lower bound. Unlike the enumeration of maximal independent sets, having a tight bounds is not obvious at all. And it’s quite common in the “input-sensitive” enumeration to have a big gap. This problem concerns even the most studied sets as minimal dominating sets where the best known algorithm to enumerate those sets runs in time O(1.7159^n) and the best known lower bound is only 1.5704^n. During this thesis, we proposed a "Measure and Conquer" algorithm to enumerate all minimal dominating sets for chordal graphs in time O(1.5048^n). Minimal connected dominating sets and maximal irredundant sets, which are closely related to minimal dominating sets, were also studied. An enumeration algorithm of minimal connected dominating sets in convex bipartite graphs has been proposed with a running time in O(1.7254^n). Enumeration algorithms of maximal irredundant sets have also been given for chordal graphs, interval graphs, and forests in times O(1.7549^n), O(1.6957^n) and O(1.6181^n) respectively instead of the trivial algorithm in time O*(2^n). We complement these upper bounds by showing that there are forest graphs with Omega(1.5292^n) maximal irredundant sets. We proved also that every maximal irredundant set of a cograph is a minimal dominating set. This implies that the maximum number of those sets in cographs is Theta(15^{n/6}). Finally, to vary, we studied a new set has been defined recently: The minimal tropical connected set. A lower bound of 1.4961^n has been proposed but we failed to improve the upper bound of 2^n. Enumeration algorithms of minimal tropical connected sets have been given for cobipartite, interval and block graphs in times O*(3^{n/3}), O(1.8613^n) and O*(3^{n/3}) respectively. A lower bound of 1.4766^n for splits graphs and 3^{n/3} for cobipartite, interval graphs and block graphs have been provided. We proposed a new lower bound of 1.5848^n, as a perspective and in order to draw community attention to the maximum number of minimal total dominating sets
APA, Harvard, Vancouver, ISO, and other styles
7

Schumacher, Andreas. "Naturschutz als Schlagzeile : die Naturschutzberichterstattung niedersächsischer Tageszeitungen ; Input-Output-Analyse und Verbesserungsvorschläge /." Hannover : Inst. für Landschaftspflege und Naturschutz, 1999. http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&doc_number=008759853&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Distel, Stefan. "Vermessung der Logistik in Deutschland : eine quantitative Analyse der wirtschaftsweiten Logistikleistungen auf Basis der volkswirtschaftlichen Input-Output-Darstellung und der Beschäftigtenstatistik /." Hamburg : Dt. Verkehrs-Verl, 2005. http://www.dvz.de/de/buecher/buch_ausgabe.php?objektkode=dvz&id=150.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Körner, Mirjam. "Teamanalyse und Teamentwicklung in der medizinischen Rehabilitation." Regensburg Roderer, 2005. http://deposit.ddb.de/cgi-bin/dokserv?id=2788145&prov=M&dok_var=1&dok_ext=htm.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Körner, Mirjam. "Teamanalyse und Teamentwicklung in der medizinischen Rehabilitation." Regensburg Roderer, 2006. http://deposit.ddb.de/cgi-bin/dokserv?id=2788145&prov=M&dokv̲ar=1&doke̲xt=htm.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Linden, Jan Adrianus van der. "Interdependence and specialisation in the European Union : intercountry input-output analysis and economic integration /." Capelle a/d Ijssel : Labyrint Publication, 1998. http://aleph.unisg.ch/hsgscan/hm00039836.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Akhabbar, Amanar. "Wassily Leontief et l'analyse input-output : essai d'histoire et d'épistémologie." Paris 1, 2008. http://www.theses.fr/2008PA010023.

Full text
Abstract:
Nous étudions les conditions historiques et épistémologiques de la formation de l'analyse input-output (AIO). Dans les années 1950 l'AIO connaît un succès exceptionnel: le tableau entrées-sorties et le modèle de Leontief est un outil statistique puissant. Les archives de Wassily Leontief à Harvard font apparaître qu'elle résulte de la coopération entre Leontief (Harvard) et des administrations américaines durant la seconde guerre mondiale. Si d'un côté le succès de l'AIO auprès des administrateurs est celui d'une technologie sociale au service de la puissance, Leontief de son côté ne cherche pas à développer une analyse de la planification. Le discours de Leontief, appuyé sur son projet d'étude des relations interindustrielles, est d'abord un discours sur le statut épistémologique de l'économie: pour Leontief l'économie est une science empirique à fonder sur un critère de vérité opérationnaliste. Nous répondons à la question suivante: comment l'AIO, une technologie sociale, peut-elle servir de plate-forme au discours épistémologique de Leontief sur le statut de la science économique? La réponse reprend les quatre caractéristiques de l'AIO: un outil statistique qui relève de 1 'histoire de la statistique; une technologie sociale qui est le résultat d'une configuration complexe entre le politique, le théorique, la science et l'épistémologie à un moment historique donné; une construction théorique subtile; un positionnement épistémologique particulier. Nous montrons comment l'analyse input-output n'aurait pu se faire et ne peut se comprendre que grâce à l'alchimie complexe entre les préoccupations théoriques et épistémologiques pour une configuration historique donnée.
APA, Harvard, Vancouver, ISO, and other styles
13

DasGupta, Shamik. "Neural Circuit Analyses of the Olfactory System in Drosophila: Input to Output: A Dissertation." eScholarship@UMMS, 2009. https://escholarship.umassmed.edu/gsbs_diss/438.

Full text
Abstract:
This thesis focuses on several aspects of olfactory processing in Drosophila. In chapter I and II, I will discuss how odorants are encoded in the brain. In both insects and mammals, olfactory receptor neurons (ORNs) expressing the same odorant receptor gene converge onto the same glomerulus. This topographical organization segregates incoming odor information into combinatorial maps. One prominent theory suggests that insects and mammals discriminate odors based on these distinct combinatorial spatial codes. I tested the combinatorial coding hypothesis by engineering flies that have only one class of functional ORNs and therefore cannot support combinatorial maps. These files can be taught to discriminate between two odorants that activate the single functional class of ORN and identify an odorant across a range of concentrations, demonstrating that a combinatorial code is not required to support learned odor discrimination. In addition, these data suggest that odorant identity can be encoded as temporal patterns of ORN activity. Behaviors are influenced by motivational states of the animal. Chapter III of this thesis focuses on understanding how motivational states control behavior. Appetitive memory in Drosophilaprovides an excellent system for such studies because the motivational state of hunger promotes reliance on learned appetitive cues whereas satiety suppresses it. We found that activation of neuropeptide F (dNPF) neurons in fed flies releases appetitive memory performance from satiety-mediated suppression. Through a GAL4 screen, we identified six dopaminergic neurons that are a substrate for dNPF regulation. In satiated flies, these neurons inhibit mushroom body output, thereby suppressing appetitive memory performance. Hunger promotes dNPF release, which blocks the inhibitory dopaminergic neurons. The motivational drive of hunger thus affects behavior through a hierarchical inhibitory control mechanism: satiety inhibits memory performance through a subset of dopaminergic neurons, and hunger promotes appetitive memory retrieval via dNPF-mediated disinhibition of these neurons. The aforementioned studies utilize sophisticated genetic tools for Drosophila. In chapter IV, I will talk about two new genetic tools. We developed a new technique to restrict gene expression to different subsets of mushroom body neurons with unprecedented precision. We also adapted the light-activated adenylyl cyclase (PAC) from Euglena gracilis as a light-inducable cAMP system for Drosophila. This system can be used to induce cAMP synthesis in targeted neurons in live, behaving preparations.
APA, Harvard, Vancouver, ISO, and other styles
14

Dickinson, Jeffrey Alan. "Comparative economic and ecological analyses of lower chemical input fruit farms and other framing systems." The Ohio State University, 1995. http://rave.ohiolink.edu/etdc/view?acc_num=osu1341248792.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Dickinson, Jeffrey Alan. "Comparative economic and ecological analyses of lower chemical input fruit farms and other farming systems /." The Ohio State University, 1995. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487929745334264.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Dohm, Marion. "Neue Economic Impact Methodik zur Evaluation der gesamtwirtschaftlichen Effekte des Flughafenprojektes Berlin Brandenburg International am Standort Schönefeld /." Berlin, 2001. http://aleph.unisg.ch/hsgscan/hm00054193.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Altimiras-Martin, Aleix. "Managing human-induced material use : adding cyclic inter-sectoral flows to Physical Input-Output Tables to analyse the environmental impact of economic activity." Thesis, University of Cambridge, 2016. https://www.repository.cam.ac.uk/handle/1810/253780.

Full text
Abstract:
Current human activity is degrading the environment and depleting biotic and abiotic resources at unheard-of rates, inducing global environmental change and jeopardising the development of humankind. The structure of human activity determines which resources are extracted, how they are transformed and where and how they are emitted back to the environment. Thus, the structure of human activity ultimately determines the human-Earth System interaction and human-induced environmental degradation. Several theories and empirical findings suggest that a cyclic structure would lower the resource requirements and emissions of the economic system, decoupling production and consumption from their environmental impacts. However, the cyclic structure has not been fully characterised nor related to the resource requirements or emission generation estimates of environmental impacts as calculated through models representing the physical structure of the economic system. This thesis is interested in developing tools to analyse the physical structure of the economic system and, ultimately, to develop a method to identify its cyclic structure and relate it to the environmental impact induced by economic activity. Using this new knowledge, it might be possible to reduce the environmental impact of the economy by altering its physical structure. In chapter 3, the different methods to calculate the emissions and resources associated to a given final demand of physical input-output tables are reviewed because they gather different results; it is argued that only two are valid. Surprisingly, these two methods reveal different physical structures; these are explored using a backward linkage analysis and their differences explained. It is found that only one method is appropriate to analyse the physical structure of the economic system and this method is in fact a new input-output model capable of tracing by-products as final outputs. Also, since traditional input-output structural analyses provide aggregate measures, a visual representation of input-output tables enabling researchers to perform disaggregated structural analyses and identify intersectoral patterns is developed. In chapter 4, a method to derive the full cyclic structure of the economic system is developed using network analysis within the Input-Output framework; it identifies the intersectoral cycles and the resources and emissions associated to cycling. It is shown that cyclic flows maximise the system throughput but lower the resource efficiency of the system vis-à-vis the system outputs. It is demonstrated that 1) the complete structure is composed of a cyclic-acyclic and a direct-indirect sub-structure, challenging the common understanding of the functioning of the structure, and 2) cycling is composed of pre-consumer cycling, post-consumer cycling, re-cycling and trans-cycling. In chapter 5, a set of indicators are developed to capture the weight and emissions associated to each sub-structure and the sub-structures are related to the economy's resource efficiency and emissions. In chapter 6, it is illustrated how to use the concepts, indicators and methods developed in previous chapters to identify strategies to improve the resource efficiency of the economy by altering its structure. Finally, in chapter 7, it is suggested to refine the definition of recycling to integrate the different systemic effects of pre-consumer and post-consumer cycling and it is argued that the ideal structure of a circular, close-loop economy should minimise its pre-consumer cycling in favour of more efficient acyclic flows while maximising its post-consumer cycling.
APA, Harvard, Vancouver, ISO, and other styles
18

Isbiliroglu, Levent. "Strategy for Selecting Input Ground Motion for Structural Seismic Demand Analysis." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU009/document.

Full text
Abstract:
Les signaux accélérométriques enregistrés lors de l’occurrence d’un événement sismique est très large présentent une forte variabilité, par conséquent ils ne sont pas utilisé dans les analyse dynamiques de tenue sismique des structures. En effet, l’utilisation des accélérogrammes réels, pour les analyses dynamiques non linéaires, s’avère couteuse en termes de temps de calcul. La pratique courante prévoit la minimisation (voir suppression) de telle variabilité, mais les conséquences d’une telle opération sur la réponse des structures ne sont pas clairement indiquées. L’étude ci-présente a pour scope la quantification de l’impact des méthodes de sélection qui gardent la variabilité du signal sur les résultats de l’analyse de la réponse des structures (exprimée en termes d’engineering demand parameters EDPs). En particulier les questions suivantes seront investiguées :Quel est le niveau de variabilité des accélérogrammes réels et comment ce niveau est modifié par les techniques couramment utilisées ?Quelle est l’impact de la variabilité sur la réponse de plusieurs types de structures ?Pour un scénario sismique donné, un spectre cible est défini à partir de plusieurs équation de prédiction du mouvement sismique, sélection parmi celles disponibles en littérature. Les accélérogrammes sont sélectionnés à partir de quatre familles d’accélérogrammes, chacune relative à une méthode de modification : réels (enregistrés); mise à l’échelle (multiplication, par un facteur) ; calés aux spectres cibles avec large tolérance ; calés aux spectres cibles dans une plage de tolérance étroite.Chaque jeu de signaux est composé de cinq accélérogrammes et la sélection des signaux est faite en tenant compte de deux sources de variabilité : la variabilité au sein de chaque jeu de données (intraset), et la variabilité entre les différents jeux de données (interset) tous compatibles avec le même spectre cible. Les tests sur les EDPs menés sur les signaux accélérométriques réels mènent à la quantification de la variabilité naturelle (pour le scénario considéré). Les analyses basées sur les signaux réels sont utilisés comme benchmark afin d’évaluer non seulement de combien la distribution des EDPs (en termes de valeur moyenne et variabilité) est réduite par les différentes méthodes testées, mais aussi d’évaluer l’impact des choix de l’équation de prédiction du mouvement, des plages de tolérance, du nombre d’accélérogrammes constituant chaque jeu, du nombre de jeux, de le scope de l’analyse structurale et le modèle de structure.Ce travaille nous conduit à conclure que un seul jeu d’accélérogramme, tel qu’utilisé dans la pratique courante, est insuffisant pour assurer le niveau d’EDPs indépendamment de la méthode de modification utilisés, cela est lié à la variabilité des signaux et entre les jeux d’accélérogrammes. Les signaux réels, compatibles avec le spectre définis pour le scénario sismique, are l’option plus réaliste pour l’analyse dynamique non-linéaire ; si une méthode de modification du signal est nécessaire, la plus adaptées dépend du scope de l’analyse spectrale et du modèle. Le choix de l’équation de prédiction du mouvement sismique utilisée pour définir le spectre cible impacte significativement les caractéristiques des mouvements sismiques et des EDPs. Cette observation ne dépend pas de la stratégie de de modification du signal<br>The observed variability is very large among natural earthquake records, which are not consolidated in the engineering applications due to the cost and the duration. In the current practice with the nonlinear dynamic analysis, the input variability is minimized, yet without clear indications of its consequences on the output seismic behavior of structures. The study, herein, aims at quantifying the impact of ground motion selection with large variability on the distribution of engineering demand parameters (EDPs) by investigating the following questions:What is the level of variability in natural and modified ground motions?What is the impact of input variability on the EDPs of various structural types?For a given earthquake scenario, target spectra are defined by ground motion prediction equations (GMPEs). Four ground motion modification and selection methods such as (1) the unscaled earthquake records, (2) the linearly scaled real records, (3) the loosely matched spectrum waveforms, and (4) the tightly matched waveforms are utilized. The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications.Each dataset is composed by five accelerograms; the response spectrum compatible selection is then performed by considering the impact of set variability. The intraset variability relates to the spectral amplitude dispersion in a given set, and the interset variability relates to the existence of multiple sets compatible with the target.The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications. The distributions of EDPs obtained by the modified ground motions are compared to the observed distribution by the unscaled earthquake records as a function of ground motion prediction equations, objective of structural analysis, and structural models.This thesis demonstrates that a single ground motion set, commonly used in the practice, is not sufficient to obtain an assuring level of the EDPs regardless of the GMSM methods, which is due to the record and set variability. The unscaled real records compatible with the scenario are discussed to be the most realistic option to use in the nonlinear dynamic analyses, and the ‘best’ ground motion modification method is demonstrated to be based on the EDP, the objective of the seismic analysis, and the structural model. It is pointed out that the choice of a GMPE can provoke significant differences in the ground motion characteristics and the EDPs, and it can overshadow the differences in the EDPs obtained by the GMSM methods
APA, Harvard, Vancouver, ISO, and other styles
19

Mauguen, Audrey. "Prognosis of cancer patients : input of standard and joint frailty models." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0240/document.

Full text
Abstract:
La recherche sur le traitement des cancers a évolué durant les dernières années principalement dans une direction: la médecine personnalisée. Idéalement, le choix du traitement doit être basé sur les caractéristiques dupatient et de sa tumeur. Cet objectif nécessite des développements biostatistiques, pour pouvoir évaluer lesmodèles pronostiques, et in fine proposer le meilleur. Dans une première partie, nous considérons le problèmede l’évaluation d’un score pronostique dans le cadre de données multicentriques. Nous étendons deux mesuresde concordance aux données groupées analysées par un modèle à fragilité partagée. Les deux niveaux inter etintra-groupe sont étudiés, et l’impact du nombre et de la taille des groupes sur les performances des mesuresest analysé. Dans une deuxième partie, nous proposons d’améliorer la prédiction du risque de décès en tenantcompte des rechutes précédemment observées. Pour cela nous développons une prédiction issue d’un modèleconjoint pour un événement récurrent et un événement terminal. Les prédictions individuelles proposées sontdynamiques, dans le sens où le temps et la fenêtre de prédiction peuvent varier, afin de pouvoir mettre à jourla prédiction lors de la survenue de nouveaux événements. Les prédictions sont développées sur une série hospitalièrefrançaise, et une validation externe est faite sur des données de population générale issues de registres decancer anglais et néerlandais. Leurs performances sont comparées à celles d’une prédiction issue d’une approchelandmark. Dans une troisième partie, nous explorons l’utilisation de la prédiction proposée pour diminuer ladurée des essais cliniques. Les temps de décès non observés des derniers patients inclus sont imputés en utilisantl’information des patients ayant un suivi plus long. Nous comparons trois méthodes d’imputation : un tempsde survie moyen, un temps échantillonné dans une distribution paramétrique et un temps échantillonné dansune distribution non-paramétrique des temps de survie. Les méthodes sont comparées en termes d’estimationdes paramètres (coefficient et écart-type), de risque de première espèce et de puissance<br>Research on cancer treatment has been evolving for last years in one main direction: personalised medicine. Thetreatment choice must be done according to the patients’ and tumours’ characteristics. This goal requires somebiostatistical developments, in order to assess prognostic models and eventually propose the best one. In a firstpart, we consider the problem of assessing a prognostic score when multicentre data are used. We extended twoconcordance measures to clustered data in the context of shared frailty model. Both the between-cluster andthe within-cluster levels are studied, and the impact of the cluster number and size on the performance of themeasures is investigated. In a second part, we propose to improve the prediction of the risk of death accountingfor the previous observed relapses. For that, we develop predictions from a joint model for a recurrent event anda terminal event. The proposed individual prediction is dynamic, both the time and the horizon of predictioncan evolve, so that the prediction can be updated at each new event time. The prediction is developed ona French hospital series, and externally validated on population-based data from English and Dutch cancerregistries. Its performances are compared to those of a landmarking approach. In a third part, we explore theuse of the proposed prediction to reduce the clinical trial duration. The non-observed death times of the lastincluded patients are imputed using the information of the patients with longer follow-up. We compared threemethods to impute the data: a survival mean time, a time sampled from the parametric distribution and atime sampled from a non-parametric distribution of the survival times. The comparison is made in terms ofparameters estimation (coefficient and standard-error), type-I error and power
APA, Harvard, Vancouver, ISO, and other styles
20

Wang, Lars. "Degree of openness and the choice of exchange rate regimes a re-evaluation with value-added based openness measures /." [S.l. : s.n.], 2005. http://www.bsz-bw.de/cgi-bin/xvms.cgi?SWB11730120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Tian, Tian. "Analysis and control of nonlinear multiple-input systems with coupled dynamics by the method of Normal Forms." Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0029/document.

Full text
Abstract:
Les systèmes composés d’une somme de sous-systèmes interconnectés offrent les avantages majeurs de flexibilité d’organisation et de redondance synonyme de fiabilité accrue. Une des plus belles réalisations basée sur ce concept réside dans les réseaux électriques qui sont reconnus à ce jour comme la plus grande et la plus complexe des structures existantes jamais développées par l’homme.Les phénomènes de plus en plus non linéaires rencontrés dans l’étude des nouveaux réseaux électriques amènent au développement de nouveaux outils permettant l’étude des interactions entre les différents éléments qui les composent. Parmi les outils d’analyse existants, ce mémoire présente le développement et l’application de la théorie des Formes Normales à l’étude des interactions présentes dans un réseau électrique. Les objectifs spécifiques de cette thèse concernent le développement de la méthode des Formes Normales jusqu’à l’ordre 3, l’application de cette méthode à l’étude des oscillations présentes dans des réseaux tests et l’apport de la méthode développée dans l’étude de la stabilité des réseaux<br>Systems composed with a sum of interconnected sub-systems offer the advantages of a better flexibility and redundancy for an increased reliability. One of the largest and biggest system based on this concept ever devised by man is the interconnected power system.Phenomena encountered in the newest interconnected power systems are more and more nonlinear and the development of new tools for their study is od major concern. Among the existing tools, this PhD work presents the development and the application of the Normal Form theory to the study of the interactions existing on an interconnected power system. The specific objectives of this PhD work are the development of the Normal Form theory up to the third order, the application of this method to study power system interarea oscillations and the gain of the developed method for the study of stability of power systems
APA, Harvard, Vancouver, ISO, and other styles
22

Lemaitre, Paul. "Analyse de sensibilité en fiabilité des structures." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0061/document.

Full text
Abstract:
Cette thèse porte sur l'analyse de sensibilité dans le contexte des études de fiabilité des structures. On considère un modèle numérique déterministe permettant de représenter des phénomènes physiques complexes.L'étude de fiabilité a pour objectif d'estimer la probabilité de défaillance du matériel à partir du modèle numérique et des incertitudes inhérentes aux variables d'entrée de ce modèle. Dans ce type d'étude, il est intéressant de hiérarchiser l'influence des variables d'entrée et de déterminer celles qui influencent le plus la sortie, ce qu'on appelle l'analyse de sensibilité. Ce sujet fait l'objet de nombreux travaux scientifiques mais dans des domaines d'application différents de celui de la fiabilité. Ce travail de thèse a pour but de tester la pertinence des méthodes existantes d'analyse de sensibilité et, le cas échéant, de proposer des solutions originales plus performantes. Plus précisément, une étape bibliographique sur l'analyse de sensibilité puis sur l'estimation de faibles probabilités de défaillance est proposée. Cette étape soulève le besoin de développer des techniques adaptées. Deux méthodes de hiérarchisation de sources d'incertitudes sont explorées. La première est basée sur la construction de modèle de type classifieurs binaires (forêts aléatoires). La seconde est basée sur la distance, à chaque étape d'une méthode de type subset, entre les fonctions de répartition originelle et modifiée. Une méthodologie originale plus globale, basée sur la quantification de l'impact de perturbations des lois d'entrée sur la probabilité de défaillance est ensuite explorée. Les méthodes proposées sont ensuite appliquées sur le cas industriel CWNR, qui motive cette thèse<br>This thesis' subject is sensitivity analysis in a structural reliability context. The general framework is the study of a deterministic numerical model that allows to reproduce a complex physical phenomenon. The aim of a reliability study is to estimate the failure probability of the system from the numerical model and the uncertainties of the inputs. In this context, the quantification of the impact of the uncertainty of each input parameter on the output might be of interest. This step is called sensitivity analysis. Many scientific works deal with this topic but not in the reliability scope. This thesis' aim is to test existing sensitivity analysis methods, and to propose more efficient original methods. A bibliographical step on sensitivity analysis on one hand and on the estimation of small failure probabilities on the other hand is first proposed. This step raises the need to develop appropriate techniques. Two variables ranking methods are then explored. The first one proposes to make use of binary classifiers (random forests). The second one measures the departure, at each step of a subset method, between each input original density and the density given the subset reached. A more general and original methodology reflecting the impact of the input density modification on the failure probability is then explored.The proposed methods are then applied on the CWNR case, which motivates this thesis
APA, Harvard, Vancouver, ISO, and other styles
23

Combes-Joncheray, Marie-Françoise. "Les différences entre input et output chez les étudiants en anglais commercial des classes de BTS Commerce International : analyse critique." Compiègne, 1999. http://www.theses.fr/1999COMP1247.

Full text
Abstract:
La recherche part d'une interrogation personnelle et d'une intuition : il se passe quelque chose pour que l'input ne soit pas égal à l'output dans les schémas d'apprentissage. C'est donc un problème de terrain qui est à l'origine de ce travail et a conduit à aller chercher dans la théorie des éléments susceptibles d'éclairer ce questionnement, de construire les outils d'analyse permettant d'interpréter et donc de comprendre la situation étudiée. Une telle démarche est transférable et peut contribuer, à travers la généralisation de la recherche action, au développement professionnel et personnnel des enseignants. En s'appuyant sur deux métaphores opératoires dans le contexte choisi : input / output, BICS / CALP, la recherche a mis en évidence le jeu des représentations dans le traitement de l'input et a montré comment le décalage existant entre les représentations des apprenants de langue et les attentes de l'institution peuvent partiellement rendre compte des différences entre input et output. Elle souligne le rôle social de la recherche en didactique<br>The research work started from a personal question and an intuition : there muet be some process at work to account for the discrepancy between input and output in the production of learners of EFL. The question arising from a parctical problem led to theoretical investigations and to the elaboration of tools for the analysis of data, which enabled the researcher to interpret, and therefore understand, the situation. It is feasible to replicate the process and apply it through action-research so as to contribute to the professional and personal development of teachers. Two metaphors were used on the study : the input / output metaphor, and the BICS ans CALP metaphor. They were used as a basis for the theoretical framework of the research which eventually highlighted the impact of students ans institutional representations on input processing. It showed how the discrepancy existing between learners's representations and the institution's expectations could partially explain the differences between input and output. It also stressed the social part played by research in didactics
APA, Harvard, Vancouver, ISO, and other styles
24

Yang, Yi. "Contribution à l'évaluation économique des marées vertes." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0122/document.

Full text
Abstract:
Provoquées par des efflorescences saisonnières de macro-algues vertes de la famille des ulvacées, les marées vertes appartiennent à la classe plus large des blooms algaux nuisibles (HAB), en rapide développement dans le monde depuis trois décennies, sous l’effet notamment de l’eutrophisation des eaux côtières due aux activités humaines. L’accumulation massive des algues vertes sur les côtes produit une série de nuisances pour diverses activités marchandes et non marchandes, et peut être une source de danger pour la santé humaine. Dans le même temps, les algues vertes sont une ressource aux potentialités encore peu exploitées, et des programmes visant à valoriser industriellement les algues collectées lors des marées vertes ont vu le jour dans des pays impactés par ce phénomène, tels que la Chine et la France.Cette thèse traite de l’évaluation économique des marées vertes. Pour cela elle prend en compte, dans une optique coût-avantage, les coûts subis par les agents privés et les collectivités publiques, ainsi que les bénéfices issus de la valorisation des algues collectées lors de ces épisodes. La thèse repose sur deux cas d’étude, l’un en Chine (Mer Jaune) et l’autre en France (Bretagne). Les deux premiers chapitres sont consacrés aux marées vertes qui, depuis une dizaine d’années, se développent au printemps en Mer Jaune et viennent s’échouer sur les côtes du Shandong. Le premier chapitre étudie les mécanismes bioéconomiques à l’origine de ce phénomène, ses conséquences économiques, les politiques mises en œuvre pour y faire face, et les perceptions des acteurs et du public. Le deuxième chapitre cherche à évaluer le coût social des marées vertes, en le décomposant en coût de gestion d’une part (déduction faite de la valorisation d’une partie des algues récoltées) et en coût résiduel pour les activités marchandes et non marchandes d’autre part. Prenant la Bretagne comme cas d’étude, le troisième chapitre se focalise sur le thème de la valorisation des algues vertes. À l’aide d’un tableau entrées-sorties régionalisé, il évalue à différentes échelles spatiales les effets directs, indirects et induits d’un programme de valorisation industrielle des algues récoltées lors des marées vertes bretonnes<br>Due to seasonal blooms of green macro-algae belonging to the ulvaceae family, green tides are part of the larger class of harmful algal blooms (HAB), which has developed worldwide at a high rate during the last three decades, favoured by the eutrophisation of coastal waters due to human activities. The massive accumulation of seaweeds on the shore resulting from green tides generates a variety of damages to market and non-market activities, and is a potential threat to human health. In the same time, green algae are a natural resource that may be turned into a variety of valuable products through industrial processing. R&amp;D programs devoted to this subject have been launched in countries subject to green tides, such as China and France.The subject of this dissertation is the economic assessment of green tides, in a cost-benefit perspective. To this end, it studies the costs of green tides for private agents and public bodies, as well as the benefits due to the processing of algae.The dissertation relies on two case studies, one in China (Yellow Sea), and the other in France (Brittany). Chapter 1 and chapter 2 are dedicated to the case of the green tides that have developed each spring in the Yellow Sea and reached the southern shore of the Shandong province during the last decade. Chapter 1 investigates the bio-economic mechanisms of these episodes, their economic consequences, public management policies, and stakeholders’ perceptions. Chapter 2 tries to quantify the social cost of green tides, including management costs (minus benefits generated by green algae processing) and residual costs to market and non-market activities. Chapter 3 relies on the Brittany case, and focuses on the economic consequences of green algae industrial processing. Making use of a regionalized input-output table, it estimates, at various geographical scales, the economic impact of a program concerning the industrial processing of algae that are collected during the green tides on the Brittany shoreline
APA, Harvard, Vancouver, ISO, and other styles
25

Intawong, Kannikar. "Analyse automatique de la circulation automobile par vidéosurveillance routière." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2081.

Full text
Abstract:
Cette thèse s’inscrit dans le contexte de l’analyse vidéo du trafic routier. Dans certaines grandes villes, des centaines de caméras produisent de très grandes quantités de données, impossible à manipuler sans traitement automatique. Notre principal objectif est d'aider les opérateurs humains en analysant automatiquement les données vidéo. Pour aider les contrôleurs de la circulation à prendre leurs décisions, il est important de connaître en temps réel, l'état du trafic (nombre de véhicules et vitesse des véhicules sur chaque segment de voie), mais aussi de disposer de statistiques temporelles tout au long de la journée, de la semaine, de la saison ou de l'année. Les caméras ont été déployées depuis longtemps pour le trafic et pour d'autres fins de surveillance, car elles fournissent une source d'information riche pour la compréhension humaine. L'analyse vidéo peut désormais apporter une valeur ajoutée aux caméras en extrayant automatiquement des informations pertinentes. De cette façon, la vision par ordinateur et l'analyse vidéo deviennent de plus en plus importantes pour les systèmes de transport intelligents (intelligent transport systems : ITSs). L’une des problématiques abordées dans cette thèse est liée au comptage automatique de véhicules. Pour être utile, un système de surveillance vidéo doit être entièrement automatique et capable de fournir, en temps réel, l'information qui concerne le comportement de l'objet dans la scène. Nous pouvons obtenir ces renseignements sur la détection et le suivi des objets en mouvement dans les vidéos, ce qui a été un domaine largement étudié. Néanmoins, la plupart des systèmes d'analyse automatique par vidéo ont des difficultés à gérer les situations particulières. Aujourd'hui, il existe de nombreux défis à résoudre tels que les occultations entre les différents objets, les arrêts longs, les changements de luminosité, etc… qui conduisent à des trajectoires incomplètes. Dans la chaîne de traitements que nous proposons, nous nous sommes concentrés sur l'extraction automatique de statistiques globales dans les scènes de vidéosurveillance routière. Notre chaîne de traitements est constituée par les étapes suivantes : premièrement, nous avons évalué différentes techniques de segmentation de vidéos et de détection d'objets en mouvement. Nous avons choisi une méthode de segmentation basée sur une version paramétrique du mélange de gaussiennes appliquée sur une hiérarchie de blocs, méthode qui est considérée actuellement comme l'un des meilleurs procédés pour la détection d'objets en mouvement. Nous avons proposé une nouvelle méthodologie pour choisir les valeurs optimales des paramètres d’un algorithme permettant d’améliorer la segmentation d’objets en utilisant des opérations morphologiques. Nous nous sommes intéressés aux différents critères permettant d’évaluer la qualité d’une segmentation, résultant d’un compromis entre une bonne détection des objets en mouvement, et un faible nombre de fausses détections, par exemple causées par des changements d’illumination, des reflets ou des bruits d’acquisition. Deuxièmement, nous effectuons une classification des objets, basée sur les descripteurs de Fourier, et nous utilisons ces descripteurs pour éliminer les objets de type piétons ou autres et ne conserver que les véhicules. Troisièmement, nous utilisons un modèle de mouvement et un descripteur basé sur les couleurs dominantes pour effectuer le suivi des objets extraits. En raison des difficultés mentionnées ci-dessus, nous obtenons des trajectoires incomplètes, qui donneraient une information de comptage erronée si elles étaient exploitées directement. Nous proposons donc d’agréger les données partielles des trajectoires incomplètes et de construire une information globale sur la circulation des véhicules dans la scène. Notre approche permet la détection des points d’entrée et de sortie dans les séquences d’images. Nous avons testé nos algorithmes sur des données privées provenant<br>This thesis is written in the context of video traffic analysis. In several big cities, hundreds of cameras produce very large amounts of data, impossible to handle without automatic processing. Our main goal is to help human operators by automatically analyzing video data. To help traffic controllers make decisions, it is important to know the traffic status in real time (number of vehicles and vehicle speed on each path), but also to dispose of traffic statistics along the day, week, season or year. The cameras have been deployed for a long time for traffic and other monitoring purposes, because they provide a rich source of information for human comprehension. Video analysis can automatically extract relevant information. Computer vision and video analysis are becoming more and more important for Intelligent Transport Systems (ITSs). One of the issues addressed in this thesis is related to automatic vehicle counting. In order to be useful, a video surveillance system must be fully automatic and capable of providing, in real time, information concerning the behavior of the objects in the scene. We can get this information by detection and tracking of moving objects in videos, a widely studied field. However, most automated video analysis systems do not easily manage particular situations.Today, there are many challenges to be solved, such as occlusions between different objects, long stops of an object in the scene, luminosity changes, etc., leading to incomplete trajectories of moving objects detected in the scene. We have concentrated our work on the automatic extraction of global statistics in the scenes. Our workflow consists of the following steps: first, we evaluated different methods of video segmentation and detection of moving objects. We have chosen a segmentation method based on a parametric version of the Mixture of Gaussians, applied to a hierarchy of blocks, which is currently considered one of the best methods for the detection of moving objects. We proposed a new methodology to choose the optimal parameter values of an algorithm to improve object segmentation by using morphological operations. We were interested in the different criteria for evaluating the segmentation quality, resulting from a compromise between a good detection of moving objects, and a low number of false detections, for example caused by illumination changes, reflections or acquisition noises. Secondly, we performed an objects classification, based on Fourier descriptors, and we use these descriptors to eliminate pedestrian or other objects and retain only vehicles. Third, we use a motion model and a descriptor based on the dominant colors to track the extracted objects. Because of the difficulties mentioned above, we obtain incomplete trajectories, which, exploited as they are, give incorrect counting information. We therefore proposed to aggregate the partial data of the incomplete trajectories and to construct a global information on the vehicles circulation in the scene. Our approach allows to detect input and output points in image sequences. We tested our algorithms on private data from the traffic control center in Chiang Mai City, Thailand, as well as on MIT public video data. On this last dataset, we compared the performance of our algorithms with previously published articles using the same data. In several situations, we illustrate the improvements made by our method in terms of location of input / output zones, and in terms of vehicle counting
APA, Harvard, Vancouver, ISO, and other styles
26

Van, Wyk Lukas Johannes Meyer. "Critical assessment of economic impact analyses at selected national festivals / Lukas Johannes Meyer van Wyk." Thesis, North-West University, 2011. http://hdl.handle.net/10394/8630.

Full text
Abstract:
Festivals have become a global phenomenon and now serve as a platform to promote the leisure and tourism industry within a nation. These events have an undisputed economic effect – not only on the hosting community – but also on the global community. Despite the encouraging community support and the socio-economic impact and spin-offs that are generated by means of such events, the financing of art festivals remains an intricate issue. The fact remains that not all festivals are financially self-sustainable and so require extensive sponsorship in order to ensure the continuation of the event. Limited government funding available due to budget constraints curbs the financial support forthcoming from municipalities and so forces event organisers to seek alternative funding to ensure the survival and feasibility of events. This responsibility places an additional burden on event organisers and so necessitates the use of assessment tools in order to convince private and public institutions or individuals to invest in such events through sponsorships. During an extensive literature study, it became apparent that the need exists to re-assess fully the economic impact analysis of events. The literature revealed that varying models are used to conduct economic impact analyses. In order to establish a concise framework within which to conduct an economic assessment, it was decided to select only the most-used models – Computable General Equilibrium (CGE), Input-Output (I-O) and Social Accounting Matrix (SAM). The dilemma facing tourism economists is to determine which economic assessment approach is most effective as every methodology has its own advantages and disadvantages. In addition, the type and size of an event also plays a fundamental role when selecting an appropriate measuring tool. This research was further motivated because of the existing gap that exists in the South African context for no study has yet been conducted where the various models that assess economic impact have been applied to the collated data of the same event. This study thus aims to provide an overview and a comparison of competing and supplementing methodologies for modelling the regional economic dynamics and the impacts of events. It further investigates the manner in which regional CGE, I-O and SAM based (multiplier) models operate towards capturing the region-specific, inter-regional and multi-regional production, consumption and factor market patterns as result of expenditures incurred during events. An analysis of the virtues and the limitations of these economic assessment methodologies suggests that it may be the considerations such as the data collection/compilation, expected output, research objectives and costs involved that ultimately determine the choice of a specific modelling framework. While addressing the problem stated above, this study produced the following three articles that are now embodied in the work: * Article 1 - “Critical assessment of economic impact analyses of the ABSA Klein Karoo National Arts Festival”, and * Article 2 - “Critical assessment of economic impact analyses of the Aardklop National Arts Festival”. Article 2 investigated and compared the economic assessment results when applying specific constructed models, being the Social Accounting Matrix (SAM) and Computable General Equilibrium (CGE) for the appropriate provinces, to the available data obtained from previous surveys conducted at the 2010 ABSA Klein Karoo National Arts Festival and from the Aardklop National Arts Festival. The two articles indicated that when different models of assessment are applied to the same data set of an event, the economic impact results might differ significantly. This may serve as a warning to economic assessors, academics and researchers that economic impact results can be misleading and therefore the application thereof should be handled with the utmost care in order to avoid misinterpretations and misconceptions. * Article 3, “Assessing the economic impact of the Aardklop National Arts Festival: a feast of models to opt for – or not?” In this article, data from a visitor and business survey conducted at the 2010 Aardklop National Arts Festival was used in the analyses made by applying SAM, CGE and I-O regional models constructed for South Africa’s Northwest Province. Results from these analyses were then compared in order to give researchers and practitioners a better insight and clarity regarding which approach works best for the economic assessment of an arts festival. This article highlighted the fact that the measured economic impact results differ when various models that are applied to the same event. It also became evident that the most conservative economic impact was measured by an I-O model, followed with a higher SAM measurement, while CGE revealed the highest economic assessment. The most significant contribution of this study is embedded in the fact that within the South African context – and even globally – it is the first study of its kind that aimed to determine the economic impact by means of applying more than one assessment model to the data set of a single event. Further, this study provides guidelines for event organisers, academics and economic advisors to follow in conjunction with the existing body of knowledge and practical implementation structures when assessing the economic impact of events.<br>Thesis (PhD (Tourism Management))--North-West University, Potchefstroom Campus, 2012
APA, Harvard, Vancouver, ISO, and other styles
27

Ferchichi, Monia. "Organisation et performance économique de la filière bioéthanol : Analyse appliquée aux cas de la France et des Etats-Unis d'Amérique." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0046.

Full text
Abstract:
Cette thèse est consacrée à l'analyse de l'organisation et de la performance économique de la filière bioéthanol en France et aux Etats-Unis et s'intéresse plus particulièrement aux relations entre les producteurs agricoles et leurs clients, industriels-transformateurs. L'hypothèse qui a guidé nos travaux est que la performance économique des unités productrices de bioéthanol en France et aux Etats-Unis intervient sur plusieurs niveaux : au niveau de la rentabilité de l'activé de transformation, au niveau des modes de gouvernance, au niveau des modes de contractualisation et au niveau de l'organisation de l'approvisionnement ou encore la coordination technique entre les acteurs. Nous avons associé trois types de démarches : (i) des études empiriques d'organisations de filières et de relations producteurs-transformateurs, (ii) des démarches de modélisation visant à étudier plus précisément certaines difficultés observées sur le terrain en mobilisant trois cadres théoriques : analyse des relations verticales, choix des politiques de commande et théorie des contrats et (iii) des démarches d'intervention visant à aider les opérateurs à résoudre les problèmes mis en évidence. En mobilisant ces trois types d'éclairage, nous avons pu identifier plus précisément certains des problèmes sur lesquels bute aujourd'hui la coordination entre clients et fournisseurs au sein de la filière bioéthanol, tout en développant, à la fois, des cadres d'analyse de ces problèmes et des outils plus opérationnels visant à guider les opérateurs dans une démarche de résolution de ces difficultés<br>This thesis aims to analyze the organization and the economic performance of the bioethanol sector in France and in the USA with a particular interest in the relationships between the farmers and their clients the processors. The hypothesis that leads our research is that the economic performance of the bioethanol plants in France and in the USA intervenes in several levels: the level of the profitability of the processing activity, the level of governance mechanisms, the level of contracts types and the level of input procurement's organization or the technical coordination between the actors involved. We associated three types of approaches: (i) empirical studies of sectors' organizations and the relationships between producers and processors, (ii) modeling approaches in order to study precisely certain difficulties observed in the field using three theoretical frames: vertical relationships analysis, command strategy choice and contracts theory and (iii) intervention approaches to help the operators in solving problems. Using these three types of approaches, we identified certain problems in the coordination between clients and suppliers in the bioethanol sector with developing analysis frames of problems and operational tools to guide the operators in an approach of solving the identified difficulties
APA, Harvard, Vancouver, ISO, and other styles
28

Heim, Birgit. "Qualitative and quantitative analyses of Lake Baikal's surface-waters using ocean colour satellite data (SeaWiFS)." Phd thesis, Universität Potsdam, 2005. http://opus.kobv.de/ubp/volltexte/2006/718/.

Full text
Abstract:
One of the most difficult issues when dealing with optical water remote-sensing is its acceptance as a useful application for environmental research. This problem is, on the one hand, concerned with the optical complexity and variability of the investigated natural media, and therefore the question arises as to the plausibility of the parameters derived from remote-sensing techniques. Detailed knowledge about the regional bio- and chemico-optical properties is required for such studies, however such information is seldom available for the sites of interest. On the other hand, the primary advantage of remote-sensing information, which is the provision of a spatial overview, may not be exploited fully by the disciplines that would benefit most from such information. It is often seen in a variety of disciplines that scientists have been primarily trained to look at discrete data sets, and therefore have no experience of incorporating information dealing with spatial heterogeneity. <br><br> In this thesis, the opportunity was made available to assess the potential of Ocean Colour data to provide spatial and seasonal information about the surface waters of Lake Baikal (Siberia). While discrete limnological field data is available, the spatial extension of Lake Baikal is enormous (ca. 600 km), while the field data are limited to selected sites and expedition time windows. Therefore, this remote-sensing investigation aimed to support a multi-disciplinary limnological investigation within the framework of the paleoclimate EU-project ‘High Resolution CONTINENTal Paleoclimate Record in Lake Baikal, Siberia (CONTINENT)’ using spatial and seasonal information from the SeaWiFS satellite (NASA). From this, the SeaWiFS study evolved to become the first efficient bio-optical satellite study of Lake Baikal. <br><br> During the course of three years, field work including spectral field measurements and water sampling, was carried out at Lake Baikal in Southern Siberia, and at the Mecklenburg and Brandenburg lake districts in Germany. The first step in processing the SeaWiFS satellite data involved adapting the SeaDAS (NASA) atmospheric-correction processing to match as close as possible the specific conditions of Lake Baikal. Next, various Chl-<i>a</i> algorithms were tested on the atmospherically-corrected optimized SeaWiFS data set (years 2001 to 2002), comparing the CONTINENT pigment ground-truth data with the Chl-<i>a</i> concentrations derived from the satellite data. This showed the high performance of the global Chl-<i>a</i> products OC2 and OC4 for the oligotrophic, transparent waters (bio-optical Case 1) of Lake Baikal. However, considerable Chl-<i>a</i> overestimation prevailed in bio-optical Case 2 areas for the case of discharge events. High-organic terrigenous input into Lake Baikal could be traced and information extracted using the SeaWiFS spectral data. Suspended Particulate Matter (SPM) was quantified by the regression of the SeaDAS attenuation coefficient as the optical parameter with SPM field data. <br><br> Finally, the Chl-<i>a</i> and terrigenous input maps derived from the remote sensing data were used to assist with analyzing the relationships between the various discrete data obtained during the CONTINENT field work. Hence, plausible spatial and seasonal information describing autochthonous and allochthonous material in Lake Baikal could be provided by satellite data.<br>Lake Baikal, with its bio-optical complexity and its different areas of Case 1 and Case 2 waters, is a very interesting case study for Ocean Colour analyses. Proposals for future Ocean Colour studies of Lake Baikal are discussed, including which bio-optical parameters for analytical models still need to be clarified by field investigations.<br>Die Gewässerfernerkundung entwickelte sich seit den 70ern vor allem aus der Ozeanographie und der Atmosphärenforschung, und wird inzwischen als anerkannte Methode genutzt, um global die Phytoplanktonverteilung in den Weltmeeren erfassen zu können, u.a. für CO<sub>2</sub>-Haushaltsmodellierungen. Atmosphärenkorrigierte Multi- und Hyperspektralscannerdaten ermöglichen die Qualifizierung bio-optischer Gewässertypen und die Quantifizierung optisch sichtbarer Wasserinhaltsstoffe und bieten gerade auch für dynamische und heterogene Küsten- und Binnengewässer das große Potential des räumlichen Informationsgewinnes.<br>Im Rahmen des Paläoklimaprojektes CONTINENT wurde in dieser Arbeit das Oberflächenwasser des Baikalsees mit Gewässerfernerkungsmethoden analysiert. Wichtig für die Interpretation von Klima-Proxies sind v.a. auch Hinweise auf die Verteilung des autochthonen Materials im Baikalsee (Fernerkundungsparameter: Chlorophyll-<i>a</i>), ebenso wie Hinweise auf allochthone Einträge an den Bohrungsstellen (Fernerkundungsparameter ‚Terrigener Eintrag’). Auf den Geländekampagnen in den Sommern 2001, 2002, 2003 in Sibirien und in Deutschland wurden Feldspektrometermessungen mit gleichzeitiger Wasserprobenahme auf die optisch sichtbaren Wasserinhaltsstoffe Phytoplankton, Schwebstoff, und DOC durchgeführt. Dabei konnten Messtechniken für Geländespektrometer evaluiert, und grundlegende Aussagen über die spektrale Verteilung des In-Wasser Lichtfeldes im Baikalsee gemacht werden. <br><br> Die Ocean Colour Satellitendaten des NASA-Instrumentes SeaWiFS und die Möglichkeiten der komplexen NASA Software SeaDAS wurden genutzt. Für die Ableitung des am Baikalsee anzutreffenden organikreichen terrigenen Eintrages, wurde ein vorläufiger Algorithmus aus den Geländedaten generiert. Verschiedene Algorithmen für den Parameter ‚Chlorophyll-<i>a</i>’ wurden mit dem Geländedatensatz der Projektpartnerin S. Fietz (Institut für Gewässerökologie und Binnenfischerei, IGB) evaluiert. Als geeignetester etablierte sich der auf oligotrophe Gewässer optimierte NASA Chlorophyll Algorithmus ‚Ocean Colour (OC) 2’. Die Quantifizierungen und Ergebnisse werden diskutiert. <br><br> Als Endergebnis wird der Überblick über Sedimenteintrag und Phytoplanktondynamik im Baikalsee für den Zeitraum 2001-2002 zur Verfügung gestellt und die autochthonen versus allochthonen Einflüsse an den Projektlokationen werden beschrieben. Der Baikalsee erwies sich als bio-optisch ein sehr komplexes und interessantes Studienobjekt. Ein wichtiger Punkt, der in dieser Arbeit angesprochen wird, ist die Atmosphärenkorrektur, die wesentliche Einflüsse auf die Qualifizierungen und Quantifizierungen hat, aber als Standardprogramm nur für den pelagialen Wasserkörper in Meeresspiegelhöhe mit marinen, bzw. Küstenatmosphären konditioniert ist. Ein weiterer bedeutender Punkt, der in dieser Arbeit diskutiert wird, ist der relevante spektrale Einfluss des organikreichen terrigenen Eintrages auf die Gewässerfarbe und dadurch auf die Qualität der Chlorophyll-Ableitung. Somit boten sich die Möglichkeiten, das räumliche Ausmaß und die Dynamik rezenter terrigener Einträge zu erfassen. Auch die Entwicklung des Phytoplankton von Frühsommer bis Spätsommer im Baikalsee konnte mit den SeaWiFS Daten nachvollzogen werden. Die hier vorgestellte Studie stellte sich als die erste grundlegende optische Gewässerfernerkundungsstudie mit Satellitendaten am Baikalsee heraus, und konnte erfolgreich abgeschlossen werden.
APA, Harvard, Vancouver, ISO, and other styles
29

Schütte, Frank. "Die ökonomischen Studien V. K. Dmitrievs, Ein Beitrag zur Interpretation und theoriehistorischen Würdigung unter besonderer Berücksichtigung der russischen Volkswirtschaftslehre." Doctoral thesis, Universitätsbibliothek Chemnitz, 2006. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200600220.

Full text
Abstract:
Gegenstand der Arbeit ist das Leben sowie das Werk des ersten russischen mathematischen Ökonomen Vladimir Karpovic Dmitriev (1868-1913). Es werden alle bekannten Schriften Dmitrievs vorgestellt und eine Einführung und Interpretation seines wirtschaftstheoretischen Hauptwerkes, den Ökonomischen Essays (1898/1902), angeboten. Daneben erfolgt eine Beschreibung seiner Stellung innerhalb der russischen Nationalökonomie sowie eine Würdigung im Kontext der westlichen Volkswirtschaftslehre. Dabei werden die bis dato zu Dmitriev gewonnenen Erkenntnisse integriert, vertieft und kritisch hinterfragt. Auskünfte zur russischen Geschichte sowie die Erläuterung landestypischer Begriffe erleichtern das Verständnis der Dmitrievschen Positionen. Es zeigt sich, dass Dmitriev allen gesundheitlichen und materiellen Widrigkeiten zum Trotz eine beachtliche wissenschaftliche Leistung vollbrachte: Er gelangte zu Erkenntnissen, die seiner Zeit um Jahrzehnte voraus waren und deren Relevanz bis in die Gegenwart reicht. Nicht nur trug er zu einem verbesserten Verständnis der klassischen Theorie bei und nahm damit einige Elemente der Forschung in den 1950/60er Jahren vorweg, Pionierleistungen erbrachte er ebenfalls für die Input-Output-Analyse sowie auf dem Gebiet der unvollkommenen Konkurrenz. (Version bis auf persönliche Daten identisch mit Vorgängerversion, siehe Dokumente und Dateien.)
APA, Harvard, Vancouver, ISO, and other styles
30

Schütte, Frank. "Die ökonomischen Studien V. K. Dmitrievs, Ein Beitrag zur Interpretation und theoriehistorischen Würdigung unter besonderer Berücksichtigung der russischen Volkswirtschaftslehre." Doctoral thesis, Universitätsbibliothek Chemnitz, 2003. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200301107.

Full text
Abstract:
Gegenstand der Arbeit ist das Leben sowie das Werk des ersten russischen mathematischen Ökonomen Vladimir Karpovic Dmitriev (1868-1913). Es werden alle bekannten Schriften Dmitrievs vorgestellt und eine Einführung und Interpretation seines wirtschaftstheoretischen Hauptwerkes, den „Ökonomischen Essays“ (1898/1902), angeboten. Daneben erfolgt eine Beschreibung seiner Stellung innerhalb der russischen Nationalökonomie sowie eine Würdigung im Kontext der westlichen Volkswirtschaftslehre. Dabei werden die bis dato zu Dmitriev gewonnenen Erkenntnisse integriert, vertieft und kritisch hinterfragt. Auskünfte zur russischen Geschichte sowie die Erläuterung landestypischer Begriffe erleichtern das Verständnis der Dmitriev’schen Positionen. Es zeigt sich, dass Dmitriev allen gesundheitlichen und materiellen Widrigkeiten zum Trotz eine beachtliche wissenschaftliche Leistung vollbrachte: Er gelangte zu Erkenntnissen, die seiner Zeit um Jahrzehnte voraus waren und deren Relevanz bis in die Gegenwart reicht. Nicht nur trug er zu einem verbesserten Verständnis der klassischen Theorie bei und nahm damit einige Elemente der Forschung in den 1950/60er Jahren vorweg, Pionierleistungen erbrachte er ebenfalls für die Input-Output-Analyse sowie auf dem Gebiet der unvollkommenen Konkurrenz.
APA, Harvard, Vancouver, ISO, and other styles
31

Broto, Baptiste. "Sensitivity analysis with dependent random variables : Estimation of the Shapley effects for unknown input distribution and linear Gaussian models." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS119.

Full text
Abstract:
L'analyse de sensibilité est un outil puissant qui permet d'analyser des modèles mathématiques et des codes de calculs. Elle révèle les variables d'entrées les plus influentes sur la variable de sortie, en leur affectant une valeur appelée "indice de sensibilité". Dans ce cadre, les effets de Shapley, récemment définis par Owen, permettent de gérer des variables d'entrées dépendantes. Cependant, l'estimation de ces indices ne peut se faire que dans deux cadres très particuliers : lorsque la loi du vecteur d'entrée est connue ou lorsque les entrées sont gaussiennes et le modèle est linéaire. Cette thèse se divise en deux parties. Dans la première partie, l'objectif est d'étendre les estimateurs des effets de Shapley lorsque seul un échantillon des entrées est disponible et leur loi est inconnue. Dans la deuxième partie porte sur le cas linéaire gaussien. Le problème de la grande dimension est abordé et des solutions sont proposées lorsque les variables forment des groupes indépendants. Enfin, l'étude montre comment les effets de Shapley du cadre linéaire gaussien peuvent estimer ceux d'un cadre plus général<br>Sensitivity analysis is a powerful tool to study mathematical models and computer codes. It reveals the most impacting input variables on the output variable, by assigning values to the the inputs, that we call "sensitivity indices". In this setting, the Shapley effects, recently defined by Owen, enable to handle dependent input variables. However, one can only estimate these indices in two particular cases: when the distribution of the input vector is known or when the inputs are Gaussian and when the model is linear. This thesis can be divided into two parts. First, the aim is to extend the estimation of the Shapley effects when only a sample of the inputs is available and their distribution is unknown. The second part focuses on the linear Gaussian framework. The high-dimensional problem is emphasized and solutions are suggested when there are independent groups of variables. Finally, it is shown how the values of the Shapley effects in the linear Gaussian framework can estimate of the Shapley effects in more general settings
APA, Harvard, Vancouver, ISO, and other styles
32

Marheineke, Torsten. "Lebenszyklusanalyse fossiler, nuklearer und regenerativer Stromerzeugungstechniken." Stuttgart : IER, Bibliothek, 2002. http://elib.uni-stuttgart.de/opus/volltexte/2002/1144/index.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Grandjacques, Mathilde. "Analyse de sensibilité pour des modèles stochastiques à entrées dépendantes : application en énergétique du bâtiment." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT109/document.

Full text
Abstract:
Les bâtiments représentent un des principaux leviers d'action pour optimiser l'efficacité énergétique et la réduction des émissions de CO2 dans les villes. Afin d'optimiser les performances énergétiques, différentes études ont été menées sur les performances thermiques aussi bien du de point de vue de la conception, de la calibration de modèle que de l'impact de changement climatique. L'analyse de sensibilité vise à évaluer la part d'incertitude due à chacune des variables ou des paramètres qui peuvent influencer ces performances.La plupart des études en bâtiment menées dans la littérature se placent dans un cadre statique qui ne représente pas l'évolution du système. Il est très vite apparu nécessaire de développer des méthodes qui prennent en compte à la fois la dépendance des entrées et la dimension temporelle qui elle-même comporte toujours de la dépendance. Parmi les différentes méthodes d'analyse de sensibilité, nous avons privilégié la méthode globale, reposant sur le calcul des indices de sensibilité de Sobol. Le calcul effectif des indices de sensibilité permet de hiérarchiser les paramètres d'entrée en fonction de leur influence sur la sortieLes indices de Sobol peuvent se calculer de différentes façons. Nous nous sommes intéressés notamment à la méthode Pick and Freeze basée sur l'échantillonnage. Celle-ci repose sur l'hypothèse fondamentale et dans la pratique le plus souvent non vérifiée d'indépendance des entrées. Cela nous a amené du point de vue statistique à développer des techniques nouvelles pour tenir compte du caractère des entrées de type dynamique et dépendantes entre elles à la fois dans le temps et à chaque instant.Nous avons placé notre travail dans l'optique de méthodes permettant de se ramener au cas d'entrées indépendantes. Notre préoccupation a été de modéliser les entrées de manière souple, aisément transposable à d'autres situations concrètes et permettant des simulations relativement aisées. Afin de rendre compte du lien temporel entre les variables, nous avons choisi de considérer un indice dépendant de l'instant de calcul et de quantifier la variabilité de la sortie non pas seulement à la variabilité de l'entrée à l'instant t mais aussi à cette même variabilité provenant des instants précédents. Cette vision permet d'introduire la notion de mémoire utile pour le calcul de la sensibilité. Nous avons développé une méthode d'estimation des indices de Sobol pour des entrées dépendantes statiques a priori. Elle peut néanmoins être mise en œuvre pour des entrées dynamiques de courte mémoire mais les calculs sont alors très lourds dès que le nombre d'entrées est grand ou les mémoires importantes. Cette méthode permet de séparer des variables dépendantes de loi quelconque en des variables indépendantes de loi uniforme. Facile à mettre en œuvre ces méthodes d'estimation ne s'appuient pas sur des hypothèses d'indépendance des entrées, elles permettent alors un large éventail d'applications.Nous avons appliqué notre méthodologie à un bâtiment existant, apportant ainsi un outil utile à l'analyse du comportement thermique et donc à son optimisation. Nous avons pu montrer différentes situations en analysant l'ordre des variables suivant les sensibilités à partir de mesures. Deux critères ont été étudiés. Un critère de confort : l'étude de la température intérieure et un critère de performance : l'énergie de chauffage<br>Buildings represent one of the main levers of action to optimize energy efficiency and reducing emissions of $ CO_2 $. To understand how perform energy consumption of a building, different studies have been conducted on the thermal performance both the point of view of design and model calibration as the climate change impact. Energy performance can be optimized according to these studies by evaluating the degree of uncertainty due to each of the variables or parameters that may influence performance. This stage is called sensitivity analysis.Most building studies in the literature are placed in a static framework that does not represent the evolution of the system. The variables whose sensitivity to be studied are either considered at a given time or the input-output models are not dynamic. It became necessary to develop methods that take into account both the dependence of the inputs and the temporal dimension which itself always involves dependence. Among the different methods of sensitivity analysis, we have focused on the global method, based on the calculation of Sobol sensitivity indices. Sobol index of a parameter (or group of parameters) is a statistical indicator of easy interpretation. It allows to measure the importance of this parameter (or group of parameters) on the variability of a scalar quantity of interest, depending on the model output. Sensitivity indices allow to rank input parameters according to their influence on the output.Sobol indices can be calculated in different ways. We focused on the Pick and Freeze method based on sampling. This is based on a fundamental assumption and in practice often unverified : inputs independence. This led us statistically to develop new techniques to take into account the dynamic characteristic of inputs and dependents both in time and in every moment. Our work focuses on methods that can bring back to the case of independent inputs. Our concern was modelled in a flexible way inputs, easily transferable to other concrete situations and allowing relatively easy simulations. The input-output relationships are not important as the only constraint, of course not trivial, possible simulation.In order to reproduce the temporal relationship between the variables, we chose to consider an index dependent, in the non-stationary case (especially if there are seasonal phenomena), on the time of calculation and quantify the variability of output not not only to the variability of the input at time $ t $, but also to the same variability from previous times. This vision allows to introduce the concept of usable memory for the calculation of the sensitivity.The second method that we have developed is an estimation method of Sobol indices for static dependent inputs a priori. It may nevertheless be implemented for dynamic inputs with short memory but the calculations are then very heavy when the number of inputs are large or own important memories. This method allows to separate dependent variables of any law in independent variables uniformly distributed.Easy to implement these estimation methods developed are not based on assumptions of independence of inputs. It then allows a wide range of applications.This method applied to an existing building can help improve energy management and can be useful in the design from the implementation scenarios. We could show different situations by analysing the variable order according to the sensitivities from measurements on a test building. Two criteria were studied. A criterion of comfort: the study of indoor temperature and performance criteria: the heating energy
APA, Harvard, Vancouver, ISO, and other styles
34

Fruth, Jana. "Sensitivy analysis and graph-based methods for black-box functions with on application to sheet metal forming." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0779/document.

Full text
Abstract:
Le domaine général de la thèse est l’analyse de sensibilité de fonctions boîte noire. L’analyse de sensibilité étudie comment la variation d’une sortie peut être reliée à la variation des entrées. C’est un outil important dans la construction, l’analyse et l’optimisation des expériences numériques (computer experiments).Nous présentons tout d’abord l’indice d’interaction total, qui est utile pour le criblage d’interactions. Plusieurs méthodes d’estimation sont proposées. Leurs propriétés sont étudiées au plan théorique et par des simulations.Le chapitre suivant concerne l’analyse de sensibilité pour des modèles avec des entrées fonctionnelles et une sortie scalaire. Une approche séquentielle très économique est présentée, qui permet non seulement de retrouver la sensibilité de entrées fonctionnelles globalement, mais aussi d’identifier les régions d’intérêt dans leur domaine de définition.Un troisième concept est proposé, les support index functions, mesurant la sensibilité d’une entrée sur tout le support de sa loi de probabilité.Finalement les trois méthodes sont appliquées avec succès à l’analyse de sensibilité de modèles d’emboutissage<br>The general field of the thesis is the sensitivity analysis of black-box functions. Sensitivity analysis studies how the variation of the output can be apportioned to the variation of input sources. It is an important tool in the construction, analysis, and optimization of computer experiments.The total interaction index is presented, which can be used for the screening of interactions. Several variance-based estimation methods are suggested. Their properties are analyzed theoretically as well as on simulations.A further chapter concerns the sensitivity analysis for models that can take functions as input variables and return a scalar value as output. A very economical sequential approach is presented, which not only discovers the sensitivity of those functional variables as a whole but identifies relevant regions in the functional domain.As a third concept, support index functions, functions of sensitivity indices over the input distribution support, are suggested.Finally, all three methods are successfully applied in the sensitivity analysis of sheet metal forming models
APA, Harvard, Vancouver, ISO, and other styles
35

Baklouti, Sana. "Vibration Analysis and Reduction of Cable-Driven Parallel Robots." Thesis, Rennes, INSA, 2018. http://www.theses.fr/2018ISAR0034/document.

Full text
Abstract:
Cette thèse vise à améliorer le positionnement statique et la précision de suivi de trajectoire des Robots Parallèles à Câbles (RPC) tout en prenant en compte leur élasticité globale. A cet effet, deux stratégies de commandes complémentaires valables pour toute configuration de RPC sont proposées.Tout d'abord, une analyse de robustesse est réalisée pour aboutir à une commande robuste des RPC référencée modèle. Un modèle de RPC approprié est défini en fonction de l'application visée et les principales sources d'erreurs de pose de la plate-forme mobile sont identifiées.Une première méthode de commande est proposée sur la base des résultats de l'analyse de robustesse. Cette première méthode réside dans le couplage d'une commande référencée modèle d’un contrôleur PID.Dans le cadre de cette thèse, un modèle élasto-dynamique de RPC est exprimé afin de compenser le comportement oscillatoire de sa plate-forme mobile dû à l'élongation des câbles et de son comportement dynamique.La deuxième méthode de commande utilise des filtres "input-shaping" dans la commande référencée modèle proposée afin d'annuler les mouvements oscillatoires de la plate-forme mobile. Ainsi, le signal d'entrée est modifié pour que le RPC annule automatiquement les vibrations résiduelles. Les résultats théoriques obtenus sont validés expérimentalement à l'aide d'un prototype de RPC non redondant en actionnement et en configuration suspendue. Les résultats expérimentaux montrent la pertinence des stratégies de commande proposées en termes d'amélioration de la précision de suivi de trajectoire et de réduction des vibrations<br>This thesis aims at improving the static positioning and trajectory tracking accuracy of Cable- Driven Parallel Robots (CDPRs) while considering their overall elasticity. Accordingly, two complementary control strategies that are valid for any CDPR configuration are proposed.First, a robustness analysis is performed to lead to a robust model-based control of CDPRs. As a result, an appropriate CDPR model is defined as a function of the targeted application and the main sources of CDPR moving-platforms pose errors are identified.A first control method is determined based on the results of the robustness analysis. This first method lies in the coupling of a model-based feed-forward control scheme for CDPR with a PID feedback controller.Here, an elasto-dynamic model of the CDPR is expressed to compensate the oscillatory motions of its moving-platform due to cable elongations and its dynamic behavior.The second control method uses input-shaping filters into the proposed model-based feed-forward control in order to cancel the oscillatory motions the movingplatform. Thus, the input signal is modified for the CDPR to self-cancel residual vibrations.Experimental validations are performed while using suspended and non-redundant CDPR prototype. The proposed feed-forward model-based control schemes are implemented, and their effectiveness is discussed.Results show the relevance of the proposed control strategies in terms of trajectory tracking accuracy improvement and vibration reduction
APA, Harvard, Vancouver, ISO, and other styles
36

Dufau, Bastien. "L’influence des prix de l’énergie sur la compétitivité-coût : une approche multisectorielle et internationale." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100174.

Full text
Abstract:
Le projet WIOD (World Input-Output Database) mené par la Commission Européenne depuis 2009 a pu profiter du développement de sources statistiques sur le commerce international de ces dernières années pour harmoniser les tableaux entrées-sorties de nombreux pays à un niveau mondial. Cette base de données renouvelle l’intérêt pour les analyses input-output inspirées des travaux de Leontief, adaptées au cadre d'une économie monde. Il est ainsi désormais possible de suivre la propagation d’un choc au niveau mondial. La thèse s’inscrit dans la droite ligne de ce renouveau en cherchant à évaluer les enchaînements intersectoriels et internationaux d’un choc sur les prix de l’énergie, et son impact sur les coûts unitaires de production. Son originalité est de chercher à dépasser les limites habituelles de l’analyse input-output en autorisant une déformation endogène des coefficients techniques à travers le temps.La thèse cherche à tirer parti de la littérature économétrique traitant des formes fonctionnelles dites flexibles, appliquées à l’analyse de la production, pour dépasser cette principale limite. L’intérêt de la forme fonctionnelle flexible de coût de type Leontief Généralisée est plus singulièrement discuté dans la mesure où elle recouvre comme cas particulier le modèle input-output usuel. La thèse propose de recourir à une modélisation sectorielle imbriquée et accorde une place importante à la théorie des indices pour parvenir à le faire de la manière la plus cohérente possible. Le modèle ainsi développé est finalement estimé afin de mener des travaux de simulation quant aux effets d’une taxation des émissions de carbone dans les pays européens sur la compétitivité coût des différents secteurs de ces pays. Nous étudions les effets d’une taxe carbone à 20€/tCO2 ou 80€/tCO2 tout d’abord au niveau Européen. L’analyse de la compétitivité-coût révèle la Pologne et l’Espagne serait les principaux perdants de cette taxation alors que les autres pays européens arrivent à préserver leur compétitivité vis- à-vis du reste du monde. Une étude similaire portant sur une taxe appliquée unilatéralement sur le France ou l’Allemagne montre que ces pays ne seront que très faiblement affectés<br>The WIOD project (World Input-Output Database) was launched by the European Commission in 2009 thanks to the improvement of statistical sources on international trade that had been made in previous years. It has led to the international harmonization of input-output tables of many countries. International input-output tables renew the interest on Leontief theory but brought it to the international level. Indeed it is now possible to follow a shock’s worldwide. This dissertation follows this renewal, trying to evaluate the multisectoral and international impact of an energy shock. More precisely, the focus is made on a carbon tax and its impact on unit cost of production. In this dissertation, the focus is made on a way to go through the limits of the input-output analysis by endogenizing technical coefficients.Perfect complementarity of goods hypothesis is the main limit of the input-output analysis and leads to the rigidity of the technical coefficients describing interindustrial trade. Our objective is to take advantage of the littérature on flexibles functional forms to remove this constraint of the input-output analysis. More precisely we focus on the Generalized Leontief functional form as input-output cost function are a particular case of this form. In spite of the improvement of statistical sources, the lack of data leads us to use an aggregate function on several levels and to harmonize our functions using the price index theory. Finally, we study the impact of a carbon tax (20€/tCO2 or 80€/tCO2) first on an european level. A cost competitiveness analysis shows that Poland and Spain are mainly impacted by the tax, contrary to other European countries that keep their competitiveness at the international level. Then we study the impact of the tax on France and on Germany and find a little impact on unit cost of production
APA, Harvard, Vancouver, ISO, and other styles
37

Lecourt, Stephen. "Secteurs manufacturiers dans le système communautaire d’échange de quotas d’émissions." Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090021/document.

Full text
Abstract:
La thèse se concentre sur le secteur non-électrique agrégé couvert par le SCEQE. La contribution du secteur non-électrique aux variations des émissions de CO2 pendant les deux premières phases du marché (2005-2012), tant du point de vue de la demande finale que de celui de l’offre, est comparée à celle du secteur électrique. Les implications du mode d’allocation gratuite de quotas au secteur non-électrique durant la troisième phase du marché (2013-2020) sont examinées, ce qui constitue l’une des premières évaluations approfondies des benchmarks institués en Phase 3. Il est montré que, tant du point de vue de la demande finale que de celui de l’offre, le secteur non-électrique, du fait de ses interdépendances et de son niveau d’activité, a davantage contribué aux variations des émissions de CO2 que ne l’a fait le secteur électrique, au cours la période 2005-2012. Il est également montré que, en dépit de ses effets redistributifs, le mode d’allocation gratuite par benchmarks tel qu’il a été défini, demeure imparfait et n’est ainsi pas à la hauteur du rôle central du secteur non-électrique dans le fonctionnement du marché<br>The thesis focuses on the aggregated non-power sector covered under the EU ETS. First, the non-power sector contribution to CO2 emissions changes in the first two phases of the Scheme (2005-2012), both from a final demand perspective and a supply perspective, is compared to that of the power sector at first. Then, the implications of the non-power sector specific free allocation methodology in the third phase of the Scheme (2013-2020) are scrutinized, which constitutes one of the first thorough assessment of Phase 3 benchmarking. It is showed that both from a final demand perspective and a supply perspective, the non-power sector, through its interrelated character and its activity levels, has contributed to changes in EU ETS CO2 emissions more than the power sector did, over the 2005-2012 period. It is also showed that, despite its free allocation redistribution effects, benchmark-based Phase 3 free allocation remains flawed and may benefit from further improvements to be up to the central role of the non-power sector in the EU ETS dynamics
APA, Harvard, Vancouver, ISO, and other styles
38

Fontagné, Lionel Lassudrie-Duchêne Bernard. "Biens intermédiaires et division internationale du travail /." Paris : Économica, 1991. http://catalogue.bnf.fr/ark:/12148/cb35410458c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Öberg, Elin. "L’influence de l’âge de début d’acquisition et de l’input linguistique sur l’apprentissage du FLE : Une étude empirique d’étudiants suédois du lycée et de l’université au niveau A2." Thesis, Stockholms universitet, Romanska och klassiska institutionen, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-196563.

Full text
Abstract:
In the light of recent findings regarding age and cumulative language exposure in the domain of Second Language Acquisition, the present study examines how starting age and linguistic input influences Swedish learners of French in a formal instructional setting. In contrast to natural settings, research suggests that a younger starting age in formal settings does not result in more advanced long-term competences in the target language. For the benefits associated with a younger age to be triggered, significant amounts of rich linguistic input need to be obtained by the learner on a daily basis. To test the validity of these findings, two groups with different starting ages were asked to fill in a questionnaire about their age and language contact as well as to perform a grammar and vocabulary test. A correlation analysis showed that an older starting age did in fact have a statistically significant relationship with higher test results and that the participants who reported having more frequent self-regulatory habits of studying French also performed better than the ones with little to no extracurricular exposure. However, a regression analysis did not manage to confirm these correlations and did instead find that other variables such as motivation and which group the participants belonged to have a much stronger significance than mere starting age and the amount of received input.
APA, Harvard, Vancouver, ISO, and other styles
40

Azahaf, Mustapha. "IRM de perfusion T1 dans le cancer de la prostate, analyse quantitative et étude de l’impact de la fonction d’entrée artérielle sur les capacités diagnostiques des paramètres pharmacocinétiques." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S059/document.

Full text
Abstract:
La séquence d’IRM de perfusion pondérée T1 après injection de Gadolinium (Gd), appelée dynamic contrast enhanced magnetic resonance imaging (DCE-MRI) fait partie du protocole d’IRM multiparamétrique (IRM-mp) réalisée pour le bilan d’extension du cancer prostatique (CaP). Le rationnel pour l’utilisation de cette séquence est d’une part le rôle capital de la néoangiogénèse dans le développement et la dissémination du CaP et d’autre part la possibilité d’imager l’angiogénèse in vivo et de façon non invasive. L’analyse quantitative nécessite un post-traitement multi-étapes complexe, dont le principe repose sur la modélisation pharmacocinétique (PC) de la biodistrubtion du Gd. Elle permet de calculer des paramètres PC reflétant la perméabilité capillaire et/ou la perfusion. Dans le CaP, ces paramètres PC ont montré leur potentiel pour évaluer l’agressivité tumorale, le pronostic, l’efficacité d’un traitement et/ou pour déterminer la dose efficace d’une nouvelle molécule anti-angiogéniques ou antivasculaires en cours de développement. Néanmoins, ils manquent de reproductibilité, notamment du fait des différentes techniques de quantifications utilisées par les logiciels de post-traitement.Nous avons développé au sein du laboratoire un outil de quantification capable de calculer une cartographie T1(0) à partir de la méthode des angles de bascule variables, nécessaire pour convertir les courbes du signal en courbe de concentration du Gd (Ct); de déterminer la fonction d’entrée artérielle (AIF – arterial input function) dans l’artère fémorale (Indivuduelle – Ind) ou lorsque cela n’était pas possible, d’utiliser une AIF issue de la littérature, telle que celle de Weinmann (W) ou de Fritz-Hansen (FH) ; et d’utiliser deux modèles PC, celui de Tofts et celui de Tofts modifié. Le logiciel a été validé sur des données simulées et sur une petite série clinique.Nous avons ensuite étudié l’impact du choix de la fonction d’entrée artériel sur les paramètres PC et notamment sur leur capacité à distinguer le CaP du tissu sain. 38 patients avec un CaP (&gt;0,5cc) de la zone périphérique (ZP) ont été rétrospectivement inclus. Chaque patient avait bénéficié d’une IRM-mp sur laquelle deux régions d’intérêt (RI) : une tumorale et une bénigne ont été sélectionnées en utilisant une corrélation avec des cartes histo-morphométriques obtenues après prostatectomie radicale. En utilisant trois logiciels d’analyse quantitative différents, les valeurs moyennes de Ktrans (constante de transfert), ve (fraction du volume interstitiel) and vp (fraction du volume plasmatique) dans les RI ont été calculées avec trois AIF différentes (AIF Ind, AIF de W et AIF de FH). Ktrans était le paramètre PC qui permettait de mieux distinguer le CaP du tissu sain et ses valeurs étaient significativement supérieures dans le CaP, quelque soit l’AIF ou le logiciel. L’AIF de W donnait des aires sous les courbes ROC (Receiver Operating Characteristic) significativement plus grandes que l’AIF de FH (0.002≤p≤0.045) et plus grandes ou égales à l’AIF Ind (0.014≤p≤0.9). L’AIF Ind et de FH avaient des aires sous les courbes ROC comparables (0.34≤p≤0.81). Nous avons donc montré que les valeurs de Ktrans et sa capacité à distinguer CaP du tissu sain variaient significativement avec le choix de l’AIF et que les meilleures performances étaient obtenues avec l’AIF de W<br>Dynamic contrast enhanced (DCE)-MRI is a T1 weighted sequence performed before, during and after a bolus injection of a contrast agent (CA). It is included in the multi-parametric prostate MRI (mp-MRI) protocol using to assess the extent of prostate cancer (PCa). The rationale for using DCE-MRI in PCa is that on one hand angiogenesis has been shown to play a central role in the PCa development and metastasis and on the other hand that DCE-MRI is a non invasive method able to depict this angiogenesis in vivo. The quantitative analysis of DCE-MRI data is a complex and multi-step process. The principle is to use a pharmacokinetic (PK) model reflecting the theoretical distribution of the CA in a tissue to extract PK parameters that describe the perfusion and capillary permeability. These parameters are of growing interest, especially in the field of oncology, for their use in assessing the aggressiveness, the prognosis and the efficacy of anti-angiogenic or anti-vascular treatments. The potential utility of these parameters is significant; however, the parameters often lack reproducibility, particularly between different quantitative analysis software programs.Firstly, we developed a quantitative analysis software solution using the variable flip angle method to estimate the T1 mapping which is needed to convert the signal-time curves to CA concentration-time curves; using three different arterial input functions (AIF): an individual AIF (Ind) measured manually in a large artery, and two literature population average AIFs of Weinmann (W) and of Fritz-Hansen (FH); and using two PK models (Tofts and modified Tofts). The robustness of the software programs was assessed on synthetic DCE-MRI data set and on a clinical DCE-MRI data set. Secondly, we assessed the impact of the AIF selection on the PK parameters to distinguish PCa from benign tissue. 38 patients with clinically important peripheral PCa (≥0.5cc) were retrospectively included. These patients underwent 1.5T multiparametric prostate MR with PCa and benign regions of interest (ROI) selected using a visual registration with morphometric reconstruction obtained from radical prostatectomy. Using three pharmacokinetic (PK) analysis software programs, the mean Ktrans, ve and vp of ROIs were computed using three AIFs: Ind-AIF, W-AIF and FH-AIF. The Ktrans provided higher area under the receiver operating characteristic curves (AUROCC) than ve and vp. The Ktrans was significantly higher in the PCa ROIs than in the benign ROIs. AUROCCs obtained with W-AIF were significantly higher than FH-AIF (0.002≤p≤0.045) and similar to or higher than Ind-AIF (0.014≤p≤0.9). Ind-AIF and FH-AIF provided similar AUROCC (0.34≤p≤0.81).We have then demonstrated that the selection of AIF can modify the capacity of the PK parameter Ktrans to distinguish PCa from benign tissue and that W-AIF yielded a similar or higher performance than Ind-AIF and a higher performance than FH-AIF
APA, Harvard, Vancouver, ISO, and other styles
41

Zhang, Mei. "Diagnostic de panne et analyse des causes profondes du système dynamique inversible." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30260/document.

Full text
Abstract:
Beaucoup de services vitaux de la vie quotidienne dépendent de systèmes d'ingénierie hautement complexes et interconnectés; Ces systèmes sont constitués d'un grand nombre de capteurs interconnectés, d'actionneurs et de composants du système. L'étude des systèmes interconnectés joue un rôle important dans l'étude de la fiabilité des systèmes dynamiques; car elle permet d'étudier les propriétés d'un système interconnecté en analysant ses sous-composants moins complexes. Le diagnostic des pannes est essentiel pour assurer des opérations sûres et fiables des systèmes de contrôle interconnectés. Dans toutes les situations, le système global et / ou chaque sous-système peuvent être analysés à différents niveaux pour déterminer la fiabilité du système global. Dans certains cas, il est important de déterminer les informations anormales des variables internes du sous-système local, car ce sont les causes qui contribuent au fonctionnement anormal du processus global. Cette thèse porte sur les défis de l'application de la théorie inverse du système et des techniques FDD basées sur des modèles pour traiter le problème articulaire du diagnostic des fautes et de l'analyse des causes racines (FD et RCA). Nous étudions ensuite le problème de l'inversibilité de la gauche, de l'observabilité et de la diagnosticabilité des fauts du système interconnecté, formant un algorithme FD et RCA multi-niveaux basé sur un modèle. Ce système de diagnostic permet aux composants individuels de surveiller la dynamique interne localement afin d'améliorer l'efficacité du système et de diagnostiquer des ressources de fautes potentielles pour localiser un dysfonctionnement lorsque les performances du système global se dégradent. Par conséquent, un moyen d'une combinaison d'intelligence locale avec une capacité de diagnostic plus avancée pour effectuer des fonctions FDD à différents niveaux du système est fourni. En conséquence, on peut s'attendre à une amélioration de la localisation des fauts et à de meilleurs moyens de maintenance prédictive. La nouvelle structure du système, ainsi que l'algorithme de diagnostic des fautes, met l'accent sur l'importance de la RCA de défaut des dispositifs de terrain, ainsi que sur l'influence de la dynamique interne locale sur la dynamique globale. Les contributions de cette thèse sont les suivantes: Tout d'abord, nous proposons une structure de système non linéaire interconnecté inversible qui garantit le fauts dans le sous-système de périphérique de terrain affecte la sortie mesurée du système global de manière unique et distincte. Une condition nécessaire et suffisante est développée pour assurer l'inversibilité du système interconnecté qui nécessite l'inversibilité de sous-systèmes individuels. Deuxièmement, un observateur interconnecté à deux niveaux est développé; Il se compose de deux estimateurs d'état, vise à fournir des estimations précises des états de chaque sous-système, ainsi que l'interconnexion inconnue. En outre, il fournira également une condition initiale pour le reconstructeur de données et le filtre de fauts local une fois que la procédure FD et RCA est déclenchée par tout fauts. D'une part, la mesure utilisée dans l'estimateur de l'ancien sous-système est supposée non accessible; La solution est de la remplacer par l'estimation fournie par l'estimateur de ce dernier sous-système<br>Many of the vital services of everyday life depend on highly complex and interconnected engineering systems; these systems consist of large number of interconnected sensors, actuators and system components. The study of interconnected systems plays a significant role in the study of reliability theory of dynamic systems, as it allows one to investigate the properties of an interconnected system by analyzing its less complicated subcomponents. Fault diagnosis is crucial in achieving safe and reliable operations of interconnected control systems. In all situations, the global system and/or each subsystem can be analyzed at different levels in investigating the reliability of the overall system; where different levels mean from system level down to the subcomponent level. In some cases, it is important to determine the abnormal information of the internal variables of local subsystem, in order to isolate the causes that contribute to the anomalous operation of the overall process. For example, if a certain fault appears in an actuator, the origin of that malfunction can have different causes: zero deviation, leakage, clogging etc. These origins can be represented as root cause of an actuator fault. This thesis concerns with the challenges of applying system inverse theory and model based FDD techniques to handle the joint problem of fault diagnosis &amp; root cause analysis (FD &amp; RCA) locally and performance monitoring globally. By considering actuator as individual dynamic subsystem connected with process dynamic subsystem in cascade, we propose an interconnected nonlinear system structure. We then investigate the problem of left invertibility, fault observability and fault diagnosability of the interconnected system, forming a novel model based multilevel FD &amp; RCA algorithm. This diagnostic algorithm enables individual component to monitor internal dynamics locally to improve plant efficiency and diagnose potential fault resources to locate malfunction when operation performance of global system degrades. Hence, a means of acombination of local intelligence with a more advanceddiagnostic capability (combining fault monitoring anddiagnosis at both local and global levels) to performFDDfunctions on different levels of the plantis provided. As a result, improved fault localization and better predictive maintenance aids can be expected. The new system structure, together with the fault diagnosis algorithm, is the first to emphasize the importance of fault RCA of field devices, as well as the influences of local internal dynamics on the global dynamics. The developed model based multi-level FD &amp; RCA algorithm is then a first effort to combine the strength of the system level model based fault diagnosis with the component level model based fault diagnosis. The contributions of this thesis include the following: Firstly, we propose a left invertible interconnected nonlinear system structure which guarantees that fault occurred in field device subsystem will affect the measured output of the global system uniquely and distinguishably. A necessary and sufficient condition is developed to ensure invertibility of the interconnected system which requires invertibility of individual subsystems. Second, a two level interconnected observer is developed which consists of two state estimators, aims at providing accurately estimates of states of each subsystem, as well as the unknown interconnection. In addition, it will also provide initial condition for the input reconstructor and local fault filter once FD &amp; RCA procedure is triggered by any fault. Two underlyingissues are worth to be highlighted: for one hand, the measurement used in the estimator of the former subsystem is assumed not accessible; the solution is to replace it by the estimate provided by the estimator of the latter subsystem. In fact, this unknown output is the unknown interconnection of the interconnected system, and also the input of the latter subsystem
APA, Harvard, Vancouver, ISO, and other styles
42

Chastaing, Gaëlle. "Indices de Sobol généralisés par variables dépendantes." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM046.

Full text
Abstract:
Dans un modèle qui peut s'avérer complexe et fortement non linéaire, les paramètres d'entrée, parfois en très grand nombre, peuvent être à l'origine d'une importante variabilité de la sortie. L'analyse de sensibilité globale est une approche stochastique permettant de repérer les principales sources d'incertitude du modèle, c'est-à-dire d'identifier et de hiérarchiser les variables d'entrée les plus influentes. De cette manière, il est possible de réduire la dimension d'un problème, et de diminuer l'incertitude des entrées. Les indices de Sobol, dont la construction repose sur une décomposition de la variance globale du modèle, sont des mesures très fréquemment utilisées pour atteindre de tels objectifs. Néanmoins, ces indices se basent sur la décomposition fonctionnelle de la sortie, aussi connue soue le nom de décomposition de Hoeffding. Mais cette décomposition n'est unique que si les variables d'entrée sont supposées indépendantes. Dans cette thèse, nous nous intéressons à l'extension des indices de Sobol pour des modèles à variables d'entrée dépendantes. Dans un premier temps, nous proposons une généralisation de la décomposition de Hoeffding au cas où la forme de la distribution des entrées est plus générale qu'une distribution produit. De cette décomposition généralisée aux contraintes d'orthogonalité spécifiques, il en découle la construction d'indices de sensibilité généralisés capable de mesurer la variabilité d'un ou plusieurs facteurs corrélés dans le modèle. Dans un second temps, nous proposons deux méthodes d'estimation de ces indices. La première est adaptée à des modèles à entrées dépendantes par paires. Elle repose sur la résolution numérique d'un système linéaire fonctionnel qui met en jeu des opérateurs de projection. La seconde méthode, qui peut s'appliquer à des modèles beaucoup plus généraux, repose sur la construction récursive d'un système de fonctions qui satisfont les contraintes d'orthogonalité liées à la décomposition généralisée. En parallèle, nous mettons en pratique ces différentes méthodes sur différents cas tests<br>A mathematical model aims at characterizing a complex system or process that is too expensive to experiment. However, in this model, often strongly non linear, input parameters can be affected by a large uncertainty including errors of measurement of lack of information. Global sensitivity analysis is a stochastic approach whose objective is to identify and to rank the input variables that drive the uncertainty of the model output. Through this analysis, it is then possible to reduce the model dimension and the variation in the output of the model. To reach this objective, the Sobol indices are commonly used. Based on the functional ANOVA decomposition of the output, also called Hoeffding decomposition, they stand on the assumption that the incomes are independent. Our contribution is on the extension of Sobol indices for models with non independent inputs. In one hand, we propose a generalized functional decomposition, where its components is subject to specific orthogonal constraints. This decomposition leads to the definition of generalized sensitivity indices able to quantify the dependent inputs' contribution to the model variability. On the other hand, we propose two numerical methods to estimate these constructed indices. The first one is well-fitted to models with independent pairs of dependent input variables. The method is performed by solving linear system involving suitable projection operators. The second method can be applied to more general models. It relies on the recursive construction of functional systems satisfying the orthogonality properties of summands of the generalized decomposition. In parallel, we illustrate the two methods on numerical examples to test the efficiency of the techniques
APA, Harvard, Vancouver, ISO, and other styles
43

Windisch, Elisabeth. "Une évaluation financière des politiques publiques en faveur des véhicules électriques en France." Phd thesis, Ecole des Ponts ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00957749.

Full text
Abstract:
L'étude s'attache à évaluer le marché potentiel des véhicules électriques auprès des ménages français. L'analyse porte non seulement sur les déterminants financiers de la demande, mais aussi sur les obstacles socio-économiques à l'adoption des véhicules électriques par ces ménages. L'approche désagrégée qui est appliquée à partir de la base de données de l'Enquête Nationale Transports et Déplacements 2007/2008 permet d'identifier les combinaisons d'instruments financiers les plus à même de garantir certains niveaux de pénétration du véhicule électrique dans la prochaine décennie. Les conclusions et observations tirées de l'étude permettent de formuler diverses suggestions à l'attention des constructeurs automobiles et des décideurs publics affichant la volonté de soutenir l'essor du véhicule électrique.
APA, Harvard, Vancouver, ISO, and other styles
44

Bentahar, Hachmi. "Commerce international et comptabilité en temps de travail." Paris 1, 1987. http://www.theses.fr/1987PA010015.

Full text
Abstract:
La crise qui caracterise le contexte economique mondial a ete a l'ori gine d'importants efforts tant au niveau de la politique economique qu'au niveau theorique. Ainsi le chomage fut l'une des grandes preoccupations des politiciens et des theoriciens. Au niveau international, loin d'etre celui qui consiste a rejeter la responsabilite du chomage sur tel ou tel pays, le probleme est de savoir quelles sont les quantites et les qualites des travaux echangees entre differends parte -naires. Dans un monde ou les pays riches cherchent a preserver leurs acquis et ou les pays pauvres cherchent a eviter le marasme economique, le commerce international represente le lieu ou le clivage des interets nationaux se fait le plus sentir. Dans ces conditions, la question de savoir a qui profite la division internationale du travail est de premiere importance. Ainsi, nous avons pense a evaluer, par l'approche de la methode de l'equivalent-travail, les differentes quantites de travail de diverses categories qui rentrent et qui sortent d'un pays. Cette approche nous a permis de degager des resultats theoriques importants. L'analyse de la structure par branches et par categories socio-professionnelles du travail echanges a ete rendu possible. Elle a montre a quel point la prise en compte des differen tes qualites du travail est utile dans l'etude du commerce international. Ensuite, la comparaison des quantites de travail echangees par le maroc nous a permis d'apprecier la balance commerciale en termes de travail et degager pour la premiere fois une certaine mesure de l'echange inegal. Enfin, d'un point de vue pratique, l'evaluation de l'equivalent travail des echanges exterieurs permet d'eclairer les choix de politique economique de facon generale et de politique de l'emploi, de formation, d'education et de commerce exterieur en particulier.
APA, Harvard, Vancouver, ISO, and other styles
45

Joya, Mohammad Omar. "Trois essais sur la volatilité macroéconomique, la diversification productive, et les liaisons intersectorielles." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0722/document.

Full text
Abstract:
Dans une série d'essais empiriques, cette thèse analyse les effets de la diversification productive sur la volatilité et la productivité dans les pays riches en ressources naturelles. Dans le premier chapitre, je montre que bien que les ressources naturelles affectent négativement la croissance économique en augmentant la volatilité, les pays riches en ressources peuvent compenser les effets déclencheurs de la volatilité des ressources en diversifiant leurs économies. Les pays dont la structure de production est initialement plus diversifiée, ou qui parviennent à se diversifier au cours de leur développement économique, sont susceptibles de bénéficier de leur dotation en ressources. Dans le deuxième chapitre, j’explique que les pays riches en ressources disposés à diversifier leurs économies pour stimuler leur productivité sont confrontés à deux choix; soit développer des industries axées sur les ressources, soit diversifier leur économie dans son ensemble vers de nouvelles activités qui ne dépendent pas nécessairement des ressources naturelles. L’analyse empirique montre que la diversification par les liens vers l’aval du secteur de l'exploitation minière ne conduit pas à des améliorations de productivité. En revanche, l'élargissement et la diversification de la structure de production dans son ensemble offrent des potentiels de croissance de la productivité à des niveaux de revenus plus élevés. Dans le troisième chapitre, j’analyse la relation entre la diversification et la volatilité du point de vue du réseau de production constitué par l’ensemble des liens d’approvisionnement entre secteurs. Je trouve que l'emplacement d'un secteur au sein du réseau et son influence sur d'autres secteurs ont des effets contradictoires sur le risque que les fluctuations subies par ce secteur génèrent une volatilité agrégée. Les secteurs situés dans des régions denses du réseau ont un effet atténuant sur la volatilité globale via les effets de substitution, tandis que ceux qui sont plus influents et au centre d'un réseau fortement asymétrique génèrent des fluctuations globales via les effets de contagion et les liaisons intersectorielles. Ceux-ci suggèrent que la répartition et la structure des liens interindustriels jouent un rôle important dans la façon dont la diversification conditionne l'impact des chocs idiosyncrasiques sur la volatilité globale<br>In a series of empirical essays, this thesis looks at the various intertwining aspects of growth volatility and productive diversification in resource-rich countries. In the first chapter, I find that while natural resources adversely affect economic growth by increasing growth volatility, resource-rich countries can offset the volatility-triggering effects of natural resources by diversifying their economies. Countries that start off with more diversified production structure or are able to diversify as they develop are likely to benefit from their resource endowment. In the second chapter, I discuss the fact that resource-rich countries willing to diversify their economies are faced with dual policy options; to either develop resource-based industries, or diversify their economies as a whole into new activities not necessarily dependent on natural resources. The empirical analysis shows that diversification through downstream and forward linkages to mining does not lead to productivity enhancements. However, broadening and diversifying the production structure as a whole offer potentials for productivity growth at higher levels of income. In the third chapter, I look at the relation between diversification and volatility from a production network perspective, composed of input-output linkages across sectors. I find that the location of a sector within the production network and its influence on other sectors have conflicting effects on the risk that sectoral shocks lead to aggregate volatility. Sectors that are located in dense parts of the network have a mitigating effect on aggregate volatility via substitution effects, while those that are more influential and central in a strongly asymmetrical network generate aggregate fluctuations via contagion effects and inter-industry linkages. These suggest that the distribution and the network structure of inter-industry linkages play an important role into how diversification conditions the impact of idiosyncratic shocks on aggregate volatility
APA, Harvard, Vancouver, ISO, and other styles
46

Li, Qiaochu. "Contribution à la planification d'expériences, à l'estimation et au diagnostic actif de systèmes dynamiques non linéaires : application au domaine aéronautique." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2231/document.

Full text
Abstract:
Dans ce travail de thèse, nous nous focalisons sur le problème de l'intégration d'incertitude à erreurs bornées pour les systèmes dynamiques, dont les entrées et les états initiaux doivent être optimaux afin de réaliser certaines fonctionnalités.Le document comporte 5 chapitres: le premier est une introduction présentant le panorama du travail. Le deuxième chapitre présente les outils de base de l'analyse par intervalle. Le chapitre 3 est dédié à l'estimation d'états et de paramètres. Nous décrivons d'abord une procédure pour résoudre un système d'équations différentielles ordinaires avec l'aide de cet outil. Ainsi, une estimation des états à partir des conditions initiales peut être faite. Les systèmes différentiels considérés dépendent de paramètres qui doivent être estimés. Ce problème inverse pourra être résolu via l'inversion ensembliste. L'approche par intervalle est une procédure déterministe naturelle sans incertitude, tous les résultats obtenus sont garantis. Néanmoins, cette approche n'est pas toujours efficace, ceci est dû au fait que certaines opérations ensemblistes conduisent à des temps de calcul important. Nous présentons quelques techniques, par cela, nous nous plaçons dans un contexte à erreurs bornées permettant d'accélérer cette procédure. Celles-ci utilisent des contracteurs ciblés qui permettent ainsi une réduction de ce temps. Ces algorithmes ont été testés et ont montré leur efficacité sur plusieurs applications: des modèles pharmacocinétiques et un modèle du vol longitudinal d'avion en atmosphère au repos.Le chapitre 4 présente la recherche d'entrées optimales dans le cadre analyse par intervalle, ce qui est une approche originale. Nous avons construit plusieurs critères nouveaux permettant cette recherche. Certains sont intuitifs, d'autres ont nécessité un développement théorique. Ces critères ont été utilisés pour la recherche d'états initiaux optimaux. Des comparaisons ont été faites sur plusieurs applications et l'efficacité de certains critères a été mise en évidence.Dans le chapitre 5, nous appliquons les approches présentées précédemment au diagnostic via l'estimation de paramètres. Nous avons développé un processus complet pour le diagnostic et aussi formulé un processus pour le diagnostic actif avec une application en aéronautique. Le dernier chapitre résume les travaux réalisés dans cette thèse et essaye de donner des perspectives à la recherche.Les algorithmes proposés dans ce travail ont été développés en C++ et utilisent l'environnement du calcul ensembliste<br>In this work, we will study the uncertainty integration problem in a bounded error context for the dynamic systems, whose input and the initial state have to be optimized so that some other operation could be more easily and better obtained. This work is consisted of 6 chapters : the chapter 1 is an introduction to the general subject which we will discuss about. The chapter 2 represents the basic tools of interval analysis.The chapter 3 is dedicated to state estimation and parameter estimation. We explain at the first, how to solve the ordinary differential equation using interval analysis, which will be the basic tool for the state estimation problem given the initial condition of studied systems. On the other ride, we will look into the parameter estimation problem using interval analysis too. Based on a simple hypothesis over the uncertain variable, we calculate the system's parameter in a bounded error form, considering the operation of intervals as the operation of sets. Guaranteed results are the advantage of interval analysis, but the big time consumption is still a problem for its popularization in many non linear estimation field. We present our founding techniques to accelerate this time consuming processes, which are called contractor in constraint propagation field. At the end of this chapter, différent examples will be the test proof for our proposed methods.Chapter 4 presents the searching for optimal input in the context of interval analysis, which is an original approach. We have constructed several new criteria allow such searching. Some of them are intuitive, the other need a theoretical proof. These criteria have been used for the search of optimal initial States and le better parameter estimation results. The comparisons are done by using multiple applications and the efficiency is proved by evidence.In chapter 5, we applied the approaches proposed above in diagnosis by state estimation and parameter estimation. We have developed a complete procedure for the diagnosis. The optimal input design has been reconsidered in an active diagnosis context. Both state and parameter estimation are implemented using an aeronautical application in literature.The last chapter given a brief summary over the realized subject, some further research directions are given in the perspective section.All the algorithms are written in C/C++ on a Linux based operation system
APA, Harvard, Vancouver, ISO, and other styles
47

Ferhat, Fouad. "Une analyse économique de la qualité et de l'efficience des universités et des systèmes universitaires : une comparaison au niveau international." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E040/document.

Full text
Abstract:
Cette thèse propose une analyse économique de la qualité et de l'efficience des universités et des systèmes universitaires au niveau international, à travers l'utilisation des indicateurs intrants et extrants et la méthode d'enveloppement des données (Data Envelopment Analysis DEA). La thèse est composée de quatre chapitres. Le premier chapitre intitulé "les classements des universités : une mise en perspective critique" présente et évalue la pertinence des indicateurs intrants/extrants les plus utilisés par les classements des universités. Il est l'occasion d'exposer un certain nombre de critiques présentes dans la littérature et de focaliser sur un problème méthodologique répandu dans les classements. Il s'agit de l'utilisation des inputs (intrants) comme des mesures de la qualité des universités. Une telle pratique confond moyen et résultat et fait l'impasse sur les concepts de base des modèles de comptabilité en termes de fonction de production et d'efficience. Le deuxième chapitre intitulé "caractéristiques et classements des universités : autour de quelques facteurs capables d'expliquer les différences de performance entre les universités", compare les résultats de deux classements: QS-Times et Shanghai et propose une liste de facteurs capables d'expliquer pourquoi il existe de telles différences de qualité, selon ces classements, entre les universités. [...] Le troisième chapitre intitulé "la performance et l'efficience des universités et leurs déterminants: une évaluation à partir des classements mondiaux des universités et de la méthode DEA" évalue sur la base d'une méthode DEA l'efficience de 214 universités issues de 13 pays différentes afin de savoir si les universités les mieux classées parmi les classements traditionnels sont aussi les universités qui utilisent le mieux leurs ressources. [...] Enfin, le quatrième chapitre, titré "l'efficience des systèmes universitaires de 35 pays et leurs déterminants: une évaluation par la méthode DEA et le calcul des indices de Malmquist (2006-2012)" évalue l'efficience et les performances des systèmes universitaires de 35 pays. Il propose de nouveaux scores d'efficience globale qui viennent compléter les deux premières études sur ce sujet d’Agasisti (2011) et St. Aubyn et al (2009). Les nouveautés par rapport à l'article d'Agasisti (2011) sont au nombre de cinq: l'échantillon est plus important (35 pays au lieu de 18), la période d'observation est actualisée, l'évolution de l'efficience entre deux périodes est calculée, le nombre des intrants et des extrants incorporé dans chaque modèle est plus élevé et un modèle spécifique d'évaluation de l'efficience de la recherche est proposé. Il conforte la thèse selon laquelle les systèmes universitaires de la Suisse et du Royaume-Uni sont les plus efficients. Il montre aussi sur la base d'un calcul des indices de Malmquist qu'entre 2006 et 2012 l'efficience en matière d'enseignement des 35 systèmes universitaires évalués a eu tendance à diminuer alors que l'efficience de la recherche et de l'attractivité- réputation de ces mêmes systèmes a plutôt eu tendance à augmenter. Ce qui permet de mieux évaluer l'effet des réformes inspirées par l'usage du classement de Shanghai sur les systèmes universitaires. Ces réformes conduisent les enseignants-chercheurs à délaisser l'enseignement pour la recherche<br>This thesis aims to economically analyze the quality and efficiency of universities and university systems at an international level of comparison, by using input/output indicators and the Data Envelopment Analysis (DEA) method. The thesis is composed of four chapters. The first chapter entitled "university rankings: a critical perspective" presents and evaluates the relevance of inputs/outputs indicators used by most university rankings. It is the opportunity to present a number of criticisms found in the literature and focus on a common methodological problem in the rankings. It is the use of inputs as measures of university quality. This practice confuses means and results and ignores the basic concepts of accounting models in terms of production functions and efficiency. The second chapter entitled "characteristics and rankings of universities : around some factors that can explain the differences in performance between universities", compares the results of two rankings: QS-Times and Shanghai and offers a list of factors that may explain why there are such differences in quality, according to these rankings between universities. [...] The third chapter entitled "performance and efficiency of universities and their determinants: an evaluation using world university rankings and DEA methodology" evaluates on the basis of a DEA methodology the efficiency of 214 universities from 13 different countries, in order to find if the top ranked universities among traditional rankings are also universities that best utilize their financial and human resources. [...] The fourth chapter titled "efficiency of university systems in 35 countries and its determinants: an assessment by DEA methodology and the calculation of Malmquist indices (2006-2012)" assesses the efficiency and performance of university systems of 35 countries. It offers new scores for overall efficiency that complement the first two studies on this topic in the literature by Agasisti (2011) and St.Aubyn et al (2009). Compared to the article of Agasisti (2011), we identify five new developments in our study : the sample is higher (35 countries instead of 18), the observation period is updated, the evolution of efficiency between two periods is calculated, the number of inputs and outputs incorporated into each model is higher and a specific model for evaluating the efficiency of research is proposed. Our study confirms the thesis that the university systems of Switzerland and the United Kingdom are the most efficient. It also shows based on the calculations of Malmquist indices between 2006 and 2012 that teaching efficiency of 35 reviewed university systems has a tendency of declining while the research efficiency and that of attractivity-reputation is rather increasing. This allows a better assessment of the impact of reforms inspired by the Shanghai ranking on university systems. These reforms led the academic staff of universities to abandon their focus on teaching in favor of research activities
APA, Harvard, Vancouver, ISO, and other styles
48

Wang, Xiyao. "Augmented reality environments for the interactive exploration of 3D data." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG052.

Full text
Abstract:
La visualisation exploratoire des données 3D est fondamentale dans des domaines scientifiques. Traditionnellement, les experts utilisent un PC et s'appuient sur la souris pour ajuster la vue. Cette configuration permet l'immersion par interaction---l'utilisateur peut contrôler précisément la vue, mais elle ne fournit pas de profondeur, qui limite la compréhension de données complexes. La réalité virtuelle ou augmentée (RV/A), en revanche, offre une immersion visuelle avec des vues stéréoscopiques. Bien que leurs avantages aient été prouvés, plusieurs points limitent leur application, notamment les besoins élevés de configuration/maintenance, les difficultés de contrôle précis et, plus important, la séparation des outils d'analyse traditionnels. Pour bénéficier des deux côtés, nous avons donc étudié un système hybride combinant l'environnement RA avec un PC pour fournir des immersions interactives et visuelles. Nous avons collaboré étroitement avec des physiciens des particules afin de comprendre leur processus de travail et leurs besoins de visualisation pour motiver notre conception. D'abord, basé sur nos discussions avec les physiciens, nous avons construit un prototype qui permet d'accomplir des tâches pour l'exploration de leurs données. Ce prototype traitait l'espace RA comme une extension de l'écran du PC et permettait aux utilisateurs d'interagir librement avec chacun d'eux avec la souris. Ainsi, les experts pouvaient bénéficier de l'immersion visuelle et utilisent les outils d'analyse sur PC. Une étude observationnelle menée avec 7 physiciens au CERN a validé la faisabilité et confirmé les avantages. Nous avons également constaté que la grande toile du RA et le fait de se déplacer pour observer les données dans le RA présentaient un grand potentiel. Cependant, la conception de l'interaction de la souris et l’utilisation de widgets dans la RA devaient être améliorés. Ensuite, nous avons décidé de ne pas utiliser intensivement les widgets plats dans la RA. Mais nous nous sommes demandé si l'utilisation de la souris pour naviguer dans la RA est problématique, et nous avons ensuite tenté d'étudier si la correspondance de la dimensionnalité entre les dispositifs d'entrée et de sortie joue un rôle important. Les résultats des études (qui ont comparé la performance de l'utilisation de la souris, de la souris spatiale et de la tablette tangible couplée à l'écran ou à l'espace de RA) n'ont pas montré que la correspondance était importante. Nous avons donc conclu que la dimensionnalité n'était pas un point critique à considérer, ce qui suggère que les utilisateurs sont libres de choisir toute entrée qui convient à une tâche spécifique. De plus, nos résultats ont montré que la souris restait un outil efficace. Nous pouvons donc valider notre conception et conserver la souris comme entrée principale, tandis que les autres modalités ne devraient servir que comme complément pour des cas spécifiques. Ensuite, pour favoriser l'interaction et conserver les informations pendant que les utilisateurs se déplacent en RA, nous avons proposé d'ajouter un appareil mobile. Nous avons introduit une nouvelle approche qui augmente l'interaction tactile avec la détection de pression pour la navigation 3D. Les résultats ont montré que cette méthode pouvait améliorer efficacement la précision, avec une influence limitée sur le temps. Nous pensons donc qu'elle est utile à des tâches de vis où une précision est exigée. Enfin, nous avons résumé tous les résultats obtenus et imaginé un scénario réaliste qui utilise un poste de travail PC, un casque RA et un appareil mobile. Les travaux présentés dans cette thèse montrent le potentiel de la combinaison d'un PC avec des environnements de RA pour améliorer le processus d'exploration de données 3D et confirment sa faisabilité, ce qui, nous l'espérons, inspirera la future conception qui apportera une visualisation immersive aux flux de travail scientifiques existants<br>Exploratory visualization of 3D data is fundamental in many scientific domains. Traditionally, experts use a PC workstation and rely on mouse and keyboard to interactively adjust the view to observe the data. This setup provides immersion through interaction---users can precisely control the view and the parameters, but it does not provide any depth clues which can limit the comprehension of large and complex 3D data. Virtual or augmented reality (V/AR) setups, in contrast, provide visual immersion with stereoscopic views. Although their benefits have been proven, several limitations restrict their application to existing workflows, including high setup/maintenance needs, difficulties of precise control, and, more importantly, the separation from traditional analysis tools. To benefit from both sides, we thus investigated a hybrid setting combining an AR environment with a traditional PC to provide both interactive and visual immersions for 3D data exploration. We closely collaborated with particle physicists to understand their general working process and visualization requirements to motivate our design. First, building on our observations and discussions with physicists, we built up a prototype that supports fundamental tasks for exploring their datasets. This prototype treated the AR space as an extension to the PC screen and allowed users to freely interact with each using the mouse. Thus, experts could benefit from the visual immersion while using analysis tools on the PC. An observational study with 7 physicists in CERN validated the feasibility of such a hybrid setting, and confirmed the benefits. We also found that the large canvas of the AR and walking around to observe the data in AR had a great potential for data exploration. However, the design of mouse interaction in AR and the use of PC widgets in AR needed improvements. Second, based on the results of the first study, we decided against intensively using flat widgets in AR. But we wondered if using the mouse for navigating in AR is problematic compared to high degrees of freedom (DOFs) input, and then attempted to investigate if the match or mismatch of dimensionality between input and output devices play an important role in users’ performance. Results of user studies (that compared the performance of using mouse, space mouse, and tangible tablet paired with the screen or the AR space) did not show that the (mis-)match was important. We thus concluded that the dimensionality was not a critical point to consider, which suggested that users are free to choose any input that is suitable for a specific task. Moreover, our results suggested that the mouse was still an efficient tool compared to high DOFs input. We can therefore validate our design of keeping the mouse as the primary input for the hybrid setting, while other modalities should only serve as an addition for specific use cases. Next, to support the interaction and to keep the background information while users are walking around to observe the data in AR, we proposed to add a mobile device. We introduced a novel approach that augments tactile interaction with pressure sensing for 3D object manipulation/view navigation. Results showed that this method could efficiently improve the accuracy, with limited influence on completion time. We thus believe that it is useful for visualization purposes where a high accuracy is usually demanded. Finally, we summed up in this thesis all the findings we have and came up with an envisioned setup for a realistic data exploration scenario that makes use of a PC workstation, an AR headset, and a mobile device. The work presented in this thesis shows the potential of combining a PC workstation with AR environments to improve the process of 3D data exploration and confirms its feasibility, all of which will hopefully inspire future designs that seamlessly bring immersive visualization to existing scientific workflows
APA, Harvard, Vancouver, ISO, and other styles
49

Noller, Yannic. "Hybrid Differential Software Testing." Doctoral thesis, Humboldt-Universität zu Berlin, 2020. http://dx.doi.org/10.18452/21968.

Full text
Abstract:
Differentielles Testen ist ein wichtiger Bestandteil der Qualitätssicherung von Software, mit dem Ziel Testeingaben zu generieren, die Unterschiede im Verhalten der Software deutlich machen. Solche Unterschiede können zwischen zwei Ausführungspfaden (1) in unterschiedlichen Programmversionen, aber auch (2) im selben Programm auftreten. In dem ersten Fall werden unterschiedliche Programmversionen mit der gleichen Eingabe untersucht, während bei dem zweiten Fall das gleiche Programm mit unterschiedlichen Eingaben analysiert wird. Die Regressionsanalyse, die Side-Channel Analyse, das Maximieren der Ausführungskosten eines Programms und die Robustheitsanalyse von Neuralen Netzwerken sind typische Beispiele für differentielle Softwareanalysen. Eine besondere Herausforderung liegt in der effizienten Analyse von mehreren Programmpfaden (auch über mehrere Programmvarianten hinweg). Die existierenden Ansätze sind dabei meist nicht (spezifisch) dafür konstruiert, unterschiedliches Verhalten präzise hervorzurufen oder sind auf einen Teil des Suchraums limitiert. Diese Arbeit führt das Konzept des hybriden differentiellen Software Testens (HyDiff) ein: eine hybride Analysetechnik für die Generierung von Eingaben zur Erkennung von semantischen Unterschieden in Software. HyDiff besteht aus zwei parallel laufenden Komponenten: (1) einem such-basierten Ansatz, der effizient Eingaben generiert und (2) einer systematischen Analyse, die auch komplexes Programmverhalten erreichen kann. Die such-basierte Komponente verwendet Fuzzing geleitet durch differentielle Heuristiken. Die systematische Analyse basiert auf Dynamic Symbolic Execution, das konkrete Eingaben bei der Analyse integrieren kann. HyDiff wird anhand mehrerer Experimente evaluiert, die in spezifischen Anwendungen im Bereich des differentiellen Testens ausgeführt werden. Die Resultate zeigen eine effektive Generierung von Testeingaben durch HyDiff, wobei es sich signifikant besser als die einzelnen Komponenten verhält.<br>Differential software testing is important for software quality assurance as it aims to automatically generate test inputs that reveal behavioral differences in software. The concrete analysis procedure depends on the targeted result: differential testing can reveal divergences between two execution paths (1) of different program versions or (2) within the same program. The first analysis type would execute different program versions with the same input, while the second type would execute the same program with different inputs. Therefore, detecting regression bugs in software evolution, analyzing side-channels in programs, maximizing the execution cost of a program over multiple executions, and evaluating the robustness of neural networks are instances of differential software analysis with the goal to generate diverging executions of program paths. The key challenge of differential software testing is to simultaneously reason about multiple program paths, often across program variants, in an efficient way. Existing work in differential testing is often not (specifically) directed to reveal a different behavior or is limited to a subset of the search space. This PhD thesis proposes the concept of Hybrid Differential Software Testing (HyDiff) as a hybrid analysis technique to generate difference revealing inputs. HyDiff consists of two components that operate in a parallel setup: (1) a search-based technique that inexpensively generates inputs and (2) a systematic exploration technique to also exercise deeper program behaviors. HyDiff’s search-based component uses differential fuzzing directed by differential heuristics. HyDiff’s systematic exploration component is based on differential dynamic symbolic execution that allows to incorporate concrete inputs in its analysis. HyDiff is evaluated experimentally with applications specific for differential testing. The results show that HyDiff is effective in all considered categories and outperforms its components in isolation.
APA, Harvard, Vancouver, ISO, and other styles
50

Arnaud, Fanny. "Approches géomorphologiques historique et expérimentale pour la restauration de la dynamique sédimentaire d'un tronçon fluvial aménagé : le cas du Vieux Rhin entre Kembs et Breisach (France, Allemagne)." Phd thesis, Université Lumière - Lyon II, 2012. http://tel.archives-ouvertes.fr/tel-00833042.

Full text
Abstract:
Le Rhin dans son parcours franco-allemand a été aménagé depuis deux siècles pour la protection contre les inondations, la navigation et la production hydro-électrique. La rectification (19ème siècle), la régularisation (1930) et la construction du Grand Canal d'Alsace (1928-1959) ont profondément altéré le fonctionnement hydro-sédimentaire du " Vieux Rhin ", tronçon de 50 km court-circuité entre les barrages de Kembs et de Breisach, conduisant à une réduction de la complexité du tracé en plan, une incision, un pavage du fond du lit et une simplification des habitats aquatiques et riverains. La possibilité de restaurer le transport sédimentaire et la dynamique alluviale du Vieux Rhin est évaluée au sein de projets portés par la Région Alsace et EDF. Dans ce cadre, la présente thèse repose sur deux types d'approches de la géomorphologie fluviale, historique et expérimentale, afin de répondre à la problématique de restauration morpho-écologique du tronçon fluvial. Ce travail, basé sur la collecte de données anciennes et de terrain, ainsi que sur la quantification des évolutions morphologiques à différents niveaux scalaires, a conduit à une meilleure compréhension de la trajectoire temporelle d'ajustement de l'hydrosystème et à une estimation de sa sensibilité aux changements. Le suivi géomorphologique d'un test de recharge sédimentaire conduit sur un site-pilote a servi également à évaluer la pertinence de ce type d'intervention, à travers l'analyse des bénéfices et des risques environnementaux potentiels. L'ensemble des résultats obtenus a permis d'apporter aux gestionnaires des éléments d'aide à la réflexion pour orienter les stratégies de restauration ainsi que des indicateurs physiques d'évaluation des futures actions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography