To see the other types of publications on this topic, follow the link: Validation à long terme.

Dissertations / Theses on the topic 'Validation à long terme'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Validation à long terme.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ben, Mbarka Moez. "Signatures électroniques avancées : modélisation de la validation à long terme et sécurité des autorités de certification." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14247/document.

Full text
Abstract:
Il est nécessaire qu'une signature électronique garde ses propriétés de sécurité durant sa période archivage légale. La première partie de ce mémoire adresse cette problématique en formalisant la validation de signature à long terme. On utilise notre modèle pour définir la sémantique d'une règle de résolution de litige et pour formaliser plusieurs notions tels que la preuve de jugement, son expiration et son renouvellement. La révocation est l'un des principaux aspects formalisés par le modèle. La gestion de la révocation est particulièrement critique pour une Autorité de Certification. Dans un premier temps, on investigue différent niveaux de compromission et de révocations. Ensuite, on adresse la sécurité de l'application de signature de certificats. On propose une solution qui permet au module cryptographique de l'AC de déléguer les vérifications sur les requêtes de signature de certificats, à un environnement moins sécurisé mais avec une puissance de calcul plus importante
Nowadays digital signature schemes and infrastructures have time limitations. This situation is disturbing considering that there are many cases, such as government records, where the signatures are required to be kept valid for a long period of time. In this thesis, we address this issue by modeling signature validation in the scope of a dispute between a verifier and a signer. The model is accompanied with a formal calculus to formalize several important concepts in the scope of long-term validation, such as judgment proof, proof expiration and renewal. Certificate revocation is one of the main issues considered by the model. Revocation is particularly critical for a Certification Authority (CA). We investigate this issue in the scope of the revocation settings allowed in X.509 and we show that some settings permit efficient countermeasures to prevent the revocation of the CA. For the same objective, we investigate approaches allowing to combine hardware protection with fine-tuned control on the usage of the CA's key. We propose a general solution which allows the execution of the of CA's certification policies at a processor which runs in an insecure environment under the control of the CA's secure module
APA, Harvard, Vancouver, ISO, and other styles
2

Ducasse, Thomas. "Apport des verres basaltiques à la validation du modèle GRAAL sur le très long terme." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS040/document.

Full text
Abstract:
Cette thèse adapte le modèle GRAAL, initialement dédié à la prédiction du comportement à long terme des verres nucléaires type R7T7, à l’étude de l’altération des verres basaltiques, matériaux considérés comme des analogues naturels des verres nucléaires. Cette thèse cherche à valider les hypothèses fondatrices du modèle GRAAL et évaluer sa robustesse en l’appliquant aux verres basaltiques. Pour ce faire, deux axes de recherche sont suivis. Le premier consiste à reparamétrer le modèle GRAAL pour le verre basaltique. Le travail de description de la couche amorphe qui se forme durant l’altération du verre, a été entrepris aux moyen d’expériences de lixiviation de verres basaltiques simplifiés à 90°C et différents pH (7 ; 8,5 et 10). Des fortes analogies observées sur le comportement des éléments ont permis de conserver une partie du paramétrage du modèle GRAAL dédié aux verres nucléaires. Des expériences ont également été conduites pour affiner la compréhension des mécanismes d’altération à long terme du verre basaltique. A fort progrès de réaction, l’altération du verre basaltique n’est pas limitée par un mécanisme diffusif, comme c’est le cas pour le verre nucléaire, mais par une très lente hydrolyse du réseau vitreux entretenue par la précipitation de phases secondaires. Ainsi une modification de la loi cinétique de dissolution du verre a été réalisée.Le modèle, reparamétré avec la même méthodologie que celle employée pour le paramétrer pour le modèle de verre nucléaire parvient à rendre compte avec justesse de l’altération du verre basaltique pour les pH faiblement basiques, renforçant ainsi la confiance que l’on peut accorder au modèle sur les prédictions liées au verre nucléaire
This thesis adapts the GRAAL model, initially dedicated to the prediction of the long-term behavior of nuclear glasses, to basaltic glasses.This thesis intends to validate the relevance of the founding hypotheses of the GRAAL model as well as to assess its robustness. To achieve this, two lines of research were carried out simultaneously. The first was to re-parameterize the GRAAL model for basaltic glass compositions. To describe the amorphous layer formed during glass alteration, simple basaltic glasses were leached at 90 ° C and various pH (7, 8.5 and 10). Strong analogies observed on the behavior of the elements allowed to preserve a part of the parameterization of the GRAAL model. Experiments have also been conducted to improve the understanding of the mechanisms of basaltic glasses alteration in silica saturated conditions. It is shown that alteration of the basaltic glass is not limited by a diffusive mechanism like nuclear glass, but by a very slow hydrolysis of the vitreous network sustained by the precipitation of secondary phases. Thus, a modification of the kinetic law of the model controlling the dissolution of the glass was carried out.The model, then, accurately accounts for the alteration of basaltic glass in slightly alkaline conditions, thus reinforcing the confidence that can be given to the model on the predictions related to nuclear glasses
APA, Harvard, Vancouver, ISO, and other styles
3

Verney-Carron, Aurélie Libourel Guy Gin Stéphane. "Étude d'analogues archéologiques pour la validation des modèles de comportement à long terme des verres nucléaires." S. l. : INPL, 2008. http://www.scd.inpl-nancy.fr/theses/2008_VERNEY_CARRON_A.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Verney-Carron, Aurélie. "Étude d'analogues archéologiques pour la validation des modèles de comportement à long terme des verres nucléaires." Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL052N/document.

Full text
Abstract:
Des blocs de verre archéologique provenant d’une épave découverte près de l’île des Embiez (Var) en mer Méditerranée ont été étudiés en raison de leur analogie morphologique avec les verres nucléaires et de leur environnement connu et stable. Fracturés à l’issue de leur élaboration (comme les verres nucléaires), ces verres se sont altérés près de 1800 ans en eau de mer. Ce travail a abouti au développement et à la validation d’un modèle géochimique capable de simuler l’altération d’un bloc de verre archéologique fracturé au bout de 1800 ans. Les expériences ont permis de déterminer les constantes cinétiques des mécanismes en jeu (interdiffusion et dissolution du réseau vitreux) et les paramètres thermodynamiques (affinité, phases secondaires) de ce modèle. Celui-ci, implémenté dans HYTEC a permis de simuler l’altération de fissures sur 1800 ans. La cohérence des épaisseurs d’altération simulées et des valeurs mesurées sur les blocs valide la capacité prédictive du modèle. Ce modèle permet alors d’expliquer les résultats issus de la caractérisation du réseau de fissures et de son état d’altération. Les fissures de la zone externe du bloc sont les plus altérées du fait du renouvellement rapide de la solution, alors que les fissures internes ont des épaisseurs très fines à cause du couplage entre l’altération du verre et le transport des éléments en solution (effet de l’ouverture initiale et du colmatage). Les résultats expliquent non seulement les épaisseurs les plus fines, mais aussi leur variabilité. Le comportement analogue des verres archéologiques et nucléaires permet d’envisager une transposition de ce modèle aux verres nucléaires en condition de stockage géologique
Fractured archaeological glass blocks collected from a shipwreck discovered in the Mediterranean Sea near Embiez Island (Var) were investigated because of their morphological analogy with vitrified nuclear waste and of a known and stable environment. These glasses are fractured due to a fast cooling after they were melted (like nuclear glass) and have been altered for 1800 years in seawater. This work results in the development and the validation of a geochemical model able to simulate the alteration of a fractured archaeological glass block over 1800 years. The kinetics associated with the different mechanisms (interdiffusion and dissolution) and the thermodynamic parameters of the model were determined by leaching experiments. The model implemented in HYTEC software was used to simulate crack alteration over 1800 years. The consistency between simulated alteration thicknesses and measured data on glass blocks validate the capacity of the model to predict long-term alteration. This model is able to account for the results from the characterization of crack network and its state of alteration. The cracks in the border zone are the most altered due to a fast renewal of the leaching solution, whereas internal cracks are thin because of complex interactions between glass alteration and transport of elements in solution (influence of initial crack aperture and of the crack sealing). The lowest alteration thicknesses, as well as their variability, can be explained. The analog behavior of archaeological and nuclear glasses from leaching experiments makes possible the transposition of the model to nuclear glass in geological repository
APA, Harvard, Vancouver, ISO, and other styles
5

Techer, Isabelle. "Apports des analogues naturels vitreux à la validation des codes de prédiction du comportement à long terme des verres nucléaires." Montpellier 2, 1999. http://www.theses.fr/1999MON20101.

Full text
Abstract:
Ce travail a pour objectif d'evaluer l'analogie de comportement vis-a-vis de l'alteration dans l'eau et dans un environnement argileux humide, des verres volcaniques aluminosilicates et des verres d'interet nucleaire de type alumino-borosilicates. Le verre basaltique s'altere initialement dans l'eau par des processus d'hydrolyses ayant une energie d'activation de l'ordre de 73 kj/mole. Lorsque le progres de la reaction augmente, la vitesse d'alteration chute de plus de 4 ordres de grandeur par rapport a la vitesse initiale, v 0. La cinetique d'alteration n'est pas gouvernee par la seule chimie de la solution alterante. La pellicule d'alteration du verre semble jouer un role majeur de barriere diffusionnelle limitant le transfert des especes reactantes et produites. Tous ces elements soulignent l'analogie de comportement dans l'eau des verres basaltiques et des verres borosilicates nucleaires. Par opposition, la reaction d'alteration des verres volcaniques de type obsidienne met en jeu d'autres mecanismes d'alteration que ceux impliques lors de la dissolution du verre borosilicate. L'alteration d'un verre basaltique en presence d'un materiau d'environnement argileux est egalement examinee, au travers de l'etude du systeme naturel verre basaltique + pelite argileuse au salagou. Ce travail, couplant des donnees mineralogiques, chimiques et isotopiques permet de discuter des interactions entre un verre basaltique et la pelite argileuse. Les donnees de lixiviation en laboratoire des verres basaltiques ainsi que celles de l'alteration du verre du salagou en milieu naturel, ont ete modelisees a l'aide d'un code couplant dans une loi cinetique, le transfert diffusif de la silice dissoute et une loi d'affinite reactionnelle.
APA, Harvard, Vancouver, ISO, and other styles
6

Pena, Sergio A. "Development, Validation, and Utilization, of a Long-term Nearshore Synthetic Wave Record." UNF Digital Commons, 2019. https://digitalcommons.unf.edu/etd/898.

Full text
Abstract:
The need for a consistent and accurate production of long-term nearshore wave record is discussed. With multiple decades of offshore hindcasts and long, continuous data sets available, it is possible to create a nearshore synthetic wave record. The Brevard County coastline offers an area with a high quality 62-year long offshore hindcast, as well as an 11-year long and nearly continuous high-resolution nearshore wave record to compare with model performance. This thesis presents the steps in the development and performance of the synthetic nearshore wave record produced. A novel approach was used to compare, validate and calibrate this type of data which included using quantile-quantile plots and bin-averaged scatter plots. In a comparison between two reputable deep-water hindcasts (MSC50 and Wavewatch III), it was found that Wavewatch III significantly underpredicts wave heights in the higher range (>8m). At the nearshore STWAVE proves to be a simple, robust and fast way to create a nearshore wave record. Root mean squared error (0.272m-0.317m) and modified index of agreement (0.697-0.646) values for significant wave height show promising results for overall model performance with the currently available hindcast. Possible future improvements could be made by modifying the offshore hindcast to have finer grid resolution and further studying different friction models for the nearshore wave transformation model. Overall, the use of the MSC50 hindcast, to drive STWAVE at the nearshore, exhibits good agreement with ADCP data and analysis for significant wave heights can be used with confidence. Currently, no long-term trends can be resolved with the available record at the location used herein, yet more years of data/hindcasts in the future could provide more evident trends in wave climate change.
APA, Harvard, Vancouver, ISO, and other styles
7

Small, Nicola. "Patient empowerment in long-term conditions : development and validation of a new measure." Thesis, University of Manchester, 2012. https://www.research.manchester.ac.uk/portal/en/theses/patient-empowerment-in-longterm-conditions-development-and-validation-of-a-new-measure(b85db41b-5898-4c51-a180-78439eb94ea7).html.

Full text
Abstract:
Background: Patient empowerment is viewed as a priority by policy makers, patients and practitioners worldwide. Although there are a number of measures available, none have been developed specifically for patients in the UK with long-term conditions. It is the aim of this study to report the development and preliminary validation of an empowerment instrument for patients with long-term conditions in primary care.Methods: The study involved three methods. Firstly, a systematic review was conducted to identify existing empowerment instruments, and to describe, compare and appraise their content and quality. The results supported the need for a new instrument. Item content of existing instruments helped support development of the new instrument. Secondly, empowerment was explored in patients with long-term conditions and primary care practitioners using qualitative methods, to explore its meaning and the factors that support or hinder empowerment. This led to the development of a conceptual model to support instrument development. Thirdly, a new instrument for measuring empowerment in patients with long-term conditions in primary care was developed. A cross-sectional survey of patients was conducted to collect preliminary data on acceptability, reliability and validity, using pre-specified hypotheses based on existing theoretical and empirical work. Results: Nine instruments meeting review inclusion criteria were identified. Only one instrument was developed to measure empowerment in long-term conditions in the context of primary care, and that was judged to be insufficient in terms of content and purpose. Five dimensions (‘identity’, ‘knowledge and understanding’, ‘personal control’, personal decision-making’, and ‘enabling other patients’) of empowerment were identified through published literature and the qualitative work and incorporated into a preliminary version of the new instrument. A postal survey achieved 197 responses (response rate 33%). Almost half of the sample reported circulatory, diabetic or musculoskeletal conditions. Exploratory factor analysis suggested a three factor solution (‘identity’, ‘knowledge and understanding’ and ‘enabling’). Two dimensions of empowerment (‘identity’ and ‘enabling’) and total empowerment showed acceptable levels of internal consistency. The measure showed relationships with external measures (including quality of chronic illness care, self-efficacy and educational qualifications) that were generally supportive of its construct validity.Conclusion: Initial analyses suggest that the new measure meets basic psychometric criteria and has potential for the measurement of patient empowerment in long-term conditions in primary care. The scale may have a role in research on quality of care for long-term conditions, and could function as a patient-reported outcome measure. However, further validation is required before more extensive use of the measure.
APA, Harvard, Vancouver, ISO, and other styles
8

Schall, Valerie. "Infection prevention and control effectiveness and safety : validation of a survey for long term care facilities." Thesis, University of British Columbia, 2008. http://hdl.handle.net/2429/944.

Full text
Abstract:
Objectives: To develop and validate a survey that can be used to measure key infection prevention and control (IP&C) structures and processes in LTC facilities. Methods: This study was designed using a three-phase methodology. In Phase I, six structural and process composite indices were developed based on the 2004 PHAC recommendations for IP&C in LTC and other literature. During the second phase of the study, a group of 7 experts in LTC IP&C used the Delphi methodology to validate and further develop the survey based on group consensus. Five Safety Principles published by the Institute of Medicine were also provided to the experts so they could be used to complement and further develop the concepts covered by the survey. The Delphi phase began in April and ended in October 2007; 114 worksheets were sent to experts to support the consensus-reaching process. Once the validity of a survey draft had been established based on expert-group consensus, it was pilot-tested in Phase III using 20 randomly selected LTC facilities in Fraser Health. Findings: The three-phase methodology used in this study was very useful and innovative way to further develop and validate the literature-based survey developed in Phase I for IP&C in long term care. In addition, by merging two bodies of knowledge and thought into the process, concepts and components that are not explicitly described in IP&C literature yet were felt to be key in program success, were incorporated into the measurement tool. Using Delphi, the experts expressed a need for IP&C professionals working in LTC to increase their knowledge, understanding and use of safety theory and strategies. They also felt that interdisciplinary work, the development of a culture of safety, and the development clear and simple IP&C systems are key ways in which infections can be prevented and outbreaks quickly controlled. In Phase III, the pilot-study analysis demonstrated the utility, validity and reliability of the survey. In addition, the analysis showed that there is a tendency for facilities to have lower levels of components within the Leadership Index and the ICP Index.
APA, Harvard, Vancouver, ISO, and other styles
9

Demaré, Dano. "Examining long-term correlates of psychological, physical, and sexual childhood maltreatment, validation of the childhood maltreatment questionnaire." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ53054.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kim, Lois Georgina. "Assessing the long-term cost-effectiveness of screening for abdominal aortic aneurysm : model development, estimation and validation." Thesis, University of Cambridge, 2007. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.613321.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Verner, Alexander. "LSTM Networks for Detection and Classification of Anomalies in Raw Sensor Data." Diss., NSUWorks, 2019. https://nsuworks.nova.edu/gscis_etd/1074.

Full text
Abstract:
In order to ensure the validity of sensor data, it must be thoroughly analyzed for various types of anomalies. Traditional machine learning methods of anomaly detections in sensor data are based on domain-specific feature engineering. A typical approach is to use domain knowledge to analyze sensor data and manually create statistics-based features, which are then used to train the machine learning models to detect and classify the anomalies. Although this methodology is used in practice, it has a significant drawback due to the fact that feature extraction is usually labor intensive and requires considerable effort from domain experts. An alternative approach is to use deep learning algorithms. Research has shown that modern deep neural networks are very effective in automated extraction of abstract features from raw data in classification tasks. Long short-term memory networks, or LSTMs in short, are a special kind of recurrent neural networks that are capable of learning long-term dependencies. These networks have proved to be especially effective in the classification of raw time-series data in various domains. This dissertation systematically investigates the effectiveness of the LSTM model for anomaly detection and classification in raw time-series sensor data. As a proof of concept, this work used time-series data of sensors that measure blood glucose levels. A large number of time-series sequences was created based on a genuine medical diabetes dataset. Anomalous series were constructed by six methods that interspersed patterns of common anomaly types in the data. An LSTM network model was trained with k-fold cross-validation on both anomalous and valid series to classify raw time-series sequences into one of seven classes: non-anomalous, and classes corresponding to each of the six anomaly types. As a control, the accuracy of detection and classification of the LSTM was compared to that of four traditional machine learning classifiers: support vector machines, Random Forests, naive Bayes, and shallow neural networks. The performance of all the classifiers was evaluated based on nine metrics: precision, recall, and the F1-score, each measured in micro, macro and weighted perspective. While the traditional models were trained on vectors of features, derived from the raw data, that were based on knowledge of common sources of anomaly, the LSTM was trained on raw time-series data. Experimental results indicate that the performance of the LSTM was comparable to the best traditional classifiers by achieving 99% accuracy in all 9 metrics. The model requires no labor-intensive feature engineering, and the fine-tuning of its architecture and hyper-parameters can be made in a fully automated way. This study, therefore, finds LSTM networks an effective solution to anomaly detection and classification in sensor data.
APA, Harvard, Vancouver, ISO, and other styles
12

Ghfiri, Chaimae. "Development and validation of a predictive model to ensure the long-term electromagnetic compatibility of embedded electronic systems." Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0033/document.

Full text
Abstract:
Avec l’avancement technologique des circuits intégrés à travers la miniaturisation des tailles des transistors et leur multiplication au sein d’une même puce, l’intégration des circuits dans des systèmes embarqués complexes, principalement dans l’industrie aéronautique, spatiale et automobile, rencontre de plus en plus d’exigences en termes de respect des niveaux d’émission et d’immunité. De plus, étant donné que l’évolution des niveaux de Compatibilité Electromagnétique (CEM) des équipements électroniques doit respecter ces exigences à long terme, les marges définis par les industriels sont souvent surestimés et les systèmes de filtrages établis par les équipementiers peuvent être surdimensionnés. De ce fait, pour les circuits intégrés dédiés aux applications embarquées, il est nécessaire d’étudier les deux aspects qui concernent la modélisation CEM ainsi que la modélisation de la fiabilité. Ces dernières années, des standards ont été proposés et permettent la construction de modèles CEM prédictifs tel que ICEM-CE/RE (Integrated Circuit Emission Model for Conducted and Radiated Emission) et ICIM-CI (Integrated Circuit Immunity Model for Conducted Immunity). De plus, pour intégrer l’effet du vieillissement dans les modèles CEM, il faut étudier les principaux mécanismes de dégradation intrinsèques aux circuits intégrés qui accélèrent leur vieillissement tels que le HCI (Hot Carrier Injection), TDDB (Time Dependent Dielectric Breakdown), EM (Electromigration) et NBTI (Negative Bias Temperature Instability). Des modèles standardisés sont utilisés dans les différents domaines industriels qui permettent la construction de modèle de fiabilité tels que le standard MIL-HDBK-217 et le standard FIDES. Cependant, ils ne permettent de prendre en compte qu’un seul mécanisme de dégradation à la fois. Ce manuscrit de thèse introduit ces aspects de modélisation CEM et de fiabilité. Il traite également la construction d’un modèle d’émission conduite d’un FPGA avec la proposition de nouvelle méthodologie de modélisation. Ensuite, l’étude de la fiabilité du FPGA est décrite à travers l’utilisation d’un nouveau modèle permettant la prise en compte des différents mécanismes de dégradations et a été combiné au modèle CEM pour la prédiction des niveaux d’émissions conduite à long terme
With the technological evolution of integrated circuits (ICs) through the transistors scaling, which leads to the multiplication of the number of transistors within a chip, the requirements in terms of emission and immunity levels become more restrictive in the aeronautic, space and automotive industries. Moreover, since the evolution of Electromagnetic Compatibility (EMC) levels of electronic equipment after aging must meet the EMC long-term requirements, the EMC margins defined by the manufacturers are often overestimated and the filtering systems designed by the equipment manufacturer could be oversized.Therefore, for the integrated circuits dedicated to embedded applications, it is necessary to study the different aspects of EMC modeling as well as the reliability the modeling. These last years, several standards have been proposed for the construction of predictive EMC models such as ICEM-CE/RE (Integrated Circuit Emission Model for Conducted and Radiated Emission) and ICIM-CI (Integrated Circuit Immunity Model for Conducted Immunity). On the other hand, to integrate the effect of aging in EMC models, it is important to study the main intrinsic degradation mechanisms that accelerate the aging of ICs, such as HCI (Hot Carrier Injection), TDDB (Time Dependent Dielectric Breakdown), EM (Electromigration) and NBTI (Negative Bias Temperature Instability). For this purpose, there are existing models for the reliability prediction, such as the MIL-HDBK-217 standard and the FIDES standard. However, these models could take into account only the activation of one degradation mechanism. The combination of several degradation mechanisms could be critical for the IC performances and could contribute in the evolution of EMC level.This thesis introduces the different aspects of EMC and reliability modeling. This work deals with the construction of a conducted emission model of an FPGA and the proposition of new modeling methodologies. Furthermore, the reliability of the tested FPGA is described using a new predictive model, which takes into account the activation of the different degradation mechanisms. The reliability model has been combined with the EMC model for the long-term conducted emission level prediction
APA, Harvard, Vancouver, ISO, and other styles
13

Bowman, Jennifer. "Validation of the Oral/Nutrit[i]on Status section of the Minimum Data Set 2.0 in long-term care residents." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ58324.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Saxena, Kunal. "DEVELOPMENT AND VALIDATION OF A DISCRETE EVENT SIMULATION MODEL TO EVALUATE THE LONG TERM USE OF ELECTRONIC CIGARETTES IN US POPULATION." VCU Scholars Compass, 2015. http://scholarscompass.vcu.edu/etd/3919.

Full text
Abstract:
Introduction: Cigarette smoking is associated with lung cancer, cardiovascular disease, and chronic respiratory conditions. It is responsible for high mortality and morbidity risk in the US population. Smokers find sudden quitting difficult and it is reported that a large number of unassisted quitting attempts are eventually unsuccessful. Electronic cigarette or e-cig is a novel battery-driven, nicotine delivery product, currently being used as a smoking cessation tool by current and former smokers. Since its resemblance to a conventional cigarette, and its non-combustible nature, e-cig use has risen exponentially in the last few years. To address such public health issues, the US FDA is working on formulating regulations to manufacture, market, and distribute e-cigs has called for research evidence on the long term use of e-cig use. Objective: The objective of this study was to develop and validate a Discrete Event Simulation model to simulate the electronic cigarette (e-cig) use behavior, and to estimate the long term e-cig use prevalence, in different groups of the US population. Methods: The model population was generated from analyzing the National Health Interview Survey data from 2011-2013. The population was categorized into current, recent former, late former and never smokers. Population birth rates and death rates were applied using the 2012 US Census Bureau data. Model parametrization, transition probabilities and e-cig related risks were obtained and applied using cross sectional survey and longitudinal e-cig studies done on US population. The model was run for the period of 15 years and e-cig use prevalence at the end of the simulation period was estimated. Each simulation was replicated 100 times using Monte Carlo simulation approach. Model validation was performed by the use of null and extreme input values (internal validation), examining programing codes (debugging), verification by tobacco science and system analysis experts (structural and technical validation), comparison of model’s first year results with CDC reports (external validation). Conclusion: Total projected e-cig prevalence in the US population at the end of simulation of period was found to be around 19%. The results showed a gradual reduction in the number of conventional cigarette smokers and an increase in the e-cig users over the simulation period. Highest e-cig users were old, male, white and had less than high school level education. Sensitivity analyses of various model parameters showed that the e-cig prevalence was most sensitive to the impact and timing of policy implementation. As a novel nicotine delivery system, e-cigs are rapidly gaining acceptance in the US and recent reports have shown an exponential rise in the popularity of e-cig among minors and young adults. Our research provides empirical evidence that can be used by the scientific community and regulatory bodies to formulate regulations for marketing and sales of e-cigs in various sections of the population, where the prevalence is expected to rise in future. Our study can also guide the policy makers to introduce relevant policies at specific time points when the e-cig use is expected to rise.
APA, Harvard, Vancouver, ISO, and other styles
15

Fuetsch, Elena, Hermann Frank, Alexander Keßler, Christine Bachner, and Julia Süss-Reyes. "Principles for innovation management in family firms: An analysis of long-term successful good practices with a practitioner validation of the principles." Emerald Publishing Limited, 2019. http://dx.doi.org/10.1108/JFBM-09-2018-0049.

Full text
Abstract:
Purpose: Family firms (FF) reveal a considerable heterogeneity in their innovation behavior. Due to the successful long-term preservation of their innovation capacity via special resources and routines, multi-generational FF are of special interest in terms of learning from good practices. Against this background, the purpose of this paper is to ascertain principles for successful innovation behavior in long-term successful FF and to contribute to bridging the theory-practice gap. Design/method/Approach: Results are generated by analyzing innovation and innovation processes in five cases of long-term successful FF. On the basis of these good practice cases, the " rules of the game" of innovating are re-constructed using fine and system analyses based on narrative interviews with the FF CEOs. Findings: Intense reflection on the innovation characteristics of the five good practice cases along with a critical examination of the literature on innovation in FF were used to derive practical suggestions for FF in the form of 11 principles for FF taking a proactive interest in innovation. Practical implications: The 11 generated principles of successfully innovative FF were validated by FF CEOs who confirmed the practical relevance of these principles as valuable guidelines for successful innovation. Owners and managers may reflect on these principles against the background of the innovation behavior of their firms and adapt them to their contextual conditions. Originality/value: These principles serve as tangible suggestions for developing adequate innovation management strategies for individual FF. Furthermore, two FF CEOs were invited to comment on the viability of principles based on their comprehensive practical experience.
APA, Harvard, Vancouver, ISO, and other styles
16

Stover, Bert D. "Validation and evaluation of a disability measure for upper extremity musculoskeletal disorder screening in the workplace and prognostic factors of long-term disability /." Thesis, Connect to this title online; UW restricted, 2004. http://hdl.handle.net/1773/5407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Hartwell, S. Ian. "Validation of laboratory versus field avoidance behavior of schooling fathead minnows to heavy metal blends relative to acute toxicity during long term exposure." Diss., Virginia Polytechnic Institute and State University, 1985. http://hdl.handle.net/10919/54751.

Full text
Abstract:
Avoidance to a blend of four metals (relative proportions: 1.00 copper, 0.54 chromium, 1.85 arsenic, 0.38 selenium) was determined for schools of fathead minnows (Pimephales promelas) in a laboratory avoidance chamber, an artificial stream and in a natural stream setting on a seasonal basis during continuous exposure to low levels of the metal blend for up to 9 months. Laboratory avoidance responses were determined seasonally during 12 months of laboratory holding for unexposed (control) fish and two levels of metal blend exposure in a steep gradient laminar flow chamber. Toxicity of the metal blend was determined for laboratory and field, control and metals acclimated fish. Unexposed fish avoided very low levels of the blend (29 ug/L total metals). Fish exposed to low levels of the blend (49 ug/L total metals) for 3 months failed to avoid levels equal to 5X holding exposure levels. Fish exposed to higher levels of the blend (98 ug/L total metals) preferred elevated levels (3X holding exposure) after 3 months exposure, mildly avoided 5X holding levels after 6 months exposure and were not responsive to levels approaching 10X holding exposure after 9 months continuous exposure. Activity was not affected by long term exposure. Field avoidance responses were determined seasonally during 7 months of field laboratory holding in New River water for unexposed (control) fish and exposed (98 ug/L total metals) fish in a modified artificial stream supplied with raw New River water. Unexposed fish avoided 71.1 and 34.3 ug/L total metals in spring (3 months holding) and summer (6 months holding) respectively. After 3 months exposure in New River water, fish did not respond to metal blends as high as 1,470 ug/L total metals. In-stream avoidance responses were determined in the summer for unexposed (control) and exposed I (98 ug/L total metals) fish in a Adair Run, a second order tributary to the New River. Unexposed fish avoided 73.5 ug/L total metals in Adair Run. After 3 months exposure, in New River water fish did not respond to metal blends as high as 2,940 ug/L in Adair Run. Water hardness, turbidity and physical setting are implicated as possible causative factors for differences between control fish responses tested in different seasonal and locations. Fish exposed to the high level exposure in the laboratory had a 96-hr LC50 value 1.25X higher than laboratory control fish. Laboratory control fish avoided metals levels at 0.4% of their 96-hr LC50. Fish exposed to the metals blend in the field had a 96-hr LC50 value 1.41X higher than field control fish. Field control fish avoided metals levels between 0.7 and 2.5% of their 96-hr LC50 depending upon test location and season. There was no difference between the 96-hr LC50s of laboratory vs field control fish or between laboratory vs field exposed fish. Optimum statistical methods for analyzing avoidance behavior in schooling fish were developed.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
18

Haab, Lars [Verfasser], and Daniel [Akademischer Betreuer] Strauss. "Numerical Modeling and Experimental Validation of Involuntary Attentional Capture and Long-Term Habituation by the example of Tinnitus Aurium / Lars Haab. Betreuer: Daniel Strauss." Saarbrücken : Saarländische Universitäts- und Landesbibliothek, 2016. http://d-nb.info/1104170396/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Jauffret, Sandrine. "Validation et comparaison de divers indicateurs des changements à long term dans les écosystèmes méditerranéens arides : application au suivi de la désertification dans le Sud tunisien." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30066.

Full text
Abstract:
A l'instar des autres parcours du Bassin méditerranéen, les paysages steppiques de la zone aride tunisienne sont généralement considérés comme dégradés, la dynamique de la végétation étant affectée par des perturbations anthropiques ou non, et des stress à l'origine des processus de désertification. Dans ce contexte, les objectifs de cette recherche étaient d'identifier et de valider divers indicateurs des changements à long terme afin de fournir des informations pour une gestion des terres arides. L'étude porte sur la compréhension 1) de la structure et du fonctionnement des écosystèmes et 2) des changements qui s'y produisent en réponse à la dégradation, dans le temps et dans l'espace. Les indicateurs écologiques permettent de décrire divers niveaux d'organisation depuis l'espèce et l'écosystème, au paysage. La comparaison diachromque des cartes de végétation de 1975 et 2000 a permis d'établir un diagnostic plus complet de l'évolution des écosystèmes et des paysages depuis 25 ans. Quelques indicateurs écologiques ont aussi été reliés aux données télédétectées. .
As many rangelands surrounding the Mediterranean Basin, the Tunisian arid zone, characterised by scattered steppic vegetation, is commonly viewed as degraded landscapes. In Arid Mediterranean regions, vegetation dynamics is indeed affected by hunian and non-human disturbances and stresses which induce desertification processes. In this context, the objectives of this research were to identify and validate various indicators of long term changes to provide information useful for the management of arid lands. The study is focussed on the understanding of 1) the structure and functioning of ecosystems and 2) the changes that occur in space and time in response to degradation. The ecological indicators allow us to describe different organisation levels from species to the ecosystem and the landscape. The diachronic comparison of vegetation maps of 1975 and 2000 allow a more complete diagnosis about the evolution of ecosystems and landscapes over the last three decades. .
APA, Harvard, Vancouver, ISO, and other styles
20

Wenner, Marc [Verfasser]. "Messtechnische Validierung der Modelle zum Langzeitverhalten der Gleis-Tragwerks-Interaktion : Monitoring-based validation of the models for the long-term behaviour of track-bridge-interaction / Marc Wenner." Hannover : Gottfried Wilhelm Leibniz Universität Hannover, 2020. http://d-nb.info/1204459339/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Scorrano, Fabrizio <1985&gt. "Validation of a new method to assess the long-term Hypothalamic-Pituitary-Adrenal Activity using hair glucocorticoids as biomarkers. - Studies on pigs and laboratory Sprague-Dawley Rats." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amsdottorato.unibo.it/6276/.

Full text
Abstract:
The evaluation of chronic activity of the hypothalamic-pituitary-adrenal (HPA) axis is critical for determining the impact of chronic stressful situations. The potential use of hair glucocorticoids as a non-invasive, retrospective, biomarker of long term HPA activity is of great interest, and it is gaining acceptance in humans and animals. However, there are still no studies in literature examining hair cortisol concentration in pigs and corticosterone concentration in laboratory rodents. Therefore, we developed and validated, for the first time, a method for measuring hair glucocorticoids concentration in commercial sows and in Sprague-Dawley rats. Our preliminary data demonstrated: 1) a validated and specific washing protocol and extraction assay method with a good sensitivity in both species; 2) the effect of the reproductive phase, housing conditions and seasonality on hair cortisol concentration in sows; 3) similar hair corticosterone concentration in male and female rats; 4) elevated hair corticosterone concentration in response to chronic stress manipulations and chronic ACTH administration, demonstrating that hair provides a good direct index of HPA activity over long periods than other indirect parameters, such adrenal or thymus weight. From these results we believe that this new non-invasive tool needs to be applied to better characterize the overall impact in livestock animals and in laboratory rodents of chronic stressful situations that negatively affect animals welfare. Nevertheless, further studies are needed to improve this methodology and maybe to develop animal models for chronic stress of high interest and translational value in human medicine.
APA, Harvard, Vancouver, ISO, and other styles
22

Pareeth, Sajid [Verfasser]. "Trends in surface temperature from new long-term homogenized thermal data by applying remote sensing techniques and its validation using in-situ data of five southern European lakes / Sajid Pareeth." Berlin : Freie Universität Berlin, 2016. http://d-nb.info/1110884516/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

BOUCHET, JACQUES. "Filtres endocaves percutanes : suivi a court terme et a long terme." Lyon 1, 1991. http://www.theses.fr/1991LYO1M371.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

SMAGGHUE, FABRICE. "Tamponnade cardiaque, evolution a long terme." Lille 2, 1988. http://www.theses.fr/1988LIL2M044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Gillmann, Cédric. "Habitabilité à long terme des planètes telluriques." Paris, Institut de physique du globe, 2009. http://www.theses.fr/2009GLOB0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Charmant, Alain. "Formalisation quantitative du long terme : une contribution." Paris 1, 1990. http://www.theses.fr/1990PA010001.

Full text
Abstract:
L'apport des modèles macroéconométriques, tant du point de vue des exercices prévisionnels, que pour l'évaluation des conséquences de mesures de politiques économiques, est considérable. Cependant, le terme de ces outils (environ cinq ans) est parfois insuffisant. L'extension de cet horizon de projection est-il possible ? Des études théoriques sur maquettes ont porté sur la comptabilité des spécifications et leur examen dans une optique de long terme. Elles permirent de rapporter le fonctionnement à long terme des modèles macroéconomiques, d'un schéma néo-classique de croissance. De sorte que les questions que soulèvent l'utilisation des modèles à long terme sont, par analogie, celles qui sont posées en théorie de la croissance, et concernent d'une part l'existence et les propriétés d'une croissance stationnaire, et d'autre part sa stabilité. Les modèles doivent tout d'abord offrir un cadre analytique qui permettent d'organiser de manière satisfaisante les contributions des différents facteurs à la croissance. De ce point de vue, le concept clef est celui de fonction de production, largement étudié, tant le cas d'une hypothèse putty-putty, que dans le cas de modèles à générations. La large utilisation de données de simulation permet d'apprécier concrètement la portée des résultats. Cependant, il ne suffit pas d'expliquer un modèle du cycle des affaires sur le sentier de croissance équilibrée. La prise en compte de déséquilibres dans les modèles est explicite à court terme. Les modèles de croissance en déséquilibre peuvent alors fournir d'intéressants schémas exploratoires, susceptibles de permettre. .
Currently, econometric modelling's contribution, both to economic forecasting and economic policy valuation, is signifiant. However, models term (about five years) is sometimes inadequate. It it possible to extend it? Specifications properties in a long term perspective, and their compatibility, were theoretically studied. Those works pointed out the relationship between long term properties of macroeconomic models and results of theory of growth. So far, questions raised by long-run modelling practise can be expressed using theory of growth's framework: existence and properties of a steady state growth path, and its stability. First, models must provide an analytical framework that allows organisation of inputs contribution to growth. From this point of view, production function is the significant concept. It is widely studied, both using a putty-putty assumption, and a vintage approach. Simulation experiments are used to fith the practical consequence of our results. Yet, it will not do simply to superimpose a model of the business cycle on an equilibrium growth path. In the short run, disequilibriums are explicitly registered in models. Theoritical models of economic growth with disequilibrium can provide interesting exploratory sketchs, that could allow to improve long term properties of econometric models. Concerning disequilibrium on the financial market. .
APA, Harvard, Vancouver, ISO, and other styles
27

Joussain, Charles. "Construction and validation of HSV-1 vectors with selective and long-term expression in bladder afferent neurons for gene therapy of neurogenic detrusor overactivity. : A translational approach Botulinum Neurotoxin Light Chains Expressed by Defective Herpes Simplex Virus Type-1 Vectors Cleave SNARE Proteins and Inhibit CGRP Release in Rat Sensory Neurons Development and assessment of herpes simplex virus type 1 (HSV-1) amplicon vectors with expression from sensory neuron-selective promoters. Construction and properties of replication-incompetent HSV-1 recombinant vectors expressing transgenic botulinum toxins in primary cultures of human sensory neurons and displaying long-term expression in vivo. Therapeutic escalation for the neurogenic bladder in SCI patients : A bicentric study real life experience Long-term outcomes and risks factors for failure of intradetrusor onabotulinumtoxin A injections for the treatment of refractory neurogenic detrusor overactivity." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV057.

Full text
Abstract:
Cinquante à 80% des patients atteints d'une lésion médullaire traumatique (LM) présente des d'épisodes d'incontinence urinaire liés à une hyperactivité détrusorienne neurogène (HDN). L’HDN est caractérisée par des contractions non inhibées du détrusor pendant la phase de remplissage vésical, qui conduit à une augmentation des pressions détrusoriennes, particulièrement lorsque l’HDN est associée à une dyssynergie vésico-sphinctérienne. L'objectif principal de la prise en charge de l’HDN est d'obtenir une vidange vésicale régulière, complète et à basse pression, ainsi que de maintenir la continence urinaire, afin d'améliorer la qualité de vie des patients et de prévenir les complications uro-néphrologiques dont l’insuffisance rénale. La prise en charge actuelle repose sur une pharmacothérapie agissant principalement au niveau de la branche efférente, motrice, du réflexe mictionnel, permettant ainsi un remplissage vésical à basse pression. Le traitement de première intention repose sur des antimuscariniques oraux, le plus souvent associés à la réalisation d’autosondages pluriquotidiens. En cas d’échec de cette thérapeutique, l’injection intradétrusorienne de toxine botulique A est proposée. Cependant, malgré leur efficacité, ces traitements induisent des effets secondaires et souffrent d’un échappement thérapeutique, conduisant à un traitement chirurgical de troisième ligne. La technique de Brindley, qui consiste en une désafférentation des racines postérieures sacrées innervant la vessie associée à une stimulation électrique, à la demande, des racines antérieures est une alternative prometteuse, mais reste peu proposée en raison de la complexité de la procédure chirurgicale requise. L'HDN résulte de l'émergence d'un réflexe spinal anormal médié par une plasticité des afférences vésicales de type-C dans les suites de la LM. Le projet de mon équipe est de réaliser une déafférentation vésicale par thérapie génique afin d'abolir le réflexe de miction spinale altérée. Dans un second temps, la miction sera déclenchée par une stimulation électrique à la demande, des neurones efférents de la vessie. Mon travail de thèse consistait à développer les outils nécessaires à une telle désafférentation moléculaire. En conséquence, j'ai construit des vecteurs défectifs HSV-1 délivrant comme transgène thérapeutique la chaine légère d’un toxine botulique (BoNT-LC), sous le contrôle du promoteur du gène codant pour la protéine liée au gène de la calcitonine (hCGRP), permettant une expression sélective au sein des neurones sensoriels. La cassette de transcription a été insérée dans le locus LAT du génome HSV-1, la seule région du génome du virus qui reste active sur le plan transcriptionnel pendant une infection latente. Ces vecteurs ont été évalués (i) in vitro, sur des lignées cellulaires d'origine neurale et sur des cultures primaires de neurones sensoriels embryonnaires et adultes de rats, ainsi que sur des cultures primaires de neurones sensoriels et sympathiques humains adultes, (ii) ex vivo, sur des cultures organotypiques de ganglions sensoriels, sympathiques et parasympathiques de rats adultes, et (iii) in vivo, post inoculation au niveau du coussinet plantaire de rats adultes. Nos résultats indiquent que (i) les vecteurs expriment des BoNT-LC fonctionnelles, clivant ainsi les protéines SNARE post infection de cultures primaires de neurones sensoriels de rats et d’être humain, et inhibant la libération du neuromédiateur CGRP dans les neurones sensoriels de rat, (ii) la sélectivité d’expression de ces vecteurs dans des neurones sensoriels humains, par rapport aux neurones sympathiques humains, et (iii) une expression transgénique prolongée in-vivo au sein de ganglions sensoriels (DRG), au moins pour trois mois, après injection. Par conséquent, ces vecteurs semblent présenter les trois principales spécifications requises pour le développement d’une future stratégie de thérapie génique visant à traiter l’HDN
Fifty to 80% of patients with traumatic spinal cord injury (SCI) undergo urinary incontinence episodes, mostly related to neurogenic detrusor overactivity (NDO). NDO is characterized by uninhibited detrusor contractions during the bladder-filling phase which could lead to a significant increase in bladder pressures, especially when associated to sphincter-destrusor-dyssynergia, leading to uro-nephrological complications. The main goal of NDO management following SCI is to achieve regular and complete bladder emptying, avoiding high intra-detrusor pressure and maintaining continence, in order to improve patients’ quality of life and to prevent renal failure. The current management is well characterized and relies on pharmacotherapy acting primarily at the level of efferent motor micturition reflex branch, thus allowing bladder filling at low pressure. First line treatment relies on oral antimuscarinics, often associated to clean intermittent bladder self-catheterization. When patients are refractory to antimuscarinics, injection of botulinum toxin A into the detrusor is proposed. However, despite their efficacy, these treatments fail to persist in the long term, leading to a third-line surgical treatment, which consists in cystoplasty augmentation or sacral neuromodulation. The Brindley technique, which consist in a sacral deafferentation of bladder posterior roots associated to an electrical stimulation, on demand, of anterior roots is a promising alternative, but remains seldom performed because of the complex surgical procedure required. NDO results from the emergence, secondary to neuronal plasticity following SCI, of an abnormal micturition reflex mediated by bladder afferent C-fibers, conveying aberrant sensory information to the spinal cord. The aim of the team where I developed my work is to silence these bladder afferent C-fibers in order to abolish the impaired spinal micturition reflex after SCI. In a second time, micturition would be fired, on demand, by electric stimulation of the bladder efferent neurons. My work consisted in developing the tools and methods required for such molecular deafferentation. Accordingly, I constructed replication-incompetent HSV-1 vectors conceived to deliver a therapeutic transcription cassette, consisting in the light chains of botulinum toxin (BoNT-LC) driven by the human version of the promoter of the gene encoding calcitonin gene-related protein (hCGRP), to achieve sensory neuron-selective transgenic expression. The transcription cassette was inserted into the LAT locus of the HSV-1 genome, the only region of the virus genome that remains transcriptionally active during latent infection. These vectors have been assessed (i) in vitro, on cell lines of neural origin and on primary cultures of rat embryonic and adult sensory neurons, and on primary cultures of adult human sensory and sympathetic neurons, (ii) ex vivo, on organotypic cultures of sensory, sympathetic and parasympathetic ganglia from adult rats, and (iii) in vivo, in sensory ganglia following infection at the hind footpad of adult rats.Our results indicate that (i) the vectors express functional BoNT-LC, thereby cleaving proteins of the SNARE complex in rat and human sensory neurons and inhibiting release of the neuromediator CGRP in rat sensory neurons, (ii) the transcription cassette delivered by the vectors display highly selectively expression towards human sensory neurons, as compared to human sympathetic neurons, and (iii) the vectors induced long-term transgenic expression in sensory (DRG) ganglia (at least for three months) following footpad injection. Therefore, the vectors seem to accomplish the three main specifications required for a future gene therapy strategy, allowing to restore urinary continence and micturition without catheterization and without any major surgery. This approach will represent a major breakthrough in the management of NDO in SCI patients with complete and incomplete lesion
APA, Harvard, Vancouver, ISO, and other styles
28

Perrimond, Benoît. "Les variations climatiques régionales observées et potentielles à l'échelle de 2 zones ateliers : Alpes et Armorique." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAU008/document.

Full text
Abstract:
Les interactions climat-environnement sont susceptibles d’être profondément modifiées du fait du changement climatique observé au cours des dernières décennies, et de celui prévu pour le moyen terme. Dans cette thèse, deux Zones Ateliers du CNRS (ZA Alpes et ZA Armorique), espaces spécifiques pour l’analyse des relations Hommes-Milieux, sont privilégiées pour une étude d’impact des variations climatiques sur certains facteurs de l’environnement végétal. L’objectif de cette thèse est de déterminer la variabilité spatio-temporelle du climat et de la phénologie afin de pouvoir tester la reproductibilité de l’influence du premier facteur sur le second, en caractérisant certains comportements soumis aux principales contraintes climatiques.L’analyse de séries stationelles et des réanalyses issues de Météo-France s’effectue par le biais de méthodes statistiques pour isoler les principales tendances, ruptures et modes de variabilité spatio-temporelle observés sur deux variables climatiques (température et cumuls pluviométriques) sur la période contemporaine (1959-2009). Cette dernière permet de mettre en avant une rupture thermique significative pour l’année 1987 avec une augmentation (plus marquée en Armorique) de l’ordre de 1°C. Les précipitations montrent une modification de leur mode de variabilité interannuelle, avec un allongement des alternances de périodes sèches et humides passant de 6-8 ans après les années1990, contre 2-4 ans avant. Leurs influences sur la végétation sont suivies grâce à l’étude de la phénologie saisonnière de la principale formation végétale naturelle présente dans les deux ZA, soit les espaces forestiers caduques.Des données bioclimatiques issues de l’Observatoire des Saisons ainsi que des traitements analytiques à partir de données issues de la télédétection satellitaire (SPOT-VGT et MODIS) permettent de mieux définir la variabilité spatio-temporelle de la phénologie forestière alpine et armoricaine. Un essai de modélisation statistique des liens climat-phénologie est ensuite proposé par le biais d’un modèle degré-jour, calibré et validé avec l’aide des données insitutionnelles et issues de la télédétection. Le forçage final est réalisé avec des données de prévisions climatiques obtenues parle modèle ALADIN sur une période temporelle proche (2021-2050), montrant une certaine modification des paramètres climatiques, comme une augmentation de la température d’environ 1°C et une diminution des précipitation de l’ordre de 100 mm en Armorique. Les résultats provenant de la modélisation statistique permettent d’observer une avancée des stades de feuillaison pour les deux zones d’études en fonction de conditions bioclimatiques potentielles attendues dans les deux espaces d’étude. Néanmoins, ces résultats soulèvent aussi la question des rétroactions dynamiques entre la végétation et le climat, analyses non abordées dans cette thèse
Climate change occuring during last decade will deeply modify climate and environnemental interaction. Inthis PhD, two sites of European Lon-Term Ecosystem Research Network (French Alps and Britany), specializedin human/nature relationships and environnmental studies were selected for analyzing phenological impact withclimate change constraint. The aim of this work is to determine the spatio-temporal variability of climate andphenology over both sites and to predict the response of forestry phenology under climate change constraint.Meteorological spatio-temporal variability is explained from Météo-France time series analyses and also withclimate reanalysis on the 1959-2009 period. Temperature and precipitation appeared to be best climatologicalvariable to discrimine the impact on vegetation. Since 1987, a significant temperature increase of about 1°C appears(less in the Alps and more in Armorics). Precipitation temporal variability appeared to change near year 1990with a quasi-biennial periods before and with a 6-8 year period after 1990. Phenology is used to monitor naturalforestry dynamics and the feedback on climate on vegetation. Bioclimatics data from « Observatoire des Saisons »and determined from remote sensing data (SPOT-VGT and MODIS datasets) are used to follow spatio-temporalvariability of the phenology. Relationships between climate and phenology are determined by statistical modelisation(degree-day model). SAFRAN-France data and phenological remote sensing data are combined to calibrate and tovalidate of the model in present time. Climate forecast from ALADIN model are used to execute the model on afutur period (2021-2050) with an thermal increase condition of around 1°C and a diminution of precipitation inArmorics (100 mm). Degree-day model predict an advance of growth phase over both site according to climateforcing
APA, Harvard, Vancouver, ISO, and other styles
29

Deroche, Madeleine-Sophie. "Détection à court-terme et long-terme des tempêtes hivernales à fort potentiel d'impact." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066578/document.

Full text
Abstract:
Le travail de recherche appliquée réalisé au cours du doctorat s’intéresse aux tempêtes hivernales à fort potentiel d’impact économique en Europe et comprend deux parties. La première partie vise à quantifier l’impact du changement climatique sur les tempêtes de vent hivernales extrêmes en Europe et s’appuie sur des données couvrant des périodes supérieures à 30 ans. La seconde partie du travail est plus opérationnelle et a pour objectif l’élaboration et la mise en place d’un outil de détection des tempêtes de vent hivernales en Europe à partir de prévisions météorologiques actualisées toutes les six heures. L’objectif général de la première partie du travail de recherche est d’apporter une vision moyen-terme de ce que pourraient être les tempêtes de vent hivernales en Europe au cours du XXIe siècle. Ce travail vient compléter la vision pour l’instant principalement court-terme du risque proposée par les modèles CatNat, utilisés par les (ré)assureurs pour connaître le coût du risque sur leur portefeuille. Au cours du travail de recherche, une nouvelle méthode a été proposée pour définir le potentiel de dommages associés à une tempête de vent en Europe. L’idée originale développée au cours du projet est l’utilisation de plusieurs variables capturant différentes échelles spatio-temporelles et prenant en compte la relation entre plusieurs variables caractéristiques d’un même cyclone extratropical. La recherche d’événements partageant une signature similaire et intense, simultanément dans la vorticité relative à 850 hPa, la pression au niveau de la mer et le vent de surface, conduit à la détection d’un nombre réduit d’événements. La comparaison du nombre d’événements qui constituent ce groupe et de leur intensité entre des données issues de réanalyses et celles issues de différentes simulations du climat futur peut apporter des réponses suffisantes aux compagnies d’assurance sur l’évolution de ce risque dans un climat dont les conditions climatiques sont différentes de celui d’aujourd’hui. Un premier article sur la méthode a été accepté dans le journal Natural Hazard and Earth Science System. La méthode a été appliquée aux données issues des modèles participant au projet CMIP5. Il s’agit d’évaluer la capacité des modèles de climat à reproduire les événements type « tempête de vent hivernales en Europe » et d’estimer l’impact du changement climatique sur la fréquence et l’intensité des tempêtes de vent hivernales en Europe. Un second article reprenant les résultats de cette étude est en préparation. La seconde partie de la thèse est focalisée sur le projet opérationnel Severe WIndstorms Forecasting Tool (SWIFT) dont le but est de développer un outil permettant, à partir de prévisions météorologiques issues toutes les six heures, de détecter un événement type tempête de vent pouvant causer des dégâts majeurs en Europe et de proposer aux entités du groupe AXA concernées une estimation du montant des pertes et du nombre de sinistres associés à l’événement à venir ainsi que leurs localisations
The research carried out during the PhD deals with winter windstorms with high economic damage potential in Europe and can be divided in two parts. The first part aims at quantifying the impact of climate change on European winter windstorms and relies on datasets covering long periods of time (>30 years) either in the past or in the future. The objective of the second part is to forecast potential losses and claims associated with an upcoming extreme windstorm by using forecast data updated every six hours. The overall objective of the first part is to provide a medium-term view of what could be the winter windstorms in Europe during the 21st century. It thus completes the short-term vision of the risk given by the Catastrophe Models used by the (re)insurers to assess the cost of the risk on their portfolio. A new methodology has been developed to define the damage potential associated with European winter windstorms. The novelty of the methodology relies in the use of several variables capturing different spatiotemporal scales and the coupling that exists between variables during the cyclogenesis. Seeking for events sharing a similar intense signature simultaneously in the relative vorticity at 850 hPa, the mean sea level pressure and the surface wind speed lead to the detection of a small group of events. Comparing the number of events that belong to this group and their intensity in reanalysis datasets and different simulations of the future climate can provide enough information to insurance companies on the potential evolution of this hazard in a future climate. A first paper on the methodology has been accepted in the journal of Natural Hazard and Earth Science System.The methodology has been applied to the datasets provided by Global Climate Models (GCM) participating to the CMIP5 project. The goal is to assess the ability of GCMs to reproduce winter windstorms in Europe and the potential impact of climate change on the frequency and intensity of such events. A second paper presenting the results obtained from this second study will be submitted.The second part of the PhD focuses on the project Severe WIndstorms Forecasting Tool (SWIFT). The objective is to develop an early warning tool that detects an upcoming winter windstorms in meteorological forecasts updated every six hours and provides interested AXA entities with an alert on the upcoming windstorm as well as an estimate of the potential losses and claims.The tool has been developed in parallel of the research project and consists in two modules. In the first module, particularly intense systems are detected in meteorological forecasts and the associated gust footprint is extracted. In the second module, wind speeds are translated into a loss and a number of claims thanks to vulnerability curves. When a system is detected, an alert is sent with the appropriate information on the event propagation and the associated loss. The tool has been running automatically for the 2013 – 2014 winter season and detected most of the events that passed over Europe
APA, Harvard, Vancouver, ISO, and other styles
30

Gauchat, Marcel. "Catamnèse à long terme des hernies discales opérées /." [S.l : s.n.], 1986. http://www.ub.unibe.ch/content/bibliotheken_sammlungen/sondersammlungen/dissen_bestellformular/index_ger.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Moulin, Solène. "Pronostic à long terme des hémorragies intra-cérébrales." Thesis, Lille 2, 2017. http://www.theses.fr/2017LIL2S040/document.

Full text
Abstract:
Contexte : Les hémorragies intracérébrales spontanées (HIC) sont grevées d’une mortalité élevée et d’un pronostic fonctionnel sombre. Les données concernant le pronostic à long terme des HIC sont rares. L’objectif principal de ce travail était d’étudier le pronostic au long cours des HIC en les abordant par le prisme de leur histoire naturelle.Méthodes : Nos populations d’étude sont issues de la cohorte prospective PITCH (Prognosis of IntraCerebral Haemorrhage) qui est une cohorte observationnelle ayant inclus de façon consécutive tous les patients admis au CHU de Lille pour une HIC spontanée entre 2004 et 2009. Nous avons étudié (i) l’incidence de la démence de novo post HIC ainsi que les facteurs prédictifs cliniques et neuroradiologiques associés à sa survenue ; (ii) la prévalence de la sidérose superficielle corticale (SSc) et les facteurs cliniques et radiologiques associés ; (iii) les facteurs prédictifs de récidive hémorragiques.Résultats : Nous avons mis en évidence qu’il existait un risque majeur de démence de novo chez les patients survivant à une HIC. Les facteurs prédictifs de démence identifiés tels que la localisation lobaire ou la SSc suggèrent une implication directe de l’angiopathie amyloïde cérébrale. Nous avons également montré qu’au sein de notre cohorte, un patient sur cinq avait de la SSc sur l’IRM cérébrale réalisée à l’admission. La SSc apparaissait être un facteur neuroradiologique prédictif majeur de récidive hémorragique.Conclusion : Les résultats de ce travail ont un impact important dans la prise en charge des patients ayant eu une HIC spontanée et permettront d’informer de façon adéquate les patients et leurs aidants. Ils apportent des informations nouvelles sur l’évaluation du risque de récidive hémorragique et sur d’éventuelles futures cibles thérapeutiques
Background: The low frequency of spontaneous intracerebral haemorrhage (ICH) and its high mortality rate may explain the paucity of data in long term outcomes. The main objective was to study long term prognosis of ICH through the prism of their natural history.Methods: Our study populations were based on the PITCH (Prognosis of IntraCerebral Haemorrhage) cohort which is an observational study that included consecutively adults admitted at the Lille University Hospital for spontaneous ICH between 2004 and 2009. We aimed to determine (i) the incidence of new onset dementia and its clinical and radiological predictive factors; (ii) the prevalence of cortical superficial siderosis (cSS) and its associated factors; (iii) predictive factors of recurrent ICH.Results: We showed that the risk of new onset dementia is substantial after spontaneous ICH. Predictive factors of new onset dementia such as ICH lobar location and cSS suggest the implication of underlying cerebral amyloid angiopathy. We found that one out of five patients had cSS on baseline MRI. cSS was a strong predictive factor of recurrent ICH. Conclusion: These findings are of immediate clinical relevance in the management of ICH patients and will allow to adequately inform patients and caregivers. These results may provide additional information on ICH recurrence risk assessment and may contribute to the development of future therapeutic strategies
APA, Harvard, Vancouver, ISO, and other styles
32

GALEY, ISABELLE. "Hyperplasie congenitale des surrenales : devenir a long terme." Toulouse 3, 1994. http://www.theses.fr/1994TOU31020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Ernst, Ekkehard Christian. "Complémentarités institutionnelles et croissance économique à long terme." Paris, EHESS, 2001. http://www.theses.fr/2001EHES0206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Vigouroux, Anne. "Etude de la variabilité solaire à long terme." Nice, 1996. http://www.theses.fr/1996NICE4988.

Full text
Abstract:
Nombre d'observatoires possede des donnees precieuses relatives a l'etude globale de l'activite du soleil. Ces donnees concernent le diametre apparent, l'evolution journaliere du nombre de taches et du flux radio a 10,7 cm, la mesure de l'irradiance totale et spectrale, la mesure du champ magnetique, etc. Des analyses de ces donnees ont deja ete menees afin, notamment, de decouvrir la presence eventuelle de frequences particulieres et de rechercher les correlations possibles entre les variations des diverses quantites mesurees. Le but ultime de ces etudes est d'ameliorer notre comprehension des mecanismes sous-jacents de la machine soleil. Un des objectifs de cette these a ete de tenir compte de la non-stationnarite des phenomenes de l'activite solaires en utilisant une methode de traitement plus adaptee que l'analyse de fourier: l'analyse en ondelettes. Appliquee a l'etude du diametre solaire apparent, cette technique s'est revelee plus appropriee au traitement et a l'analyse de ce signal et a permis de discriminer efficacement le bruit de l'information utile. Une analyse similaire, faite sur le nombre de wolf disponible depuis 1749, a montre que le cycle solaire de onze ans doit, de preference, etre decrit dans un plan temps-frequence ou dans un plan de fourier qui prenne en compte une large bande de frequences. La deuxieme partie de la these est consacree a l'etude comparative de divers indicateurs de l'activite, originaires de differentes couches de l'enveloppe solaire. Les methodes developpees ont permis de mieux mettre en evidence la complexite des mecanismes qui sont a la base de la variation de l'irradiance totale. Ces analyses s'inscrivent dans le cadre d'une meilleure interpretation et modelisation de cet indicateur du flux lumineux emis par le soleil qui est, potentiellement, a l'origine des variations climatiques terrestres
APA, Harvard, Vancouver, ISO, and other styles
35

DEMDOUM, LAID. "Comportement a long terme de thermoplastiques faiblement charges." Paris, ENSAM, 1990. http://www.theses.fr/1990ENAM0013.

Full text
Abstract:
Nous avons etudie l'effet d'adjonctions de faibles quantites de charges minerales (talc, mica, wollastonite) ou elastomeres (epr), a des matrices de thermoplastiques semi-cristallins tels que le polypropylene ou le polyamide 66, sur leur morphologie et leurs proprietes mecaniques, en particulier en fatigue. Il s'agit en fait d'incorporer des defauts soit plus rigides (charges minerales), soit plus souples (elastomere), que le polymere de depart, sans modifier de facon sensible la rigidite macroscopique de ce dernier et en controlant a la fois la concentration (exprimee en nombres de particules par unite de volume), et la geometrie (granulometrie, rapport de forme de la charge. . . ), du defaut. Les essais portent sur des eprouvettes injectees, et les particules incorporees au polymere peuvent avoir un effet nucleant sur sa cristallisation (charges minerales), ou modifier la distribution des orientations dans l'epaisseur (elastomere). Les essais d'endurance en fatigue par flexions alternees mettent avant tout en evidence le role fragilisant des charges, meme en faible concentration. Il apparait que le parametre le plus important est la concentration en particules, la forme de ces dernieres ne jouant qu'un role secondaire. Chaque particule est susceptible de jouer un role de concentrateur de contrainte et d'amorcer une fissure. L'aspect le plus original du travail experimental reside dans le fait que certaines caracteristiques visco-elastiques du materiau, en particulier la partie imaginaire du module et la tangente de l'angle de pertes, sont enregistrees en continu, avec egalement la temperature de surface), pendant l'essai. L'existence d'une composante dissipative non negligeable, dans les conditions de sollicitation choisies, entraine un auto-echauffement qui lui-meme entraine une variation du facteur de pertes. L'etude detaillee des auto-echauffements a permis de mettre en evidence l'existen
APA, Harvard, Vancouver, ISO, and other styles
36

GURY, ISABLLE. "Devenir a long terme des malades de reanimation." Lille 2, 1988. http://www.theses.fr/1988LIL2M015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Sigaut, Stéphanie. "Activation microgliale : mécanismes et conséquences à long terme." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC198/document.

Full text
Abstract:
La neuro-inflammation induite par l'inflammation systémique ou générée en réponse à une lésion cérébrale aiguë a des conséquences cliniques néfastes : elle est mise en cause dans l'aggravation des lésions cérébrales aiguës chez l'homme, aussi bien chez l'adulte que chez l'enfant. La microglie est l'effecteur cérébral principal de cette réponse inflammatoire, et peut présenter selon les situations un profil neurotoxique ou, au contraire, anti-inflammatoire et régulateur. La compréhension des mécanismes d'activation microgliale et de leurs conséquences est capitale pour une meilleure prise en charge des malades. La première partie de ce travail de thèse s'intéresse aux conséquences de l'inflammation néonatale associée à la prématurité sur la réponse microgliale à l'âge adulte, face à de nouvelles agressions cérébrales que sont l'inflammation systémique et les lésions cérébrales aiguës. Dans un modèle murin d'inflammation néonatale, nous avons mis en évidence d'importantes modifications du transcriptome microglial une fois ces souris adultes. De plus, un stimulus inflammatoire à l'âge adulte modifie le profil d'activation microgliale, le pic des marqueurs pro-inflammatoires et immuno-régulateurs survenant plus précocement et intensément, démontrant l'existence d'une mémoire du système immunitaire inné cérébral. Ces modifications dans le profil d'activation microgliale s'accompagnent dans un modèle de lésion cérébrale excitotoxique d'une majoration de la taille des lésions de la substance blanche. Un traitement par mélatonine des souriceaux prévient cette aggravation. La deuxième partie de ce travail a consisté à caractériser in vitro le profil d'activation microgliale en réponse à une stimulation par HMGB1, une alarmine relarguée lors de la mort cellulaire et donc présente en cas de lésion cérébrale aiguë mais aussi de lésions extra-crâniennes associées. Nous avons montré que le profil d'activation microgliale dépend du type d'HMGB1 utilisé. Les microglies exposées à la forme recombinante de chez Sigma présentent un profil transcriptomique proinflammatoire mais une baisse des taux de cytokines sécrétées dans le milieu. Ces résultats mettent en évidence l'importance de l'inflammation et de l'activation microgliale dans le pronostic des lésions cérébrales et offrent la possibilité de mettre en place des stratégies neuroprotectrices innovantes
Neuroinflammation induced by systemic inflammation or generated in response to acute brain injury has adverse clinical consequences: it is implicated in exacerbation of acute brain injury in humans, for adults as well as for children. Microglia is the main effector of this cerebral inflammatory response, and may present, depending on the situation, a neurotoxic or - on the opposite - anti-inflammatory and regulating profile. To decipher the mechanisms of microglial activation and their consequences is essential for better management of patients.The first part of this thesis focuses on the consequences of neonatal inflammation associated with prematurity on the microglial response in adulthood, in case of new cerebral aggressions such as systemic inflammation or acute brain injury. Relying on a mouse model of inflammation of the preterm infant, we have demonstrated drastic modifications of the microglial transcriptome once these mice are adults. Moreover, when an inflammatory stimulus occurs in adulthood, the microglial activation profile is altered, the peak of pro-inflammatory and immuno-regulatory markers occurring earlier, demonstrating the existence of a memory of the cerebral innate immune system. These changes in the microglial activation profile are accompanied in a model of excitotoxic brain injury by an increase of the white matter lesion size. Melatonin treatment of mice prevents the happening of this worse outcome. In the second part of this thesis, we characterized the microglial activation profile in vitro, in response to stimulation by HMGB1, a damage associated molecular pattern released during cell death and therefore present in acute brain injuries but also in associated extra-cranial injuries. We have shown that the microglial activation profile depends of the kind of HMGB1 used. Microglia exposed to Sigma recombinant form have a proinflammatory transcriptomic profile but a lower release of cytokines in the culture medium. These results highlight the importance of inflammation and microglial activation in the prognosis of brain injuries and offer the opportunity to implement innovative neuroprotective strategies
APA, Harvard, Vancouver, ISO, and other styles
38

Monnet, Antoine. "Disponibilité à long terme des ressources mondiales d'uranium." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTD023/document.

Full text
Abstract:
Dans une perspective mondiale de décarbonisation de la production énergétique et de croissance de la production d’électricité d’origine nucléaire, la disponibilité des ressources d’uranium est un enjeu majeur. Les technologies futures qui permettront aux réacteurs nucléaires de s’affranchir de l’uranium naturel mettront du temps à être pleinement déployées. Nous analysons donc les conditions de disponibilité de l’uranium au XXIe siècle. Les deux premières sont liées au coût de production : ce sont l’accessibilité technique et l’intérêt économique. Nous les étudions en modélisant les ressources ultimes d’uranium (quantités découvertes et non découvertes) et leurs coûts. Cette méthode s’appuie sur un découpage régional du monde, la connaissance actuelle des gisements et un filtre économique. Elle permet d’établir une courbe d’offre de long terme où les quantités d’uranium techniquement accessibles sont fonction du coût de production. Les principales incertitudes de ces estimations ont été identifiées et l’on montre qu’en l’absence de découpage régional, les ressources ultimes sont sous-estimées. Les autres conditions de disponibilité de l’uranium prises en compte sont liées aux dynamiques de marché que crée la confrontation de l’offre et de la demande. Nous les étudions en les modélisant sous la forme de contraintes dynamiques dans un modèle de marché en équilibre partiel. Ce modèle est déterministe et les acteurs y sont représentés par région. Il permet de tenir compte, par exemple, de la corrélation à court terme entre le prix et les dépenses d’exploration, qui fait l’objet d’une étude économétrique spécifique. À plus long terme, les contraintes modélisées incluent l’anticipation de la demande par les consommateurs et de la raréfaction progressive des ressources ultimes les moins chères. Par une série de simulations prospectives, nous montrons que le rythme de croissance de la demande d’uranium au XXIe siècle et son anticipation ont une forte influence sur la hausse du prix à long terme. À l’inverse, les incertitudes liées à l’estimation des ressources ultimes ont une influence limitée. Nous soulignons également l’évolution inégale du poids des différentes régions dans la production mondiale. Enfin, certaines variations de l’offre (arrêt de la production d’une région par exemple) ou de la demande (croissance irrégulière ou introduction de nouvelles technologies) ont également une influence significative sur l’évolution du prix à long terme ou sa cyclicité
From a global perspective, a low-carbon path to development driven by a growth of nuclear power production raises issues about the availability of uranium resources. Future technologies allowing nuclear reactors to overcome the need for natural uranium will take time to fully deploy. To address these issues, we analyze the conditions of availability of uranium in the 21st century.The first two conditions are technical accessibility and economic interest, both related to the cost of production. We study them using a model that estimates the ultimate uranium resources (amounts of both discovered and undiscovered resources) and their costs. This model splits the world into regions and the resource estimate for each region derives from the present knowledge of the deposits and economic filtering. The output is a long-term supply curve that illustrates the quantities of uranium that are technically accessible as a function of their cost of production. We identify the main uncertainties of these estimates and we show that with no regional breakdown, the ultimate resources are underestimated.The other conditions of availability of uranium covered in our study are related to the market dynamics, i.e. they derive from the supply and demand clearing mechanism. To assess their influence, they are introduced as dynamic constraints in a partial equilibrium model. This model of the uranium market is deterministic, and market players are represented by regions. For instance, it takes into account the short-term correlation between price and exploration expenditures, which is the subject of a dedicate econometric study. In the longer term, constraints include anticipation of demand by consumers and a gradual depletion of the cheapest ultimate resources.Through a series of prospective simulations, we demonstrate the strong influence on long term-price trends of both the growth rate of demand during the 21st century and its anticipation. Conversely, the uncertainties related to the estimation of ultimate resources have limited influence. We also underline the uneven evolution of market shares between regions. Finally, particular changes in supply (production shutdown in one of the regions, for example) or in demand (irregular growth or introduction of new technology) also have a significant influence on the evolution of the long-term price or its cyclicity
APA, Harvard, Vancouver, ISO, and other styles
39

Pirotte, Alain. "Court terme et long terme en économétrie : l'apport de la cointégration aux données de panel." Paris 12, 1994. http://www.theses.fr/1994PA122009.

Full text
Abstract:
Les notions de temps calendaire et de temps economique ont souvent ete apprehendee de facon distincte. Les economistes ont rencontre de nombreuses difficultes a les articuler. L'econometrie est venue apporter une solution dans la mesure ou les modeles dynamiques, moyennant certaines hypotheses (stationnarite) sur les proprietes statistiques des series ont permis de combiner les effets de court terme et de long terme tout en donnant une interpretation economique concrete au phenomene analyse. La theorie de la cointerpretation a fourni un cadre general pour rendre coherente la modelisation sur series temporelles et valider l'hypothese de stationnarite habituellement posee dans la modelisation traditionnelle. En effet, elle propose une demarche en plusieurs etapes en commencant tout d'abord par tester l'hypothese de stationnarite des series. On determine ainsi, l'ordre d'interpretation de chacune d'entre elles. Une fois les ordres d'integration des series reperes, il est possible d'obtenir, sous certaines conditions, une relation d'equilibre de long terme stable. Apres avoir verifie cette stabilite, on cale le mecanisme d'ajustement de court terme sur l'erreur d'equilibre de long terme precedemment estimee. On s'assure ainsi de la coherence entre le mecanisme d'ajustement de court terme donne par le modele a correction d'erreur et la trajectoire de long terme. Sur des donnees de panel, la logique de la cointegration ne s'applique pas directement. En effet, malgre la double dimension individuelle et temporelle, cette derniere est le plus souvent finie. Or, les proprietes des methodes d7estimation de la cointegration sont asymptotiques.
APA, Harvard, Vancouver, ISO, and other styles
40

Firouzmand, Mohammad. "Modélisation Sinusoïdale à Long Terme du Signal de Parole." Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00211294.

Full text
Abstract:
La modélisation sinusoïdale du signal de parole est usuellement définie à « court terme », c'est-à-dire sur des trames successives de signal d'une durée de l'ordre de 10 à 30 ms. Cette thèse apporte une contribution nouvelle à ce domaine en ajoutant à ce niveau traditionnel de modélisation spectrale un niveau supplémentaire le long de l'axe temporel : on cherche à modéliser les trajectoires de paramètres sinusoïdaux (amplitudes et phases) sur des durées significativement plus longues que celles des trames à court terme (typiquement plusieurs centaines de ms ; on considère dans cette thèse des sections de parole continûment voisées). Nous proposons pour cela d'utiliser différents modèles à long terme à base de fonctions en cosinus discrets et de fonctions polynomiales. L'ajustement des trajectoires est réalisé par une régression au sens des moindres carrés pondérés, les poids de la régression étant déterminés par des critères perceptifs adaptés au traitement à long terme. Pour cette tâche, une série d'algorithmes itératifs est proposée et testée. L'approche à long terme se révèle à la fois efficace et parcimonieuse pour décrire la dynamique des signaux de parole voisés.
APA, Harvard, Vancouver, ISO, and other styles
41

Billard, Guillemette Versace Rémy. "Activation et intégration multimodales en mémoire à long terme." Lyon : Université Lumière Lyon 2, 2007. http://demeter.univ-lyon2.fr/sdx/theses/lyon2/2007/badard_g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Billard, Guillemette. "Activation et intégration multimodales en mémoire à long terme." Lyon 2, 2007. http://theses.univ-lyon2.fr/documents/lyon2/2007/badard_g.

Full text
Abstract:
L’objectif de cette thèse est d’apporter des arguments en faveur du modèle de la mémoire proposé par Versace, Nevers et Padovan (2002). Selon ce modèle, les connaissances ne sont pas des abstractions stockées en mémoire sémantique mais le résultat de la réactivation de traces épisodiques, multidimensionnelles et distribuées, reflétant les différents composants sensori-moteurs des expériences passées de l’individu. Cette conception suppose que la présentation d’un stimulus visuel représentant un objet active automatiquement les différentes propriétés sensorielles et motrices qui lui sont associées. Les trois séries d’expériences réalisées dans le cadre de cette thèse ont respectivement utilisé un paradigme d’amorçage à court terme intersensoriel (auditif-visuel), un paradigme d’amorçage à court terme sensori-moteur et enfin un paradigme d’amorçage intersensoriel à long terme. Toutes ces expériences ont permis de démontrer l’existence des deux mécanismes fondamentaux du modèle étudié : l’activation des dimensions sensorielles et motrices des connaissances et l’intégration de ces dimensions élémentaires afin qu’émerge une connaissance élaborée
The aim of this work was to give arguments in favour of an multiple traces memory model (Versace, Nevers, & Padovan, 2002), in which memory traces are supposed to be distributed over multiple dimensions. According to this model, the descriptive dimensions of knowledge are assumed to be mainly sensorial, motor et emotionnal. Therefore, representation are supposed to be records of the neural states that underlie perception and action. This conception supposes that the presentation of a visual stimulus representing an object activates automatically the various sensory and motor properties which are associated with him. Three series of experiments realized within the framework of this thesis respectively used a short term inter-sensorial (autidory-visual) priming paradigm, a short term sensori-motor priming paradigm and finally a long term inter-sensorial priming paradigm. All these experiments allowed to demonstrate the existence of both fundamental mechanisms of the studied model: the activation of the sensory and motor dimensions of the knowledge and the integration of these elementary dimensions so that appears an elaborated knowledge
APA, Harvard, Vancouver, ISO, and other styles
43

Duval, Romain. "Déterminants de long terme des taux de change réels." Paris 1, 2001. http://www.theses.fr/2001PA010019.

Full text
Abstract:
L'une des raisons généralement avancées pour justifier que les taux de change réels (TCR) s'écartent de la PPA a trait à l'existence de biens non échangeables : la PPA relative serait vérifiée sur des indices de prix du secteur exposé à la concurrence internationale, mais rejetée sur des indices plus larges, du fait des évolutions divergentes entre pays des prix relatifs des biens non échangeables. Les analyses empiriques menées dans la première partie de la thèse montrent que le pouvoir explicatif de cette approche des fluctuations des TCR est très faible dans le cas des monnaies des pays développés: non seulement la PPA relative sur le secteur exposé à la concurrence internationale est très mal vérifiée, mais de plus il existe généralement une très forte corrélation sur longue période entre TCR exposé et TCR abrité. Les écarts à la PPA relative, parfois considérables comme dans le cas du TCR dollar/yen, s'avèrent par conséquent aussi forts dans les deux secteurs. Une analyse de variance effectuée à partir d'indices de TCR sectoriels illustre le rôle des comportements de segmentation des marchés de la part des firmes dans l'échec de la PPA relative sur le secteur exposé. La deuxième partie porte sur les approches macroéconomiques des TCR d'équilibre de long terme, qui constituent une alternative à la PP A. Les implications théoriques -ignorées dans la littérature- de l'impact du TCR sur l'investissement productif et les flux de capitaux structurels sont examinées. Après avoir écarté l'approche FEER jugée moins performant, nous développons un modèle théorique synthétique combinant les atouts des deux approches dynamiques que sont le NATREX et le BEER. L'estimation économétrique de ce modèle, à partir des indices de TCR des secteurs exposé et abrité construits en première partie, montre que les deux principaux déterminants à long terme du TCR euro/dollar sont le taux de consommation et le niveau de progrès technique de la zone euro relativement aux Etats-Unis.
APA, Harvard, Vancouver, ISO, and other styles
44

Dulioust, Emmanuel. "Effets à long terme de la congélation de l'embryon." Paris 11, 1995. http://www.theses.fr/1995PA11T036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Morgado, Correia Alexandre Carlos. "Evolution à long terme de la rotation de Vénus." Paris 7, 2001. http://www.theses.fr/2001PA077222.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Amadou, Bachir. "Planification à long terme de réseaux d'aéroports, approche d'optimisation." Thesis, Toulouse 3, 2021. http://www.theses.fr/2021TOU30016.

Full text
Abstract:
Au cours des dernières décennies, avec l'ère de la mondialisation, le transport aérien a joué un rôle économique important en facilitant le transport des personnes et des marchandises entre les différentes parties du monde et vers les régions éloignées des pays. Les aéroports en tant que terminaux intermodaux sol / air constituent le segment terrestre du système de transport aérien. Des investissements soutenus sur de longues périodes de plusieurs décennies semblent essentiels pour maintenir ou développer les opérations aéroportuaires. Ces investissements sont en général coûteux et la planification des investissements aéroportuaires est une question importante aux niveaux local et national. L'objectif de cette thèse est de présenter une approche de planification à long terme des investissements de réseaux d'aéroports nationaux. Un cadre pour la génération à long terme de scénarios de demande de transport multimodal au niveau national, qui assure la cohérence entre la prévision des différents modes de transport et assure la compatibilité entre les flux de transport aérien prévus entre les aéroports considérés, est proposé. Ensuite, le problème central de décision pour l'allocation des ressources à long terme entre les différents aéroports d'un réseau national est formulé comme un problème d'optimisation. Ce modèle peut être résolu avec différents scénarios de demande, dans lesquels les scénarios extrêmes devraient prévoir un intervalle pour l'effort financier nécessaire à chaque étape de l'horizon de planification pour chaque aéroport. Pour résoudre les problèmes d'optimisation qui en résultent, une approche de programmation dynamique a été envisagée où les états candidats à traiter à chaque étape sont générés par un réseau de Petri construit à partir des plans directeurs non datés des aéroports du réseau considéré. L'approche proposée est illustrée dans le cas d'un grand pays en voie de développement (République du Niger)
In the last decades with the era of globalisation, air transportation has been playing an important economic role by easing the transportation of people and goods between the different parts of the World and to remote areas within countries. The airports as ground/air intermodal terminals are the ground segment of the air transport system. Sustained investments over long periods of several decades appear essential to maintain or expand airport operations. These investments are in general costly and airport investment planning is an important issue at the local and national levels. The objective of this thesis is to present a long-term planning approach for the investments in national airports networks. A framework for the long-term generation of multimodal transportation demand scenarios at the national level, which insures coherency between the prediction of the different transportation modes and assure compatibility between the predicted air transportation flows between the considered airports, is proposed. Then the central decision problem for long-term resource allocation between the different airports of a national network is formulated as an optimization problem. This model can be solved with different demand scenarios, where extreme scenarios should provide an interval for the necessary financial effort at each stage of the planning horizon for each airport. To solve the resulting optimization problems a Dynamic Programming approach has been considered where the candidate states to be processed at each stage are generated by a Petri Net built from the undated master plans of the airports of the considered network. The proposed approach is illustrated in the case of a large under developed country (Niger Republic)
APA, Harvard, Vancouver, ISO, and other styles
47

Sum, Map Baudry Bernard. "Marché du travail et emploi au Cambodge contraintes à court terme et enjeux à long terme /." Lyon : Université Lumière Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/sum_m.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Sum, Map. "Marché du travail et emploi au Cambodge : contraintes à court terme et enjeux à long terme." Lyon 2, 2007. http://theses.univ-lyon2.fr/documents/lyon2/2007/sum_m.

Full text
Abstract:
L'objectif de la thèse consiste à caractériser le marché du travail au Cambodge tout en utilisant les renseignements théoriques. Nous présentons un aperçu détaillé des changements qui se sont produits sur le marché du travail, en mettant l'accent sur la façon dont ces changements sont répartis au sein de la population et de l'économie. Le résultat de l'analyse du marché du travail mettra en évidence le fait qu'il n'existe pas forcément de politiques de l'emploi et du marché du travail au Cambodge et que certaines théories des politiques visant à améliorer la situation du marché du travail ne sont pas applicables à la situation actuelle du pays. C'est pour cette raison que nous essayons d'étudier des analyses propres au marché du travail cambodgien afin de trouver les contraintes à court et à long terme qui empêchent le bon fonctionnement de ce marché et qui bloquent l'application théorique. Nous essayerons enfin d'envisager les enjeux à long terme permettant d'améliorer la situation du marché du travail et de l'emploi au Cambodge
The objective of the thesis consists of characterise the labour market in Cambodia by using all theoretical information. We show a detail view of changes that have happened in the Cambodian labour market and precising how these changes affect population and economy. The result of labour market analysis will show the quasi non-existing of the labour market and employment policies in Cambodia and that some theoretical framework designed to improving labour market respond partly to the actual situation of Cambodia. This is the reason for which we try to analyse the Cambodian labour market in order to find out all short and long term constraints which lock up the good functioning of Cambodian labour market and which obstruct the application of the theoretical framework. We try finally to view long term strategies for improving labour market and employment situation in Cambodia
APA, Harvard, Vancouver, ISO, and other styles
49

Kheddouci, Fawzi. "L'archivage à long terme de la maquette numérique 3D annotée." Mémoire, École de technologie supérieure, 2010. http://espace.etsmtl.ca/648/1/KHEDDOUCI_Fawzi.pdf.

Full text
Abstract:
Le recours au dessin d'ingénierie est une pratique industrielle courante en développement de produits mécaniques, notamment pour l'échange et l'archivage des données techniques, le papier étant le moyen traditionnellement utilisé. Cette pratique tend toutefois à évoluer au profit de méthodes basées sur l'utilisation d'outils informatiques pour la création, la diffusion et la conservation de données impliquées dans le processus de développement de produits aéronautiques, dont les cycles de vies peuvent dépasser les 70 ans. 11 est de ce fait nécessaire de redéfinir la manière de conserver ces données, dans un contexte où les dessins d'ingénierie traditionnels tendent à être remplacés par la maquette numérique 3D annotée. Ce mémoire traite de la problématique de l'archivage à long terme de la maquette numérique 3D annotée, qui porte donc des tolérances géométriques et dimensionnelles, ainsi que d'autres notes et spécifications, dans le respect des exigences de l'industrie aéronautique, notamment celles de natures réglementaires et légales. On s'attache en premier lieu à cerner les exigences de l'industrie aéronautique relativement à l'archivage à long terme de la maquette numérique 3D annotée. Nous répertorions ensuite des altematives de solutions. On identifie le type d'approche théorique guidant le choix d'un modèle conceptuel de système d'archivage électronique long terme. On doit ensuite retenir, parmi les alternatives proposées, un fomiat d'archivage susceptible de garantir la préservation de l'intégrité du modèle 3D annoté (géométrie, tolérances et autres métadonnées) ainsi que sa pérennité. L'évaluation de PDF 3D PRC comme format d'archivage possible est effectuée à l'aide d'un échanfillon de 185 modèles 3D CATIA V5 (pièces et assemblages) fournis par les partenaires industriels du projet. Cette évaluation est guidée par un ensemble de critères, soit le transfert adéquat de la géométrie évaluée exacte, des annotations 3D, des vues et captures et du positionnement des pièces dans l'assemblage. Les résultats montrent que la préservation de la géométrie exacte s'effectue avec succès lorsqu'il s'agit de transférer les modèles CATIA V5 vers PDF 3D PRC. Concernant le transfert des annotations 3D, on observe une dégradation de leur affichage. Cette problématique peut toutefois être solutionnée en procédant, d'abord, à la conversion du modèle natif vers STEP, puis ensuite vers PDF 3D PRC. Au vu des outils actuels, le fomiat PDF 3D PRC se présente comme une solution potentielle à l'archivage long terme des modèles 3D annotés de pièces. Cependant, cette solution n'est, actuellement, pas satisfaisante pour l'archivage des assemblages. La prafique du dessin 2D devra, donc, être maintenue à court terme dans le cas des assemblages.
APA, Harvard, Vancouver, ISO, and other styles
50

Chaalali, Aurélie. "Évolution à long terme de l'écosystème estuarien de la Gironde." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00922990.

Full text
Abstract:
Les estuaires font partie des écosystèmes les plus productifs de la planète. Ils constituent une zone d'importants échanges de matières et jouent à ce titre un rôle capital pour les cycles biogéochimiques. Du fait de leur position à l'interface entre domaines continental et marin, ils sont également un lieu de passage obligatoire pour de nombreuses espèces de poissons migrateurs ou encore de nourricerie et de refuge. Ces systèmes sont contraints par de nombreuses pressions de natures diverses dont certaines en lien avec les activités humaines locales (p. ex. pêcheries, transport maritime, dragages, pollutions accrues, etc.). Ces altérations viennent s'ajouter à la variabilité intrinsèque de ces systèmes naturellement complexes (variabilité spatio-temporelle de différents facteurs environnementaux ; c.-à-d. température, salinité, turbidité, etc.). Toutefois, une intensification de ces d'altérations, dont une partie est associée à la composante climatique des changements globaux, est observée depuis ces dernières décennies. Ces modifications avérées et leurs incidences sur les communautés biologiques constituent un enjeu en matière de gestion des écosystèmes estuariens. Cependant, par manque de chroniques de données continues suffisamment longues, peu d'études sur l'évolution à long terme de systèmes estuariens ont été réalisées à ce jour. Pour mes travaux, j'ai eu à ma disposition un ensemble de chroniques uniques - acquises depuis 35 ans - associées à plusieurs suivis écologiques de l'estuaire de la Gironde (notre site atelier). L'objectif général de cette thèse est de caractériser l'évolution globale du système dans son ensemble (physico-chimie et biologie) et d'identifier les forçages impliqués. L'originalité de ces travaux, par rapport aux études spécifiques déjà menées, consiste à analyser l'évolution de l'ensemble des descripteurs caractéristiques du fonctionnement d'un système modèle et de qualifier la part relative aux forçages globaux. L'étude des séries chronologiques, via une approche end-to-end basée sur des analyses multivariées, permet d'identifier deux changements abrupts d'état de l'écosystème de l'estuaire de la Gironde, associés à des fluctuations hydroclimatiques à large échelle (bassin Atlantique nord) mais aussi à une échelle plus locale (estuaire). Des hypothèses relatives aux possibles mécanismes impliqués, reliant les altérations climatiques à large échelle aux altérations observées à l'échelle des communautés biologiques estuariennes, sont discutées. Un deuxième volet de la thèse, au travers d'une approche modélisatrice basée sur le concept de niche d'Hutchinson, permet d'identifier un changement de répartition spatiale, longitudinale, des populations de copépodes estuariennes en réponse au réchauffement des masses d'eau et à la marinisation de l'estuaire. Enfin un troisième volet de mes travaux s'est consacré à l'étude spécifique d'une espèce de copépode invasive : Acartia tonsa. Suivant une double approche modélisatrice permettant d'estimer à la fois les niches fondamentale et réalisée de l'espèce, ces travaux illustrent l'importance relative des changements climatiques qui ont facilité la colonisation et l'essor de cette espèce dans l'estuaire.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography