To see the other types of publications on this topic, follow the link: Modèle du facteur de qualité.

Dissertations / Theses on the topic 'Modèle du facteur de qualité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle du facteur de qualité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lmshate, Khaled. "Le rôle du facteur culturel dans la qualité de service dans le secteur bancaire libyen." Thesis, Clermont-Ferrand 1, 2015. http://www.theses.fr/2015CLF10463/document.

Full text
Abstract:
Le rôle des banques dans l’économie est suffisamment important pour constituer un pilier central de l’économie nationale, et donc, un de leurs objectifs majeur doit être de servir la communauté dans laquelle elles opèrent, de financer et d’encourager l’investissement afin de créer des richesses. Compte tenu de l’importance de ce secteur, il convient de mesurer ses rendements, d’évaluer son efficacité et de tester la qualité de ses services, afin de l’améliorer et de le développer. Notre recherche vise à tester l’effet des facteurs culturels de la société dans le niveau de qualité des services bancaires du point de vue des clients<br>The role of banks in the economy is very important to be a central pillar of the national economy, and therefore, one of their major objectives must be to serve the community in which they operate, fund and encourage investment to create wealth.Given the importance of this sector, it is necessary to measure its performance, evaluate its effectiveness and to test the quality of its services, in order to improve and develop. Our research aims to test the effect of cultural factors of the society in the quality of banking services from the perspective of customers
APA, Harvard, Vancouver, ISO, and other styles
2

Hallet, Christophe. "Etude et réalisation de filtres matriochkas pour des applications spatiales." Thesis, Brest, 2018. http://www.theses.fr/2018BRES0052/document.

Full text
Abstract:
Le résonateur matriochka est conçu à partir de résonateurs coaxiaux ré-entrants créant ainsi des sauts d’impédances (SIR). La thèse développe alors des innovations théoriques sur la technologie matriochka en proposant des modèles analytiques précis sur le comportement fréquentiel et du facteur de qualité du résonateur. Les modélisations mettent en relief l’existence de degrés de liberté au sein du résonateur matriochka induisant une flexibilité du rapport de forme du résonateur. Les degrés de liberté créent ainsi une multitude de configurations du résonateur matriochka pour une fréquence fondamentale et un facteur de qualité donnés. Par conséquent, une optimisation en volume est réalisée pour concevoir deux filtres en bande L et C afin de minimiser leur encombrement. Une étude de la tenue en puissance dans le vide est également effectuée pour le filtre en bande L. Une méthode conjointe d’optimisation de la tenue en puissance et de minimisation en volume est alors proposée pour ce filtre. Ainsi, les modélisations et les optimisations sont employées afin de concevoir et de fabriquer deux filtres hyperfréquences. Le premier est un filtre de transmission en bande L conçu pour l’application de navigation Galileo qui propose une alternative d’encombrement et une tenue en puissance dans le vide élevée. Enfin, le second est un filtre de réception en bande C conçu, fabriqué et mesuré pour l’application de télémesure qui propose de meilleures performances en réjection et un volume réduit par rapport à l’existant. Finalement, la technologie matriochka est une alternative de résonateur par rapport à l’état de l’art en proposant, selon les configurations, un rejet élevé des harmoniques et un volume réduit pour une fréquence fondamentale et un facteur de qualité donnés<br>The matriochka resonator is based on reentrant coaxial Stepped Impedance Resonator (SIR). So, the thesis develops theoretical innovations on the matriochka technology offering accurate analytical models on the frequency and the quality factor behaviors of the resonator. The models prove the existence of degrees of freedom within the matriochka resonator which allows to get different form factors of the resonator. The degrees of freedom create many configurations of the matriochka resonator for a fundamental frequency and a quality factor. Consequently, a volume optimization is realized to design a L-band filter and a C-band filter. A multipactor study is also carried out for the L-band filter. So, a joint optimization method of the multipactor and the volume minimization is proposed for this filter. Thus, the models and optimisations are used in the order to to design and fabricate the microwave filters. The first one is a transmission L-band filter for the navigation application Galileo which offers a volume alternative and a high power in the vaccum. Then, the second one is a reception C-band filter for the telemetry application which offers wide spurious free-performance and a low volume compared to the state of the art. Finally, for a frequency and a quality factor and depending on the configurations, the matriochka technology offers an alternative of the resonator volume, and it offers a wide spurious free- performance and a low volume compared to the state of the art
APA, Harvard, Vancouver, ISO, and other styles
3

Werner, Stéphane. "Optimisation des cadastres d'émissions: estimation des incertitudes, détermination des facteurs d'émissions du "black carbon" issus du trafic routier et estimation de l'influence de l'incertitude des cadastres d'émissions sur la modélisation : application aux cadastres Escompte et Nord-Pas-de-Calais." Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/WERNER_Stephane_2009.pdf.

Full text
Abstract:
Les cadastres d’émissions ont un rôle fondamental dans le contrôle de la pollution atmosphérique, à la fois directement, pour le recensement des émissions et comme données d’entrée pour les modèles de pollution atmosphérique. Le travail de cette thèse a eu pour principal objectif l’optimisation de cadastres existants, notamment celui du programme ESCOMPTE « Expériences sur Site pour COntraindre les Modèles de Pollution atmosphérique et de Transport d'Emissions ». Pour ce cadastre, deux problématiques distinctes ont été développées : l’une visant à évaluer au mieux l’incertitude portant sur les émissions et l’autre à insérer un nouveau composé d’intérêt : le Black Carbon (BC). Dans le cadre de la première problématique portant sur les incertitudes, une étude supplémentaire a été effectuée sur le cadastre de la région Nord-Pas-de-Calais. La méthode de calcul des incertitudes a ainsi pu être testée sur un autre cadastre. Ces incertitudes sur les émissions ont permis d'évaluer leur influence sur la modélisation de la qualité de l’air (modèle CHIMERE). La seconde partie du travail de recherche a été entreprise afin de compléter les cadastres d’émissions de particules carbonées existants, pour le secteur des transports routiers, en introduisant une classe de composés supplémentaires : le BC. Le BC est la matière carbonée des particules atmosphériques absorbant la lumière. Il provient essentiellement de la combustion incomplète de combustibles ou composés carbonés. Il peut être considéré comme un composé primordial pour l’atmosphère du fait de son impact sur le climat et pour la santé du fait de sa réactivité chimique<br>Emissions inventories have a fundamental role in controlling air pollution, both directly by identifying emissions, and as input data for air pollution models. The main objective of this PhD study is to optimize existing emissions inventories, including one from the program ESCOMPTE « Experiments on Site to Constrain Models of Atmospheric Pollution and Transport of Emissions ». For that emissions inventory, two separate issues were developed: one designed to better assess the emissions uncertainties and the second to insert a new compound of interest in this inventory: Black Carbon (BC). Within the first issue, an additional study was conducted on the Nord-Pas-de-Calais emissions inventory to test the methodology of uncertainties calculation. The emissions uncertainties calculated were used to assess their influence on air quality modeling (model CHIMERE). The second part of the research study was dedicated to complement the existing inventory of carbon particulate emissions from road traffic sector by introducing an additional class of compounds: the BC. The BC is the raw carbonaceous atmospheric particles absorbing light. Its main source is the incomplete combustion of carbonaceous fuels and compounds. It can be regarded as a key atmospheric compound given its impact on climate and on health because of its chemical reactivity
APA, Harvard, Vancouver, ISO, and other styles
4

Denieul, Marylin. "Moment sismique et coda d'ondes crustales." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAH015/document.

Full text
Abstract:
Une estimation précise de la magnitude est primordiale pour établir des catalogues de sismicité fiables. L’objectif de cette thèse est de développer une méthode d’estimation de la magnitude de moment à partir de la coda des ondes crustales applicable sur les sismogrammes numériques et analogiques. Afin d’étudier les propriétés de la coda en France, nous avons réalisé une analyse fréquentielle et régionale des enveloppes de coda. Nous avons pu estimer le moment sismique M0 et la magnitude de moment Mw pour des sismogrammes numériques, mais pas pour des enregistrements sur papier pour lesquels le filtrage n’est pas possible. Nous avons donc observé les propriétés de la coda dans le domaine temporel. Nous avons déterminé un modèle empirique afin de représenter les enveloppes de coda du signal brut et obtenir une magnitude de coda Mcoda. A partir de la relation linéaire Mcoda/Mw, nous avons déterminé la magnitude de moment directement sur les enregistrements analogiques en France<br>Accurate magnitude determination is necessary to establish reliable seismicity catalogs in order to assess seismic hazard. The main goal of this PhD is to develop a method for estimating moment magnitude Mw from coda waves applicable to new digital seismograms as well as to old paper records in France. In order to analyze coda waves properties in France, a study of the regional and frequency properties of coda-wave envelopes has been performed. From this spectral analysis of coda waves, we can estimate seismic moment M0 and moment magnitude Mw from digital seismograms but not from paper records for which no frequency filtering is possible. Therefore, in a second step, we have analyzed the coda-waves properties directly in the time domain. We develop an empirical model which fits the coda envelopes of the raw signal and permits to obtain a coda magnitude Mcoda. From the Mcoda/Mw relationship, we determined the moment magnitude directly from the old paper records in France
APA, Harvard, Vancouver, ISO, and other styles
5

Paolino, Pierdomenico. "Bruit thermique et dissipation d'un microlevier." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00423692.

Full text
Abstract:
En microscopie à force atomique (AFM), l'étude des échantillons est réalisée à l'aide d'une pointe montée sur un microlevier. Le coeur de la technique est la mesure de la force d'interaction pointe-surface, directement proportionnelle à la déflexion du levier. Plus généralement, la compréhension profonde des propriétés mécaniques des microstructures joue un rôle significatif dans le développement des microsystèmes électromécaniques (MEMS), ou encore de capteurs chimiques ou biologiques miniatures.<br /><br />Au delà du dispositif traditionnel de mesure de déflexion angulaire, nous avons conçu et réalisé un AFM avec une détection interférométrique différentielle (entre la base encastrée et l'extrémité libre du levier). La résolution ultime est de 10^-14 m/Hz^1/2, la mesure est de plus intrinsèquement calibrée, indifférente aux dérives thermiques lentes et sans limitation de la plage d'amplitude de la déflexion. <br /><br />Grâce à notre dispositif, nous mesurons le bruit thermique le long du levier. Une reconstruction de la forme spatiale des quatre premiers modes propres en flexion révèle un excellent accord avec le modèle de poutre de Euler-Bernoulli. Un ajustement simultané sur les quatre résonances thermiquement excitées est réalisé à l'aide d'un seul paramètre libre : la raideur du levier, qui est ainsi mesurée avec une grande précision et robustesse. <br /><br />Les fluctuations thermiques de déflexion à basse fréquence démontrent qu'un modèle d'oscillateur harmonique avec dissipation visqueuse n'est plus pertinent hors résonance. De plus, on observe des différences substantielles entre les leviers avec et sans revêtement métallique. Pour ces derniers, l'approche hydrodynamique de Sader rend compte fidèlement du comportement des fluctuations en dessous de la résonance dans l'air. La présence du revêtement introduit une deuxième source de dissipation : la viscoélasticité. Elle se manifeste comme un bruit en 1/f à basse fréquence. L'utilisation du Théorème Fluctuation-Dissipation (TFD) et des relations de Kramers-Kronig permettent une caractérisation complète de la réponse du levier à l'aide des spectres de fluctuations. Une estimation quantitative de la viscoélasticité et de sa dépendance en fréquence est notamment obtenue.
APA, Harvard, Vancouver, ISO, and other styles
6

Brunault, Paul. "Etude des facteurs psychopathologiques associés à la dépression, à la qualité de vie et à l'adiction [sic] à l'alimentation dans le cadre de la maladie chronique à partir du modèle de Wilson et Cleary." Thesis, Tours, 2015. http://www.theses.fr/2015TOUR2020/document.

Full text
Abstract:
L’objectif de cette thèse d’articles était de préciser la place respective des mesures objectives (ex., durée et sévérité de la maladie, traitements reçus) et subjectives (ex., troubles psychiatriques, personnalité) en tant que déterminants potentiels de dépression, de qualité de vie (QV) et d’addiction à l’alimentation chez des patient(e)s souffrant de cancer du sein ou d’obésité sévère. En nous basant sur des modèles biopsychosociaux issus du modèle de Wilson et Cleary, nous avons démontré que : 1) La dépression était plus fortement associée aux caractéristiques psychopathologiques de l’individu (personnalité, dépression avant traitement) qu’à la sévérité de la maladie ou aux types de traitements reçus ; 2) Les facteurs associés à la QV dépendent de la dimension de QV considérée (association entre mesures objectives et QV physique ; association entre mesures subjectives et toutes les dimensions de QV) ; 3) Les patients obèses souffrant d’addiction à l’alimentation ont une vulnérabilité psychopathologique spécifique. Nos travaux suggèrent qu’en cas de maladie chronique, les mesures subjectives sont des déterminants potentiels importants de la santé<br>This article thesis aimed to assess risk factors for three different health outcome measures (depression, health-related quality of life and food addiction) in two populations (breast cancer patients and morbidly obese patients), by assessing the relative impact of biological and physiological variables (i.e., disease duration and severity, types of treatment used), and individual and psychological variables (i.e., psychiatric disorders, personality). By proposing and putting to the test several integrative biopsychosocial models based on Wilson and Cleary’s theoretical model, we demonstrated that : 1) Depression after breast cancer treatment is more strongly associated with variables related to the premorbid individual and psychological characteristics (i.e., personality and depression before treatment) than to biological and physiological variables (i.e., disease severity, types of treatment used) ; 2) Risk factors for lower quality of life are different depending on the quality of life dimension considered (e.g., physical, psychological or sexual) : biological and physiological variables are associated with physical quality of life ; individual and psychological factors are associated with all quality of life dimensions ; 3) Obese patients with food addiction exhibit some specific psychopathological risk factors. Our work suggest to systematically assess individual and psychological variables in patients with chronic diseases because these variables are important potential predictors for different health outcomes
APA, Harvard, Vancouver, ISO, and other styles
7

Feuillet, Thomas. "Développement de capteurs optimisés pour l'IRM à champ magnétique faible (0.2T) : application à l'imagerie de l'animal." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10302/document.

Full text
Abstract:
L'imagerie par résonance magnétique (IRM) appliquée au domaine vétérinaire exploite des systèmes à bas champ magnétostatique qui ont de nombreux avantages, notamment leur faible coût d'achat et d'entretien. Mais sur ces machines, les capteurs radiofréquence (RF) sont initialement dédiées à l'homme et ne permettent pas une qualité d'image optimale. Dans le cadre de cette thèse, des méthodes simples d'optimisation de capteurs à 0,2 T ont été développées, puis exploitées pour des applications de recherche et préclinique. Le travail d'optimisation a été partagé en deux axes. Dans un premier temps, un modèle analytique a été développé sous MATLAB pour l'estimation du rapport signal sur bruit intrinsèque à un capteur paramétré par ses dimensions et les propriétés de l'objet imagé. La validation du modèle a été obtenue par la comparaison entre mesures et simulations du facteur de qualité. Cette méthode d'optimisation a été appliquée pour deux études spécifiques qui ont fait l'objet d'une publication. Dans un second temps, un travail sur le découplage actif a été mené. En effet, sur l'IRM 0,2 T à notre disposition, le découplage passif est la méthode retenue par le constructeur. Mais pour certaines applications des artefacts d'imagerie sont inévitables et le facteur de qualité réduit. Des moyens de découplage actif ont donc été développés. Les performances des capteurs ainsi équipés se sont avérées meilleures qu'en découplage passif. Ce système de découplage associé à un dispositif de connexion par couplage inductif du signal de résonance magnétique a été également démontré à 3 T comme une preuve de concept d'un dispositif de connexion universelle. Ce dispositif a fait l'objet d'un article récemment soumis pour publication<br>Magnetic resonance imaging {MRl) in veterinary practice employs low magnetostatic field devices which have numerous advantages such as their low maintenance and initial cost. Yet, the radiofrequency {RF) coils commercially provided with these devices are dedicated to human morphology, therefore reducing image quality. ln this work, simple optimization methods for 0.2 T RF coils were developed for an implementation in research and preclinical studies. Optimization protocol was subdivided into two main steps. First, an analytical model was developed using MATLAB in order to estimate the intrinsic signal to noise ratio variations with coil and imaged sample characteristics. Validation of the model was assessed thanks to quality factor comparison between simulated and measured values. The use of the analytical model for two specific studies was described in a recently accepted publication. Second, active decoupling was investigated. lndeed, passive decoupling is the decoupling method implemented on the 0.2 T MR device at our disposal. However, this technique can lack of efficiency in some experiments, inducing imaging artifacts and reduced quality factor. Active decoupling method was therefore implemented. The electronic performances of the coils equipped this way were better than in passive decoupling. This active decoupling device combined with an inductive coupling connecting system was tested at 3 T to demonstrate the technical feasibility of a new universal connecting device, for which an article was recently submitted
APA, Harvard, Vancouver, ISO, and other styles
8

Mordal, Karine. "Analyse et conception d'un modèle de qualité logiciel." Paris 8, 2012. http://www.theses.fr/2012PA084030.

Full text
Abstract:
Nous présentons un modèle et un prototype d'analyse et d'évaluation de la qualité de grands logiciels de taille industrielle, le modèle Squash, fondé sur le modèle empirique conçu par les entreprises Qualixo et Air-France KLM. Nous déterminons une méthodologie précise d'évaluation de principes de qualité, tant au niveau technique que fonctionnel. A partir de notre méthodologie nous avons formalisé un modèle de qualité prenant en compte les particularités et exigences du domaine industriel. L'implémentation de ce modèle est en cours de validation chez Générali. A partir de l’étude des domaines du développement informatique et de la validation fonctionnelle, nous avons formalisé un modèle de qualité hiérarchique fondé sur les normes ISO 9126 et SquARE. Ce modèle est composé de deux niveaux : le niveau conceptuel de la qualité qui définit les grands principes de qualité à évaluer et le niveau technique de la qualité qui décrit des règles techniques de base et les mesures associées permettant l'évaluation du niveau supérieur. La principale difficulté dans l’élaboration de ce type de modèle consiste à déterminer comment passer des principes de qualité aux mesures et vice versa, tout en respectant deux principes fondamentaux : ne pas masquer les progrès et mettre en évidence les problèmes. Pour y parvenir nous utilisons d'une part, des formules de combinaison et d’agrégation de métriques et d'autre part, des formules à base de logique floue permettant d'évaluer la qualité à partir de mesures non issues de métriques<br>We present a model and prototype for analysis and assess quality of large size industrial software, Squash model based on the empirical model developed by Qualixo and Air France-KLM enterprises. We determine an evaluation methodology for both technical and functional quality principles. Then we formalized a quality model taking into account the industrial applications requirements from this methodology. The implementation of this model is being validated by Generali. From the domain of software development and functional validation, we have formalized a model based on hierarchical quality models from standards ISO 9126 and Square. This model is divided into two levels: the conceptual quality level that defines the main quality principles and the technical quality that defines basic technical rules and measures used to assess the top level. The main issue of quality model conception is how to bring the gap between metrics and quality principles : the metrics meannig often defined for individual components cannot be easily transposed to higher abstraction levels. Furthermore, we need to highlight problems and do not hide progress. To achieve this, we use combinaison and aggregation formulas to asses quality principles from metrics and fuzzy logic to assess quality principles from non-metric measurements
APA, Harvard, Vancouver, ISO, and other styles
9

Mbailassem, Fulbert. "Contrôle du bruit par effets de localisation par géométries irrégulières." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI095/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la recherche des moyens de réduction du bruit. Le but est d’analyser et de créer par une méthode passive, le confinement d’énergie acoustique dans les irrégularités géométriques via le phénomène de localisation pour ensuite la dissiper. En prélude à l'atténuation du bruit par les géométries irrégulières, les mécanismes de la dissipation acoustique sont rappelés et illustrés par quelques exemples de réseaux de résonateurs quart-d'onde. Le phénomène de localisation est ensuite étudié par une analyse modale. Le caractère localisé d'un mode est quantifié par son volume d'existence relatif (VER) qui donne, en fraction du volume total du domaine, le volume effectif concerné par l'énergie du mode. Il ressort de cette étude que seules les cavités irrégulières ayant des irrégularités en forme de sous-cavités couplées à une cavité principale sont « localisantes ». La fréquence d'un mode localisé est liée aux dimensions de la zone irrégulière de localisation. Le lien entre les irrégularités géométriques et la dissipation acoustique est ensuite analysé au moyen des indicateurs tels que le facteur de qualité, le coefficient d'absorption ou le taux d'amortissement de l'énergie. Cette étude montre que les cavités irrégulières amortissement mieux une onde acoustique comparativement aux cavités à géométrie régulière. Toutefois, la dissipation de l'énergie acoustique des cavités irrégulières n'est pas uniquement liée à la localisation. Elle dépend également d'autres paramètres (porosité, résistivité, etc.). Lorsque les irrégularités des parois rigides ne permettent pas de réaliser une dissipation suffisante, elles peuvent être réalisées dans les matériaux poroélastiques à performance acoustique moyenne pour augmenter leur capacité dissipative. Enfin, des études expérimentales menées ont permis de valider l'existence du phénomène de localisation et de confirmer la tendance plus dissipative des géométries irrégulières par rapport aux géométries régulières. De même, des mesures du coefficient d'absorption d'un échantillon de forme préfractale d'un béton de chanvre (matériau ayant une performance acoustique moyenne) montrent une augmentation de la dissipation de plus de 40% induite par la forme irrégulière. La contribution majeure de cette thèse est d’avoir répondu à un défi technologique important consistant à effectuer une mise en évidence expérimentale du phénomène de localisation jusque-là difficile à réaliser avec des microphones. Pour y parvenir, un outil optique peu conventionnel dans la métrologie acoustique est adopté; il s'agit de la réfracto-vibrométrie qui consiste à utiliser, sous certaines conditions, le vibromètre laser pour mesurer un champ acoustique (pression acoustique). Bien que contraignante, cette technique présente l'avantage d'être non intrusive et donc moins encombrante même pour de petites cavités comparativement aux microphones<br>In this thesis, the acoustical behavior of irregular cavities leading to localization phenomenon is investigated for noise reduction applications. The aim of this work is to study and create by means of passive method, an accumulation of acoustical energy and dissipate it. Before addressing geometrical irregularities effects on the sound field, viscothermal dissipation mechanisms of sound are recalled and illustrated through few networks of quarter-wave resonators. In a second part, a study of the localization phenomenon is carried out by a modal analysis approach. The localization is quantified by the relative existence volume (VER), an indicator which gives a measure of the volume of the region in which a mode is localized as a fraction of the total cavity volume. The localization analysis is conducted using both regular and irregular cavities. It has been shown that only cavities with irregular geometry, such that sub-cavities are formed, can localize some acoustical modes. Moreover, the frequency of a localized mode is related to the dimensions of the localization region. Following the investigation of the localization phenomenon, the relation between cavities geometry and sound energy dissipation has been studied by the estimation of damping indicators, such as the quality factor, the sound absorption coefficient or the energy damping rate. According to this study, irregular cavities have higher capability to damp sound waves compared to regular cavities. However, for the case of irregular cavities only, the induced dissipation is not proportional to the localization. Nevertheless, when irregularities of rigid walls are not able to achieve sufficient dissipation, this can be obtained with slightly absorptive porous materials of irregular geometry. In fact, the dissipative properties of some porous materials can be optimized by giving them irregular interface. Finally, an experimental set-up has been designed to validate the localization phenomenon and to confirm the damping tendency of irregular geometries in comparison to regular ones. Moreover, measurements of the sound absorption coefficient of a hemp concrete reveal that the sample of irregular geometry achieves sound dissipation more than 40% higher than the one achieved by a regular plane sample. Finally, this thesis has addressed a technological challenge consisting of experimentally validating the localization phenomenon which is so far very difficult to obtain by the use of conventional pressure microphones. In the framework of this thesis, an optical non-conventional sound pressure measurement technique has been used. The used technique is the laser refracto-vibrometry which consists of using a laser vibrometer in some specific conditions to measure the acoustical field (sound pressure). This technique is difficult to conduct but it has the advantage of being contactless, thus less cumbersome for even very small cavities as compared to pressure microphones
APA, Harvard, Vancouver, ISO, and other styles
10

Contreras, José-Lino. "Arto : un modèle d'objet adaptable pour la qualité de service." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0069/these.pdf.

Full text
Abstract:
Le contexte d'exécution des applications est devenu plus versatile et moins prédictible en raison de la complexité croissante des systèmes informatiques modernes (multiprocessus, systèmes distribués, etc. ). Cette situation complique le développement et le fonctionnement des applications dans les domaines sensibles aux propriétés dynamiques des systèmes, tels que le temps réel et le multimédia. Une connaissance partielle du contexte d'exécution n'est pas suffisante pour la construction de ces applications, et il est de plus en plus difficile d'obtenir cette connaissance par la voie analytique. D'un autre coté, les approches heuristiques apportent des solutions non optimales et rendent inévitable l'incertitude sur le comportement des applications pour les aspects non fonctionnels tels que le temps et la précision des réponses. Les objets ARTO réduisent l'effet des changements inattendus du contexte d'exécution en adaptant dynamiquement leur comportement. Ils décident comment agir en fonction de critères propres et du contexte afin de faire au mieux pour satisfaire les services demandés. Les contraintes temporelles sont traitées comme faisant partie des propriétés qui définissent la Qualité de Service et sont le principal critère de décision pour l'adaptation des objets ARTO. Des fautes temporelles peuvent intervenir, mais la solution est destinée à des systèmes temps réel tolérant des défaillances sporadiques<br>Application execution contexts have became more versatile and less predictable due to the increasing complexity of modern computer systems (multi process, distributed systems, etc. ). This situation makes more difficult the development and execution of applications affected by dynamic properties of systems, such as real time and multimedia. A partial knowledge of the execution context is not enough to build such applications and the required knowledge is more and more difficult to obtain by analytical approaches. On the other side, heuristics approaches give non optimal solutions and make uncertain non functional aspects such as timing and precision of replies. ARTO objects decrease the effect of unexpected execution context variations by dynamically adapting their behavior. They base their decisions on their own criteria and on execution context in order to satisfy the requested services. Time constraints are treated as part of the Quality of Service properties and are the main criteria for the object’s adaptation. As temporal faults may happen the solution is oriented to real time systems accepting sporadic faults
APA, Harvard, Vancouver, ISO, and other styles
11

Hamon, Agnès. "Modèle de Rasch et validation de questionnaires de qualité de vie." Lorient, 2000. http://www.theses.fr/2000LORIS011.

Full text
Abstract:
[. . . ] Nous présentons l'algorithme stochastique SEM et nous l'utilisons de façon originale dans le cadre du modèle de Rasch. Si cette utilisation apporte peu dans le cas classique, nous montrons qu'elle est quasiment incontournable dans le cas du modèle de Rasch pour données longitudinales. La fiabilité, ou précision d'une mesure obtenue par questionnaire, est presque toujours estimée par le coe͏̈fficient alpha de Cronbach. Nous avons proposé de généraliser le calcul de la fiabilité au cas du modèle de Rasch. Le coefficient alpha de Cronbach et le nouveau coefficient sont comparés à l'aide de simulations. Nous présentons les problèmes posés par l'évaluation de la qualité de vie et les méthodes actuellement utilisées pour la validation de questionnaires. Nous exposons ensuite les nouveaux test d'ajustement au modèle de Rasch et montrons comment ils apporter des réponses aux problèmes de la construction de mesures de qualité de vie. Dans la dernière partie de ce travail, nous avons proposé, en nous basant sur les estimations isotoniques des probabilités de réponse, un nouveau test de type Kolmogorov-Smirnov pour la comparaison de traits lents entre deux groupes<br>The assesment of quality of life has become an important problem in medicine. This assesment is aimed to evaluate the limitations induced by therapeutics on the daily life of patients. In most of cases, a questionnaire is administred to the patients in order to quantify their quality of life. Then, we have to construct a statistical model that links the items answers to an unobserved quantitative variable, here the quality of life. In most of the clinical studies, only linear linear modelizations are used. The purpose of this work is to study a new approach based on Rasch model[. . . ]
APA, Harvard, Vancouver, ISO, and other styles
12

Diop, Oumy. "Étude et minimisation du facteur de qualité des antennes pour de petits objets communicants." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00933828.

Full text
Abstract:
Actuellement, les objets communicants sans fils occupent une place prépondérante. Pour faciliter leur utilisation, ces objets sont de plus en plus petits et nécessitent de très petites antennes. Cette miniaturisation d'antennes implique forcément une détérioration de leurs performances. La conception d'antennes électriquement petites (AEP) nécessite une très bonne compréhension théorique des mécanismes électromagnétiques mis en jeu notamment quelles limites précises peut-on atteindre pour une AEP étant circonscrive dans un volume donné. Un des paramètres essentiels d'une AEP est son facteur de qualité intrinsèque qui est inversement proportionnel à sa bande passante en impédance. Ainsi, maximiser la bande passante en impédance d'une antenne consiste à minimiser son facteur de qualité. Face à ce problème, de nombreux travaux ont été développés pour déterminer les limites possibles pour des AEP. C'est dans ce cadre que s'inscrit le premier axe de recherche de la thèse : étudier le facteur de qualité d'AEP, afin de déterminer s'il existe des dimensions optimales permettant de s'approcher de ces limites. Le second axe de recherche a consisté à étudier des AEP fonctionnant à 2,45 GHz pour des implants biomédicaux. Celles-ci sont imprimées sur de nouveaux types de substrat pour avoir une meilleure résolution de trace métallique favorisant une réduction de l'encombrement, et une intégration facilitant ainsi les interconnexions avec les frontaux RF. Le challenge consiste à maximiser les performances de ces antennes. Plusieurs prototypes ont été réalisés pour valider les simulations.
APA, Harvard, Vancouver, ISO, and other styles
13

Deleuze, Christophe. "Qualité de service dans l'Internet : problèmes liés au haut débit et au facteur d'échelle." Paris 6, 2000. http://www.theses.fr/2000PA066131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Savary, Frédéric. "La communication, facteur d'évolution culturelle et d'efficacité dans la démarche qualité d'une entreprise manufacturière." Bordeaux 3, 2003. http://www.theses.fr/2003BOR30018.

Full text
Abstract:
La logique classique des organisations de type industriel associe systématiquement un encadrement serré du processus de fabrication et de la performance. Nos observations permettent de signaler que cela ne constitue pas une règle. L'incertitude, dans la garantie d'une éventuelle efficacité, est liée àl'acteur lui-même et à son imprévisibilité dans les choix qu'il reste libre d'opérer. Le contexte apparaît contingent et fort peu déterministe. L'environnement s'agence en systèmes plus ou moins complexes. L'action ne devient réellement possible, qu'en entrant en relation avec d'autres acteurs et en ajustant des relations de pouvoir. Il apparaît que certaines conditions sociales et psychologiques réunies favorisent des formes d'efficacité qui ont besoin de l'individu pour se révéler, mais ce dernier est loin d'être un élément stable. Il garde sa part d'autonomie, des réserves sur sa coopération et des conditions sur sa participation au jeu de l'efficience collective<br>The classical logic of industrial systematically associates performance with tigth management of production process. Our observations allow us to see that there is no general rule. The unpredictability of the actor's acts or in its liberty of reasoning, create a real doubt in the certitude of efficiency. The context appears clearly contingent and somewhat deterministic : whenever the solution must be found. The environment organizes itself in more or less complex systems. Action appears only possible and efficient when actors are in contact with others and adjust their relations of power. It becomes obvious that some psychological or social conditions must be linked to promote effectiveness which needs the individual to take shape. But we have to admit the individual is not a really stable factor in this combination. He remains reserved on his cooperation and participation in collective efficiency
APA, Harvard, Vancouver, ISO, and other styles
15

Charlet, Thibault. "Filtres hyperfréquences reportés en surface, à fort facteur de qualité et compensés en température." Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0010.

Full text
Abstract:
Ces travaux présentent une étude des filtres microondes hyperfréquences pour des applications de télécommunications par satellite, au travers l’analyse de deux thématiques : le report sur carte électronique, pour répondre aux besoins de performances, de compacité et de coûts maîtrisés, et la compensation en température, pour conserver la fonctionnalité malgré un environnement de travail extrême. La première partie décrit l’état de l’art : la simulation et la conception de dispositifs qui sont compensés en température ou reportés en surface. La deuxième partie expose le principe des simulations multiphysiques et la modélisation des phénomènes électro-thermomécanique. Nous avons caractérisé les matériaux et les composants, afin de valider les simulations et d’obtenir une base de données. Grâce à un banc de mesure spécifique, nous avons mesuré les évolutions en fonction de la température, de la permittivité, de la conductivité, des pertes diélectriques, et de la dérive fréquentielle de résonateurs microondes. Les deux dernières parties décrivent la conception des résonateurs et des filtres. Le report de ces composants volumineux, avec des propriétés physiques différentes du substrat d’accueil, demande une maîtrise experte des outils technologiques à disposition pour l’obtention de résultats satisfaisants. La stabilité fréquentielle des résonateurs nécessite des matériaux peu sensibles aux effets thermiques, ou une combinaison de matériaux aux propriétés connues pour que les différents phénomènes se compensent. Enfin, nous avons appliqué ces technologies à la synthèse et la réalisation de filtres à fort facteur de qualité<br>In this work, we study microwave filters for space telecommunication with two main application fields. The devices should be surface mounted, on printed circuit board to remain low-cost with a minimal bulkiness and high performances. We also want the frequency functions to be kept efficient despite the temperature shift in space. The first chapter deals with the state of the art of the field by presenting the needs: the multiphysics simulations and the filter design, the surface mounted process, and their temperature compensation. In the second chapters, we focused on the multiphysics modeling and how we have applied it in our study. We have also characterized the materials and the microwave system thanks to a dedicated measurement bench: the permittivity, the dielectric losses, the conductivity, and the frequency shift are collected to supply the databases. In the last two chapters, we designed resonators and filters. The mounted surface technologies need to be well controlled to provide sufficient efficiency for the devices. We achieve thermal frequency stability by using specific materials, non-affected by thermal effects, or through a combination of materials with specific properties to create an offset. At last, we applied these techniques to show different types of filter that can be an answer to our needs
APA, Harvard, Vancouver, ISO, and other styles
16

Raffalli, Chloé. "Les allergies cutanées aux fragrances : mécanisme d'action et rôle du facteur de transcription Nrf2. Du modèle 2D au modèle 3D." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS045/document.

Full text
Abstract:
La dermatite allergique de contact (DAC) est une réaction inflammatoire aiguë, médiée par les cellules dendritiques (DCs) survenant suite à l’exposition répétée de la peau avec une molécule allergisante. La prévalence estimée des cas de DAC aux substances parfumantes est de 1,7 % à 4,1 % dans la population générale. Les molécules allergisantes sont des molécules appelées haptènes, qui vont se conjuguer avec des protéines de l’épiderme ou du derme. C’est le cas du cinnamaldéhyde (CinA), une molécule retrouvée dans la cannelle. Le linalol et le limonène sont des terpènes présents dans la lavande et l’orange, qui vont s’autoxyder au contact de l’air pour former des allergènes puissants, tels que les hydroperoxydes allyliques. Le premier objectif de cette thèse a été d’étudier le mécanisme d’action de ces terpènes et leurs hydroperoxydes allyliques respectifs sur la lignée cellulaire THP-1, qui sert de substitut aux cellules dendritiques. Le rôle du facteur de transcription Nrf2, majeur dans la lutte contre le stress oxydant, a également été investigué.Les consommateurs de produits cosmétiques sont exposés à de faibles concentrations de molécules allergisantes, mais plusieurs fois par jour ou par semaine. Nous avons souhaité étudier l’exposition répétée à de faibles doses d’haptène sur la peau.Les kératinocytes jouent également un rôle dans la DAC : ce sont les premières cellules qui vont rencontrer la molécule allergisante dans la peau. La deuxième partie de ce travail a été d’étudier l’impact d’une exposition répétée de CinA à de faible concentration sur ces KCs et plus particulièrement sur la différenciation de l’épiderme, en utilisant un modèle organotypique de peau en 3D<br>Allergic contact dermatitis (ACD) represents a severe health problem. It is a dendritic cells (DCs) mediated skin disease caused by repeated exposure to an allergenic compound. ACD cases of fragrances in general population is estimated from 1.7 % to 4.1%. Contact sensitizers are compounds termed haptens and they will form a conjugate with epidermis and dermis proteins. Example is cinnamaldehyde (CinA), a molecule found in cinnamon. Linalool and limonene are terpenes found in lavender and oranges. In contact with the air, they will autoxidize to form highly allergenic compounds: allylic hydroperoxides. The first aim of this thesis was to study the mechanism of action of those terpenes and their respective allylic hydroperoxides on THP-1 cell-line, described as a surrogate of DCs. The transcription factor Nrf2 is playing a major role in oxidative stress and was also investigated.Consumers of cosmetic products are exposed to low quantities of allergenic compounds, but several times a day or a week. We wanted to study repeated exposure of low concentration of haptens on the skin.KCs also play a key role in ACD: they are the first cells that will encounter the allergenic compound in the skin. The second aim of this thesis was to study the impact of repeated exposure of low concentrations of CinA on those KCs and more particularly on the epidermis differenciation, using a 3D organotypic culture of skin
APA, Harvard, Vancouver, ISO, and other styles
17

Elias, Jocelyne. "Allocation dynamique de la bande passante dans les réseaux à qualité de service." Paris 6, 2006. http://www.theses.fr/2006PA066169.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Belkhatir, Riad. "Contribution à l’automatisation et à l'évaluation des architectures logicielles ouvertes." Nantes, 2014. https://archive.bu.univ-nantes.fr/pollux/show/show?id=1679417a-4aaa-45f5-b072-6e3bc5a231bd.

Full text
Abstract:
Ces dernières années, les Architectures Orientées Services (AOS) ont attiré l'attention de la communauté de l'ingénierie logicielle tant leur utilité en termes d'amélioration du couplage, de réutilisabilité et de productivité a fait ses preuves. Les dernières solutions AOS tendent à être plus granulaires et «mesurables», ainsi, un challenges les plus excitants des décennies consiste à être capable d'évaluer quantitativement la qualité d'une architecture. Cela permet essentiellement de contrôler les différents coûts ainsi que de prévenir d'éventuels risques. Durant cette thèse, nous nous sommes essentiellement focalisés sur une nouvelle méthode semi automatisée permettant l'évaluation de la qualité logicielle des architectures orientées service. Nos contributions se résument en trois axes. Le premier présente un modèle de qualité, inspiré du modèle de McCall, qui décompose une architecture orientée service en un arbre hiérarchisé de plusieurs attributs qualité. Le second concerne une méthode semi automatisée appelé SOAQE dérivant de ce modèle et permettant l'évaluation d'architectures orientées service. Tandis que le troisième axe présente l'outil SOAQE basé sur la méthode éponyme retournant une combinaison de résultats de l'évaluation de la qualité logicielle sous formes textuelle puis graphique pour une meilleure compréhension des données<br>The last years, service oriented architectures (SOA) drew the attention of the software engineering community so much their utility in terms of coupling improvements, reusability and productivity showed its mettle. Last SOA solutions tend to be more granular and «measurable», thus, one of the most exciting challenges of the last decades consists in being able to evaluate quantitatively the quality of a software architecture. That primarily makes it possible to control the various costs and to prevent possible risks. During this thesis, we essentially focused on a new semi automated method allowing the evaluation of the software quality of service oriented architectures. Our contributions are summarized in three axes. The first one presents a model of quality, inspired from the McCall model, which splits any service oriented architecture into a hierarchical tree, organized around several quality attributes. The second avis axis relates to a semi automated method called SOAQE stemming from this model and allowing the evaluation of service oriented architectures. Then, the third axis presents the SOAQE tool, based on the method of the same name, returning a combination of the software quality evaluation results in textual and grahic forms for a better understanding of the data
APA, Harvard, Vancouver, ISO, and other styles
19

El, Hiki Lahcen. "Proposition et validation d'un modèle d'amélioration continue pour les processus hospitaliers." Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/f959abaf-8721-45f1-9e6b-05b3ddfd8f50.

Full text
Abstract:
Sous l'impulsion d'organismes d'accréditation ou d'autres acteurs politico-socio-économique, l'amélioration continue de la qualité (ACQ) est en passe de devenir progressivement une composante à part entière dans le management hospitalier. Cependant, même si certains programmes d'ACQ ont été implantés dans bon nombre d'organisations hospitalières, leur déficit méthodologique demeure trop manifeste. L'objectif de cette thèse est d'investir une nouvelle perspective concernant les modèles d'ACQ dédiés aux processus hospitaliers. Afin d'adapter cette dynamique à leurs singularités, de nouvelles exigences conceptuelles doivent être élaborées. A cet égard, nous proposons un modèle d'ACQ comme cadre conceptuel permettant l'adaptation de cette dynamique aux spécificités de l'organisation hospitalière. Ce modèle recentre la portée de l'ACQ sur le processus hospitalier en intégrant la modélisation, l'analyse, la reconfiguration, le pilotage du risque (sur base d'indicateurs) et la perpétuation de la logique d'amélioration. La validation du modèle a eu lieu dans le cadre de projets d'ACQ portant sur les processus du laboratoire de biologie clinique (CHU de Charleroi/Belgique) et sur la filière des urgences pré-hospitalière dans la région du Nord Pas-de-Calais (France)<br>Under the impetus of accreditation agencies and other institutional actors, many hospital organizations have undertaken ambitious projects designed to implement continuous quality improvement (CQI). However, although many have begun, the failure rate of such projects is quite significant. This doctoral research aims to introduce new ways of thinking about CQI models applied to hospital processes. To adapt CQI dynamics to the particular case of hospital processes, new CQI model requirements must be established in order for these models to improve hospital organization. We propose our CQI model as a conceptual framework that will allow CQI to be applied to hospital processes. Through its innovative approach to modelling, analysis, redesign, and risk monitoring (based on established indicators), this framework can help to perpetuate the organizational improvements effected in the hospital processes. The generic character of our model will be illustrated by real-life applications involving clinical laboratory processes (CHU de Charleroi/Belgium) and pre-hospital emergency networks (Region of Nord-Pas-de-Calais/ France)
APA, Harvard, Vancouver, ISO, and other styles
20

Lecoeuche, Hugues. "Intégration des aspects dynamiques dans le modèle objet." Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0117.

Full text
Abstract:
Le monde industriel est en quête de solutions pour rationaliser la production de logiciels de qualité. L'approche objet a introduit des concepts prometteurs. L'apparent manque de maturité des «technologies objet» n'est en réalité dû qu'aux défauts de jeunesse des méthodes les supportant, en particulier à leur incapacité à couvrir les aspects dynamiques. L'objectif de ce travail est de renforcer la qualité des applications conçues à l'aide de méthodes de développement orientées objet, et écrites dans des langages de programmation orientés objet courants. Ses résultats s'appliquent de la phase d'analyse du logiciel jusqu'à son implémentation. Nous définissons une notion d'état qui s'intègre dans le modèle objet et permet d'accroître la puissance d'expression des langages grâce à une extension de leur syntaxe. Les contraintes spécifiques de la notion d'état permettent de contrôler statiquement la validité des modèles issus de la phase d'analyse. Un formalisme adapté à la représentation des états dans les modèles dynamiques les plus fréquemment utilisés a été défini. Les extensions apportées aux langages permettent d'exprimer directement ces modèles. Un préprocesseur traduit ces enrichissements en instructions qui surveillent dynamiquement l'évolution du comportement des objets. L'intérêt de cette démarche est de contrôler et de faciliter le passage d'une analyse en terme d'objets et d'états à une implémentation fidèle grâce à un mécanisme de traduction/transformation automatique. Les bénéfices de la programmation par états dans le cadre de la programmation concurrente sont ensuite présentés. La mise en pratique de la solution proposée repose sur des outils et une approche méthodologique supportés par un « A. G. L. Objet» qui aident les concepteurs dans la fabrication de logiciels industriels sûrs et de qualité<br>Industrial world looks for technical solutions aiming to rationalize the production of quality software and the object oriented approach has introduced promising concepts. The apparent lack of maturity of the object oriented technologies is only due to the youth of the development methods that support them. In particular their inability to cover the dynamic aspects. The purpose of this work is to reinforce the quality of the applications developed using object oriented development methods and written using classical object oriented programming languages. The results of the work are applicable from the analysis stage to the development one. We define a state notion that is integrated in the object model and gives the opportunity to increase the expressive power of the programming languages by way of a syntactical extension. The specific constraints of the state notion allows a static control of the consistency of the models built during analysis stage. A formalism adapted to the most frequently used dynamic models has been defined in order to represent states. The extensions of the programming languages give the opportunity to directly express these models. A pre-processor translates the enrichments into source code which dynamically checks the evolution of the object's behaviour. The interest of this approach is to control and ease the transition from an object oriented analysis to a faithful implementation by way of an automatic translation/transformation mechanism. The advantages to apply the state programming to the concurrent programming are also exhibited. The practical use of the proposed solution relies on tools and a methodological approach, supported by an « Object Oriented CASE Tool » which assists the users in producing reliable and quality software
APA, Harvard, Vancouver, ISO, and other styles
21

Poyot, Thomas. "Etude de l'effet d'un facteur neurotrophique dans un modèle primate de maladie de Parkinson." Paris 11, 2001. http://www.theses.fr/2001PA114822.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Quantin-Bechraoui, Catherine. "Validation et extension du modèle de cox pour l'étude de la survie." Paris 11, 1993. http://www.theses.fr/1993PA11T031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Longuet, Patrick. "Le consommateur et le risque alimentaire : vers un modèle intégrateur d'équilibre." Nice, 2008. http://www.theses.fr/2008NICE0011.

Full text
Abstract:
Notre recherche porte sur le risque alimentaire et vise à explorer le comportement du consommateur en situation de crise. Notre modèle s'inspire des modèles d'équilibre, conçus et utilisés dans de nombreux domaines. Nous pouvons résumer notre problématique par la question centrale :" Comment mieux comprendre le comportement du consommateur en situation de risque avéré ? "Nous avons procédé en deux phases. La première partie théorique fait le point des recherches existantes et dresse un cadre conceptuel d'analyse. Puis la deuxième partie empirique est consacrée à l'étude en profondeur des facteurs mis en jeu dans l'analyse de la crise, par le consommateur. Sur le plan méthodologique, nous avons spécifiquement choisi une méthode de simulation expérimentale, et nous avons procédé à une phase qualitative et quantitative. Nous synthétisons finalement les apports de cette recherche et nous présentons les limites de notre travail ainsi que les perspectives de recherche<br>Our work is focused on food risk and particularly the analysis of the consumer behavior in a real risky situation. Our theoretical framework is translated from the models based upon stability, used in many other sciences. Our central question is based on : how to get a better understanding of the consumer behaviour in a risky situation?We have followed two major steps in our work. Firstly, a review of literature gives us the conceptual framework and secondly, an empirical study explore the dimensions involved in the crisis evaluation by the consumer himself. Our methodological plan used the scenario method, and we have both conducted a qualitative and quantitative study. We finally give the results of our work and try to establish the limits and the future possibilities for further research works
APA, Harvard, Vancouver, ISO, and other styles
24

Lavandier, Catherine. "Validation perceptive d'un modèle objectif de caractérisation de la qualité acoustique des salles." Le Mans, 1989. http://cyberdoc.univ-lemans.fr/theses/1989/1989LEMA1006.pdf.

Full text
Abstract:
Afin de valider perceptivement certains critères objectifs utilisés pour caractériser la qualité acoustique des salles, des tests psychoacoustiques, portant sur l'écoute de configurations artificielles pour lesquelles les valeurs des critères étaient maîtrisées, ont été analysées par la méthode multidimensionnelle INDSCAL. Les relations qui lient les facteurs perceptifs et les critères objectifs sont détaillées, permettant ainsi de sélectionner les critères objectifs pertinents. Les facteurs sur lesquels sont perçues les variations de ces différents critères, sont nommés a posteriori. Leurs importances respectives sont comparées en proposant une estimation quantitative des distances perçues pour des variations unitaires des critères objectifs correspondants.
APA, Harvard, Vancouver, ISO, and other styles
25

Bentaleb, Hanan. "La Qualité de service des systèmes : un modèle adapté à l'approche par objet." Toulouse 3, 1998. http://www.theses.fr/1998TOU30151.

Full text
Abstract:
Ces dernieres annees, de nouveaux besoins, particulierement dans le cadre des applications multimedia, sont apparus. L'integration de ces nouvelles exigences en matiere de dynamisme, de temps reel et de repartition a souligne le besoin de definir de nouveaux systemes capables de gerer les contraintes de ces applications. Dans cette these, nous etudions les differentes architectures de systemes d'exploitation developpees pour repondre aux besoins applicatifs et nous utilisons la notion de qualite de service (qos) pour proposer un cadre d'etude general des contraintes de service et s'abstraire d'un type particulier d'applications. Le premier travail realise a consiste a adopter une approche de specification formelle pour modeliser la qos d'une application et apporter un element de clarification de sa semantique. Nous avons ensuite defini des abstractions pour l'expression des contraintes de service applicatives. L'approche par objets a grandement facilite la structuration de ces abstractions dans un modele ou la qos est geree d'une maniere transparente. Des objets de mesure de la qos ont ete introduits et utilises comme outils de base pour la mise en uvre des mecanismes de negociation, de supervision et d'adaptation de la qualite de service des applications. Comme instanciation du modele, nous avons developpe un serveur d'images. Cette experimentation nous a permis de valider et d'illustrer les mecanismes de gestion de la qos.
APA, Harvard, Vancouver, ISO, and other styles
26

Loingeville, Florence. "Modèle linéaire généralisé hiérarchique Gamma-Poisson pour le contrôle de qualité en microbiologie." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10005/document.

Full text
Abstract:
Dans cette thèse, nous proposons une méthode d'analyse de variance pour des données discrètes issues du contrôle de qualité en microbiologie. Nous étudions tout d'abord la méthode d'analyse de variance actuellement utilisée, ses avantages, inconvénients, et limites. Nous proposons une première modélisation du problème par un modèle linéaire à deux facteurs fixes imbriqués. Nous utilisons la méthode d'analyse de déviance pour développer des tests de significativité des facteurs, qui s'avèrent efficaces sur des données d'essais interlaboratoires en microbiologie. Nous présentons ensuite une modélisation à facteurs aléatoires. Le caractère aléatoire des facteurs permet de caractériser la surdispersion des résultats de dénombrement en microbiologie, ce qui constitue l'un des objectifs principaux de ce travail. Le modèle développé correspond à un Modèle Linéaire Généralisé Hiérarchique Gamma-Poisson à trois facteurs aléatoires. Nous proposons alors une méthode d'estimation des effets fixes et aléatoires, ainsi que des paramètres de dispersion associés aux facteurs. Nous présentons des applications pratiques de cette méthode à des données d'essais interlaboratoires en microbiologie, qui prouvent l’ajustement du modèle aux données réelles. Nous proposons également une méthode de test de la significativité des facteurs, ainsi qu'une nouvelle méthode d'évaluation de la performance analytique des laboratoires participants à un essai. Nous présentons enfin une distribution presque-exacte du produit de variables aléatoires indépendantes de loi Gamma Généralisées, permettant d’effectuer des tests de détection de résultats de dénombrement aberrants<br>In this thesis, we propose an analysis of variance method for discrete data from quality control in microbiology. To identify the issues of this work, we start by studying the analysis of variance method currently used in microbiology, its benefits, drawbacks, and limits. We propose a first model to respond the problem, corresponding to a linear model with two nested fixed factors. We use the analyse of deviance method to develop significance tests, that proved to be efficient on data sets of proficiency testings in microbiology. We then introduce a new model involving random factors. The randomness of the factors allow to assess and to caracterize the overdispersion observed in results of counts from proficiency testings in microbiology, that is one of the main objectives of this work. The new model corresponds to a Gamma-Poisson Hierarchical Generalized Linear Model with three random factors. We propose a method based on this model to estimate dispersion parameters, fixed, and random effects. We show practical applications of this method to data sets of proficiency testings in microbiology, that prove the goodness of fit of the model to real data. We also develop significance tests of the random factors from this new model, and a new method to assess the performance of the laboratories taking part in a proficiency testing. We finally introduce a near-exact distribution for the product of independent generalized Gamma random variables, in order to characterize the intensity of the Poisson distribution of the model. This approximation, developped from a factorization of the characteristic function, is very precise and can be used to detect outliers
APA, Harvard, Vancouver, ISO, and other styles
27

Messeghem, Karim. "Contribution à la compréhension de l'adoption d'un modèle d'assurance de la qualité en PME : le cas des industries agroalimentaires." Montpellier 1, 1999. http://www.theses.fr/1999MON10011.

Full text
Abstract:
La promulgation des modeles d'assurance de la qualite de type iso 9000, a la fin des annees 1980, a contribue au developpement de cette methode de gestion de la qualite. Toutes les entreprises sont concernees par cette approche quel que soit leur secteur d'activite mais surtout quelle que soit leur taille. Ainsi, de nombreuses pme s'engagent dans des processus de certification d'entreprise. On peut s'interroger sur les repercussions possibles des modeles d'assurance de la qualite sur leur systeme de gestion. Cette recherche vise a montrer que l'adoption d'un modele d'assurance de la qualite est susceptible de remettre en cause les principales specificites de la pme. Nous avons retenu une approche quantitative destinee a montrer qu'il existe des differences significatives entre les pme selon leur engagement dans un processus de certification. Nous avons conduit des entretiens en face a face, a partir d'un questionnaire ferme, aupres de dirigeants de pme agro-alimentaires independantes. Nous avons privilegie les industries agro♭ alimentaires dans la mesure ou il s'agit d'un secteur ou l'assurance qualite est relativement peu developpee en pme. Le recours aux tris croises et aux analyses multifactorielles nous a permis de montrer que les entreprises engagees dans un processus de certification parviennent a combiner logique manageriale et logique entrepreneuriale. Ces pme que nous avons qualifiees de denaturees presentent des caracteristiques qui ne repondent plus a la definition classique de la pme. Autrement dit, le processus de certification peut conduire a un changement denature independamment de la taille.
APA, Harvard, Vancouver, ISO, and other styles
28

David, François. "Etude de composants micro-coaxiaux à fort facteur de qualité pour applications en bande Q/V." Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0095/document.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent l’étude et la fabrication de composants passifs hyperfréquence possédant un facteur de qualité important sur les bandes Q et V. Pour cela, nous nous sommes orientés vers la fabrication de composants volumiques à air. Des lignes coaxiales à section rectangulaire à air ainsi que des filtres à cavité métalliques à air ont été réalisés. Aussi, ces travaux consistent à définir une méthode de fabrication permettant d’obtenir les composants cités précédemment. Plusieurs techniques de micro-fabrication additives ont ainsi été établies afin de répondre à la problématique<br>This work concerns the study and the fabrication of passive RF components with a high quality factor on Q/V bands. The components were fabricated with an air-filled 3D architecture. Air-filled rectangular micro-coaxial lines and air filled cavity filters were demonstrated. Also, micro-additive fabrication processes were demonstrated for the realization of the 3D air-filled components
APA, Harvard, Vancouver, ISO, and other styles
29

Belabdelouahab, Farid. "Etude expérimentale de la butée discontinue sur modèle réduit." Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0059.

Full text
Abstract:
Certaines techniques de soutènement (paroi berlinoise, rideaux de pieux non jointifs) et de stabilisation de pente utilisent des rideaux non continus qui sollicitent le sol en butée. On présente des résultats d'essais réalisés au Laboratoire de Mécanique des Sols de l’I. N. S. A. De Lyon; le modèle réduit utilisé comporte un ou plusieurs pieux sollicitant le sol en butée. Le programme expérimental consiste à étudier l'influence des principaux paramètres géométriques et mécaniques du problème (le nombre de pieux, leurs dimensions, leur force, et leur écartement, la densité du massif)sur la butée mobilisée; On s'intéresse également au développement de la surface de rupture. Ces résultats sont analysés et comparés avec ceux obtenus dans d'autres conditions : - par aise en butée d'un rideau continu, - cas des pieux isolés. Ils sont enfin confrontés aux règles de calcul proposées par divers auteurs<br>Some soil retaining and stabilisation technicals (Berlinoise walls, walls made of spaced piles] use discontinuous walls. The subject of this work is the study of the mobilization of passive pressure in front of such walls We present results obtained by a modal test. These tests are carried out in the Geotechnical Laboratory at I. N. S. A. Lyon. The model comprises one or many piles which mobilize passive pressure by translation The experimental program consists of studying the influence of the main geometrical and mechanical parameters [ number of piles, their dimensions, shape, spacing and relative density of the soil ] on the mobilized passive pressure area We are also interested in the development of the rupture. These results are analysed and compared with those obtained under other conditions: - passive pressure on a continuous wall, - case of isolated piles. They are confronted with computation rules proposed by different authors
APA, Harvard, Vancouver, ISO, and other styles
30

Mouihate, Abdeslam. "Un modèle d'interactions paracrines et autocrines dans l'antéhypophyse de rat : le facteur de croissance épidermique." Bordeaux 2, 1995. http://www.theses.fr/1995BOR28390.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Hayo-Villeneuve, Sandrine. "Vers un modèle intégrateur des démarches qualité à l’hôpital : l’apport des outils de gestion." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0034/document.

Full text
Abstract:
Les organisations hospitalières sont confrontées à des évolutions constantes : évolution technologique, évolution sociétale des attentes, place de l’usager de plus en plus affirmée, mutations organisationnelles préconisées par les tutelles et un éventail de réformes qui se télescopent parfois. Les établissements de santé sont au coeur des réformes du système de santé et doivent continuellement s’adapter aux changements. La mise en oeuvre des nouvelles politiques de santé soulève la question de l’adaptation des organisations hospitalières : adaptation liée à la mutation de l’environnement, à la multiplication des interactions entre les acteurs, à la prise en compte des réseaux de soins, des pôles d’activités et des processus transverses. Le domaine de la qualité à l’hôpital est également devenu une exigence légale et réglementaire. Depuis la loi hospitalière du 31 juillet 1991 et des ordonnances d’avril 1996 introduisant l’obligation de la mise en oeuvre d’une procédure d’évaluation externe, de nombreuses évolutions réglementaires concernant les démarches de certification des établissements de santé se greffent à contexte organisationnel déjà contraint. L’intégration de la démarche qualité à l’hôpital est renforcée. Dès 2020, les établissements constituant les Groupements Hospitaliers de Territoires seront soumis à une procédure de certification commune. L’articulation de l’offre de soins autour de projets médicaux partagés amplifie les synergies stratégiques et opérationnelles des établissements de santé autour d’une dimension transversale et conjointe de la démarche qualité et gestion des risques. Les évolutions réglementaires qui ont marquées les organisations hospitalières ont ainsi participé à l’implémentation d'outils de gestion à visée rationalisante et la prise en compte de la qualité comme outil de gestion s’est peu à peu développée. Car si la qualité a d’abord été envisagée comme une réduction technique de non-conformités, l’intégration du facteur humain a largement contribué à penser la qualité comme un outil de gestion. De fait, les stratégies d’intégration de la démarche qualité par les outils de gestion dans les organisations hospitalières peuvent être porteuses. En effet, les outils de gestion sont des éléments structurants de l’organisation. Ils participent à sa construction en influant sur les rôles sociaux des acteurs. Nous pensons que l’utilisation des outils de gestion de la qualité participe au déploiement de la démarche qualité. Ainsi, nous avons choisi de déterminer les leviers d’appropriation de la démarche qualité en nous appuyant sur l’étude d’un outil de gestion de la qualité : la fiche de déclaration des événements indésirables. Etudier un outil de gestion de la qualité dans un contexte organisationnel implique l’étude de l’outil lui-même, mais également les déterminants contextuels propres à l’organisation dans laquelle il vit. L’ancrage de l’outil n’occulte en aucune façon son histoire, l’environnement dans lequel il évolue, les intentions des concepteurs ou encore le contexte social et culturel. Ainsi, une prise en compte contextualisée de l’outil peut être un moyen de mesurer le niveau d’intégration de la démarche qualité d’une organisation hospitalière. En effet, les principes d’intégration de la démarche qualité ne sont pas portés par une méthode type qui serait reproduite à l’identique dans n’importe quelle organisation hospitalière, ils sont intégratifs des facteurs de contingence spécifiques à l’organisation et du niveau de maturité organisationnel dans le domaine de la qualité et de la gestion des risques. La première partie de ce travail délimite les concepts de qualité à l’hôpital et d’outils de gestion. La seconde partie fondée sur une approche empirique des outils de gestion de la qualité repose sur l’idée qu’il est possible de proposer un modèle de mesure des facteurs d’intégration de la qualité à l’hôpital à destination des managers hospitaliers<br>Hospital organizations are confronted with constant changes: technological change, societal change in expectations, the increasingly assertive role of the user, organizational changes advocated by guardians and a range of reforms that sometimes telescope. Health care institutions are at the heart of health system reforms and must continually adapt to changes. The implementation of new health policies raises the question of the adaptation of hospitals' organizations: adaptation linked to changes in the environment, increasing interactions between actors, taking into account healthcare networks, Clusters and crosscutting processes. The field of quality in hospital has also become a legal and regulatory requirement. Since the Hospital Act of 31 July 1991 and the Ordinances of April 1996 introducing the obligation to implement an external evaluation procedure, numerous regulatory changes concerning the certification procedures of healthcare establishments are grafted on the context Organizational structure already constrained. The integration of the quality approach into the hospital is strengthened. As early as 2020, the establishments constituting the Territorial Groupings will be subject to a common certification procedure. The articulation of the offer of care around shared medical projects amplifies the strategic and operational synergies of the healthcare institutions around a transversal and joint dimension of the quality and risk management approach. The regulatory changes that marked the hospital organizations have thus participated in the implementation of management tools with rationalizing aim and the taking into account of the quality as management tool has gradually developed. For if quality was first considered as a technical reduction of nonconformities, the integration of the human factor has largely contributed to thinking quality as a management tool. In fact, strategies for integrating the quality approach with management tools in hospital organizations can be beneficial. Indeed, the management tools are structural elements of the organization. They participate in its construction by influencing the social roles of actors. We believe that the use of quality management tools contributes to the deployment of the quality approach. Thus, we chose to determine the levers of appropriation of the quality approach based on the study of a quality management tool: the report card of the adverse events. Studying a quality management tool in an organizational context involves studying the tool itself, but also the contextual determinants specific to the organization in which it lives. The anchoring of the tool does not in any way hide its history, the environment in which it evolves, the intentions of the designers or the social and cultural context. Thus, a contextualized taking into account of the tool can be a means of measuring the level of integration of the quality process of a hospital organization. Indeed, the principles of integration of the quality approach are not borne by a typical method that would be reproduced identically in any hospital organization, they are integrative of the contingency factors specific to the organization and the level Of organizational maturity in the field of quality and risk management. The first part of this work delineates the concepts of quality in the hospital and management tools. The second part, based on an empirical approach to quality management tools, is based on the idea that it is possible to propose a model for measuring the integration factors of quality in hospitals for hospital managers
APA, Harvard, Vancouver, ISO, and other styles
32

Douchamps, Jacques. "Qualité qualifiante et modèle de l'anticipation - réalisation - contrôle : application au circuit hospitalier du médicament." Rouen, 2002. http://www.theses.fr/2002ROUEM003.

Full text
Abstract:
Objectif : élaborer une théorie de la qualité, la théorie de la qualité qualifiante, appicable au circuit hospitalier du médicament (CHM), puis en vérifier le bien-fondé à travers douze applicatifs. Modélisation : le CHM est considéré comme un système général, complexe, ouvert, à haut risque, évolutif, chaotique, autofinalisant et autoorganisant où le médicament est à la fois un flux de matière et un flux d'information. L'amélioration de la qualité s'y déroule sur base d'un algorithme récurrent, le cycle qualifié Anticipation-Réalisation-Contrôle, et ce à tous les niveaux d'organisation. Il exige de chaque processus d'être anticipé, réalisé (exécuté consciemment) puis contrôlé. Chaque acteur doit établir des relations triurnes impliquant les aspects énergétiques, émotionnel, et computationnel. La stratégie des hypercycles transforme alors l'organisation passive en organisé-organisant et une qualité qualifiante en émerge, qui bénéficie autant à celui qui la fait qu'à celui qui la reçoit. Celle-ci qualifie ainsi les six types d'acteurs du CHM :le prestataire, son patient, ses collègues, son établissement, la société, et la nature. Mise en pratique : pour solutionner des situations complexes. Dans la phase d'Anticipation, notre méthodologie permet l'inclusion raisonnée d'un médicament au formulaire thérapeutique et son analyse médico-économique. La phase réalisation étudie la constitution de réseaux fractaux intra- et inter-services et de la relation pharmacien-patient en pharmacie transmurale. Dans la phase de contrôle, un logiciel original de suivi de prescription étudie la pharmacoéconomie des antidépresseurs, la pharmacoépidémiologie des anxiolytiques et des somnifères et la relation entre consommation d'antibiotiques et résistance nosocomiale. Trois applicatifs à long terme portent sur la conception d'une poche de perfusion, la sélection d'une bande de contention et l'optimisation d'ampoules injectables.
APA, Harvard, Vancouver, ISO, and other styles
33

Toure, Fadel. "Indicateur de qualité pour les systèmes orientés objet : vers un modèle unifiant plusieurs métriques." Thèse, Université du Québec à Trois-Rivières, 2007. http://depot-e.uqtr.ca/1529/1/030043133.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Gouny-Doridot, Ludivine. "Rôle du facteur de transcription STOX1 dans la physiopathologie de la prééclampsie : apport d'un modèle cellulaire et d'un modèle murin de transgénèse additive." Phd thesis, Université René Descartes - Paris V, 2013. http://tel.archives-ouvertes.fr/tel-01015874.

Full text
Abstract:
La prééclampsie est une maladie fréquente de la grossesse, caractérisée par l'apparition de novo d'une hypertension et d'une protéinurie à partir de la 20ème semaine d'aménorrhée. Ces symptômes s'aggravent au long de la grossesse, conduisant éventuellement à la mort maternelle en l'absence de prise en charge médicalisée. La thérapeutique définitive l'extraction du placenta, et donc du fœtus, ce qui induit une importante prématurité iatrogène. Les causes restent mal définies, mais il est bien admis que des anomalies au niveau de la mise en place du placenta sont au cœur de sa physiopathologie. Un défaut d'invasion trophoblastique des artères spiralées utérines semble être une constante de la maladie. Des données épidémiologiques démontrent qu'il existe une forte composante génétique dans la prééclampsie, et en 2005, un clonage positionnel dans des familles hollandaises, aboutit à l'identification de STOX1 comme le premier gène lié à cette maladie. STOX1 code un facteur de transcription intervenant dans le contrôle de la prolifération et de l'invasion des trophoblastes. Dans notre laboratoire, l'étude de STOX1 a été initiée par surexpression dans des cellules de choriocarcinome humain (modèle de trophoblastes) suivie d'une analyse transcriptomique. Celle-ci a révélé que les altérations d'expression génique observées suite à la surexpression de STOX1 étaient significativement corrélées à celles trouvées dans des placentas prééclamptiques. La création de souris transgéniques exprimant la version humaine de STOX1 sous le contrôle d'un promoteur ubiquitaire a alors été entreprise. Mes travaux de thèse ont principalement consisté à caractériser le phénotype de ces souris. Nous avons décidé de croiser des mâles transgéniques avec des souris sauvages afin de limiter l'expression du transgène à l'unité fœto-placentaire. Ces souris sauvages développent au cours de leur gestation une hypertension sévère, et une protéinurie. Elles constituent donc un nouveau modèle de prééclampsie. De plus, nous avons observé des anomalies que l'on trouve également chez les patientes : une fibrose rénale, une élévation des taux sériques de facteurs pro-angiogéniques (le récepteur soluble du VEGF et l'endogline soluble). Ces souris ont également des marqueurs d'hypertrophie cardiaque, attestant de l'impact sévère de l'hypertension. Pour mieux comprendre comment STOX1 peut induire ce syndrome, nous avons étudié son impact dans le modèle cellulaire surexprimant STOX1 et nous avons pu montré une altération de la gestion du stress oxydatif et de la fonction mitochondriale. En conclusion, nous avons obtenu et caractérisé un modèle de prééclampsie sévère, le seul existant montrant un phénotype hypertensif très marqué et très précoce. Ce modèle est un outil puissant pour découvrir de nouvelles voies impliquées dans la physiopathologie de la prééclampsie, pour rechercher de potentiels marqueurs diagnostiques précoces, tester des approches thérapeutiques innovantes et explorer les mécanismes responsables des conséquences à long terme de la prééclampsie.
APA, Harvard, Vancouver, ISO, and other styles
35

Strus, Loïc. "Contrôle de qualité optimal d'applications multimédia." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00335812.

Full text
Abstract:
Ce manuscrit présente une méthode de contrôle de qualité de service à grain fin d'applications multimédia. Celle-ci permet le contrôle d'applications dont les actions sont paramétrées par des niveaux de qualité et dont les durées d'exécution ne sont pas connues. Le contrôle consiste en la construction d'un ordonnancement et le choix des niveaux de qualité respectant des propriétés de sûreté et d'optimalité. C'est-à-dire que l'on cherche à maximiser l'utilisation du budget de temps sans pour autant le dépasser tout en ayant un choix de qualité régulier. Le contrôleur utilise une politique de gestion de qualité permettant de choisir pour chaque action l'ordonnancement et le niveau de qualité respectant les contraintes de qualité de service. Nous étendons et améliorons les résultats précédents dans deux directions. La première propose une approche symbolique de la politique de gestion de qualité. Celle-ci utilise un diagramme de vitesses qui est une représentation graphique du comportement de l'application contrôlée. À partir de cette représentation, nous avons proposé une technique de contrôle permettant de relâcher le nombre d'appels au contrôleur tout en respectant les propriétés de sûreté et d'optimalité. Nous avons ensuite proposé une approche stochastique du problème basée sur des fonctions de distribution de probabilités pour les durées d'exécution des actions. Notre méthode donne la possibilité à l'utilisateur de fixer la criticité des contraintes temps-réel. Elle permet aussi de calculer à priori le taux attendu de dépassement des échéances. Ces résultats théoriques ont été appuyés par des expériences réalisées sur un encodeur vidéo s'exécutant sur machine nue.
APA, Harvard, Vancouver, ISO, and other styles
36

Honorine, Romy. "Utilisation du facteur bactérien Rho pour l'étude de la biogénèse et du contrôle qualité des transcrits eucaryotes." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00558795.

Full text
Abstract:
Chez les eucaryotes, la transcription de l'information génétique en ARN messager (ARNm) est un processus complexe nécessitant de multiples modifications de la molécule d'ARN précurseur. D'après le modèle actuel, l'ARN naissant est recouvert de protéines pour former une particule ribonucléoprotéique (mRNP). Ces étapes de maturation et d'assemblage du transcrit, connues sous le nom de biogénèse des mRNPs, sont physiquement et fonctionnellement couplées à la transcription. Elles assurent l'intégrité ainsi que l'export du transcrit vers le cytoplasme pour y être traduit en protéine. La production du transcrit mature est interconnectée à une étape de contrôle qualité afin d'éviter l'export de transcrits aberrants. Pour identifier de nouveaux facteurs de la biogénèse des mRNPs et comprendre le mode de signalisation des transcrits aberrants, nous avons élaboré un crible innovant. Il repose sur la perturbation de l'expression des gènes de Saccharomyces cerevisiae par le facteur bactérien Rho, capable de dissocier des protéines liées à une molécule d'ARN in vitro. L'expression de Rho chez la levure perturbe l'assemblage nucléoprotéique co-transcriptionnel et génère des transcrits aberrants qui sont dégradés par le système de surveillance nucléaire. Cette étude révèle les interactions dynamiques des facteurs avec le complexe transcriptionnel et leurs implications dans le mécanisme de reconnaissance des transcrits aberrants par la machinerie de dégradation. Notre méthodologie ouvre des perspectives intéressantes pour détecter de nouveaux facteurs de la biogénèse des mRNPs et évaluer leurs rôles dans la régulation de l'expression des gènes.
APA, Harvard, Vancouver, ISO, and other styles
37

Palan, Bohuslav. "Conception de microcapteurs pH-ISFET faible bruit et d'inductances intégrées suspendues à fort facteur de qualité Q." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Jguirim, Naira. "Micro-fabrication additive des filtres à fort facteur de qualité pour des applications en bande W/G." Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0031.

Full text
Abstract:
Dans le cadre de ce travail, des filtres passe-bande hyperfréquences ont été développées pour répondre à des spécifications proposées en bandes W et G. Nous avons utilisé la technologie de micro-fabrication additive permettant d’avoir des cavités métalliques à air avec un fort facteur de qualité<br>As part of this work, millimeter band-pass filters were developed to meet the given specifications in W and G bands. We used additive micro-fabrication technology which allowed us to fabricate filters based on metallic cavities with an air-filled 3D architecture and a strong quality factor
APA, Harvard, Vancouver, ISO, and other styles
39

Bounaix, Dominique. "La qualité, facteur de performances socio-économiques : mythe et réalité : contribution à l'étude du développement des méthodes relatives à la qualité dans la gestion des entreprises." Toulouse 1, 1989. http://www.theses.fr/1989TOU10014.

Full text
Abstract:
Cette recherche porte sur l'organisation des ensembles humains et leur dynamique de développement à partir des modèles de gestion relatifs à la qualité. Derrière un consensus de façade et une unité apparente des méthodes, on observe des pratiques différenciées fondées sur la régulation des coûts cachés et de la complexité humaine de l'organisation. L’étude de cas d'entreprises a permis de reconstituer quatre types de comportements, parmi lesquels prédomine la logique sociale et humaine de la qualité<br>The research is concerned with the organization of human groups at work and their development dynamics based on the analysis of management patterns relating to quality. Beneath a surface consensus and an apparent unity in the methods, some differentiated practices can be observed based on the regulation of the unidentified costs and of human complexity of the organization. Individual case studies of a particular firm have enabled to reconstitute four types of behaviors among which prevails the social and human logic of quality
APA, Harvard, Vancouver, ISO, and other styles
40

Hay-Paquin, Lisette. "Élaboration et validation d'un modèle de qualité de vie et de qualité des soins infirmiers auprès de personnes atteintes de déficits cognitifs irréversibles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/NQ32639.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Le, Dref John. "Contribution à la modélisation du perçage assisté par vibration et à l’étude de son impact sur la qualité d’alésage : application aux empilages multi-matériaux." Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/13546/1/le_dref.pdf.

Full text
Abstract:
Le perçage assisté par vibration est un procédé récent et industrialisé, de plus en plus utilisé pour le perçage des métaux et des empilages multi-matériaux. Il consiste en l’ajout d’oscillations au mouvement d’avance constant de l’outil en perçage classique. Ceci permet alors de générer une variation de la hauteur de coupe et de provoquer la fragmentation du copeau. L’objectif de cette thèse est d’apporter des connaissances sur les phénomènes de coupe présents lors du perçage et qui sont influencés par l’utilisation d’une assistance vibratoire. Pour cela, il s’agit d’étudier la cinématique du perçage assisté par vibration, c’est-à-dire les trajectoires des arêtes de coupe, afin de proposer une modélisation des actions mécaniques générées lors du perçage. Les observations de la cinématique réelle en bout d’outil mettent en exergue une différence entre la cinématique théorique et la cinématique réelle. Ces différences sont intégrées dans le modèle cinématique corrigé sur lequel s’appuient les modèles d’effort axial et de moment. Un modèle à comportement local est proposé afin de modéliser l’effort axial généré. Ce modèle est défini à partir de données issues de perçage classique. La seconde partie de l’étude se consacre à l’étude de la qualité du trou dans les multi-matériaux obtenue en perçage assisté par vibration. Dans cette partie sont analysées les bavures dans les métaux, l’état de surface et l’écaillage des matériaux composites. Il est ainsi comparé l’endommagement du trou percé en perçage assisté par vibration et en perçage classique dans les configurations d’essais identiques. Un lien entre les actions mécaniques générées lors de la coupe et les défauts engendrés en perçage assisté par vibration reste à étudier.
APA, Harvard, Vancouver, ISO, and other styles
42

Ould, Sass Mohamed. "Le modèle BGW pour les systèmes temps réel surchargés : Ordonnancement monoprocesseur." Nantes, 2015. https://archive.bu.univ-nantes.fr/pollux/show/show?id=f97b4a19-e66c-4a8b-a74f-b09cf86d6e8c.

Full text
Abstract:
Les systèmes temps-réel embarqués se retrouvent dans des domaines d’application très variés : avionique, automobile, environnement, santé, etc. Ils doivent offrir un nombre croissant de fonctionnalités et fournir un niveau maximal de Qualité de Service (QdS) et ce, malgré des défaillances liées à l’occurrence de fautes ou de surcharges de traitement. Pour ce type de système informatique, la QdS se mesure principalement en termes d’échéances respectées car les programmes sont caractérisés par des dates de fin d’exécution au plus tard. Dans cette thèse, nous considérons une architecture monoprocesseur pour une application temps réel dite ferme. La première contribution tient dans la proposition d’un nouveau modèle de tâche appelé BGW qui permet de spécifier la nature de ses contraintes temporelles. Ce modèle est tiré des deux approches Skip-Over et Deadline Mechanism. La première est dédiée à la gestion des surcharges de traitement par la perte contrôlée de certaines instances de tâches. La seconde est une technique de tolérance aux fautes temporelles basée sur de la redondance logicielle dynamique passive avec deux versions. Dans une seconde partie, nous proposons de nouveaux ordonnanceurs temps réel basés sur EDF (Earliest Deadline First) pour des tâches BGW. Nous montrons comment maximiser la QdS tout en tenant compte des critères d’équité de service. Une étude de performance en termes de QdS et d’overheads conforte nos propositions<br>Real-time embedded systems are found in various application domains. They have to offer an increasing number of functionalities and to provide the highest Quality of Service despite possible failures due to faults or processing overloads. In such systems, programs are characterized by upper bounds on finishing times and the QoS is assessed by the ratio of successful deadlines. In this thesis, we deal with this issue. We focus on a uniprocessor architecture in the framework of a firm real-time application that accepts deadline missing under some specified limits. Tasks are assumed to be periodic. Our first contribution lies in the proposition of a novel model for tasks which is called BGW model. It is drawn from two approaches respectively known as the skip-over model and the Deadline Mechanism. The first one provides timing fault-tolerance through passive dynamic software redundancy with two versions. The second one copes with transient processing overloads by discarding instances of the periodic tasks in a controlled and pre-specified way. We give a feasibility test for this model. In a second part, we describe the behavior of dynamic priority schedulers based on EDF (Earliest Deadline First) for BGW task sets. A performance analysis is reported which is mainly related to QoS evaluation and measurement of overheads (complexity of the scheduler). The following contribution concerns more sophisticated schedulers that permit to enhance the QoS as to improve service balancing
APA, Harvard, Vancouver, ISO, and other styles
43

Leduc, Katy. "Influence du facteur gestationnel leukemia inhibitory factor sur la différenciation cellulaire d'un modèle de trophoblaste humain." Thèse, Université du Québec à Trois-Rivières, 2011. http://depot-e.uqtr.ca/2696/1/030294663.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Abboud, Khodor. "Conception et évaluation d'un modèle adaptatif pour la qualité de service dans les réseaux MPLS." Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00590422.

Full text
Abstract:
L'objectif de ce travail de thèse dans un premier temps est l'évaluation de performances des modèles de routage multi-chemins pour l'ingénierie de trafic et l'équilibrage de charge sur un réseau de type IP/MPLS (MPLS-TE). Nous comparons la capacité de ces modèles à équilibrer la charge du réseau tout en faisant de la différentiation de trafic. Nous les appliquons sur des grandes topologies générées par le générateur automatique des topologies BRITE, qui s'approchent en forme et en complexité du réseau réel. Nous mesurons ainsi l'impact de leur complexité respective et donc la capacité à les déployer sur des réseaux de grande taille (scalabilité). Dans un second temps, l'objectif est de proposer un concept de modélisation générale d'un réseau à commutations par paquets. Ce modèle est établi sur la base de la théorie différentielle de trafic et la théorie des files d'attente, tout en utilisant des approches graphiques. Le but est d'estimer l'état de charge du réseau et de ses composants (routeurs, liens, chemins). Ensuite, en fonction de ça, nous développons des approches de contrôle de congestion et commande sur l'entrée améliorant les techniques de routage adaptatif et l'équilibrage de charge dans les réseaux IP/MPLS
APA, Harvard, Vancouver, ISO, and other styles
45

Korsakissok, Irène. "Changements d'échelle en modélisation de la qualité de l'air et estimation des incertitudes associées." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00596384.

Full text
Abstract:
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. En particulier, les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles, deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. Couplage de modèles L'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée est très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous-maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs passifs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. Réduction d'échelle statistique Une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée "composantes principales ajustées". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain).
APA, Harvard, Vancouver, ISO, and other styles
46

Comtet, Christophe. "Etude du facteur de qualité mécanique des multicouches diélectriques des optiques de VIRGO : influence sur le bruit thermique." Lyon 1, 2008. http://www.theses.fr/2008LYO10202.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Maurice, François. "Un modèle d'évaluation et d'amélioration d'entités logicielles basé sur l'utilisation de métriques." Toulouse 3, 1996. http://www.theses.fr/1996TOU30192.

Full text
Abstract:
L'augmentation de la duree du developpement, de la complexite et de la criticite des taches a automatiser pour la realisation de logiciels a rendu de plus en plus difficile la satisfaction de leur qualite. De ce constat est ne le besoin de mesurer les produits logiciels afin de comprendre comment leurs aspects internes (tels que la taille, le couplage ou encore la complexite) nuisent a leur qualite externe telle que leur fiabilite, leur maintenabilite ou leur productivite, et ce afin de pouvoir prendre les decisions pour les ameliorer. De nombreuses metriques ont ete definies mais un manque de rigueur dans leur definition et leur application n'a pas permis d'obtenir les resultats escomptes dans l'amelioration des logiciels. La definition des metriques manque souvent de precisions sur ce qui est mesure, empechant ainsi leur critique et leur reutilisation de maniere efficace. De plus, leur definition ne s'insere pas dans une demarche coherente prenant en compte un but initial. L'application des metriques, qui se refere a l'utilisation des techniques statistiques aux valeurs fournies par les metriques, est trop souvent bafouee. Les caracteristiques des donnees collectees sont peu souvent prises en compte pour le choix des techniques statistiques impliquant ainsi une interpretation des resultats qui entraine des prises de decision d'amelioration inadequates aux problemes rencontres. Nous presentons une demarche permettant l'evaluation d'attributs internes et externes d'entites logicielles du type produit, processus ou ressource. Cette demarche utilise et renforce le paradigme defini par la methode ami. Ce processus permet, etape par etape, de suivre le deroulement d'une activite de mesurage coherente et pertinente pour l'amelioration des artefacts logiciels. Il comprend quatre etapes principales: la definition du but d'amelioration qui est raffine en sous-buts puis en questions, la specification des metriques permettant de repondre a ces questions et ainsi d'aider a la realisation du but initial, la verification de la specification de chaque metrique et la determination du type d'echelle qu'elles permettent de definir, et enfin leur validation pour verifier leur caractere predictif envers une metrique qui evalue un attribut externe de la qualite. Un lien significatif entre un ensemble de metriques evaluant des attributs internes et une metrique evaluant un attribut externe est une condition necessaire a l'amelioration des logiciels. Cela permet de modifier ou de calibrer les attributs internes d'un logiciel en cours de developpement afin d'ameliorer un aspect de sa qualite externe
APA, Harvard, Vancouver, ISO, and other styles
48

Hamza, Salma. "Une approche pragmatique pour mesurer la qualité des applications à base de composants logiciels." Thesis, Lorient, 2014. http://www.theses.fr/2014LORIS356/document.

Full text
Abstract:
Ces dernières années, de nombreuses entreprises ont introduit la technologie orientée composant dans leurs développements logiciels. Le paradigme composant, qui prône l’assemblage de briques logiciels autonomes et réutilisables, est en effet une proposition intéressante pour diminuer les coûts de développement et de maintenance tout en augmentant la qualité des applications. Dans ce paradigme, comme dans tous les autres, les architectes et les développeurs doivent pouvoir évaluer au plus tôt la qualité de ce qu’ils produisent, en particulier tout au long du processus de conception et de codage. Les métriques sur le code sont des outils indispensables pour ce faire. Elles permettent, dans une certaine mesure, de prédire la qualité « externe » d’un composant ou d’une architecture en cours de codage. Diverses propositions de métriques ont été faites dans la littérature spécifiquement pour le monde composant. Malheureusement, aucune des métriques proposées n’a fait l’objet d’une étude sérieuse quant à leur complétude, leur cohésion et surtout quant à leur aptitude à prédire la qualité externe des artefacts développés. Pire encore, l’absence de prise en charge de ces métriques par les outils d’analyse de code du marché rend impossible leur usage industriel. En l’état, la prédiction de manière quantitative et « a priori » de la qualité de leurs développements est impossible. Le risque est donc important d’une augmentation des coûts consécutive à la découverte tardive de défauts. Dans le cadre de cette thèse, je propose une réponse pragmatique à ce problème. Partant du constat qu’une grande partie des frameworks industriels reposent sur la technologie orientée objet, j’ai étudié la possibilité d’utiliser certaines des métriques de codes "classiques", non propres au monde composant, pour évaluer les applications à base de composants. Parmi les métriques existantes, j’ai identifié un sous-ensemble d’entre elles qui, en s’interprétant et en s’appliquant à certains niveaux de granularité, peuvent potentiellement donner des indications sur le respect par les développeurs et les architectes des grands principes de l’ingénierie logicielle, en particulier sur le couplage et la cohésion. Ces deux principes sont en effet à l’origine même du paradigme composant. Ce sous-ensemble devait être également susceptible de représenter toutes les facettes d’une application orientée composant : vue interne d’un composant, son interface et vue compositionnelle au travers l’architecture. Cette suite de métrique, identifiée à la main, a été ensuite appliquée sur 10 applications OSGi open- source afin de s’assurer, par une étude de leur distribution, qu’elle véhiculait effectivement pour le monde composant une information pertinente. J’ai ensuite construit des modèles prédictifs de propriétés qualité externes partant de ces métriques internes : réutilisation, défaillance, etc. J’ai décidé de construire des modèles qui permettent de prédire l’existence et la fréquence des défauts et les bugs. Pour ce faire, je me suis basée sur des données externes provenant de l’historique des modifications et des bugs d’un panel de 6 gros projets OSGi matures (avec une période de maintenance de plusieurs années). Plusieurs outils statistiques ont été mis en œuvre pour la construction des modèles, notamment l’analyse en composantes principales et la régression logistique multivariée. Cette étude a montré qu’il est possible de prévoir avec ces modèles 80% à 92% de composants fréquemment buggés avec des rappels allant de 89% à 98%, selon le projet évalué. Les modèles destinés à prévoir l’existence d’un défaut sont moins fiables que le premier type de modèle. Ce travail de thèse confirme ainsi l’intérêt « pratique » d’user de métriques communes et bien outillées pour mesurer au plus tôt la qualité des applications dans le monde composant<br>Over the past decade, many companies proceeded with the introduction of component-oriented software technology in their development environments. The component paradigm that promotes the assembly of autonomous and reusable software bricks is indeed an interesting proposal to reduce development costs and maintenance while improving application quality. In this paradigm, as in all others, architects and developers need to evaluate as soon as possible the quality of what they produce, especially along the process of designing and coding. The code metrics are indispensable tools to do this. They provide, to a certain extent, the prediction of the quality of « external » component or architecture being encoded. Several proposals for metrics have been made in the literature especially for the component world. Unfortunately, none of the proposed metrics have been a serious study regarding their completeness, cohesion and especially for their ability to predict the external quality of developed artifacts. Even worse, the lack of support for these metrics with the code analysis tools in the market makes it impossible to be used in the industry. In this state, the prediction in a quantitative way and « a priori » the quality of their developments is impossible. The risk is therefore high for obtaining higher costs as a consequence of the late discovery of defects. In the context of this thesis, I propose a pragmatic solution to the problem. Based on the premise that much of the industrial frameworks are based on object-oriented technology, I have studied the possibility of using some « conventional » code metrics unpopular to component world, to evaluate component-based applications. Indeed, these metrics have the advantage of being well defined, known, equipped and especially to have been the subject of numerous empirical validations analyzing the predictive power for imperatives or objects codes. Among the existing metrics, I identified a subset of them which, by interpreting and applying to specific levels of granularity, can potentially provide guidance on the compliance of developers and architects of large principles of software engineering, particularly on the coupling and cohesion. These two principles are in fact the very source of the component paradigm. This subset has the ability to represent all aspects of a component-oriented application : internal view of a component, its interface and compositional view through architecture. This suite of metrics, identified by hand, was then applied to 10 open-source OSGi applications, in order to ensure, by studying of their distribution, that it effectively conveyed relevant information to the component world. I then built predictive models of external quality properties based on these internal metrics : reusability, failure, etc. The development of such models and the analysis of their power are only able to empirically validate the interest of the proposed metrics. It is also possible to compare the « power » of these models with other models from the literature specific to imperative and/or object world. I decided to build models that predict the existence and frequency of defects and bugs. To do this, I relied on external data from the history of changes and fixes a panel of 6 large mature OSGi projects (with a maintenance period of several years). Several statistical tools were used to build models, including principal component analysis and multivariate logistic regression. This study showed that it is possible to predict with these models 80% to 92% of frequently buggy components with reminders ranging from 89% to 98%, according to the evaluated projects. Models for predicting the existence of a defect are less reliable than the first type of model. This thesis confirms thus the interesting « practice » of using common and well equipped metrics to measure at the earliest application quality in the component world
APA, Harvard, Vancouver, ISO, and other styles
49

Onesto, Cercina. "PAIP2 et ARNm du VEGF : un modèle original de contrôle de l'expression de gènes angiogéniques." Nice, 2005. http://www.theses.fr/2005NICE4049.

Full text
Abstract:
Le VEGF-A est un des régulateurs majeurs de l'angiogenèse. L'ARNm du VEGF étant très labile, la régulation de sa stabilité est une étape clé dans le contrôle de son expression. Nous avons démontré que PAIP2 est un partenaire protéique de la région 3'UTR de l'ARNm du VEGF, une région impliquée dans les phénomènes de stabilité des ARNm. La surexpression de PAIP2 stabilise l'ARNm endogène du VEGF, conduisant alors à une augmentation de VEGF sécrété. De manière inverse, l'invalidation de PAIP2 par interférence ARN affecte les niveaux basaux d'ARNm du VEGF, diminuant de 50% les quantités de VEGF sécrété. De plus, PAIP2 est capable d'interagir avec HuR, une autre protéine stabilisatrice de l'ARNm du VEGF, suggérant une coopération de ces deux protéines. Des expériences de "Gene Array" ont montré que PAIP2 module également l'expression d'autres gènes angiogéniques (interleukine 8, neuropiline 1, récepteur de l'EGF, intégrines α5 et αv et Id3). Ainsi, l'impact de PAIP2 sur la néovascularisation et la croissance tumorales a été étudié par invalidation de son expression in vivo par interférence ARN dans des essais de tumorigenèse. L'administration systémique de siRNA chez la souris s'étant révélée inefficace, nous avons développé des vecteurs lentiviraux permettant d'inhiber l'expression de PAIP2 in vivo. Enfin, une étude rétrospective sur des carcinomes ORL humains a montré une forte corrélation entre l'expression de PAIP2 et celle du VEGF, suggérant que PAIP2 contrôle l'expression du VEGF également au sein de tumeurs humaines. Ainsi, le rôle clé de PAIP2 en tant que modulateur de l'angiogenèse pourrait faire de lui une cible potentielle dans des thérapies anti-angiogéniques<br>The VEGF-A is one of the most important regulators of angiogenesis. Thus, studying mechanisms governing its expression appears to be crucial to understanding physiological and pathological processes involved in angiogenesis. VEGF expression is tightly regulated, particularly at the level of its mRNA stability, which is essentially mediated through the 3' untranslated region (3'UTR) of the VEGF mRNA. By performing screening experiments, we identified PAIP2 as a protein partner of the VEGF mRNA 3'UTR. PAIP2 overexpression stabilizes endogenous VEGF mRNA, leading to an increase in VEGF secretion. Conversely, PAIP2 silencing by RNA interference impairs the VEGF mRNA basal level, inducing a 50% decrease in the level of secreted VEGF. Moreover, PAIP2 can interact with HuR, another VEGF mRNA-stabilizing protein, suggesting cooperation of both proteins in VEGF mRNA stabilization. "Gene Array" experiments demonstrated that PAIP2 also regulates the expression of other angiogenic genes, such as those encoding interleukin 8, neuropilin 1, EGF receptor, α5 and αv integrins and Id3. Hence, we analyzed the role of PAIP2 in neovascularization and tumor growth by silencing PAIP2 expression in vivo using RNA interference. As systemic administration of siRNA to mice proved to be ineffective, we developed lentiviral vectors that allowed PAIP2 silencing in vivo. Finally, a retrospective study into human head and neck carcinomas showed a strong correlation between PAIP2 and VEGF expression, suggesting that PAIP2 also controls VEGF expression in human tumors. Thus, due to its crucial role in regulating angiogenesis, PAIP2 may be used as a potential target in anti-angiogenic therapies
APA, Harvard, Vancouver, ISO, and other styles
50

Depigny, Sylvain. "Le modèle PAYSAGRIExpérimentation de la sensibilité au paysage des agriculteurs comme facteur des évolutions du paysage rural." Phd thesis, AgroParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00203110.

Full text
Abstract:
Le regain d'intérêt de la société pour les paysages ruraux implique une meilleure connaissance des pratiques paysagères des agriculteurs. Le modèle PAYSAGRI propose une représentation originale des évolutions d'un paysage rural sous l'effet des activités agricoles : il<br />suggère l'hypothèse d'une sensibilité au paysage de l'agriculteur comme facteur de l'entretien des couverts végétaux des surfaces agricoles.<br /><br />La parcelle agricole, unité élémentaire choisie du paysage, est définie par un État Fonctionnel Physionomique (EFP), qui renseigne l'agriculteur sur ses potentialités fourragères et paysagères. Chaque système de production agricole est à la fois associé à un objectif de<br />production et à une finalité paysagère, dictée par la sensibilité au paysage de l'agriculteur. Les pratiques de production courante, considérées optimales, modifient les EFP du parcellaire. Chaque année, les pratiques d'entretien permettent de corriger les physionomies des parcelles agricoles inadaptées aux attentes paysagères de l'agriculteur ; elles initient également une modification pluriannuelle de la conduite du système de production agricole, afin de répondre plus justement aux objectifs fixés.<br /><br />Les simulations réalisées testent l'impact paysager de différentes populations d'agriculteurs sur un territoire virtuel comportant vingt exploitations agricoles. Chaque population représente une proportion donnée des deux types d'agriculteurs, respectivement deux sensibilités au paysage opposées. Les différences significatives observées soulignent la pertinence de considérer la<br />sensibilité au paysage des agriculteurs comme un facteur important de la modification des paysages ruraux.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography