Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Qualité technique de l'ERP.

Thèses sur le sujet « Qualité technique de l'ERP »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Qualité technique de l'ERP ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Amzil, Aimad. « Place des ERP dans le suivi de la performance des filiales par la maison-mère ». Thesis, Besançon, 2016. http://www.theses.fr/2016BESA0005/document.

Texte intégral
Résumé :
Nous étudions le rôle du progiciel de gestion intégré (l’ERP), comme outil de gestion des firmes multinationales, dans le suivi de la performance de la filiale par le siège. Nous avons opté pour un raisonnement hypothético-déductif exploitant les constats théoriques pour sortir des hypothèses que nous avons testées auprès de filiales installées au Maroc et dotées de solutions ERP. Nous avons observé les apports des ERP pour le suivi des types de performances des filiales dans le cadre d’une posture positiviste. Afin de mieux contextualiser et opérationnaliser les concepts de notre étude, nous nous sommes basés sur la complémentarité des approches qualitative/quantitative. Les résultats qualitatifs, générés de six entretiens semi-directifs auprès de responsables des filiales, nous ont permis de confirmer les items composant le questionnaire d’enquête, que nous avons soumis à 104 filiales, dans le cadre d’une étude quantitative. Bien que les filiales peuvent bénéficier d’une autonomie de gestion, les sièges appliquent leur pouvoir et imposent leur vision stratégique en intervenant dans l’exploitation de l’ERP. L’ERP agit sur la gestion de la relation siège-filiale en unifiant les données, en fluidifiant la coordination et la collaboration, en facilitant le contrôle du budget et le suivi des objectifs. Gain de temps, facilité d’utilisation, traçabilité, disponibilité et échange facile de données sont des qualités de l’ERP mises en avant. La qualité technique de l’ERP n’est pas totalement exploitée, vu l’adaptation difficile aux fonctionnalités de l’outil. Pour autant, afin de suivre la performance de leurs filiales, les sièges utilisent de manière assez importante les indicateurs financiers provenant de leur ERP pour le reporting concernant les fonctions vente, gestion des stocks et achat. En revanche, le suivi de la performance non financière est assez peu présent
This study seeks to shed the light on the role of Enterprise Resource Planning (ERP) as a management tool adopted by multinational corporations in their monitoring of the headquarters/ subsidiary performance. We have opted for a deductive approach, focusing on multinational corporations whose subsidiaries are based in Morocco and which are endowed with the ERP tool. To meet this end, we have carried out both a qualitative and a quantitative study. Qualitatively, the six semi directive interviews conducted with the subsidiaries management fit in harmoniously with the items that figure in our questionnaire, submitted to 104 subsidiaries in the framework of a quantitative study. We have found out that even if subsidiaries benefit from autonomy as far as management is concerned, the headquarters still impose the strategic vision and intervene at how ERP must be implemented. Indeed, ERP acts positively on the headquarters/subsidiary relationship by rendering data even, making coordination fluid and facilitating budget control and goals follow- up. Other merits that the ERP tool offers include: time saving, ease of use, tracking, availability and easy data exchange. Nevertheless, ERP has not been fully utilized due to the difficulty of matching its features. Basically, head offices make use of ERP in evaluating financial performance, namely reporting sales and inventory management. Otherwise, it remains less operational
Styles APA, Harvard, Vancouver, ISO, etc.
2

Teixeira, da Silva Luciane. « La qualité : (1950-2001) essai d'analyse du discours : les enjeux terminologiques de l'adhésion à la "qualité" en France ». Paris 13, 2006. http://www.theses.fr/2006PA131004.

Texte intégral
Résumé :
Depuis un demi-siècle, les entreprises du monde entier adhèrent de façon croissante aux méthodes et pratiques de la " Qualité ". Selon le témoignage des spécialistes et de certains sociologues le sens des mots de la Qualité a provoqué en France des erreurs et incompréhensions, dues à leur importation de la pratique japonaise et américaine. Nous proposons de mener une réflexion linguistique à partir du sens des mots colloqués au mot " Qualité " entre 1950 et 2000. En décloisonnant une archive récente, nous voulons mettre en évidence la polysémie de ce terme. Pour y parvenir nous nous appuyons sur les fondements théoriques et méthodologiques de l'Analyse du Discours au Brésil et sur les instruments légués par les travaux du laboratoire de lexicométrie de St Cloud, en particulier le logiciel LEXICO. Nous avons traité grâces à ces méthodes, un corpus important, même s'il ne s'agit pas de " grand corpus " au sens habituel en AD. Nos conclusions portent sur l'impossibilité de donner à " Qualité " un sens technique non contaminé par le sens en langage ordinaire
For on half-century, and all over the word companies have adhered more and more to the methods and practice of " Quality ". The latter can however be summarized in terms of aptitude to satisfy the user's need, definition official of AFNOR (French Association of Standardisation). According to the testimony of the specialists and certain sociologists, the translations of the vocabulary of “Quality” caused in France errors and incomprehension. This is the consequence of the importation of the Japanese and American, known practice like “Total Quality”. We carried out a descriptive reading about the directions of the vocabulary symposium with the word “Quality” between 1950 and 2000. Work on great corpus. We are based on the theoretical and methodological principles discourse analysis. This relatively recent discipline within sciences of the language is located at the crossroads of other disciplines. Considering the great proliferation of the literature about “Quality”, our analysis can not be exhaustive
Styles APA, Harvard, Vancouver, ISO, etc.
3

Seck, Mamadou Amadou. « Le compostage des coques d'arachide : Une technique permettant d'améliorer la qualité des sols saheliens ». Nancy 1, 1987. http://www.theses.fr/1987NAN10035.

Texte intégral
Résumé :
L'effet du compostage selon différentes techniques a été vérifié par des analyses physiques et chimiques, mais également en suivant la germination et la croissance de plantes locales (tomate, navet, oseille de Guinée, Gombo) en présence du substrat obtenu. Ces expériences ont permis de prouver que le compostage en Andins permettait d'obtenir les résultats les plus satisfaisants. Ces travaux ont été complétés par des études concernant l'origine des éléments toxiques (les substances hydrosolubles étant particulièrement inhibitrices) et par celles des caractéristiques hydriques et physiques du compost
Styles APA, Harvard, Vancouver, ISO, etc.
4

Essa, Reem. « Contribution à l'intégration des incertitudes dans l'évaluation de la qualité environnementale des bâtiments ». Marne-la-Vallée, 2007. http://www.theses.fr/2007MARN0336.

Texte intégral
Résumé :
Le secteur du bâtiment constitue une cible importante dans le développement durable. Face à la pression environnementale grandissante, diverses méthodes d’évaluation concernant les bâtiments ont ainsi vu le jour. La démarche HQE® est l’une des approches proposées en France. Malgré le fait que cette démarche est récente, il est déjà possible de décrire quelques faiblesses et forces grâce au retour d’expérience. Bien évidemment, le fait de donner un contenu concret aux 14 cibles est très utile. Néanmoins, du point de vue mathématique, le besoin de prendre les incertitudes en considération est également important. L'inexactitude et la subjectivité ne peuvent pas être ignorées à long terme parce que tous les projets sont soumis à des incertitudes qui peuvent être importantes et qui peuvent décrédibiliser l’évaluation. La méthode d’évaluation de la qualité environnementale des bâtiments « NF bâtiments tertiaires- démarche HQE® » constitue le cadre pour notre recherche. L’enjeu était d’améliorer la crédibilité de l’évaluation. Nous donc dû avant tout identifier et formaliser les incertitudes liées à cette évaluation. La théorie des possibilités a alors permis de proposer différents outils en fonction de la nature et du nombre de paramètres. Grâce à ces outils, on a pu associer un degré de vérité à l’évaluation de chaque sous-cible. Ce degré de vérité permet aux acteurs concernés de prendre des décisions sans ignorer les imprécisions des paramètres ni les incertitudes sur les connaissances concernant le bâtiment. Il peut également les inciter à améliorer la qualité des données lorsque le degré de vérité est trop faible. La démarche proposée a été utilisée pour les données d’une construction certifiée « NF bâtiments tertiaires- démarche HQE® » : le lycée professionnel de Blanquefort
The sector of the building constitutes an important target in the sustainability. Faced with growing environmental pressure, the methods of green building assessment were created. The initiative HQE® is one of the approaches proposed in France. In spite of the fact that this initiative is very recent, some weaknesses and strengths are already associated with it. Naturally, the fact of giving the concrete contents to the 14 targets is very useful. However, from the mathematical point of view, considering the uncertainties of parameters is also important. The inaccuracy and the subjectivity cannot be ignored over the long term because the whole projects are subjected to at least a certain degree of uncertainty. The French method to assess green buildings “NF bâtiments tertiaires- démarche HQE®” constitutes the framework of our research. The challenge was to improve the credibility of the evaluation. We thus had to above all identify and formalize the uncertainties linked to this evaluation. The possibility theory then allowed proposing various tools according to the nature and to the number of parameters. With the help of these tools, we were able to associate one degree of the truth to the evaluation of every sub-target. This degree allows the actors concerned to make decisions without ignoring the inaccuracies of the parameters or the uncertainties on the knowledge concerning the building. It can also incite them to improve the quality of the data when the degree of the truth is too weak. The proposed method was used for the data of a certified construction “NF bâtiments tertiaires- démarche HQE®”: the professional secondary school of Blanquefort
Styles APA, Harvard, Vancouver, ISO, etc.
5

Ferrer, Michel. « La responsabilité des sociétés de classification ». Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX32086.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Guiavarch, Alain. « Etude de l'amélioration de la qualité environnementale du bâtiment par intégration de composants solaires ». Cergy-Pontoise, 2003. http://www.theses.fr/2003CERG0190.

Texte intégral
Résumé :
L'objectif de la thèse est de développer un modèle de connaissance qui permette d'évaluer l'amélioration de la qualité environnementale d'un bâtiment par l'intégration de composants solaires. La méthodologie comporte trois étapes : Le calcul de la productivité des composants solaires intégrés au bâtiment ; le calcul de l'énergie consommée dans le bâtiment. Le modèle thermique de bâtiment, ainsi que la manière dont sont couplés les différents modèles, sont exposés; l'évaluation des indicateurs environnementaux par l'analyse de cycle de vie. Des données d'inventaire de cycle de vie de systèmes photovoltai͏̈ques, ainsi que de chauffes eau solaires, ont été collectés, et ces inventaires sont ensuite intégrés dans la base de données d'analyse de cycle de vie du bâtiment. A titre d'illustration, l'ensemble logiciel a été appliqué à différents cas, et l'analyse de cycle de vie a été effectuée pour chacune des configurations
The aim of the study is to develop a model, which helps to assess the improvement of the environmental quality of buildings by the integration of solar components. The method was developed according to three steps : prediction of the productivity of building integrated solar components. The models of the three basic solar systems are presented ; prediction of the energy consumption in the building. The thermal model of the building, and the coupling between the building and the solar component is explained; environmental indicators assessment by life cycle analysis. Life cycle inventory databases of photovoltaic systems and solar water systems are collected, and these inventories are then integrated in the life cycle analysis database of the building. The whole package has been applied on several case studies, and a life cycle analysis was performed on each case
Styles APA, Harvard, Vancouver, ISO, etc.
7

Savina, Marie-Dominique. « Marché de la formation et qualité : le cas de l'enseignement professionnel et technique privé au Bénin ». Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50374-1998-231.pdf.

Texte intégral
Résumé :
L'application des plans d'ajustement structurel (P. A. S. ) en Afrique subsaharienne s'est accompagnée d'une remise en cause des prestations sociales publiques dans le secteur éducatif qui reposent traditionnellement sur une forte présence des pouvoirs publics selon un modèle d'intervention étatique hérité de la colonisation. De telles mesures se traduisent à l'heure actuelle par un double mouvement : d'une part la recomposition du rôle de l'état, à travers un recentrage vers les secteurs prioritaires (éducation primaire) ; d'autre part, l'entrée dans un processus concurrentiel qui se fonde sur l'idée d'un marché plus efficace que le secteur public. L'objectif de ce travail consiste donc à apprécier l'efficacité du marché dans la satisfaction d'un objectif de qualité, dans la perspective particulière de l'enseignement technique et professionnel. Si notre analyse s'intègre dans la problématique plus générale des relations état/marché appliquées à la gestion de l'offre de formation, elle la dépasse en soulignant que les deux modes de gestion font face aux mêmes contraintes informationnelles et de révélation de la demande. L'accent est mis sur ces limites plus que sur la dichotomie traditionnelle état/marché.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Richard, Fabienne. « La césarienne de qualité au Burkina Faso : comment penser et agir au delà de l'acte technique ». Doctoral thesis, Universite Libre de Bruxelles, 2012. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209716.

Texte intégral
Résumé :
La césarienne est une intervention obstétricale majeure qui peut sauver la vie de la mère et de l’enfant. En Afrique sub-saharienne, il persiste une grande inégalité d’accès à la césarienne et une grande variation des pratiques autour des indications d’intervention. D’un côté, des barrières financières, géographiques, culturelles privent des femmes d’une intervention qui peut sauver leur vie. De l’autre, la pratique grandissante de césariennes sans indication médicale, dans un contexte de mauvaise qualité de soins, entraine une sur-morbidité et mortalité iatrogènes et évitables.

L’objectif de notre thèse est de contribuer à une meilleure connaissance des déterminants d’une césarienne de qualité et de montrer comment en situation réelle (cas d’un district urbain au Burkina Faso) on peut agir sur ces déterminants pour améliorer la qualité des césariennes.

Dans le cadre d’un projet multidisciplinaire (santé publique, mobilisation politique et sociale, anthropologie) d’Amélioration de la QUalité et de l’Accès aux Soins Obstétricaux d’Urgence - le projet AQUASOU (2003-2006) - nous avons pu mettre en œuvre des activités visant à améliorer l’accès à une césarienne de qualité dans le district du Secteur 30) à Ouagadougou, Burkina Faso. Nous avons mené une étude Avant-Après et utilisé des méthodes d’évaluation mixtes quantitatives et qualitatives pour comprendre dans quelle mesure et comment ce type d’approche globale améliore la qualité de la césarienne. Nous avons utilisé le cadre d’analyse de Dujardin et Delvaux (1998) qui présente les différents déterminants de la césarienne pour organiser et structurer nos résultats. Cette expérience s’étant déroulée dans le cadre d’un projet pilote nous avons également évalué le degré de pérennité du projet AQUASOU quatre ans après sa clôture officielle et analysé sa diffusion au niveau région et national.

Le cadre d’analyse de la césarienne de qualité avec ses quatre piliers (Accès, Diagnostic, Procédure, Soins postopératoires) a permis d’aller au-delà de la simple évaluation de la qualité technique de l’acte césarienne. Il a structuré l’analyse des différentes barrières à l’accès à la césarienne comme par exemple l’acceptabilité des services par la population et le coût de la prise en charge.

L’analyse des discours des femmes césarisées a mis en lumière le sentiment de culpabilité des femmes d’avoir eu une césarienne - ne pas avoir été « une bonne mère » capable d’accoucher normalement. Les questionnements sur la récurrence de la césarienne pour les prochaines grossesses, les dépenses élevées à la charge du ménage, la fatigue physique et les complications médicales possibles après l’opération mettent la femme dans une situation de vulnérabilités plurielles au sein de son couple et de sa famille.

L’évaluation du système de partage des coûts pour les urgences obstétricales mis en place en 2005 dans le district du Secteur 30 a montré qu’il était possible de mobiliser les collectivités locales de la ville et des communes rurales pour la santé des femmes. La levée des barrières financières a pu bénéficier à la fois aux femmes du milieu urbain et rural mais l’écart d’utilisation des services entre le milieu de résidence n’a pas été comblé et cela confirme l’importance des barrières géographiques (distance, route impraticable pendant la saison des pluies, manque de moyen de transport) et socioculturelles.

L’étude sur le rôle des audits cliniques ou revues de cas dans l’amélioration de la qualité des soins a montré que les soignants avaient une bonne connaissance du but de l'audit et qu’ils classaient l'audit comme le premier facteur de changement dans leur pratique, comparé aux staffs matinaux, aux formations et aux guides cliniques. Cependant, l’institutionnalisation des audits se révèle difficile dans un contexte de manque de ressources qui affecte les conditions de travail et dans un environnement peu favorable à la remise en question de sa pratique professionnelle.

L’évaluation de la pérennité du projet pilote quatre ans après la fin du soutien financier et technique montre que les bénéfices pour la population sont toujours là en terme d’accessibilité à la césarienne :coûts directs pour les ménages de 5000 FCFA (US $ 9.8), qualité des soins maintenue avec une diminution de la mortalité périnatale précoce pour les accouchements par césarienne de 3,6% en 2004 à 1,8% en 2008.

\
Doctorat en Sciences de la santé publique
info:eu-repo/semantics/nonPublished

Styles APA, Harvard, Vancouver, ISO, etc.
9

Jorat, Magali. « La traçabilité dans le domaine alimentaire et sanitaire : étude du devenir juridique d'une norme technique ». Grenoble 2, 2006. http://www.theses.fr/2006GRE21041.

Texte intégral
Résumé :
Norme technique, la traçabilité a fait l'objet d'appropriations, dans le domaine alimentaire et sanitaire, par des acteurs privés et institutionnels lui conférant, ce faisant, une juridicité. Ce passage progressif d'un système normatif à un autre est lié à un contexte de crises alimentaire et sanitaire dans lequel la normalisation a montré ses limites. La juridicisation de la traçabilité, qui n'est pas sans rapport avec tout ce qui se joue autour du principe de précaution, présente des enjeux dans un domaine lié au facteur risque et aux mutations des exigences de sécurité dans et par le droit. Ce dernier est devenu un moyen privilégié de gestion des risques qui ne peut se limiter au seul cadre national; les espaces communautaires et internationaux sont aussi concernés, eu égard à l'imbrication de la traçabilité - et de la problématique de sécurité alimentaire et sanitaire - avec le principe de libre circulation des marchandises. Malgré l'intérêt certain de la nouvelle norme juridique dans le cadre de la gestion des risques, son appropriation par le juge laisse supposer que le droit ne se saisit pas aussi facilement d'une norme technique. Cet acteur institutionnel se réfère à ce nouveau concept de manière modérée, alors que le contentieux complexe des risques et la technicisation du droit encourageaient une appropriation pleine et entière. La traçabilité ne bénéficierait ainsi que d'une juridicité encore imparfaite en matière alimentaire et sanitaire
As a technical standard, traceability in food and health field has been appropriate by private and institutional actors imparting it, thus, a legal meaning. This progressive way from a normative system to another has been connected to the food and health crisis context in which standardization has shown its limits. On the same way, the legal aspect of traceability has connection with the precautionary principle and presents some issues in a field linked to the risk factor and to the transformation of safety expectations in and by the law. The latter has become a privileged way of risks management, which cannot be limited to a domestic scope ; European and international areas are also concerned due to the fact that traceability - and the question of food and health safety – are interlinked with the free movement of goods. Despite the interest of the new legal norm in the risks management scope, its appropriation by the judge shows that the law has difficulties to take up a technical standard. This institutional actor is referring to this new concept with moderation though the litigation complexity of risks and the increasing technicality of law encouraged a whole appropriation. Therefore, traceability benefits from an imperfect increasing legal meaning in food and health field
Styles APA, Harvard, Vancouver, ISO, etc.
10

Huang, Fan. « Allocation des ressources fondée sur la qualité du canal pour la voie descendante des systèmes LTE ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS250/document.

Texte intégral
Résumé :
La recherche effectuée dans cette thèse a pour cadre les réseaux radio privés dédiés aux forces de sécurité civile. En effet, doté actuellement d’un service bande étroite, ils doivent évoluer pour faire face à de nouveaux besoins comme la vidéo ou le multimédia. L’objectif est donc d’adapter la technologie LTE aux contraintes et propriétés de ces réseaux particulier. Ainsi, le nombre d’utilisateurs est limité mais le service doit toujours être disponible et des priorités peuvent être mises en œuvre.Dans ce contexte, l’allocation des ressources de communication est un problème important avec des prérequis différents des réseaux d’opérateurs. Notre conception d’algorithmes d’allocation a donc été menée avec deux objectifs principaux : maximiser l'efficacité du spectre et servir équitablement les utilisateurs au lieu de maximiser le débit global du réseau.Cette thèse propose des nouvelles stratégies de l’allocation des blocs de ressources (RB) dans les systèmes LTE sur le lien descendant. Au contraire des algorithmes classiques d'allocation des ressources qui se basent sur la capacité de RB déjà estimée, nos stratégies d’allocation des RB cherchent à améliorer le débit utilisateur, en utilisant la coopération à base de Beamforming et les modèles de la théorie des jeux.1. L’interférence inter-cellulaire est le principal problème des systèmes OFDMA. Grâce aux antennes MIMO (Multiple-Input-Multiple-Output), la technique de Beamforming améliore le signal reçu afin d'augmenter le SINR (Signal-to-Interference-plus-Noise-Ratio), mais le signal amélioré peut également influencer l’interférence inter-cellulaire dans les cellules voisines. Dans les méthodes traditionnelles, le contrôleur alloue les RBs aux UEs (User Equipement) en fonction de la capacité des RB et d'autres paramètres, le système applique alors la technique de Beamforming aux équipements utilisateurs choisis. Après la formation des faisceaux, la capacité des RB varie mais l'ordonnanceur conserve la même allocation. Au contraire, notre système alloue les RBs et choisit les vecteurs de Beamforming conjointement pour améliorer les performances de la technique de Beamforming. Il accroît le débit moyen en augmentant la capacité moyenne du RB. Comme plusieurs paramètres sont pris en compte, la complexité augmente exponentiellement aussi. Dans cette thèse, nous avons développé une méthode itérative pour réduire la complexité. Notamment, elle améliore de plus de 10% le débit des utilisateurs en bord de la cellule.2. Contrairement aux performances des algorithmes qui maximisent le débit global du réseau, les approches d’allocation de ressources à base de théorie des jeux maximisent la fonction d'utilité des UE du point de vue économique. Si le modèle a une solution NBS (Nash Bargaining Solution) il offre une solution optimale de Pareto de la fonction d'utilité. L’allocation traditionnelle est d'optimiser l'allocation de sous-porteuses à chaque intervalle de temps, mais dans le système OFDMA, les sous-porteuses sont formées de RBs dans le temps. Nous proposons une approche RB NBS, qui est plus efficace que les schémas existants. Nous analysons les canaux de fast-fading et les comparons sans l'influence de l’atténuation. En raison de la grande atténuation de signal en bordure de la cellule, l’utilisateur a toujours des RB de plus faible capacité que celui au centre de la cellule. Notre idée est d'ajouter un facteur de compensation pour combattre l'influence de la perte de propagation. Les facteurs de compensation sont soigneusement choisis afin de maximiser la fonction NBS. Cependant, le calcul de ces facteurs a une grande complexité et nous développons quatre solutions approchées qui donnent les mêmes performances avec une bonne précision. L'évaluation des performances de notre approche confirme que notre méthode et ses solutions approchées sont capables de partager équitablement les ressources sur toute la cellule
This research takes place in the context of Private Mobile Radio networks evolution which aims at designing a new LTE based PMR technology dedicated to public security services. As the frequency bands dedicated to this service is scarce and the need of public safety forces is different, we have revisited the Resource Allocation problem in this thesis with two main objectives: designing new allocation algorithms which outperform the spectrum efficiency and serving fairly the users instead of maximizing the global network throughput.This thesis proposes new Resource Block (RB) allocation strategies in LTE downlink systems. Instead of the well-known resource allocation algorithms, which work on the condition that the RB capacity is already estimated, our RB allocation schemes can improve the potential of the channel capacity, using Beamforming cooperation and game-theoretical problems1. With the MIMO (Multiple-Input-Multiple-output) antennas, the Beamforming technique improves the received signal in order to increase the SINR (Signal-to-Interference-plus-Noise-Ratio), but the improved signal may also influence the inter-cell interference in the neighbouring cells. As inter-cell interference is the main interference in the OFDMA system, a smart scheduling can choose UEs (User Equipment) in adjacent cells to control interference increment caused by Beamforming.In traditional methods, the scheduler allocates RBs to UEs depending on the RB capacities and other parameters, the system then applies the Beamforming technique to these chosen UEs. After the Beamforming, the RB capacity varies but the scheduler keeps the same allocation.Our scheme allocates the RBs and chooses Beamforming vectors at the same time to enhance the performance of the Beamforming technique. It increases the average throughput by increasing the RB’s average capacity. Because more parameters are taken into account, the complexity also increases exponentially. In the thesis we find an iterative method to reduce the complexity. From the simulations, our iterative method also has good performance and improves more than 10% of throughput on the cell edge.2. In contrast to the performance first algorithms, game theoretic allocation schemes maximize the UEs’ utility function from the economical point of view. The NBS (Nash Bargaining Solution) offers a Pareto optimal solution for the utility function.The traditional NBS allocation in an OFDMA system is to optimize the subcarrier allocation at each time slot, but in the OFDMA system, the subcarriers are composed of Resource Blocks (RB) in time series. We propose an RB NBS approach, which is more efficient than the existing subcarrier NBS allocation scheme.We analyze the fast-fading channels and compare them without the path-loss influence. Because of the great path-loss in cell edge, the edge UE always has lower RB capacity than the cell center UE. Our idea is to bring in a compensating factor to overcome this path-loss influence, and the compensating factors are carefully chosen to maximize the NBS function. However, the computation of these factors has a high complexity and we develop four approximated solutions which give same performance and accuracy. The performance evaluation confirms that our method and its approximated solutions are able to spread resources fairly over the entire cell
Styles APA, Harvard, Vancouver, ISO, etc.
11

Hassan, Alaa. « Proposition et développement d’une approche pour la maîtrise conjointe qualité/coût lors de la conception et de l’industrialisation du produit ». Paris, ENSAM, 2010. http://www.theses.fr/2010ENAM0009.

Texte intégral
Résumé :
Le besoin de compétitivité impose aujourd'hui de concevoir plus rapidement, mieux et moins cher que les concurrents. Dans ce contexte, la prise en compte de l’ensemble des contraintes du produit dépends du retour des indicateurs de performance (coût, risque, qualité, délai,…). Il est donc important de bien évaluer ces indicateurs afin de retourner des informations robustes et cohérentes qui permettent de prendre une bonne décision pour piloter le cycle de développement du produit de sort qu'on obtient un meilleur rapport qualité/coût. L’interopérabilité des approches QFD, FMEA et KCs a été étudiée afin de les exploiter dans un seul cadre de maîtrise de la qualité pour assurer l’homogénéité et la cohérence des indicateurs de la qualité. Le coût a été pris en compte en proposant l’approche CbFMEA, basée sur FMEA classique, qui permet d’estimer le coût de non-qualité afin d’évaluer la gravité financière des défaillances du produit. Ce coût a été ajouté au coût de fabrication du produit estimé par la méthode ABC. L’approche du coût (CbFMEA/ABC) a été couplée à l’approche de la qualité (QFD/FMEA/KCs) résultant une approche conjointe qualité/coût illustrée par un diagramme d’activités. Un modèle de données de l’approche conjointe qualité/coût a été proposé est une maquette informatique a été développée afin de valider les concepts et le modèle proposés. Une application de cette approche a été illustrée dans la phase de pré-gamme d’usinage via un cas d’études. Cette application est nommée QCCPP, elle fournit des indicateurs de capabilité, de risques et du coût. L’objectif est l’aide à la décision lors du choix multicritères des ressources d’usinage pour l’amélioration conjointe de rapport qualité/coût du produit
The need for competitiveness requires today to design faster, better and cheaper than competitors. In this context, taking into account the product constraints depends on the return of performance indicators (cost, risk, quality, time. . . ). Therefore, it is important to evaluate in detail these indicators ta return robust and coherent information. This information allows making a good decision to pilot the product development cycle in order to obtain a better quality/cost ratio. The interoperability of the approaches QFD, FMEA and KCs was studied to exploit them in a single framework of quality management ta ensure homogeneity and coherence of the quality indicators. Cast was taken into account in proposing the CbFMEA approach based on classical FMEA, which estimates the cost of non-quality to assess the failure financial severity of the product. This cost was added to the manufacturing cost of the product estimated by the ABC method. The cost approach (CbFMENABC) was coupled with the quality approach (QFD / FMEA / KCs) resulting a combined quality/cost approach illustrated by an activity diagram. An information model of the joint quality/cost approach was proposed and a prototype has been developed to validate the proposed concepts and model. An application of this approach was illustrated in conceptual process planning phase via a case study. This application is narned QCCPP; it provides indicators of capability, risks and cost. The objective is to support the decision-making during the multi-criteria selection of manufacturing alternatives for the joint improvement of product quality/cost ratio
Styles APA, Harvard, Vancouver, ISO, etc.
12

Pianta, Emmanuelle. « Etude de la qualité de vie après cure chirurgicale du reflux gastro-oesophagien selon la technique de Nissen ». Montpellier 1, 2001. http://www.theses.fr/2001MON11020.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Collard, Philippe. « Approche multicritère de l'évaluation de la qualité des ambiances intérieures : application aux bâtiments tertiaires ». Chambéry, 2001. http://www.theses.fr/2001CHAMS017.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
14

Cotta, Judas Tadeu de Barros. « Qualité des carcasses de poulets : aspects zootechniques, technologiques, microbiologiques et sensoriels ». Montpellier 2, 1986. http://www.theses.fr/1986MON20059.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
15

Deslandres, Véronique. « Contribution à l'amélioration de la qualité dans les systèmes de production par un système basé sur la connaissance ». Lyon 1, 1993. http://www.theses.fr/1993LYO10177.

Texte intégral
Résumé :
Maitriser la qualite de fabrication industrielle necessite un grand nombre de connaissances differentes qui sont: les connaissances des problemes que l'on peut rencontrer au niveau du processus, et des facons de les resoudre; les connaissances methodologiques de la demarche a suivre pour ameliorer definitivement le processus; la connaissance des differents outils de la qualite disponibles et de leur meilleure exploitation compte tenu de l'environnement de production. Ce travail presente un systeme a base de connaissances pour mieux maitriser les processus de fabrication, a partir des methodes de la qualite telles que les diagrammes causes-effet et la maitrise statistique des processus (msp). L'aide consiste en l'analyse methodologique du processus permettant d'evaluer les actions qualite a mettre en uvre pour stabiliser la production au niveau de qualite recherchee. Plus specifiquement, nous montrons comment correctement utiliser les outils de la qualite a disposition et tirer profit de leur meilleure application. L'approche systeme expert permet de couvrir les problemes d'identification de l'origine reelle de la non-qualite, et de choisir les outils de la qualite les plus adaptes aux problemes et a l'environnement de production. Les deux premieres parties du memoire sont consacrees aux concepts et outils de mise en uvre de la qualite dans l'entreprise, ainsi qu'a l'etat de l'art de l'utilisation de l'intelligence artificielle dans ce domaine; les besoins de la production qui ne sont pas couverts par les travaux actuels sont ainsi mis en evidence. Dans la troisieme partie, nous presentons les principes d'une approche a base de connaissances pour repondre a ces besoins. Enfin, la quatrieme partie decrit l'implementation informatique de nos reflexions, plus particulierement centree sur le systeme sysmiq realise pour l'entreprise renault
Styles APA, Harvard, Vancouver, ISO, etc.
16

Lachat, Amélie. « Comment la qualité technique de l’image médiatisée par un écran ultra haute définition modifie-t-elle le traitement cognitif de l’information, la qualité d’expérience, et le rapport à la réalité ? » Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED015/document.

Texte intégral
Résumé :
L’écran est une interface omniprésente utilisée quotidiennement. Sur-sollicité par les écrans, l’individu ne peut pas percevoir l’intégralité des informations. La compréhension de l’attention portée aux contenus médiatisés est un enjeu crucial dans la stratégie marketing. Un paramètre n’a pas été pris en compte dans les précédentes études: la qualité technique de l’image médiatisée. Elle peut être définie comme l’ensemble des paramètres suivants : la définition, la fréquence image, la luminosité et la couleur. Pour mesurer la perception de l’amélioration de ces paramètres, une phase exploratoire a été menée comprenant un test de qualité perçue, un focus group et des entretiens. Une phase empirique confirmatoire a suivi pour étudier l’attention visuelle et la mémorisation de l’information médiatisée grâce à deux expérimentations. Une série d’entretien et un focus group ont permis d’étudier l’hyperréalité dans l’image médiatisée et son impact sur l’immersion et la qualité d’expérience
The screen is a ubiquitous interface daily used. Overextended by screens, the individual cannot perceive all the information. Understanding the visual attention to media content is a crucial issue in the marketing strategy. A parameter of the mediated image has not been taken into account in the studies conducted so far: the technical quality of the image. It can be defined as the set of parameters that objectively compose an image: the definition, the image frequency, the brightness dynamics and the color. To measure the perception of the improvement of these parameters, an exploratory phase was conducted including a perceived quality test, a focus group and interviews. A confirmatory empirical phase followed to study the visual attention and memorization of mediated information through two experiments. A series of interviews and a focus group explored hyperreality in the mediated image and its impact on immersion and quality of experience
Styles APA, Harvard, Vancouver, ISO, etc.
17

Ferrera-Tourenc, Virginie. « Démarche qualité en biologie et transfusion sanguine : fondements théoriques, approches expérimentales et pragmatiques pour une construction technique et managériale ». Aix-Marseille 2, 1999. http://theses.univ-amu.fr.lama.univ-amu.fr/1999AIX20669.pdf.

Texte intégral
Résumé :
Activité médicale, la transfusion sanguine comprend une unité de préparation de produits sanguins labiles, qui lui confère une spécificité semi-industrielle. En 1993, ces caractéristiques rendaient ce secteur pertinent pour introduire, dans le médical, les principes industriels classiquement décrits pour gérer la qualité. Consciente des difficultés que représente la simple duplication de ces seuls modèles, il est apparu nécessaire de juger de la transférabilité de ces principes. Une étude préalable menée sur deux sites pilotes (laboratoire d'hématologie et service de médecine nucléaire) a permis de: 1/ vérifier cette transférabilité vers le domaine médical, 2/ désigner les éléments favorisants et limitants une démarche qualité, 3/ formuler des hypothèses de travail facilitant l'implantation d'un système qualité en établissement de transfusion sanguine (E. T. S. ). Réalisée sur cinq ans, la mise en place du système qualité E. T. S. Est basée sur une gestion des ressources humaines et matérielles et sur des outils de type documentation, audits, suivi d'indicateurs, maintien et évaluation des compétences techniques. Ce système qualité intègre la diversité des activités de l'E. T. S. , au travers d'une assurance qualité "produits". Sa cohérence est assurée, au niveau de l'organisation générale, par une assurance qualité "système". Il présente un bilan positif concrétisé par des apports techniques, organisationnels, culturels quantifiables ou moins directement objectivables. Cette gestion de la qualité évolue progressivement vers le management par la qualité, transformant une qualité de l'état de but à l'état de moyen au service du management, qui devient l'objectif à atteindre. Ceci est obtenu en associant les outils techniques classiques à la prise en compte des dimensions culturelles et environnementales médicales. Grâce au concept de management, la qualité ne se limite plus au sens normalisation, à une assurance de l'application systématique des procédures et à la répétition à l'identique des taches, elle intègre une dimension organisationnelle. Cette thèse démontre que la démarche qualité au sens normalisation est transposable vers le domaine médical et qu'au-delà de cette approche techniciste, l'aspect sociologique est essentiel.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Zomahoun, Hervé Tchala Vignon. « Effets des caractéristiques des femmes et des technologues sur la qualité du positionnement en mammographie de dépistage, Programme québécois de dépistage du cancer du sein 2004-2005 : analyses préliminaires ». Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27779/27779.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
19

Prudon, Romain. « Synthèse de la parole multilocuteur par sélection d'unités acoustiques ». Paris 11, 2003. http://www.theses.fr/2003PA112042.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
20

Abid, Mohamed Abderrahmen. « Diverse Image Generation with Very Low Resolution Conditioning ». Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/70396.

Texte intégral
Résumé :
Traditionnellement, lorsqu’il s’agit de générer des images à haute résolution (HR) à partir d’images à basse résolution (LR), les méthodes proposées jusqu’à maintenant se sont principalement concentrées sur les techniques de super-résolution qui visent à récupérer l’image la plus probable à partir d’une image de basse qualité. En procédant de cette manière, on ignore le fait qu’il existe généralement de nombreuses versions valides d’images HR qui correspondent à une image LR donnée. L’objectif de ce travail est d’obtenir différentes versions d’images HR à partir d’une même image LR en utilisant un modèle adversarial génératif. On aborde ce problème sous deux angles différents. D’abord, on utilise des méthodes de super résolution, où en plus de l’image LR, le générateur peut être paramétré par une variable latente afin de produire différentes variations potentielles de l’image. Un tel conditionnement permet de moduler le générateur entre la récupération de l’image la plus proche de la vérité terrain et de variété d’images possibles. Les résultats démontrent notre supériorité en termes de reconstruction et de variété d’images hallucinées plausible par rapport à d’autres méthodes de l’état de l’art. La deuxième approche s’appuie sur les travaux de traduction d’image à image, en proposant une nouvelle approche où le modèle est conditionné sur une version LR du cible. Plus précisément, notre approche vise à transférer les détails fins d’une image source HR pour les adapter la structure générale, selon la version LR de celle-ci. On génère donc des images HR qui partagent les caractéristiques distinctives de l’image HR et qui correspond à l’image LR de la cible lors de la réduction d’échelle. Cette méthode diffère des méthodes précédentes qui se concentrent plutôt sur la traduction d’un style d’image donné en un contenu cible. Les résultats qualitatifs et quantitatifs démontrent des améliorations en termes de qualité visuelle, de diversité et de couverture par rapport aux méthodes de pointe telles que Stargan-v2.
Traditionally, when it comes to generating high-resolution (HR) images from a low-resolution(LR) images, the methods proposed so far have mainly focused on super-resolution techniques that aim at recovering the most probable image from low-quality image. Doing so ignores the fact that there are usually many valid versions of HR images that match a given LR image. The objective of this work is to obtain different versions of HR images from the same LR imageusing a generative adversarial model. We approach this problem from two different angles. First, we use super-resolution methods, where in addition to the LR image, the generator can be parameterized by a latent variable to produce different potential variations of the image. Such a conditioning allows to modulate the generator between retrieving the closest image to the ground truth and a variety of possible images. The results demonstrate our superiority in terms of reconstruction and variety of plausible hallucinated images compared to other state-of-the-art methods. The second approach builds on the work of image-to-image translation, by proposing a new approach where the model is conditioned on a LR version of the target. More precisely, our approach aims at transferring the fine details of an HR source image to fit the general structure, according to the LR version of it. We therefore generate HR images that share the distinctive features of the HR image and match the LR image of the target duringdownscaling. This method differs from previous methods that focus instead on translatinga given image style into target content. Qualitative and quantitative results demonstrate improvements in visual quality, diversity, and coverage over state-of-the-art methods such asStargan-v2.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Ferrero, Francis. « La qualité physicochimique du lactosérum réceptionné à l'usine de transformation et ses répercussions sur les technologies avales ». Nancy 1, 1991. http://www.theses.fr/1991NAN10431.

Texte intégral
Résumé :
Une des particularités de l'industrie de transformation du lactosérum est la grande hétérogénéité de ses matières premières. Cette étude fait d'abord le point sur la qualité des lactosérums réceptionnés à l'usine de transformation. La mise au point de tests simples et rapides de caractérisation des lactosérums permet de montrer que la préconcentration du lactosérum avant son transport vers l'usine ne garantit pas de l'insolubilisation minérale. Elle permet également de suivre le comportement du produit en cours de fabrication: les technologies employées conduisent à une dénaturation des protéines, à une insolubilisation minérale importante, voire même à une agrégation des protéines par interactions avec les minéraux. Il s'en suit une maitrise difficile des procédés de fabrication. Des méthodes de prétraitement de la matière première et des modifications des installations de concentration du lactosérum et de cristallisation du lactose sont alors proposées
Styles APA, Harvard, Vancouver, ISO, etc.
22

Cordier, Clémence. « L'ultrafiltration pour une meilleure maîtrise de la qualité de l'eau dans les écloseries et nurseries conchylicoles ». Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0505.

Texte intégral
Résumé :
La profession conchylicole est une activité phare du littoral français. Les écloseries et nurseries qui produisent des huîtres au stade naissain pour les vendre aux professionnels proposent une méthode de culture alternative en conditions contrôlées avec la possibilité de maîtriser la qualité des eaux entrantes et sortantes. Au sein de ces établissements, le traitement de l’eau devient donc un sujet essentiel pour le maintien d’huîtres géniteurs, les élevages larvaires et la production de microalgues fourrages. L’objectif de la thèse est de développer l’ultrafiltration pour le traitement de l’eau dans ces structures avec le but d’éliminer en amont les agents pathogènes et les parasites pour la pérennisation des espèces et des cultures, mais aussi pour le traitement de l’eau en aval qui doit viser l’inactivation de tout matériel biologique non endémique dans les zones de production concernées. La fiabilité et la robustesse de l’ultrafiltration ont été éprouvées à l’échelle semi industrielle et validées sur les différentes matrices testées en optimisant les conditions opératoires, de nettoyage mais aussi par l’utilisation d’un rétrolavage essoré. Une biosécurisation des élevages est réalisée avec (i) la protection des animaux du stade larvaire à adulte vis-à-vis d’agents pathogènes (virus OsHV1 et bactérie Vibrio aestuarianus) (ii) la rétention des gamètes d’huîtres dans les effluents, potentiellement à risque pour le milieu marin (iii) la mise en place d’un circuit d’eau purifiée réutilisée au sein même des structures conchylicoles. La production d’algues a également été améliorée par l’ultrafiltration permettant d’envisager un transfert de technologie vers l’industrie
Shellfish production is a leading economic activity on French coast. Hatcheries et nurseries which produce oyster spat to be sold to producers, offer an alternative way of breeding under controlled conditions with the possibility to monitor quality of in et out waters. Within those structures, water treatment is essential for adult oysters, larvae breedings et microalgae production. The aim of this work is to develop ultrafiltration for water treatment in those shellfish production facilities. The objectives are to remove pathogens et parasites from upstream water in order to protect animals et cultures et to treat effluents with the aim to inactivate non endemic biological material from concerned production area. Reliability et sustainability of ultrafiltration were checked at semi-industrial scale et validated for the matrices tested by an optimisation of operating conditions, cleanings et the use of air-backwashes. A biosecuring of breedings was obtained with (i) the protection of oysters from larvae stage to adults towards pathogenic agents (virus OsHV-1 et bacteria Vibrio aestuarianus) (ii) the retention of oyster gametes in effluents, potentially detrimental for marine biodiversity, (iii) the reuse of effluent within shellfish farms. Microalgae production was also improved with ultrafiltration suggesting the possibility of a technology transfer to industry
Styles APA, Harvard, Vancouver, ISO, etc.
23

Tiemounou, Sibiri. « Développement d'une méthode de diagnostic technique des dégradations de qualité vocale perçue des communications téléphoniques à partir d'une analyse du signal de parole ». Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S097/document.

Texte intégral
Résumé :
Les opérateurs de télécommunications se doivent de maîtriser et d'évaluer la qualité des services qu'ils offrent à leurs clients, dans un contexte en perpétuelle évolution. Comme alternative rapide et à moindre coût aux évaluations fondées sur l'interrogation d'utilisateurs, des outils de mesure ont été développés, qui intègrent des modèles permettant de prédire la qualité perçue. Cette thèse avait pour but de concevoir un outil de diagnostic de qualité vocale (applicable aux services de téléphonie), complémentaire à de tels modèles objectifs, afin d'obtenir des informations spécifiques sur la nature des défauts présents sur le signal audio et d'orienter vers des causes potentielles de ces défauts. En partant de l'hypothèse que la qualité vocale est multidimensionnelle, nous avons fondé l'outil de diagnostic sur la modélisation des quatre dimensions identifiées dans la littérature : la Bruyance, représentative des bruits de fond, la Continuité, relative à la perception des discontinuités dans le signal, la Coloration, liée aux distorsions du spectre de la voix, et la Sonie, traduisant la perception du niveau sonore. Chacune de ces dimensions est quantifiée à l'aide d'indicateurs de qualité issus de l'analyse du signal audio. Notre démarche a consisté, dans un premier temps, à rechercher dans des modèles objectifs récents (notamment la norme P.863 de l'UIT-T) des indicateurs de qualité et à en développer d'autres pour caractériser parfaitement chaque dimension. S'est ensuivie une étude de performances de ces indicateurs, les plus pertinents devant être intégrés dans notre outil de diagnostic. Finalement, pour chaque dimension, nous avons développé un module de classification automatique de défauts perçus en fonction de la nature du défaut identifié dans le signal, ainsi qu'un module supplémentaire estimant l'impact du défaut sur la qualité vocale. L'outil proposé couvre les trois bandes audio (bande étroite, bande élargie et bande super-élargie) couramment utilisées dans les systèmes de télécommunications avec, toutefois, une priorité pour les signaux en bande super-élargie, plus représentatifs des contenus audio qu'on sera amené à rencontrer dans les futurs services de télécommunications
Quality of service is a huge issue for telecommunications operators since they have to master and evaluate it in order to satisfy their customers. To replace expensive and time-consuming human judgment methods, objective methods, integrating objective models providing a prediction of the perceived quality, have been conceived. Our research aimed at developing a technical diagnostic method, complementary to objective voice quality models, which provides specific information about the nature of the perceived voice quality impairments and identifies the underlying technical causes. Assuming that speech quality is a multidimensional phenomenon, our technical diagnostic method is built on the modelling of the four perceptual dimensions identified in the literature: “Noisiness” relative to the perceived background noise, “Continuity” linked to discontinuity, “Coloration” related to frequency–response degradations and “Loudness” corresponding to the impact of the speech level, each one being quantified by quality degradation indicators based on audio signal analysis. A crucial step of our research was to find and/or to develop relevant quality degradation indicators to perfectly characterize each dimension. To do so, we identified quality degradation indicators in the most recent objective voice quality models (particularly the ITU-T P.863 recommendation, known as POLQA) and we analysed the performance of identified indicators. Then, the most relevant indicators have been considered in our diagnostic method. Finally, for each dimension, we proposed a detection block which automatically classifies a perceived degradation according to the nature of the defect detected in the audio signal, and an additional block providing information about the impact of degradations on speech quality. The proposed technical diagnostic method is designed to cover three bandwidths (Narrowband, Wideband and Super Wideband) used in telecommunications systems with a priority investigation to Super Wideband speech signals which remain very useful for future telephony applications
Styles APA, Harvard, Vancouver, ISO, etc.
24

Reynes, Max. « Influence d'une technique de désinfestation par micro-ondes sur les critères de qualité physico-chimiques et biochimiques de la datte ». Vandoeuvre-les-Nancy, INPL, 1997. http://docnum.univ-lorraine.fr/public/INPL_T_1997_REYNES_M.pdf.

Texte intégral
Résumé :
La production de la datte représente 3,4 millions de tonnes dans le monde et permet à de nombreuses populations de vivre et à certains pays d'obtenir des devises par l'exportation. Les principaux critères de qualité des dattes sont affectés par les infestations et les procédés utilisés pour les traiter, stabiliser, et conditionner. Les résultats du travail effectués portent sur l'analyse des principaux critères de qualité des dattes de Tunisie reliés à l'aspect variétal (la variété Deglet Nour est prise en référence) : les teneurs en sucres, amidon, acides amines, acides organiques et minéraux principalement. Il a été montré que la différenciation variétale pourrait être obtenue par les analyses des aromes. L’influence sur ces critères du traitement de désinfestation actuel, basé sur l'utilisation du bromure de méthyle (toxique, dangereux, et bientôt interdit) se traduit par une modification des teneurs en acides aminés et l'apparition de composés méthylés. Le traitement basé sur l'utilisation des micro-ondes permet de désinfester les dattes à une température de 65°C durant 3 minutes du fait de la forte réactivité des dattes aux microondes. L’effet de ce traitement sur le pH, la teneur en eau, les polyphénols, les aromes, les acides galacturoniques, mais aussi sur l'invertase, les activités polyphénoliques et péroxydasiques permettent de conclure que la qualité des dattes ne semble pas être affectée par le traitement qui pourrait être un moyen de substitution à la fumigation. Le traitement permet de conserver la couleur claire des dattes comme tel que demande par le marché.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Alloa-Casale, Evelyne. « Application de l'impédancémétrie à l'industrie pharmaceutique : dénombrement de la flore totale ». Paris 5, 1993. http://www.theses.fr/1993PA05P166.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

Hachem, Nabil. « MPLS-based mitigation technique to handle cyber attacks ». Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0013/document.

Texte intégral
Résumé :
Les cyber-attaques pourraient engendrer des pertes qui sont de plus en plus importantes pour les utilisateurs finaux et les fournisseurs de service. Ces attaques sont, en outre, élevées par une myriade des ressources infectées et comptent surtout sur les réseaux pour être contrôlées, se propager ou endommager. Face à ces risques, il y a un besoin essentiel qui se manifeste dans la réponse à ces nombreuses attaques par des stratégies de défense efficaces. Malgré les multitudes efforts dévouées pour mettre en œuvre des techniques de défense complètes afin de se protéger contre les attaques réseaux; les approches proposées n’ont pas parvenus à satisfaire toutes les exigences. Les stratégies de défense impliquent un processus de détection complété par des actions de mitigation. Parallèlement à l’importance accordée à la conception des stratégies de détection, il est essentiel de fermer la boucle de sécurité avec des techniques efficaces permettant d’atténuer les impacts des différentes attaques. Dans cette thèse, nous proposons une technique pour réagir aux attaques qui abusent les ressources du réseau, par exemple, DDoS, botnet, distribution des vers, etc. La technique proposée s’appuie sur des approches de gestion du trafic et utilise le standard Multiprotocol Label Switching (MPLS) pour gérer le trafic diagnostiqué comme abusant du réseau, tout en invoquant les processus de détection. Les objectifs de notre technique peuvent être résumés comme suit: d’une part, fournir les moyens — par la qualité de service et schémas de routage — à séparer les flux suspects des légitimes, et d’autre part de prendre le contrôle des flux suspects. Nous bénéficions de l’extension du MPLS au niveau d’inter-domaine pour permettre une coopération entre les fournisseurs, permettant par suite la construction d’un mécanisme de défense à grande échelle. Nous développons un système afin de compléter les aspects de gestion de la technique proposée. Ce système effectue plusieurs tâches telles que l’extraction de données d’alerte, l’adaptation de la stratégie et la configuration des équipements. Nous modélisons le système en utilisant une approche de regroupement et un langage de politiques de sécurité afin de gérer de manière cohérente et automatique le contexte et l’environnement dans lequel la technique de mitigation est exécutée. Enfin, nous montrons l’applicabilité de la technique et du système à travers des différentes simulations tout en évaluant la qualité de service dans des réseaux MPLS. L’application de la technique a démontré son efficacité dans non seulement la mitigation des impacts des attaques mais aussi dans l’offre des avantages financiers aux acteurs de la chaîne de sécurité, à savoir les fournisseurs de service
Cyber attacks cause considerable losses not only for end-users but also service providers. They are fostered by myriad of infected resources and mostly rely on network resources for whether propagating, controlling or damaging. There is an essential need to address these numerous attacks by efficient defence strategies. Researchers have dedicated large resources without reaching a comprehensive method to protect from network attacks. Defence strategies involve first a detection process, completed by mitigation actions. Research on detection is more active than on mitigation. Yet, it is crucial to close the security loop with efficient technique to mitigate counter attacks and their effects. In this thesis, we propose a novel technique to react to attacks that misuse network resources, e.g., DDoS, Botnet, worm spreading, etc. Our technique is built upon network traffic management techniques. We use the Multiprotocol Label Switching (MPLS) technology to manage the traffic diagnosed to be part of a network misuse by detection processes. The goals of our technique can be summarized as follows: first to provide the means — via QoS and routing schemes — to segregate the suspicious flows from the legitimate traffic; and second, to take control over suspicious flows. We profit from the enhancement on the inter-domain MPLS to permit a cooperation among providers building a large-scale defence mechanism. We develop a system to complete the management aspects of the proposed technique. This system performs tasks such as alert data extraction, strategy adaptation and equipments configurations. We model the system using a clustering method and a policy language in order to consistently and automatically manage the mitigation context and environment in which the proposed technique is running. Finally, we show the applicability of the technique and the system through simulation. We evaluate and analyse the QoS and financial impacts inside MPLS networks. The application of the technique demonstrates its effectiveness and reliability in not only alleviating attacks but also providing financial benefits for the different players in the mitigation chain, i.e., service providers
Styles APA, Harvard, Vancouver, ISO, etc.
27

Avrillon, Laetitia. « Démarche de résolution de problèmes qualité dans le cadre de produits nouveaux de haute technologie ». Chambéry, 2005. http://www.theses.fr/2005CHAMS035.

Texte intégral
Résumé :
Les produits industriels développés actuellement sont de plus en plus complexes et mettent en œuvre simultanément plusieurs technologies. De plus, les temps de développements étant de plus en plus réduits, cela conduit à de nouvelles contraintes dans les phases de pré-industrialisation. Il faut être capable de résoudre rapidement de nombreux problèmes en faisant collaborer des experts ayant chacun une connaissance du produit ciblé sur leur domaine de spécialité. Ces nouvelles contraintes sont peu prises en compte dans les méthodes traditionnelles de résolution de problème. Les travaux de recherche développés dans cette thèse ont pour objet l'aide méthodologique à la résolution de problèmes qualité concernant les produits nouveaux de haute technologie. Par " problème qualité ", nous entendons tout problème technique à cause spéciale concernant le produit ou le procédé. L'objectif de l'étude est donc de proposer une structure d'accompagnement adaptée pour ce contexte d'un point de vue organisationnel, socioculturel, et technique. La structure proposée doit être adaptable à la future évolution de ce type d'entreprise: cohabitation de produits tendant à se stabiliser et de produits nouvellement développés. L'objectif n'est pas de proposer une nème méthode de résolution de problèmes mais plutôt une structure modelable selon les configurations rencontrées. Le principe proposé est fondé sur une structure de base (phases et outils) modifiée par deux évaluations: l'évaluation du profil du problème et l'évaluation de son état méthodologique. Le croisement de ces deux évaluations permet d'établir une démarche de résolution de problème contextualisée constituée des phases qu'il reste à réaliser et pour chacune d'une instrumentation associée. Pour élaborer cette instrumentation, nous avons travaillé sur trois axes : -sélection des méthodes et outils existants les plus adaptés à notre contexte, enrichissement de ces entités, recherche de potentielles interactions positives entre elles -développement de nouveaux outils -analyse des méthodologies d'autres domaines (criminologie et accidentologie) ayant des contraintes similaires au contexte étudié et leur adaptation à l'industrie. Cette thèse a été réalisée dans le cadre d'une convention CIFRE avec la société TRIXELL concevant et fabriquant des détecteurs pour l'imagerie médicale
Industrial products currently developed are more and more complex and make use of several technologies at the same time. Moreover, design times are increasingly reduced, bringing new constraints during pre-industrialization phases. Companies have to rapid solve many problems by involving experts who have a partial knowledge of the product limited to their field of specialty. These new constraints are rarely taken into account in traditional problem solving methods. The purpose of the research work developed in this PhD thesis is quality problem solving methodology for new high technology products. By "quality problem", we mean any technical problem due to a special cause concerning the product or the process. The aim of the study is thus to propose a methodological structure adapted to this context from an organizational, sociocultural and technical point of view. The structure must be adaptable to the future evolution of this type of company: cohabitation of stabilized products and newly developed products. The objective is not to propose yet another problem solving method but rather a tunable structure in accordance with each configuration. The suggested principle is founded on a basic structure (phases and tools) modified by two assessments: the assessment of the problem profile and the assessment of its methodological state. The crossing of these two evaluations allows us to build a contextualized problem solving method with the phases that remain to be created and dedicated instrumentation for each phase. We worked on three main axes to develop this instrumentation : -selection of the methods and tools that are the most adapted to our context, improvement of these entities, analysis of the potential positive interactions between them -development of new tools -analysis of methodologies for other fields (criminology and accidentology) which have similar constraints to the studied context and their adaptation to industry. This PhD bas been carried out in the frame of a "CIFRE convention" with TRIXELL committed to the development and production of a complete family of X-ray flat panel digital detectors for the entire radiological imaging industry
Styles APA, Harvard, Vancouver, ISO, etc.
28

Etienne, Marie-Cécile. « Démarches en vue de la constitution d'un dossier cosmétique : application au shampooing antipelliculaire A.C.T.O ». Dijon, 1988. http://www.theses.fr/1988DIJOP032.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
29

Zieba, Sophie. « Une méthode de suivi d'un sytème évolutif : application au diagnostic de la qualité d'usinage ». Compiègne, 1995. http://www.theses.fr/1995COMPD808.

Texte intégral
Résumé :
Exploitant les techniques de Reconnaissance des formes et le concept d'ensembles flous, une méthode de diagnostic est proposée, permettant de suivre en ligne l'état d'un système et de détecter son évolution vers un état non admissible. Cette méthode est appliquée, avec succès, à la surveillance de l'état de surface (et de l'usure de l'outil), en fraisage. Cette approche est basée sur l'analyse de signaux vibratoires. La méthode proposée permet notamment de diminuer la sensibilité du diagnostic à une variation des conditions de fonctionnement (par exemple aux conditions de coupe). Un état de l'art, détaillé, sur la surveillance de l'outil est également réalisé, pour différents usinages (fraisage, tournage, perçage).
Styles APA, Harvard, Vancouver, ISO, etc.
30

Oudin-Pohl, Caroline. « Essai de constitution d'un dossier cosmétique pour un gel amincissant préparé et commercialisé en officine ». Dijon, 1988. http://www.theses.fr/1988DIJOP033.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Crémillieux, Yannick. « Méthodologies pour l'imagerie par résonance magnétique utilisant la technique de projection-reconstruction ». Lyon 1, 1994. http://www.theses.fr/1994LYO10230.

Texte intégral
Résumé :
L'objet de cette these concerne le developpement methodologique de techniques d'imagerie par resonance magnetique utilisant le principe de la projection-reconstruction. Le premier chapitre contient un rappel des bases physiques et des principales methodes de l'irm. Le processus d'acquisition des donnees et les differentes methodes de reconstruction des images en projection-reconstruction sont presentes au cours du deuxieme chapitre. Ce chapitre contient egalement une presentation des avantages et inconvenients compares de la projection-reconstruction et de l'imagerie par transformee de fourier. Le troisieme chapitre porte sur les techniques d'imagerie rapide et en particulier celles qui sont fondees sur la projection-reconstruction. Le developpement et la mise en uvre de sequences rapides a base d'echos de gradient utilisant la projection-reconstruction y sont donc presentes. Une etude sur fontome du contraste de ces sequences permet de valider leurs equivalences avec les sequences d'imagerie rapide en regime d'equilibre dynamique existant en imagerie de fourier. Le dernier chapitre traite de differents apports methodologiques nouveaux concernant la projection-reconstruction. Une fenetre de ponderation est proposee pour limiter les artefacts induits par l'acquisition partielle de l'espace de fourier. L'obtention d'images a partir de signaux de precession libre en presence de gradient est egalement proposee. Enfin, la correction des artefacts induits par les effets de deplacement chimique en projection-reconstruction est abordee
Styles APA, Harvard, Vancouver, ISO, etc.
32

Nassiet, Didier. « Contribution à la méthodologie de développement des systèmes experts : application au domaine du diagnostic technique ». Valenciennes, 1987. https://ged.uphf.fr/nuxeo/site/esupversions/e69df552-6494-4941-97a3-31d5454a5860.

Texte intégral
Résumé :
Description de quelques méthodes et outils. Elaboration d'une méthodologie de construction des systèmes experts basée sur le concept de "tétraèdre de développement". Application a une étude de faisabilité d'un système expert d'aide au contrôle de fabrication des radiotéléphones.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Benghanem, Abdelghani. « Étude et optimisation de la qualité sonore d'un véhicule récréatif motorisé ». Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11573.

Texte intégral
Résumé :
La qualité sonore (QS) est un facteur important dans la conception et pour la perception des produits, notamment dans le cas des véhicules. Il est donc fondamental d'étudier la qualité sonore des véhicules récréatifs motorisés. L'objectif est d'étudier le bruit généré par un véhicule récréatif motorisé (VRM) et de rendre ce dernier plus agréable pour le conducteur afin de rajouter plus de plaisir à l'expérience de conduite. Le projet est basé sur trois volets importants. Le premier volet consiste à identifier les paramètres physiques des différents composants acoustiques d'un véhicule récréatif motorisé, de conduire des tests d'écoute et d'en faire une étude statistique. Pour ce faire, plusieurs bases de données ont été déjà établies par des enregistrements binauraux correspondants à la position du pilote. Le deuxième volet consiste à définir une méthode de prédiction des résultats de tests d'écoute de préférence par des indicateurs psychoacoustiques dits objectifs, issus des signaux mesurés pour les tests d'écoute de préférence. L'originalité de cette partie est l'utilisation des méthodes statistiques de régression linéaire multiple pour la conception du modèle perceptif, et notamment l'algorithme Lasso qui permet la création de modèles de prédiction de qualité sonore parcimonieux. Le troisième volet consiste à concevoir un dispositif de modification et d'amélioration du son moteur, par filtrage numérique des signaux binauraux, puis étudier son effet à partir de la reproduction de sons simulés et mesurés.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Chatillon, Marie-Maud. « Méthodologie de conception robuste appliquée aux trains de véhicules de tourisme ». Ecully, Ecole centrale de Lyon, 2005. http://www.theses.fr/2005ECDL0032.

Texte intégral
Résumé :
La méthodologie de conception "first design" relative aux systèmes mécaniques est présentée. Celle-ci repose sur une démarche de conception hiérarchisée intégrant la notion de robustesse dès la phase amont de conception. L'objectif est ainsi d'améliorer la qualité du système en le rendant robuse c'est à dire peu sensible aux variations des paramètres extérieurs et de conception. Les prestations et les variables de conception influentes sont introduites au fur et à mesure de l'avancement du cycle de conception. A titre d'exemple, la méthodologie sera appliquée à l'optimisation des paramètres de conception d'un système de suspension. Les paramètres fonctionnels seront d'abord optimisés afin d'améliorer les prestations de comportement routier. Ils serviront ensuite de cible à la détermination des paramètres organiques fournissant les caractéristiques détaillées de chaque pièce garantissant un comportement optimal quelque soient les conditions d'utilisation
The design methodology "frist design" for mechanical systems is presented. It is based on a hierarchical organization of the design taken into account the notion of robustness at an early phase of the design. The aim is to improve the quality of the system in order that il became robust, less sensitive to the variability of the exterior parameters and the design parameters. The performances and the design variables are introduced all along the design cycle. As an example, the methodology will be applied to the optimization of a vehicle suspension system design parameters. First of all the functional parameters will be optimized in order to improve the vehicle road behavior. These parameters will be then used as target for the material parameters optimization which define the detailed characterics of each part ensuring an optimal behavior whatever the external conditions
Styles APA, Harvard, Vancouver, ISO, etc.
35

Remenaric, Hajak Mateja. « Study of ribonucleoprotein particle biogenesis and quality control by a novel technique using bacterial Rho factor as a tool ». Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2013/document.

Texte intégral
Résumé :
Chez les eucaryotes, l’information génétique est transcrite en ARN messager qui subit plusieurs étapes de maturation et évènements d’assemblage avant d’être exporté hors du noyau. Ces modifications du transcrit sont effectuées par de nombreux facteurs protéiques recrutés au transcrit naissant, formant ainsi une particule ribonucléoprotéique (mRNP). La biogenèse du mRNP est étroitement liée avec la transcription et le contrôle qualité afin d’assurer l’efficacité et l’exactitude de la production de mRNPs matures. Des études récentes suggèrent que les membres du complexe THO-Sub2 pourraient être des facteurs cruciaux dans le couplage de la transcription, de la biogénèse du mRNP et de l’export. Dans notre groupe, nous avons mis en oeuvre un essai novateur pour étudier la biogénèse du mRNP et le contrôle qualité, basé sur l’expression du facteur Rho bactérien dans Saccharomyces cerevisiae. Rho interfère avec l’assemblage adéquat du mRNP et génère des transcrits aberrants qui sont dégradés par la machinerie de dégradation nucléaire. Dans cette étude, nous avons utilisé le système expérimental Rho pour mieux comprendre Rrp6 et l’implication de l’exosome dans la dégradation des transcrits liée au contrôle qualité, ainsi que pour mieux caractériser le rôle et la fonction du complexe THO-Sub2 dans le processus de biogénèse du mRNP. Les résultats obtenus révèlent une différence intéressante dans le comportement des membres du complexe THO sous l’action de Rho et dévoilent leur dépendance à la liaison à l’ARN, ce qui n’aurait pas pu être observé avec d’autres techniques expérimentales. Cela confirme le potentiel attendu du système expérimental basé sur Rho dans l’étude des facteurs protéiques impliqués dans la biogénèse et le contrôle qualité du mRNP
In eukaryotes, the genetic information is transcribed into messenger RNA which undergoes various processing and assembly events prior to its export from the nucleus. These transcript modifications are performed by numerous protein factors recruited to the nascent transcript, thus making a messenger ribonucleoprotein particle (mRNP). mRNP biogenesis is tightly interconnected with both transcription and quality control to ensure efficiency and accuracy in production of mature mRNPs. Recent findings suggest that members of THO-Sub2 complex might be crucial factors in coupling transcription, mRNP biogenesis and export. In our group, we have implemented an innovative assay to study mRNP biogenesis and quality control, based on the expression of the bacterial factor Rho in Saccharomyces cerevisiae. Rho interferes with proper mRNP assembly and generates aberrant transcripts degraded by the nuclear degradation machinery. In this study, we use Rho experimental system to expand our findings on Rrp6 and exosome involvement in quality control degradation of transcripts, as well as to better characterize the role and function of THO-Sub2 complex in the process of mRNP biogenesis. Obtained results reveal an interesting difference in behavior of THO complex members upon Rho action and disclose their dependence on binding to the RNA, which could not be observed by other experimental techniques. This substantiates the expected potential of Rho-based experimental system in the study of protein factors involved in mRNP biogenesis and quality control
Styles APA, Harvard, Vancouver, ISO, etc.
36

Lopes, Pedro. « Qualité de vision : développement d'une plate-forme expérimentale pour la caractérisation des verres diffusants ». Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10019.

Texte intégral
Résumé :
Dans le domaine du confort visuel de l'habitat, de nouvelles notions telles que la privacite et la chromacite apparaissent. Pour repondre a ces besoins, les architectes font de plus en plus appel a des materiaux nouveaux tels les verres diffusants. Actuellement, ces materiaux sont caracterises par leur transmission normale hemispherique, cependant, les moyens de mesure, les spectrophotometres, ne fournissent pas toujours des resultats pertinents. Le developpement d'une plate-forme de mesure de la qualite de vision (fonction de transfert de modulation, goniophotometrie) permet de presenter une caracterisation complementaire des verres diffusants. Ce travail est scinde en deux parties : une etude de la diffusion des verres depolis et une etude de la qualite de vision des verres diffusants et depolis. Apres avoir decrit les textures de surface des verres depolis par microscopie mecanique a balayage, il est montre que seule la pente quadratique moyenne de surface hierarchise la diffusion. Cette caracterisation des verres depolis par la pente quadratique moyenne indique que la diffusion est fonction de l'orientation locale de la surface. Les distributions des pentes de surface corroborent cette hypothese. Ces resultats permettent d'aborder la qualite de vision en fonction des lobes de diffusion et des parametres de texture. Les mesures de la qualite de vision des verres depolis sont comparees aux modelisations. L'inadequation entre la theorie et la pratique montre qu'il est difficile d'evaluer certains parametres surfaciques. Neanmoins, nous montrons que l'appreciation de la ftm des verres diffusants est possible en tenant compte des lobes de diffusion et des conditions de mise en oeuvre du materiau, en l'occurrence, la distance surface diffusante-objet a imager et l'ouverture du systeme imageant. Ces resultats permettent d'aboutir a une proposition de critere de la qualite de vision des verres diffusants.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Carter-Thomas, Shirley. « Organisation thématique et qualité textuelle une analyse des difficultés rencontrées par des éleves ingénieurs francophones lorsqu'ils rédigent en anglais ». Paris 5, 1998. http://www.theses.fr/1998PA05H017.

Texte intégral
Résumé :
Dans notre thèse nous examinons l'importance de l'organisation thématique d'un texte dans une évaluation de sa qualité textuelle globale. Notre analyse s'inspire directement de notre expérience en tant que professeur d'anglais d'élèves ingénieurs francophones. A travers une analyse des textes rédiges par nos élèves, textes souvent en apparence très décousus, nous tacherons de démontrer l'apport d'une approche fondée sur la prise en compte de la dimension thématique, afin de mieux cerner certains défauts de ces textes et d'arriver par ce biais a une meilleure compréhension de ce qui constitue la qualité textuelle.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bieri, Sophie. « Les microméthodes utilisées en contrôle microbiologique dans l'industrie pharmaceutique ». Paris 5, 1988. http://www.theses.fr/1988PA05P208.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Ngo, Minh Thanh. « Eléments d'analyse des réseaux d'accès optiques et ingénierie de trafic sur ces réseaux ». Evry, Institut national des télécommunications, 2009. http://www.theses.fr/2009TELE0010.

Texte intégral
Résumé :
Depuis plusieurs années, on assiste à une très forte accélération des débits supportés par les réseaux de télécommunication. Cette accélération est en partie due à une augmentation de nombre d'abonnés résidentiels ou professionnels mais elle est surtout la conséquence de l'évolution des technologies d'accès qui permettent désormais d'offrir le ``haut débit". Dans un passé récent, les principales technologies d'accès filaire sont d'une part les technologies xDSL (qui exploitent les boucles de cuivre déployées à l'origine pour le téléphone) et celles s'appuyant les réseaux câblés (qui ont été déployés pour distribuer la télévision). La tendance actuelle, pour les réseaux d'accès filaires, s'appuie sur les technologies optiques dites ``FTTx" (Fiber To The Home/Curb/Building/Premises). Les réseaux d'accès optiques diffèrent des précédents par le support physique employé pour transporter l'information. Dans le cas des réseaux d'accès optiques, il s'agit de fibres optiques, qui ont la plus grande capacité de tous les supports physiques utilisés aujourd'hui. Utiliser un tel support physique permet potentiellement de fournir à l'usager une bande passante considérable. Cependant, l'architecture de tels réseaux soulève un grand nombre de questions. Pour des raisons d'économie, il est nécessaire d'une part de limiter le génie civil (dont le coût est dominant dans le déploiement du réseau), et d'autre part de limiter le nombre d'équipements actifs (qui présentent des coûts d'investissement et de fonctionnement supérieurs aux équipements passifs). Une solution souvent proposée consiste à déployer des arbres de distribution, et de concentrer l'intelligence du réseau d'accès (ses éléments actifs) à la racine de l'arbre : c'est la définition d'un PON (Passive Optical Network). L'absence d'équipements actifs dans les éléments terminaux, et le partage de la capacité de transmission de la fibre entre plusieurs usagers, en particulier dans le sens montant, imposent la mise en \oe uvre de mécanismes contrôlant le multiplexage. Ces mécanismes sont implémentés dans des protocoles d'accès au medium (MAC), qui sont l'objet principal du travail de cette thèse. Le trafic descendant est diffusé vers tous les usagers, chaque extrémité filtrant le trafic qui lui est destiné. L'accès au réseau du trafic montant doit par contre être contrôlé strictement afin d'éviter les collisions. Cette thèse propose des mécanismes pouvant être implémentés dans une MAC pour PON Ethernet (EPON) afin de contrôler le trafic montant. Nous montrons que les mécanismes proposés peuvent d'une part supporter des classes de trafic différentes, d'autre part coupler l'allocation de ressource au contrôle d'accès et enfin utiliser efficacement la capacité du réseau en terme de trafic montant. Les mécanismes et processus proposés dans la thèse sont majoritairement analysés par simulation, la complexité du fonctionnement d'un PON excluant l'usage de modèles analytiques, sauf pour des études simples rapportés au Chapitre 3. Un cadre de simulation complet, décrit dans le Chapitre 4, a été construit à l'aide de Network Simulator. Ce cadre nous a permis de comparer le fonctionnement des mécanismes proposés avec les mécanismes considérés comme faisant partie de l'état de l'art. En particulier, nous montrons dans le Chapitre 5 que nos mécanismes, simples d'implémentation, fonctionnent nettement mieux que les mécanismes classiques en ce qui concerne le support de trafics temps réels, tout en assurant un taux d'occupation quasiment optimal de la capacité montante. Plus généralement, nous positionnons dans le Chapitre 6 les mécanismes proposés dans une problématique générale du plan de commande pour les réseaux d'accès optique passifs. Des conclusions et perspectives sont données au Chapitre 7
In recent years, the telecommunications industry observes a tremendous increasing of broadband access penetration level. Indeed, the number of subscribers with access to broadband Internet connections either at home or work is growing steadily. This can be explained both by the emergence of rich content applications and by the drop in access prices due to the broadband technologies' evolution and the fierce competition between access networks operators. The current trend in wired access networks are FTTx optical technologies (Fiber To The Home / Curb / Building / Premises), which present an alternative to xDSL networks (using copper loops deployed primarily for the phone system) and cable networks (using cable infrastructures originally deployed for TV distribution). The optical access networks differ first by the physical medium used to carry information. In the case of optical access networks, it is fiber, which have the largest capacity of all physical media used today. Using such a physical medium would potentially provide more bandwidth to the subscribers. However, optical access network architectures raises many issues. For economic reasons, it is necessary to limit both civil engineering (which cost is dominant), and the number of active equipments (which cost more than passive equipment from CAPEX and OPEX points of views). A popular solution is to deploy a tree architecture, and to focus the intelligence of the access network (active elements) at the root of the tree: this corresponds to a Passive Optical Network (PON). The absence of active equipment in the terminals, and the sharing of transmission capacity of fiber among several users, especially for upstream traffic, require the implementation of mechanisms used for controlling multiplexing. These mechanisms are implemented in MAC protocols, which are the main subject of this thesis. Downstream traffic is broadcasted and each end-point filters its own traffic. On the other hand, upstream traffic has to be controlled in order to avoid collisions. The present thesis presents mechanisms that can be implemented in a MAC for Ethernet PON (EPON) in order to control upstream traffic. We show that the proposed mechanisms can support multiple classes of traffic, can couple resource allocation with access control and can finally efficiently use the upstream capacity of the EPON. The various mechanism proposed in the present work are mostly analyzed by simulation; this is because the overall behavior of a PON is too complex to be analytically analyzed, except for simple studies reported in Chapter 3. A comprehensive simulation framework, based on Network Simulator, has been designed and is presented in Chapter 4. This framework has enabled the comparison between state of the art mechanisms and our proposals. We show in Chapter 5 that our mechanisms are simple to implement and behave significantly better than classical mechanisms regarding real time traffic support, while ensuring a quasi-optimal use of upstream bandwidth. More generally, we show in Chapter 6 how our mechanisms are part of a global command plane for PONs. Conclusions and perspectives are outlined in Chapter7
Styles APA, Harvard, Vancouver, ISO, etc.
40

Cauchard, Lionel. « Les collèges d'experts et la fabrique de la normalisation technique. Hybridation Normative et Performation de la Haute Qualité Environnementale (HQE) des Bâtiments en France ». Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00593753.

Texte intégral
Résumé :
La thèse analyse le processus de genèse et d'institutionnalisation de la démarche HQE, ainsi que ses effets performatifs sur les marchés et les systèmes d'acteurs dans le secteur de la construction en France.La démarche HQE a été initiée en 1992, par le Plan Construction et Architecture (PCA), placé sous l'autorité du Ministère de l'Équipement et du Logement, avec la création d'un collège d'experts sur le thème de la qualité environnementale (QE) des bâtiments. Sur la base des travaux du PCA, une association HQE est créée en octobre 1996 et le premier référentiel officiel de la démarche HQE est publié en novembre 1997. Il établit sous la forme de 14 cibles les principales caractéristiques qui permettent de limiter les impacts d'une opération de construction sur l'environnement extérieur, tout en préservant le confort et la santé des habitants à l'intérieur des bâtiments. Ce premier référentiel est traduit en décembre 2004, en norme officielle par un comité de l'Agence Française de Normalisation (AFNOR) puis, en février 2005, en référentiel privé de certification, spécifié pour les bâtiments tertiaires, par le Centre Scientifique et Technique du Bâtiment (CSTB).A travers l'étude historique de la trajectoire de la démarche HQE, la thèse rend compte de l'importante hybridation qui caractérise la " carrière " des dispositifs de normalisation technique. D'un problème public (Gusfield 1981) mis à l'agenda politique (Cobb & Elder 1972) par les autorités publiques au début des années 1990, la QE des bâtiments fait l'objet d'un travail de traduction (Callon 1986) et d'appropriation (Gusfield 1989) par un collège d'experts. La constitution d'un monde social commun (Strauss 1992) et d'une représentation commune (Fligstein 1997), suite à la création de l'association HQE et la publication du premier référentiel officiel, permet à la démarche HQE de s'imposer progressivement auprès des acteurs politiques, sociaux et économiques comme le standard français de la QE des bâtiments. Alors que le modèle économique du bâtiment est centré sur la concurrence par les prix, les " concepteurs " de la démarche HQE, en faisant la promesse aux professionnels (van Lente 1993, van Lente & Rip 1998) d'établir une économie de la qualité (Karpik 1989, 1995), parviennent à leur faire accepter la traduction du standard de la démarche HQE en norme française (NF) homologuée et en référentiel privé de certification.L'analyse met en exergue l'emprise exercée, par un collège d'experts, sur la fabrique de la normalisation technique ainsi que les tensions entre acteurs et professionnels autour de la transformation de l'architecture marchande du bâtiment (Fligstein 2001). L'étude de la démarche HQE montre ainsi le rôle politique joué par les collèges d'experts (Olshon 1993) qui, en participant à la création de nouveaux domaines de compétences et de règles marchandes, performent les modèles économiques (Callon 1998), que ce soit par l'instauration d'une économie de la qualité (Karpik 1989 & 1995, Musselin 1996), l'évolution des dispositifs collectifs de calcul et des business models (Callon & Muniesa 2003, Barrey 2006) la mise en place d'un marché de la prescription (Hatchuel 1995) ou encore, en reconfigurant les juridictions au sein des écologies professionnelles (Abbott 1988).
Styles APA, Harvard, Vancouver, ISO, etc.
41

Cauchard, Lionel. « Les collèges d’experts et la fabrique de la normalisation technique. Hybridation Normative et Performation de la Haute Qualité Environnementale (HQE) des Bâtiments en France ». Thesis, Paris Est, 2010. http://www.theses.fr/2010PEST3009/document.

Texte intégral
Résumé :
La thèse analyse le processus de genèse et d'institutionnalisation de la démarche HQE, ainsi que ses effets performatifs sur les marchés et les systèmes d'acteurs dans le secteur de la construction en France.La démarche HQE a été initiée en 1992, par le Plan Construction et Architecture (PCA), placé sous l'autorité du Ministère de l’Équipement et du Logement, avec la création d'un collège d'experts sur le thème de la qualité environnementale (QE) des bâtiments. Sur la base des travaux du PCA, une association HQE est créée en octobre 1996 et le premier référentiel officiel de la démarche HQE est publié en novembre 1997. Il établit sous la forme de 14 cibles les principales caractéristiques qui permettent de limiter les impacts d'une opération de construction sur l'environnement extérieur, tout en préservant le confort et la santé des habitants à l'intérieur des bâtiments. Ce premier référentiel est traduit en décembre 2004, en norme officielle par un comité de l'Agence Française de Normalisation (AFNOR) puis, en février 2005, en référentiel privé de certification, spécifié pour les bâtiments tertiaires, par le Centre Scientifique et Technique du Bâtiment (CSTB).A travers l'étude historique de la trajectoire de la démarche HQE, la thèse rend compte de l'importante hybridation qui caractérise la « carrière » des dispositifs de normalisation technique. D'un problème public (Gusfield 1981) mis à l'agenda politique (Cobb & Elder 1972) par les autorités publiques au début des années 1990, la QE des bâtiments fait l'objet d'un travail de traduction (Callon 1986) et d'appropriation (Gusfield 1989) par un collège d'experts. La constitution d'un monde social commun (Strauss 1992) et d'une représentation commune (Fligstein 1997), suite à la création de l'association HQE et la publication du premier référentiel officiel, permet à la démarche HQE de s'imposer progressivement auprès des acteurs politiques, sociaux et économiques comme le standard français de la QE des bâtiments. Alors que le modèle économique du bâtiment est centré sur la concurrence par les prix, les « concepteurs » de la démarche HQE, en faisant la promesse aux professionnels (van Lente 1993, van Lente & Rip 1998) d'établir une économie de la qualité (Karpik 1989, 1995), parviennent à leur faire accepter la traduction du standard de la démarche HQE en norme française (NF) homologuée et en référentiel privé de certification.L'analyse met en exergue l'emprise exercée, par un collège d'experts, sur la fabrique de la normalisation technique ainsi que les tensions entre acteurs et professionnels autour de la transformation de l'architecture marchande du bâtiment (Fligstein 2001). L'étude de la démarche HQE montre ainsi le rôle politique joué par les collèges d'experts (Olshon 1993) qui, en participant à la création de nouveaux domaines de compétences et de règles marchandes, performent les modèles économiques (Callon 1998), que ce soit par l'instauration d'une économie de la qualité (Karpik 1989 & 1995, Musselin 1996), l'évolution des dispositifs collectifs de calcul et des business models (Callon & Muniesa 2003, Barrey 2006) la mise en place d'un marché de la prescription (Hatchuel 1995) ou encore, en reconfigurant les juridictions au sein des écologies professionnelles (Abbott 1988)
This research discusses the emergence, the formalization and the institutionalization processes of the Environmental High Quality (HQE) Buildings' standard in France.In 1992, the Environmental High Quality (HQE) approach was initiated in a workgroup of the Ministry of Housing and supported by public administration sector. An HQE Association was created in 1996 to promote and develop the approach. It was conceived as a “standard-based organization with the purpose of supporting one certain standard” (Brunsson & Jacobsson 2000: 50). Thus the HQE association's first mission was to create a reference defining environmental building quality that, in turn, would allow for a common language among actors in this field. The first version of the HQE standard is published in 1997 by the Association. It specified building characteristics, its tools and other elements of the building process, controlling the exterior environmental impacts and creating healthy conditions inside houses. In 2005, the certification of the HQE approach is launched. Progressively the certification of the HQE approach met a great success both in the public and private se ctors. Finally, in less than fifteen years this approach became the French standard of the Environmental Quality of Buildings.Standardization is not just a technical process but “thoroughly political process” (Olshan 1993: 320). Standards set the question about the political role played by experts in the performation of markets (Callon 1998). We claim that a research focused on the standardization-making is relevant to explain knowledge dynamics and markets innovation.Following the emergence of new environmental rules in the French building sector allows us to analyse the process of “standardization-making” by collective professional actors. Three main conclusive findings can be stressed :- The process of « standardization-making » don't essentially take place within the official standardization Agencies (as AFNOR). Collective professional actors take an important part in the process of “standardization-making” by operating as “institutional entrepreneurs” in emerging fields.- Within the process of “standardization-making”, collective professional actors fix new jurisdictions to shape the system of profession (notably the jurisdiction of Architect is reduced by the HQE advisors).- Standardization performs the markets by introducing and legitimating new rules and creating new Business Models (notably with the certification process)
Styles APA, Harvard, Vancouver, ISO, etc.
42

Majjad, Hicham. « ÉTUDE ET RÉALISATION DE MICRORÉSONATEURS EN TECHNIQUE LIGA-UV ». Phd thesis, Université de Franche-Comté, 2001. http://tel.archives-ouvertes.fr/tel-00009998.

Texte intégral
Résumé :
Cette étude a pour but la conception de microrésonateurs basses fréquences réalisés par une technique de microfabrication collective : la LIGA-UV. Il est donc nécessaire dans un premier temps de connaître les propriétés mécaniques du matériau choisi pour la réalisation, à savoir le nickel obtenu par électroformage. On détermine donc le module de Young ainsi que l'amortissement interne du matériau grâce au plus simple des microrésonateurs à savoir une micropoutre encastrée-libre. La démarche suivie lors de la phase de conception de ces microrésonateurs est la suivante : tout d'abord développer un modèle analytique qui permet de déterminer le maximum de paramètres géométriques. Ensuite, l'utilisation d'un modèle éléments finis, qui prend en compte plus de paramètres, permet d'affiner la géométrie grâce à des conditions aux limites proches de la réalité et de simuler le fonctionnement du microsystème. Ainsi, cette démarche a été suivie par la réalisation et la caractérisation de microrésonateurs en nickel à mode de flexion dans le plan qui vibrent à 70 kHz. L'excitation et la détection se font par le biais de peignes interdigités. Les fréquences expérimentales sont confrontées aux résultats des simulations avec une corrélation très satisfaisante. Enfin, un prototype de microrésonateur qui vibre à 6 MHz et dont l'originalité réside dans son mode de contour ou mode de Lamé a été réalisé. La vibration qui a lieu dans le plan a ses nœuds aux quatre coins et au centre de la plaque. L'excitation du microrésonateur se fait de manière électrostatique, quant à la détection elle se fait par l'intermédiaire d'un interféromètre laser hétérodyne. Les résultats ont montré un coefficient de qualité Q d'environ 1200 à l'air. Ce type de microrésonateur est le candidat idéal pour la réalisation d'un oscillateur intégré sous vide qui entraînerait une nette amélioration de ses performances mécaniques.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Wünsch, Jaime-Airton. « Intégration des contraintes du marché dans la conduite des cultures : effets de la différentiation des produits sur la conduite de la culture de pomme de terre de conservation dans les exploitations agricoles de Picardie ». Phd thesis, INAPG (AgroParisTech), 2004. http://pastel.archives-ouvertes.fr/pastel-00001191.

Texte intégral
Résumé :
Les modalités d'intégration dans les exploitations de nouveaux cahiers des charges générés par la segmentation du marché ont été étudiées sur la culture de pomme de terre, compte tenu de la différenciation des produits finaux des filières de transformation et du frais. Cette étude a porté sur l'analyse des décisions techniques prises par les agriculteurs dans un échantillon de seize exploitations de la région de Picardie. L'analyse comparative des divers cahiers des charges a permis de discerner selon le degré d'élaboration du produit final dans l'exploitation, trois types de produits: matière première, produit semi-fini et produit fini. Le niveau d'exigences par opération technique a été classé selon la manière de contrôler l'application par les agriculteurs des consignes de moyens en trois catégories: obligatoire, recommandé et indifférent. L'intégration de ces exigences exogènes dans la gestion de la sole d'une exploitation obéit à un principe de respect d'une obligation et à un principe de simplification. Le premier signifie que si une opération est obligatoire sur un type de produit, l'agriculteur respecte cette obligation au moins sur ce type de produit. Le principe de simplification stipule que lorsqu'une opération est indifférente sur la sole dans son ensemble, elle est conçue par l'agriculteur pour être homogénéisée le plus possible sur la sole. L'effet d'entraînement, conséquence des ces deux principes, consiste à extrapoler le plus possible sur la sole une exigence technique obligatoire ou recommandée pour un type de produit. Le nombre des lots de parcelles par opération qui en résulte est le plus souvent inférieur au nombre de produits présents dans la sole, mais supérieur ou égal au nombre d'obligations concernant l'opération. A l'échelle de l'ensemble du cycle cultural, les lots de culture sont généralement inférieurs au nombre de types de produits.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Dehez, Harold. « Production de faisceaux laser TM01 pour l'imagerie de haute résolution ». Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26142/26142.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
45

Dinet, Marie-Christine. « Contribution à la constitution d'un dossier cosmétique : le soluté podologique ACTO ». Dijon, 1992. http://www.theses.fr/1992DIJOP023.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
46

Parat, Sylvie. « Étude des relations entre climatisation, micro-organismes aéroportés et santé : une approche médicale, métrologique et technique ». Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE19010.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
47

Zill-e-Huma, Huma. « Hydrodiffusion assistée par micro-ondes : nouvelle technique d'éco-extraction ». Thesis, Avignon, 2010. http://www.theses.fr/2010AVIG0239/document.

Texte intégral
Résumé :
Microwave hydrodiffusion and gravity (MHG) technique is an attempt towards development of green extraction, as this environment friendly technique has completely eliminated the use of organic solvents. After describing the effectiveness of microwave radiations in extraction field in the first part of this manuscript, we have optimized this noval extraction method to get antioxidants rich extract. Along with studying the temperature distributions in different parts of plant material under the effect of microwave irradiations, we have analyzed the influence of microwaves in enhancing the antioxidant activity of extracts by using different tests. We have got the promising results concerning about the antioxidant rich extracts of different onion varieties and sea buckthorn in generalization step against the conventional solvent extracts. The application of vacuum system in this extraction system helped in restraining the limitations like dry extract yield and flavonol contents. Incomparison to traditional and recent extraction systems, the MHG extracts doesn’t require any filtration and purification steps as it works in absence of any solvent and water and are highly recommended for direct application in industrial products
L'hydrodiffusion générée par micro-ondes est une nouvelle technique d'extraction mise au point au sein de l'Université d'Avignon et des Pays de Vaucluse. Ce procédé est une combinaison entre une technique traditionnelle et une technologie innovante. En effet, le chauffage par micro-ondes a permis d'initier et de générer le transfert de matière et de chaleur de l"intérieur des matrices végétales (oignons) vers l'extérieur et de réduire de façon considérable les temps d'extraction des antioxydants sans aucune intervention de solvant. A titre de comparaison, les polyphénols de différentes variétés d'oignons ont été extraits par l'hydrodiffusion générée par micro-ondes et par la technique conventionnelle, l'extraction par solvant. Les rendements obtenus par micro-ondes sont presque identiques à ceux obtenus à l'aide d’un solvant alors que les temps d'extraction sont réduits. La capacité antioxydante des extraits micro-ondes est supérieure à celle obtenue par technique conventionelle. Ce qui présage des potentialités d'application dans le domaine agroalimentaire en particulier pour la valorisation des co-produits. Une étude cinétique de l'extraction, ainsi qu'une observation au microscope optique(cytologie) des matrices traitées soumises aux micro-ondes et au solvant ont mis en évidence la spécificité de l'extraction sans solvant assistée par micro-ondes au niveau des mécanismes de libération et d'extraction des molécules antioxydantes au sein du végétal. L'effet des micro-ondes a pour conséquence une libération plus rapide des principes actifs contenue dans la plante grâce à l'ouverture quasi instantanée des glandes et l'explosion des cellules. L'explication de la différence de composition chimique entre les procédés d'extraction par solvant et par micro-ondes pourrait être basée principalement sur des phénomènes de solubilité, de polarisation diélectrique ainsi qu'un transfert de matière et de chaleur inversé
Styles APA, Harvard, Vancouver, ISO, etc.
48

Fournier-Gosselin, Guillaume. « Étude du procédé d'évaporation des extraits de canneberge et bleuet sur la base des rendements énergétiques et de leur qualité ». Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29847/29847.pdf.

Texte intégral
Résumé :
Le projet vise l’optimisation de l’évaporation industrielle sous vide des extraits liquides de petits fruits, phase du procédé de production d’extraits nutraceutiques, afin d’augmenter son efficacité énergétique, tout en conservant une grande qualité de produit. Nous avons étudié l’impact de la température d’évaporation (55, 65 et 75 (C) sur trois paramètres : la consommation énergétique, le débit d’évaporation et la qualité des extraits. La consommation a été calculée par différentes mesures sur l’état du système et du produit. Les débits ont été mesurés par des différentiels de niveaux de réservoirs puis la qualité évaluée selon la méthode Folin-Ciocalteu. Au niveau de la consommation, celle-ci passe de 0,358 à 0,373 kWh/l en passant de 55 à 75°C. Pour les débits, ceux-ci augmentent de 462 l/h à 902 l/h en passant de 55 à 75 (C. En ce qui a trait à la qualité, aucun extrait ne présente de signes de détérioration.
The objective of this project is to optimize the evaporation of small fruit liquid extracts, a crucial step in the transformation process of nutraceutical extract production in order to increase its energetic efficiency while keeping a good product quality. The impact of temperature (55, 65 and 75°C) was studied over 3 main parameters; the energetic consumption, the vaporization rate and the extract quality. Its consumption was calculated based on measurements made on the state of the system and on the product. The vaporization rates were measured with level differentials on retention tanks and the product quality evaluation was based on the Folin-Ciocalteu method. For the energetic consumption, they increase from 0.358 to 0.373 kWh/l when passing from 55 to 75 °C. For the vaporization rates, they increase from 462 l/h to 902 l/h when passing from 55 to 75 °C. As for the quality, none of the extracts presents signs of deterioration.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Legrand, Emmanuel. « Réglementation européenne des dispositifs médicaux : application pratique à la rédaction d'un dossier technique d'un dispositif médical de classe 1 /Emmanuel Legrand ». Paris 5, 1999. http://www.theses.fr/1999PA05P202.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

Chaumet, Sylvie. « Contribution à la constitution d'un dossier cosmétique : l'eau lustrale ». Dijon, 1992. http://www.theses.fr/1992DIJOP022.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie