Academic literature on the topic 'Performance de référence'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Performance de référence.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Performance de référence"

1

ROBERT-GRANIÉ, C., A. LEGARRA, and V. DUCROCQ. "Principes de base de la sélection génomique." INRAE Productions Animales 24, no. 4 (September 8, 2011): 331–40. http://dx.doi.org/10.20870/productions-animales.2011.24.4.3265.

Full text
Abstract:
Avec l’arrivée de données de génotypage à haut débit, il est maintenant possible d’estimer la valeur génétique d’animaux candidatsà la sélection dès leur naissance, sans attendre la collecte de phénotypes. La sélection génomique bouleverse complètement les perspectivesen amélioration génétique. Elle nécessite la constitution d’une population de référence formée d’animaux génotypés (jusqu’àrécemment, il s’agissait principalement de mâles) et ayant des performances précises, par exemple la performance moyenne de leursfilles. Les évaluations génomiques consistent à prédire les phénotypes dans cette population de référence comme la somme des effetsdes marqueurs moléculaires. Le problème méthodologique principal est que le nombre d’effets à estimer est typiquement beaucoupplus élevé que le nombre de phénotypes disponibles. Nous décrivons les idées générales de diverses familles de méthodes proposées :BLUP génomique basé sur une parenté entre individus calculée à partir des marqueurs, méthodes Bayésiennes plus flexibles maisaussi plus coûteuses, méthodes de sélection de variables, méthode en une seule étape qui combine évaluation génétique nationale etévaluation génomique. La précision des évaluations génomiques est faite par validation croisée chez les animaux les plus jeunes de lapopulation de référence. La taille de la population de référence, la manière de prendre en compte les QTL à effet fort et le degré d’apparentemententre candidats à la sélection et animaux de la population de référence ont un impact non négligeable sur l’efficacité desméthodes de sélection génomique.
APA, Harvard, Vancouver, ISO, and other styles
2

Saizonou, J., A. Kpozèhouen, J. Guédégbé Capo-Chichi, V. Mongbo, D. Capo-Chichi, and M. Makoutodé. "La performance du système de référence et contre-référence des patients tuberculeux infectés par le VIH dans le Département du Littoral au Bénin." Revue d'Épidémiologie et de Santé Publique 62 (September 2014): S233—S234. http://dx.doi.org/10.1016/j.respe.2014.06.201.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Desjardins, Pierre-Marcel. "Le développement économique de l’Acadie du Nouveau-Brunswick, de 1986 à 2011." Articles, no. 28 (February 22, 2018): 35–58. http://dx.doi.org/10.7202/1043412ar.

Full text
Abstract:
Il y a quelques décennies, la plupart des régions acadiennes du Nouveau-Brunswick comptaient parmi les plus pauvres au Canada. L’objectif principal de cet article est de voir si ces disparités existent toujours. Nous partons du constat que l’Acadie du Nouveau-Brunswick est essentiellement rurale. Notre analyse s’inscrit donc dans une perspective urbaine-rurale. Quatre groupes de variables (démographie, revenus, éducation et marché du travail) sont utilisés pour évaluer la performance économique des régions acadiennes entre 1986 à 2011. Nous observons que les comtés du sud-est de la province, Kent et surtout Westmorland, ont connu une performance généralement supérieure aux régions de référence. C’est moins le cas pour les comtés du nord de la province, qu’on les compare à la moyenne nationale ou à la moyenne des régions de référence. La seule variable où il y a eu une amélioration dans tous les comtés acadiens est la dépendance envers les transferts gouvernementaux. Or ce fait ne reflète pas nécessairement une amélioration des conditions économiques, mais résulte peut-être autant, sinon plus, des modifications apportées à certains programmes gouvernementaux, comme l’assurance-emploi. Notons également d’importants défis au chapitre de la démographie, autant au niveau du taux de croissance de la population que du taux d’immigration.
APA, Harvard, Vancouver, ISO, and other styles
4

Tulkens, Henry. "La performance productive d’un service public. Définitions, méthodes de mesure et application à la Régie des Postes en Belgique." L'Actualité économique 62, no. 2 (January 27, 2009): 306–35. http://dx.doi.org/10.7202/601373ar.

Full text
Abstract:
Résumé La notion de performance productive est ici définie par référence au fait que l’entreprise opère plus ou moins près de la frontière de son ensemble de production. Il s’agit de l’efficacité technique au sens de Koopmans. Trois méthodes de mesure de celle-ci sont proposées, et ensuite appliquées aux opérations de près de 800 bureaux de poste en Belgique en 1980 (observations portant sur un mois) et en 1983 (observations sur douze mois). Si le niveau moyen de l’efficacité technique observée s’avère relativement élevé, son évolution mensuelle au cours de l’année 1983 révèle une forte rigidité d’adaptation de la main-d’oeuvre aux pointes saisonnières du trafic postal.
APA, Harvard, Vancouver, ISO, and other styles
5

Ajzen, Michel, Giseline Rondeaux, François Pichault, and Laurent Taskin. "Performance et innovation en PME : une relation à questionner1." Revue internationale P.M.E. 29, no. 2 (November 9, 2016): 65–94. http://dx.doi.org/10.7202/1037923ar.

Full text
Abstract:
Partant du constat qu’en sciences de gestion, les politiques de management auraient toutes, pour ambition ultime, de contribuer à la performance de l’entreprise et que la capacité d’innovation d’une entreprise serait une condition sine qua non de cette performance, cet article propose une dénaturalisation de cette évidence managériale. Nous montrons que (i) les notions de performance et d’innovation font référence à des contenus très variés selon les typologies considérées ; (ii) la performance est principalement mesurée par des indicateurs distaux (essentiellement financiers) ; (iii) la nature de l’interdépendance entre innovation et performance n’est pas univoque. En reconsidérant les variables contextuelles, nous montrons l’intérêt d’adopter une perspective multiple pour appréhender l’innovation et la performance dans les PME. Cette perspective multiple capitalise sur la diversité des caractérisations de ces deux notions, dans une démarche agnostique n’établissant aucun lien entre elles a priori. Cet article propose ainsi une méthodologie de mesure de la performance et de l’innovation en PME qui mobilise des indicateurs spécifiques à ces organisations. Ce faisant, nous participons à une démarche critique visant à émanciper les PME et, plus largement, les pouvoirs publics et régulatoires, de normes performatives étroites.
APA, Harvard, Vancouver, ISO, and other styles
6

Teti, Matthew. "Occupying UCI: Chris Burden’s Five Day Locker Piece as Institutional Critique." RACAR : Revue d'art canadienne 43, no. 1 (August 7, 2018): 39–52. http://dx.doi.org/10.7202/1050819ar.

Full text
Abstract:
Le lundi matin du 26 avril 1971, Chris Burden grimpe dans un casier de 60 × 60 × 90 centimètres dans un atelier de l’Université de Californie à Irvine (UCI), où il a la semaine pour présenter son projet de maîtrise : la performance d’endurance Five Day Locker Piece, durant laquelle il s’enferme 105 heures. Même si la référence n’est nullement explicite, le geste de Burden est semblable aux occupations protestataires de la fin des années 1960 qui paralysèrent les campus universitaires à travers les États-Unis. Cet article a pour but de réexaminer Five Day Locker Piece comme une critique institutionnelle dans laquelle l’artiste occupe un espace de l’école d’art, afin de perturber le flux des activités habituelles. À l’aide d’interviews et de documents archivistiques disponibles depuis peu, il réévalue une des oeuvres fondatrices de la performance des années 1970, au regard de sa place dans le canon de la critique institutionnelle.
APA, Harvard, Vancouver, ISO, and other styles
7

Eugène KOUADIO, Kouakou, Kouabena KREMAN, Kalo Laciné BAMBA, and Gouagoua Severin KOUADJA. "Effet de la farine d’épluchures de manioc sur les performances zootechniques et économiques du poulet de chair au démarrage en Côte d’Ivoire." Journal of Animal & Plant Sciences 42.2 (November 29, 2019): 7237–44. http://dx.doi.org/10.35759/janmplsci.v42-2.5.

Full text
Abstract:
Une étude a été réalisée pour évaluer l’effet de la farine d’épluchures de manioc incorporée dans l’aliment sur les performances zootechniques et économiques du poulet de chair en phase démarrage. Elle a porté sur 240 poussins chair, de souche "Cobb 500" d’un jour d’âge, répartis dans 12 unités expérimentales suivant un dispositif complètement randomisé comportant 4 traitements et 3 répétitions chacun. Il s’agit d’un aliment témoin commercial (T) représentant l’aliment de référence et trois aliments expérimentaux comportant respectivement 0 % (A0), 15 % (A15) et 30 % (A30) de la farine d’épluchures de manioc. Après 21 jours d’élevage, il a été observé qu’aucune différence significative n’a été observée pour les performances de croissance (le poids vif, le gain de poids et le GMQ) entre les poulets du lot témoin (T) et ceux soumis aux traitements A0 et A15. A 30 % de taux d’inclusion de la farine d’épluchures de manioc, une régression des performances de croissance des poussins a été constatée. La consommation alimentaire et l’indice de consommation sont statistiquement identiques pour les traitements T, A0 et A15 respectivement. Par contre, ils augmentent avec 30 % d’inclusion. Les aliments A0 et A15 ont eu les coûts de production du kilogramme de poids vifs les plus bas avec respectivement une différence de 130,94 FCFA/kgPv et de 129,09 FCFA/kgPv comparés à l’aliment de référence (T). Dans les conditions de la présente étude, il a été conclu qu’en phase démarrage, un taux d’inclusion de 15 % de la farine d’épluchures de manioc dans l’aliment permet de produire des poussins de performances zootechniques comparables aux rations A0 et T. ABSTRACT Effect of cassava peels flour on the economic and zootechnical performance of broiler chicken at startup in Côte d'Ivoire A study was carried out to evaluate the effect of cassava peels flour in the feed on the zootechnical and economic performance of the broiler at startup. It related to 240 chicks, of the "Cobb 500" strain of one day of age, distributed in 12 experimental units according to a completely randomized device comprising 4 treatments and 3 repetitions each. It is a commercial control feed (T) representing the reference feed and three experimental feeds respectively comprising 0 (A0), 15 (A15) and 30 % (A30) of the cassava peels flour. After 21 days of breeding, no significant difference in growth performance (body weight, weight gain and GMQ) was observed between the chickens in the control group (T) and those subjected to the treatments A0 and A15. At 30 % inclusion rate of peelings a growth performance depression of the chicks was noted. Feed consumption and consumption index were statistically identical for treatments T, A0 and A15. On the other hand, they increase with 30% inclusion. The treatment A0 and A15 had the lowest production costs per kilogram of live weight with a difference of 130.94 FCFA / kgPv and 129.09 FCFA / kgPv, respectively, relative to the reference feed (T). Under the conditions of the present study, it was concluded that in the start-up phase, an inclusion rate of 15 % of the cassava peel flour in the feed makes it possible to produce chicks of zootechnical performances comparable to the A0 and T rations.
APA, Harvard, Vancouver, ISO, and other styles
8

Ismita, N., and Chavan Lokesh. "Effects of different nanoclay loadings on the physical and mechanical properties of Melia composita particle board." BOIS & FORETS DES TROPIQUES 334 (January 2, 2018): 7. http://dx.doi.org/10.19182/bft2017.334.a31487.

Full text
Abstract:
La présente étude a permis d’analyser les effets de l’ajout d’une charge de nanoparticules de Cloisite Na+ (nanoargile) dans une résine d’urée-formaldéhyde utilisée dans la fabrication de panneaux de particules. La Cloisite Na+ a été incorporée à 2 %, 4 % et 6 % de la masse sèche de résine. La densité, l’absorption d’eau (AE), le gonflement (G), les modules de rupture (MR) et d’élasticité (ME) et la résistance interne à l’arrachement (RI) ont été mesurés pour évaluer la performance des panneaux. Des améliorations significatives ont été constatées pour G, MR et ME avec de la Cloisite Na+ incor- porée dans la résine. Plus précisément, pour les échantillons au liant UF additionné de 6 % de nanoargile, les valeurs MR et ME augmentent respectivement de 34 % et de 65 % par rapport aux panneaux de référence.
APA, Harvard, Vancouver, ISO, and other styles
9

Mac Dougall, Jill. "Buhamba ou " l'ambivalence gémellaire ". Théâtre et rituel, glissements et rencontres." Anthropologie et Sociétés 22, no. 1 (September 10, 2003): 41–61. http://dx.doi.org/10.7202/015521ar.

Full text
Abstract:
Résumé RÉSUMÉ Buhamba ou « l'ambivalence gémellaire ». Théâtre et rituel, glissements et rencontres Buhamba est un terme luba-Shankadi qui évoque les problèmes de la naissance gémellaire considérée comme une bénédiction et un malheur dans de nombreuses traditions africaines. Référence à la duplicité de la nature et aux rites et célébrations destinés à renverser l'alté-rité des jumeaux. Buhamba a servi de point de départ et de titre à une production du Mwondo Théâtre de Lubumbashi. une troupe populaire zaïroise. Dans cette œuvre, le drame gémellaire est doublé du drame qui marque l'actualité sociopolitique des spectateurs. En suivant pas à pas la recréation de l'univers symbolique et le jeu interactif d'une performance qui a débouché sur une fête, cette recherche explore les prolongements mythiques, ludiques et politiques d'une tradition sacrée dans un cadre urbain. Mots clés : Mac Dougall. symbolisme, jumeaux, rituel, théâtre. Zaïre
APA, Harvard, Vancouver, ISO, and other styles
10

Sotomayor, O. A. Z., S. W. Park, and C. Garcia. "Modèle de référence pour évaluer différentes stratégies de contrôle dans des usines de traitement des eaux usées." Revue des sciences de l'eau 15, no. 2 (April 12, 2005): 543–56. http://dx.doi.org/10.7202/705468ar.

Full text
Abstract:
Dans la majorité des pays, il existe des lois strictes pour réglementer la qualité de l'eau provenant des systèmes de traitement d'eaux usées. Ces spécifications légales sont essentiellement influencées par des questions telles que la santé publique, l'environnement et les facteurs économiques. Les objectifs fondamentaux des procédés de traitement des eaux usées sont d'atteindre, avec l'utilisation d'énergie et à des coûts opérationnels minimaux, une concentration de matière biodégradable et de nutriments suffisamment basse dans les effluents et une production minimale de boues. Les systèmes de traitement des eaux usées sont de grandes dimensions et complexes. Ils sont aussi sujets à des variations importantes dans le flux d'entrée et dans la composition de l'eau à l'entrée, qui ne sont pas bien connues. Le procédé est multivariable, avec beaucoup de couplages croisés et nonlinéarités importantes. La dynamique dépend de la variabilité des flux d'entrée et de la complexité des phénomènes physico-chimiques et biochimiques. Le comportement dynamique démontre une énorme variation de temps de réponse (de quelques minutes jusqu'à plusieurs jours). Ces problèmes, combinés aux objectifs les plus importants du traitement des eaux usées, donnent lieu à une demande de techniques de commande avancées, qui peuvent conduire à une réduction du volume à traiter, une diminution importante dans l'utilisation des produits chimiques, et une possibilité d'économie d'énergie et une diminution des coûts d'opération. Dans ce travail, un " benchmark " (modèle de référence) d'un système complet de traitement des eaux usées a été développé, pour évaluer, à partir de simulations, la performance des différentes stratégies de commande proposées, y compris les techniques de respirométrie ("respirometry"). Ce travail s'aparente au Programme Européen d'Action COST (COST 624), et au projet "Respirometry in Control of the Activated Sludge Process (IWA Respirometry Task Group"). Le "Benchmark" représente un procédé de prédénitrification de la boue activée pour éliminer la matière organique et l'azote des effluents domestiques. Le simulateur est basé sur des modèles largement acceptés par la communauté internationale et il a été implanté dans un environnement Matlab/Simulink. La topologie du système et le développement complet du simulateur sont présentés dans ce travail. L'effet des conditions initiales et des caractéristiques du flux d'entrée (valeurs moyennes) sont analysés, aussi bien qu'un test en boucle ouverte. Les stratégies suivantes ont été sélectionnées en guise d'illustration de l'application de la commande automatique dans le "benchmark" (seulement avec commande proportionnel-intégral monovariable): commande basée sur la concentration d'oxygène dissous ("DO concentration-based control"), commande par respirométrie (commande par biomasse active et commande par taux de respiration bactérienne), et commande par concentration de nitrate (commande par dosage externe de carbone et recyclage du flux interne). Le "benchmark" est continuellement mis a jour et sa prochaine version va incorporer des fonctions d'optimisation en temps réel (on line) pour le procédé.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Performance de référence"

1

Le, Chaffotec Alexandra. "Autorité et performance dans les réseaux : l'exemple de la production de soins par les centres de référence maladies rares." Paris 1, 2012. http://www.theses.fr/2012PA010027.

Full text
Abstract:
L'objectif central de ce travail de thèse est de mettre en évidence le lien entre l'organisation des réseaux et leur efficacité. Pour ce faire, nous conduisons notre analyse en prenant appui sur le paradigme de la Nouvelle Economie Institutionnelle, qui considère les réseaux comme des modes d'organisation hybrides portant les échanges et l'autorité comme le mode de coordination de ces hybrides, et sur les hypothèses de la théorie des coûts de transaction. Notre champ empirique est le réseau "centre de référence maladies rares" (CR): nous avons conduit une étude auprès de 25 CR afférant respectivement à 8 maladies rares et 587 personnes atteintes d'une de ces 8 maladies rares. Après avoir modélisé les avantages organisationnels des réseaux, en termes de gains informationnels et les avoir mis en perspectives avec les problèmes informationnels et de connaissance inhérents à la production de soins pour les maladies rares, nous construisons une typologie d'autorités coordinatrices de réseaux, fondée sur les caractéristiques de ces autorités. Nous identifions quatre designs d'autorité: l'autorité légitime, l'autorité à ancrer, l'autorité concurrencée et l'autorité contestée. Nous mettons enfin en lumière, au moyen de tests paramétriques, la réalité d'une relation entre le type d'autorité et la performance du CR, définie comme l'amélioration de l'accès au soin par les malades et l'amélioration des connaissances sur les maladies. L'autorité légitime est celle qui permet au réseau d'être le plus efficace par rapport aux types de coordination.
APA, Harvard, Vancouver, ISO, and other styles
2

Boussaïd, Boumedyen. "Contribution à la tolérance active aux défauts des systèmes dynamiques par gestion des références." Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10052/document.

Full text
Abstract:
Le sujet de cette thèse s'inscrit dans le cadre des systèmes tolérants aux défauts sous contraintes avec prise en considération de la dégradation des performances. L'objectif principal de ce travail consiste à considérer la gestion des références comme une partie intégrante du système de commande tolérant aux défauts. Dans la littérature, la plupart des méthodes actives de tolérance aux défauts supposent que le recouvrement du système nominal est toujours possible et que les performances nominales sont toujours atteignables. Cette condition est peu réaliste dans la pratique puisque plusieurs éléments empêchent le système reconfiguré de revenir à son mode de fonctionnement nominal. Dans le domaine industriel, l'ensemble des contraintes du système est un handicap majeur qui limite le fonctionnement nominal d'un système à des plages fonctionnelles bien définies. Ces plages fonctionnelles sont énormément réduites après l'apparition de certains défauts dits sévères et qui affectent généralement les actionneurs. Par conséquent, cette hypothèse de recouvrement des performances nominales dans le cas des systèmes sous contraintes limite l'ensemble des défauts traités par ces méthodes classiques à quelques défauts dits mineurs. Afin de remédier a ce problème, une architecture de reconfiguration structurée en deux niveaux est proposée. Le premier concerne les algorithmes classiques de reconfiguration en agissant sur un contrôleur reconfigurable, et le deuxième agit sur le module de gestion des références conçu à base d'un gouverneur de référence avec offset. La connaissance exacte du modèle en post-défaut nécessite un système de détection et diagnostic de défaut qui permet d'estimer l'amplitude de défaut, ce qui conduit à la synthèse d'un observateur adaptatif d'estimation de défaut à base de LMI. Afin de synchroniser le déroulement du processus FTC, deux indices ont été conçus. Le premier indice porte sur le mécanisme de décision permettant de sélectionner le/les niveau(x) de reconfiguration nécessaire(s) à l'accommodation du défaut. Le deuxième indice permet d'évaluer le niveau de dégradation du système « post-défaut ». Une dégradation de performance est toujours admise tant que les consignes de sécurité sont respectées
The subject of this thesis is part of fault tolerant control systems under constraints with consideration of performance degradation. The main objective of this work is to consider the reference management as an integral part of the fault tolerant control system. In the literature, the most active methods of fault tolerance imply that recovery of the nominal system is always possible and that performance ratings are still achievable. This requirement is unrealistic in practice because several factors prevent the system reconfigured back to its nominal operating mode. In industry, the set of system constraints is a major problem which limits the nominal operating of the system to defined functional ranges. These functional ranges are reduced dramatically after the occurrence of some faults known as severe faults that generally affect the capacity of actuators. Therefore, this assumption of nominal performance recovery in the case of systems under constraints limits the set of faults treated with these conventional methods to a few minor faults. To remedy this problem, architecture of reconfiguration structured in two levels is proposed. The first level concerns the conventional reconfiguration algorithms acting on a reconfigurable controller, and the second acts on the module of reference management based on a reference-offset governor. The exact knowledge of the post-fault model requires a fault detection and diagnosis system to estimate the magnitude of fault, which led to the synthesis of an adaptive observer based LMI for estimating fault. To synchronize the FTC process flow, two indices have been designed. The first index refers to the decision mechanism for selecting the reconfiguration level required for the accommodation of the fault. The second index used to evaluate the level of the degradation of the system "post-fault". The performance degradation is still allowed as long as safety instructions are respected
APA, Harvard, Vancouver, ISO, and other styles
3

Boussaid, Boumedyen. "Contribution à la tolérance active aux défauts des systèmes dynamiques par gestion des références." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00624964.

Full text
Abstract:
Le sujet de cette thèse s'inscrit dans le cadre des systèmes tolérants aux défauts sous contraintes avec prise en considération de la dégradation des performances. L'objectif principal de ce travail consiste à considérer la gestion des références comme une partie intégrante du système de commande tolérant aux défauts. Dans la littérature, la plupart des méthodes actives de tolérance aux défauts supposent que le recouvrement du système nominal est toujours possible et que les performances nominales sont toujours atteignables. Cette condition est peu réaliste dans la pratique puisque plusieurs éléments empêchent le système reconfiguré de revenir à son mode de fonctionnement nominal. Dans le domaine industriel, l'ensemble des contraintes du système est un handicap majeur qui limite le fonctionnement nominal d'un système à des plages fonctionnelles bien définies. Ces plages fonctionnelles sont énormément réduites après l'apparition de certains défauts dits sévères et qui affectent généralement les actionneurs. Par conséquent, cette hypothèse de recouvrement des performances nominales dans le cas des systèmes sous contraintes limite l'ensemble des défauts traités par ces méthodes classiques à quelques défauts dits mineurs. Afin de remédier a ce problème, une architecture de reconfiguration structurée en deux niveaux est proposée. Le premier concerne les algorithmes classiques de reconfiguration en agissant sur un contrôleur reconfigurable, et le deuxième agit sur le module de gestion des références conçu à base d'un gouverneur de référence avec offset. La connaissance exacte du modèle en post-défaut nécessite un système de détection et diagnostic de défaut qui permet d'estimer l'amplitude de défaut, ce qui conduit à la synthèse d'un observateur adaptatif d'estimation de défaut à base de LMI. Afin de synchroniser le déroulement du processus FTC, deux indices ont été conçus. Le premier indice porte sur le mécanisme de décision permettant de sélectionner le/les niveau(x) de reconfiguration nécessaire(s) à l'accommodation du défaut. Le deuxième indice permet d'évaluer le niveau de dégradation du système " post-défaut ". Une dégradation de performance est toujours admise tant que les consignes de sécurité sont respectées.
APA, Harvard, Vancouver, ISO, and other styles
4

Drut, Amandine. "La mesure de l’homocystéinémie plasmatique chez le chat : validité de la méthode de chromatographie liquide haute performance couplée à la spectrométrie de masse en tandem, déterminants biologiques, intervalle de référence et application aux maladies rénales chroniques." Thesis, Nantes, Ecole nationale vétérinaire, 2019. http://www.theses.fr/2019ONIR131F.

Full text
Abstract:
L'homocystéinémie est un bio-marqueur utilisé en médecine humaine pour le diagnostic précoce des carences en cobalamine ou en folates et pour l’évaluation du risque cardiovasculaire dans certains contextes pathologiques comme l’insuffisance rénale chronique. En médecine vétérinaire, plusieurs études commencent à s’intéresser au statut de l’homocystéine chez l’animal malade. Le premier objectif de notre étude a été de définir les déterminants biologiques et l’intervalle de référence de l’homocystéinémie plamatique chez le chat adulte sain, après avoir vérifié la validité de la méthode de chromatographie liquide haute performance – spectrométrie de masse en tandem. Notre travail a confirmé l’adéquation de cette technique pour le dosage de l’homocystéine dans le plasma de chat. L’étude de l’homocytéinémie plasmatique chez le chat sain a fourni un intervalle de référence étendu, montrant une forte variabilité interindividuelle que nous ne sommes pas parvenus à expliquer par des déterminants épidémiologiques. Une influence de la teneur alimentaire en protéines et de la créatininémie a été mis en évidence. Une signature métabolique forte a été identifiée au sein d’un groupe d’animaux présentant une homocystéinémie élevée, suggérant une altération du métabolisme de l’homocystéine chez certains chats sains. Le second objectif de notre travail a été de comparer l’homocystéinémie plasmatique entre une population de chats atteints de maladie rénale chronique stable et la population de chats sains établie précédemment. Cette étude menée sur un petit nombre de chats atteints de maladie rénale chronique n’a pas mis en évidence de différence par rapport à la population de référence
In human medicine, plasma plasma homocysteine concentration is a biomarker used for early diagnosis of cobalamin or folate deficiencies, and cardiovascular risk assessment in some medical conditions such as chronic kidney failure. ln veterinary medicine, several studies are beginning to address the status of homocysteine in diseased animals. The first objective of our study was to define the biological determinants and the reference interval of plasma homocysteine concentration in healthy adult cats, after having verified the concentration validity of the high-performance liquid chromatography - tandem mass spectrometry method. Our work confirmed the suitability of this technique for the measurement of homocysteine in feline plasma. The study of plasma homocysteine concentrations in healthy cats provided a particularly wide reference interval, showing high inter-individual variability that we were not able to explain by epidemiological determinants. We described an influence of the dietary protein content and plasma creatinine concentration. A strong metabolic signature was identified in a group of animals with elevated plasma homocysteine concentrations, suggesting alterations in the homocysteine metabolism in some healthy cats. The second aim of our work was to compare plasma homocysteine concentrations between a population of cats with stable chronic kidney disease and the previously established population of healthy individuals. This study of a small number of cats with chronic kidney disease did not show any differences from the reference population
APA, Harvard, Vancouver, ISO, and other styles
5

Rahajandraibe, Wenceslas. "Contribution à l'optimisation de performances des références de tension Bandgap." Montpellier 2, 2002. http://www.theses.fr/2002MON20127.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Le, Hénaff Benjamin. "Comparaisons entre groupes, anonymat, et performances cognitives : expérimentations dans les environnements numériques et en coprésence." Thesis, Rennes 2, 2016. http://www.theses.fr/2016REN20020/document.

Full text
Abstract:
L’objectif de cette thèse est d’étudier comment l’identification à un groupe peut conduire à de meilleures performances cognitives en s’appuyant sur la théorie de l’identité sociale (Tajfel & Turner, 1986). Cette théorie avance que l’identité sociale d’un individu repose en partie sur la comparaison entre son groupe d’appartenance et un autre groupe. La quête d’une identité sociale positive pousserait l’individu à agir pour le bien de son groupe afin de se placer dans une position avantageuse par rapport à un autre groupe. Le modèle SIDE (Social Identity model of Deindividuation Effects, Reicher, Spears & Postmes, 1995) a étendu cette théorie en considérant que l’anonymat facilite le passage de l’identité personnelle à l’identité sociale et la renforce. Notre recherche a été déclinée en trois axes. Les deux premiers ont examiné l’effet de l’anonymat et de la comparaison entre groupes sur les performances à des exercices d’informatique et de statistiques réalisés en environnements numériques. Le dernier axe a étudié les effets de l’anonymat et de la comparaison entre groupes à une tâche de production d’idées créatives en situation de coprésence. Conformément aux prédictions du modèle SIDE, les résultats ont montré que la comparaison intergroupe en situation d’anonymat active l’identité sociale des membres d’un groupe et les conduits à avoir de meilleures performances à des tâches cognitives. De plus, nous avons mis en évidence que des différences individuelles, comme le niveau de connaissances antérieures, viennent modérer les effets du modèle SIDE. Les implications pratiques et théoriques de ces résultats sont discutées, et des pistes de recherches futures sont proposées
The aim of this thesis is to study how group identification may lead to better cognitive performance, based on social identity theory (Tajfel & Turner, 1986). This theory states that the social identity of individuals is partly based on comparison of their group with another group. The search for a positive social identity should drive individuals to act on behalf of their own group, putting them in an advantageous position compared to another group. The SIDE Model (Social Identity model of Deindividuation Effects, Reicher, Spears & Postmes, 1995) extends this theory by postulating that anonymity could facilitate the transition from personal to social identity, which is reinforced in the process. Our study was organized along three lines of research. The first two examined how anonymity and intergroup comparison affects performance on computer quizzes and statistics exercises in a web-based learning environment. The third studied the effects of anonymity and intergroup comparison on the generation of creative ideas in the presence of others. Consistent with the SIDE Model, we found that intergroup comparison under anonymity conditions activated group members’ social identity, leading to better performance on cognitive tasks. We also found that individual differences, such as prior knowledge, may moderate the effects of the SIDE model. The practical and theoretical implications of these results are discussed, and future research directions are suggested
APA, Harvard, Vancouver, ISO, and other styles
7

Krantz, Norbert. "Apprendre à lancer le javelot, une approche des transformations : tome 1, référents théoriques : tome 2, partie expérimentale." Bordeaux 2, 2006. http://www.theses.fr/2006BOR21342.

Full text
Abstract:
L’apprentissage moteur a pour objectif la modification des « pattern » moteurs de réponse ; l’évaluation des transformations quantitatives et qualitatives induites par les stratégies d’intervention constitue un dossier particulièrement difficile à mener. La plupart des procédures dans le domaine des lancers athlétiques n’ont pas été validées d’un point de vue strictement expérimental ; très souvent, elles témoignent des représentations et des attentes exprimées par les intervenants. Parfois, elles constituent de véritables croyances. Les nombreuses informations que nous avons prélevées tout au long du processus, sur une grande quantité d’étudiants en Sciences et Techniques des Activités Physiques, nous ont conduit à mieux appréhender le phénomène. Elles ont permis de quantifier les progrès des sujets apprenant à lancer le javelot, sur un double plan : normatif et singulier. Nous avons ainsi pu démontrer que la performance est tributaire aux premiers stades de l’apprentissage du temps d’engagement moteur ; l’existence d’une équation de prédiction présentant un fort coefficient de détermination permet d’illustrer cette relation, tant chez les hommes que les femmes. L’allure des courbes démontre cependant l’existence de disparités puisqu’on y perçoit des accélérations, des stagnations et des régressions que seule une analyse causale permet d’expliquer. Les analyses statistiques permettent de délimiter pour un certain nombre d’hypothèses, l’existence d’un intervalle de validité quant elles ne permettent pas de démentir la pertinence de certains point de vue; elles suggèrent des protocoles d’évaluation et de notation économiques et fiables parce que reposant sur des faits avérés. Nous pensons que cette étude peut servir d’exemple, non seulement du point de vue de la démarche que d’autres disciplines pourraient adopter mais également du point de vue des connaissances générales associées à l’apprentissage moteur
The objectif of motor learning consist in a modification of answering motor pattern; quantitative and qualitative evaluation of transformations due to intervention strategy is a particularly hard task. Most of the procedures in athletics throws did not have a strict experimental validation. Very often they are a testimony of the teacher’s representations and expectations. Sometimes they consist in real believes. The numerous informations we have collected all along the process, on a lot of PE and sports students, have led us to a better conception of the phenomenon. We have been able to quantify the improvement of subjects learning javelin throw, on both normative and singular view. Thus we have been in a position to prove that, on first stage of learning process, performance depends on time committment in motor skill. The existence of a prediction equation showing a strong determination coefficient allows the illustration of this connection, as much with men and women. However the shapes of the curves demonstrates the existence of disparities since we perceive accelerations, stagnations, and regressions that can be explained only by a causal analysis. The statistics analysis allows to delimitate, for a certain number of hypotheses, the existence of a validity space when they don’t allow to refute the pertinence of certain points of view; they suggest some economics and reliable evaluation protocoles that rely on proved facts. We think that study could serve as an example, not only for the approach that other disciplines could adopt, but even for the general knowledge of motor learning
APA, Harvard, Vancouver, ISO, and other styles
8

Simon, Jean-Yves. "Développement de couches barrières multicouches hautes performances pour les OLEDs et OPVs. Références : DRT SL-DRT-10-1008." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT091.

Full text
Abstract:
Depuis quelques années, un essor important est observé pour les diodes électroluminescentes organiques (OLEDs) se traduisant par une intégration progressive dans de nombreux appareils électroniques destinés au grand public : smartphones, tablettes tactiles, téléviseurs, … Cependant, malgré de nombreux avantages, la haute sensibilité des empilements organiques à l'atmosphère ambiante, et l'observation de dégradations à la surface des dispositifs, sont les causes principales limitant l'utilisation massive de cette technologie. L'encapsulation des dispositifs à l'aide d'empilements barrières est susceptible de résoudre tout ou en partie ces problèmes, L'objectif de cette thèse est de développer et de caractériser de nouveaux empilements multicouches inorganique-organique barrières à l'humidité et à l'oxygène, afin de maintenir les performances des OLEDs le plus longtemps possibles. Des solutions d'encapsulations couches minces, réalisées directement à la surface des dispositifs, ont été développées et évaluées sur OLEDs. Les empilements sont composés d'une alternance entre un film d'oxyde d'aluminium déposé par ALD (Atomic Layer Deposition) et une couche de résine organique. Les empilements OLEDs utilisés étant fragiles, les dépôts ont été effectués dans des conditions douces, notamment à basse température (T < 100 °C). Parallèlement, une méthode de caractérisation des propriétés barrières a été mise en place, afin d'évaluer les performances intrinsèques des différentes couches ou empilements d'encapsulation utilisés, et apporter une compréhension sur le mécanisme de protection
Over the last few years, a significant growth is observed for OLEDs (Organic Light-Emitting Diodes) resulting in the gradual integration into many electronic devices for mass-market applications: smartphones, touchscreen tablet, TV … However, despite many advantages, the high sensitivity of the organic stacks in ambient atmosphere, and the surface degradation of the devices, are the main causes limiting the massive use of this technology. The encapsulation of the devices thanks to barrier multilayers can solve some or all these problems. The aim of this thesis is to develop and to characterize new inorganic-organic multilayers as a barrier against moisture and oxygen, in order to preserve OLEDs performances. Solutions for the thin layer encapsulation, made directly in the surface of the devices, have been developed and evaluated on OLEDs. The encapsulation stacks are based on alternating between a film of aluminum oxide deposited by ALD (Atomic Layer Deposition) and a layer of organic resin. Stacks of OLEDs are fragile, and the deposits have been carried out under mild conditions, especially when temperatures are low (T < 100 °C). A the same time, a method for the characterization of the barrier properties has been carried out, in order to evaluate the intrinsic performances of thin films or encapsulation stacks used, and to provide an understanding of the protection mechanism
APA, Harvard, Vancouver, ISO, and other styles
9

Bronet, Vincent. "Amélioration de la performance industrielle à partir d’un processus Référent : déploiement inter entreprises de bonnes pratiques." Chambéry, 2006. http://www.theses.fr/2006CHAMS020.

Full text
Abstract:
Nos travaux de recherche ont porté sur la proposition d'une méthode et d'outils permettant à une entreprise de réaliser un benchmarking interne. Rappelons que cette démarche d'amélioration de la performance vise à comparer, puis à ajuster, au besoin en l'adaptant, un processus par rapport à un processus référent. Dans le premier chapitre, nous montrons l'évolution de la problématique de l'amélioration de la performance industrielle. Jusqu'à présent, celle-ci était principalement axée sur une recherche de réduction des coûts de production. Nous montrons que la performance et son amélioration visent désormais quatre nouveaux enjeux : une performance globale, pérenne, pertinente et accélérée. Nous montrons également l'incapacité de certaines démarches d'amélioration actuelles à satisfaire simultanément ces quatre enjeux. Dans le deuxième chapitre, nous présentons l'évolution d'une démarche de benchmarking qui est passée d'une comparaison de benchmarks inter entreprises à celle d'identification des bonnes pratiques à l'origine de ces benchmarks intra ou inter entreprises. Nous tentons de mieux définir ce qu'est une bonne pratique en la positionnant par rapport à la terminologie usuelle du Knowledge Management (donnée, connaissance, savoir, savoir-faire, etc. ), montrant ainsi la difficulté pour une entreprise à défmir et, de fait, à identifier ses bonnes pratiques. Nous montrons également que les modèles de benchmarking existants et les quelques outils actuellement disponibles restent, le plus souvent, plutôt réservés aux grandes entreprises parce qu'ils nécessitent généralement des connaissances approfondies, des ressources et du temps alloué à cette démarche généralement peu disponibles dans l'entreprise. C'est ce constat de la difficulté pour les petites et moyennes entreprises à lancer et à faire aboutir une démarche de benchmarking qui nous a conduit à proposer un ensemble d'outils et de méthodes pour accompagner certaines étapes de la démarche. Ces outils et méthodes, que nous décrivons dans le troisième chapitre, concernent plus particulièrement trois phases de cette démarche à savoir: la description des processus, leur comparaison et le déploiement des bonnes pratiques identifiées via la comparaison. Enfin, le quatrième chapitre présente un exemple d'application des outils et de la méthode proposés. Cette application concerne un benchmarking interne réalisé par l'entreprise TECUMSEH et relatif au déploiement d'un processus Six Sigma du site de production de Cessieu vers celui de La Mure
Our study aims to propose a methodology and tools which facilitate the internal benchmarking. This approach aims to share good practices between two business processes. In the first chapter, we show the evolution of industrial performance. In the past, we focused on the production cost reduction and now our actions must more and more improve our business processes regarding four characteristics: a global, perennial, relevant and accelerated performance. We also explain that the present progress approaches can not simultaneously satisfy these four stakes. In the second chapter, we expose the benchmarking evolution which passed from a business process results comparison to an identification of good practices at the origin of performance. We try to define “good practice” with the help of Knowledge Management discipline and explain the difficulty for a company to identify it. We also show that the present benchmarking models, which are proposed in the literature, can not help most companies to share easily good practices. So, that' s the reason why we propose in the third chapter a methodology and tools which concerne especially three steps of benchmarking: the process description, the processes comparison and the good practices deployment. We finish the study with an application in TECUMSEH company. The fourth chapter shows an internal benchmarking between two plants regarding "Six Sigma" process
APA, Harvard, Vancouver, ISO, and other styles
10

Davailles, Aurélien. "Effet de la concentration en solide sur les performances de séparation d'un hydrocyclone (simulations numériques et expériences de références)." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0112/document.

Full text
Abstract:
L'exploitation minière des sables bitumineux requiert une succession de nombreuses opérations pour séparer le bitume, l'eau et le sable. La séparation solide/liquide fait intervenir un hydrocyclone. Afin de limiter l'ajout d'eau, l'hydrocyclone doit fonctionner dans des conditions inhabituelles correspondant à une concentration élevée à l'alimentation. Une étude expérimentale a permis de caractériser l'ensemble des régimes de fonctionnement, l'influence de la concentration et des caractéristiques géométriques. De plus, des simulations numériques ont été réalisées avec NEPTUNE_CFD@Tlse. Deux méthodes sont proposées pour modéliser les comportements observés à faible et à forte concentration. Les résultats numériques sont en bon accord avec les expériences sur toute la gamme de concentration. L'étude des phénomènes locaux permet une meilleure compréhension des mécanismes de séparation
Tar sands beneficiation requires a series of processing steps for separation of bitumen, water and sand particles. In this process, hydrocyclones are used to separate sand from water and bitumen, thereby recovering additional bitumen and concentrating sand particles before sending them off to tailing ponds. In order to reduce fresh water consumption (environmental policy), hydrocyclones need to operate with high feed solids content, say 50% in mass, which lays outside their standard operating regime. The response and performance of hydrocyclones need to be understood under such stringent operating conditions. A pilot scale experiment was commissioned for testing a 100mm diam. hydrocyclone under different operating regimes of discharge and measuring the corresponding separation performance. Feed solids concentration and geometrical properties were varied extensively. Separation performance indicators, including partition curve, cut-size, sharpness index and water recovery to underflow were obtained by standard data reconciliation. The experimental data provided all the information required to test the CFD model that was derived to simulate the hydrocyclone. Eulerian simulations of the three-dimensional liquid-solid flow inside the hydrocyclone were carried out, using a multi-fluid model (NEPTUNE_ CFD@Tlse). The actual geometrical features and operating conditions of the hydrocyclone were accurately matched in the simulations. Two simulation approaches have been proposed for hydrocyclone modelling, depending on their operating under dilute conditions, with a spray discharge or dense conditions, with a rope discharge. Numerical simulation results are in good agreement with experiments. Local analysis of hydrodynamic features yields new insights into the behaviour of hydrocyclones at high feed solids concentration
APA, Harvard, Vancouver, ISO, and other styles
More sources

Conference papers on the topic "Performance de référence"

1

Lan, R., F. Campana, J. H. Catherine, U. Ordioni, and D. Tardivo. "Nouvelles techniques d’aide au diagnostic des lésions pré-cancéreuses et cancéreuses de la cavité orale : revue systématique et résultats préliminaires." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602018.

Full text
Abstract:
Introduction : Récemment, de nombreuses techniques d’aide au diagnostic des lésions potentiellement malignes ou malignes de la cavité orale ont vu le jour (autofluorescence, spectroscopie, analyse cytologique microscopique, Narrow Band Imaging ...) sans jamais apporter la preuve scientifique de leurs intérêts, en complément ou en remplacement de l’examen histologique. De nombreuses études ont également été menées afin de comparer ces nouvelles techniques en comparaison avec l’examen visuel direct dans la détection précoce des transformations malignes. L’objectif principal de ce travail est de présenter les résultats préliminaires d’une revue systématique réalisée afin d’évaluer la performance diagnostique de ces nouvelles techniques en comparaison à la biopsie dans le diagnostic des lésions pré-cancéreuses et cancéreuses de la cavité orale. Matériels et méthodes : En novembre 2017, une revue systématique de la littérature portant sur les nouvelles techniques d’aide au diagnostic des lésions de la muqueuse buccale a été réalisée, basée sur la méthode PRISMA et dont la méthodologie du protocole a été déposé pour enregistrement sur la plateforme Prospero. Les bases de données Pubmed et Science Direct, la collection Web of Science et la librairie Cochrane ont été consultées (2000-2017). Après le retrait des doublons, les titres et les résumés d’articles potentiellement pertinents seront examinés par deux évaluateurs indépendants selon les critères d’inclusion suivants : articles en anglais, articles originaux ou suivies de cas clinique sur la cavité orale. Les ≪ lettres aux éditeurs ≫ et les études chez l’animal seront exclues. Résultats attendus : De par leurs hétérogénéités, biais, faibles puissances et niveaux de preuves insuffisants, aucune recherche n’a pu à ce jour être jugée suffisamment acceptable pour mettre en évidence un réel intérêt de ces techniques en comparaison à l’examen histologique ou visuel, que ce soit dans le dépistage ou le diagnostic des lésions potentiellement cancéreuses ou cancéreuses de la cavité orale. En revanche, certaines techniques prometteuses, comme le Narrow Band Imaging, paraissent prometteuses comme aide dans l’identification de zones cibles à la biopsie et des marges chirurgicales. Discussion et conclusion : De par leurs manques de spécificités et sensibilités, les dernières techniques d’aide au diagnostic ne permettent remplacer l’examen visuel direct et la palpation digitale, référence de l’inspection de la muqueuse buccale dans le dépistage des lésions potentiellement maligne de la cavité orale ni la biopsie, gold standard de l’établissement de diagnostic d’une pathologie de la muqueuse buccale. De nouvelles études, aux méthodologies appropriées sont encore nécessaires pour affirmer l’intérêt réel de ces techniques dans l’identification de zones cibles à la biopsie et des marges chirurgicales. Les cancers de la cavité orale, de mauvais pronostic et dont la détection précoce est insuffisante, est une priorité de santé publique qui devrait amener à voir l’émergence de nouvelles techniques plus performantes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography