Добірка наукової літератури з теми "Contrôle d'accès basé sur le temps"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Contrôle d'accès basé sur le temps".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Contrôle d'accès basé sur le temps":

1

Thion, Romuald, and Stéphane Coulondre. "Intégration du contexte spatio-temporel dans le contrôle d'accès basé sur les rôles." Ingénierie des systèmes d'information 10, no. 4 (August 24, 2005): 89–117. http://dx.doi.org/10.3166/isi.10.4.89-117.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Smith, Glenys A., Michelle M. Porter, Andrew W. Cull, Barbara L. Mazer, Anita M. Myers, Gary Naglie, Michel Bédard, et al. "Seasonal and Weather Effects on Older Drivers’ Trip Distances." Canadian Journal on Aging / La Revue canadienne du vieillissement 35, S1 (April 5, 2016): 59–68. http://dx.doi.org/10.1017/s0714980816000040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
RÉSUMÉLe but de cette étude a été de déterminer si la saison ou la météo, mesurées objectivement, ont affecté les distances des trajets parcourus par les conducteurs âgés (≥ 70 ans, n = 279) à travers sept sites canadiens. Pendant l’hiver, pour tous les voyages effectués, la distance était de 7 pour cent plus court, lors du contrôle pour le site et si le voyage a eu lieu pendant la journée. En outre, pour les déplacements effectués dans les limites de la ville, la distance était de 1 pour cent plus courte en hiver et 5 pour cent plus en cas de pluie, par rapport à aucune précipitation, tout en contrôlant pour le temps (ou la saison, respectivement), le moment de la journée, et le site. La nuit, contrairement à toute attente, la distance des voyages était d’environ 30 pour cent plus, lors de la commande pour la saison et le site (et la météo). Pris ensemble, ces résultats suggèrent que les conducteurs canadiens âgés modifient leurs distances de déplacement basé sur la saison, les conditions météorologiques, et l’heure de la journée, mais pas toujours dans le sens attendu.
3

Leleu, Jean-Louis. "Enoncé musical et mode (s) de structuration de l'espace sonore, ou: de la relation composition/cognition dans un fragment de l'opus 28, I de Webern." Musicae Scientiae 2, no. 1 (March 1998): 3–18. http://dx.doi.org/10.1177/102986499800200101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse de la 4éme des six variations que comporte le 1er mouvement du Quatuor op. 28 de Webern permet de voir comment le compositeur y cultive une forme particulière d'ambivalence, caractéistique du changement de paradigme qui s'est accompli des les années 1890 dans la tradition musicale europeenne, tant sur le plan compositionnel que sur le plan cognitif: à savoir la mise en question de cette rfegle, centrale dans le cas du système tonal, qui veut que toute musique, dans son organisation propre, renvoie de façon univoque à un mode de structuration précis de l'espace sonore, définissant un idiome musical donné. D'un côté, en effet, le fragment choisi témoigne du souci extrème, de la part du compositeur, de parvenir à un contrôle précis et rigoureux des relations de hauteurs opérées au sein de l'espace “atonal”, par la mise en place d'un “dispositif” destinfé à assurer, au moyen de la série, une distribution symétrique de toutes les notes autour de centres de symétrie bien définis. Mais en mème temps, l'énoncé musical, tel qu'il s'articule concrètement -dans sa réalité vivante-, présente dans le passage nombre de configurations qui sonnent tonalement, c'est-à-dire font référence, du fait de leur nature même et de leur disposition, à un mode de structuration de l'espace des hauteurs basé sur une division asymétrique de l'octave, où domine hiérarchiquement la quinte. En jouant de la possibilité de renvoyer simultanément à deux idiomes distincts, et même antithétiques, une telle musique force à concevoir un modèle cognitif dans lequel ne soit pas posé -comme c'est le cas dans la théorie de Lerdahl- le principe d'une structuration homogène de l'espace sonore.
4

Sotomayor, O. A. Z., S. W. Park, and C. Garcia. "Modèle de référence pour évaluer différentes stratégies de contrôle dans des usines de traitement des eaux usées." Revue des sciences de l'eau 15, no. 2 (April 12, 2005): 543–56. http://dx.doi.org/10.7202/705468ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la majorité des pays, il existe des lois strictes pour réglementer la qualité de l'eau provenant des systèmes de traitement d'eaux usées. Ces spécifications légales sont essentiellement influencées par des questions telles que la santé publique, l'environnement et les facteurs économiques. Les objectifs fondamentaux des procédés de traitement des eaux usées sont d'atteindre, avec l'utilisation d'énergie et à des coûts opérationnels minimaux, une concentration de matière biodégradable et de nutriments suffisamment basse dans les effluents et une production minimale de boues. Les systèmes de traitement des eaux usées sont de grandes dimensions et complexes. Ils sont aussi sujets à des variations importantes dans le flux d'entrée et dans la composition de l'eau à l'entrée, qui ne sont pas bien connues. Le procédé est multivariable, avec beaucoup de couplages croisés et nonlinéarités importantes. La dynamique dépend de la variabilité des flux d'entrée et de la complexité des phénomènes physico-chimiques et biochimiques. Le comportement dynamique démontre une énorme variation de temps de réponse (de quelques minutes jusqu'à plusieurs jours). Ces problèmes, combinés aux objectifs les plus importants du traitement des eaux usées, donnent lieu à une demande de techniques de commande avancées, qui peuvent conduire à une réduction du volume à traiter, une diminution importante dans l'utilisation des produits chimiques, et une possibilité d'économie d'énergie et une diminution des coûts d'opération. Dans ce travail, un " benchmark " (modèle de référence) d'un système complet de traitement des eaux usées a été développé, pour évaluer, à partir de simulations, la performance des différentes stratégies de commande proposées, y compris les techniques de respirométrie ("respirometry"). Ce travail s'aparente au Programme Européen d'Action COST (COST 624), et au projet "Respirometry in Control of the Activated Sludge Process (IWA Respirometry Task Group"). Le "Benchmark" représente un procédé de prédénitrification de la boue activée pour éliminer la matière organique et l'azote des effluents domestiques. Le simulateur est basé sur des modèles largement acceptés par la communauté internationale et il a été implanté dans un environnement Matlab/Simulink. La topologie du système et le développement complet du simulateur sont présentés dans ce travail. L'effet des conditions initiales et des caractéristiques du flux d'entrée (valeurs moyennes) sont analysés, aussi bien qu'un test en boucle ouverte. Les stratégies suivantes ont été sélectionnées en guise d'illustration de l'application de la commande automatique dans le "benchmark" (seulement avec commande proportionnel-intégral monovariable): commande basée sur la concentration d'oxygène dissous ("DO concentration-based control"), commande par respirométrie (commande par biomasse active et commande par taux de respiration bactérienne), et commande par concentration de nitrate (commande par dosage externe de carbone et recyclage du flux interne). Le "benchmark" est continuellement mis a jour et sa prochaine version va incorporer des fonctions d'optimisation en temps réel (on line) pour le procédé.
5

Pépin, L., Emmanuel Camus, Gérard Matheron, and Albert Bensaïd. "Utilisation de microsatellites comme marqueurs génomiques pour l’étude de la résistance à la cowdriose." Revue d’élevage et de médecine vétérinaire des pays tropicaux 46, no. 1-2 (January 1, 1993): 209. http://dx.doi.org/10.19182/remvt.9364.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les chèvres Créole de Guadeloupe sont considérées comme appartenant à une même race. Néanmoins, selon leur origine géographique, elles peuvent être résistantes ou sensibles à la cowdriose. Une étude antérieure a montré que la résistance est probablement sous contrôle génétique. Le but de l’étude actuelle est de fournir les outils de base pour trouver des marqueurs génomiques de chèvre ayant une corrélation avec la résistance à la cowdriose. Afin d’accomplir cette tâche il faut détecter des régions très polymorphiques distribuées de façon égale sur le génome pour servir de repères. Ainsi, des portions du génome impliquées dans la détermination d’un caractère donné peuvent être suivies dans des populations. De tels repères existent, ce sont les microsatellites; ils ont déjà été utilisés avec succès pour cartographier certains traits de la souris et de l’espèce humaine. Des séquences microsatellites sont composées de répétitions de di- ou tri-nucléotides, le polymorphisme étant basé sur le fait que le nombre de répétitions peut varier entre individus. Si elles sont flanquées par des séquences non-répétitives, elles peuvent être détectées facilement parla technique de réaction en chaîne de polymérase (RCP). Des amorces délimitant cinq microsatellites, caractérisés auparavant dans le génome bovin, ont été appliquées avec succès au génome caprin. De l’ADN de 70 chèvres, dont 30 chèvres Créole, 10 Sahélienne, 10 Guinéenne, 10 de race Saanen et 10 de race Alpine, a été préparé et soumis à la RCP. Du polymorphisme a été détecté dans les cinq satellites et 3, 4, 8, 14 et 15 allèles ont été démontrés respectivement pour chaque microsatellite. D’autres microsatellites ont été trouvés utiles et seront soumis à des tests plus approfondis. En même temps, des familles de chèvres Créole sont constituées par croisements d’animaux résistants et sensibles. La technologie décrite ici sera appliquée à l’ADN de chèvres de la génération F1 pour déterminer si la ségrégation d’une région polymorphe donnée est liée au caractère de la résistance à la cowdriose.
6

Toussaint, J., T. Habtemariam, D. Oryang, and S. Wilson. "Développement d’un modèle de simulation informatique pour l’anaplasmose, notamment dans les Antilles." Revue d’élevage et de médecine vétérinaire des pays tropicaux 46, no. 1-2 (January 1, 1993): 47–48. http://dx.doi.org/10.19182/remvt.9396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’anaplasmose, qui continue à être une énigme dans la région des Caraïbes, est responsable de pertes économiques élevées dans la production animale. L’épidémiologie de cette maladie est complexe et la voie efficace et rationnelle à suivre pour son contrôle demeure encore incertaine. On a donc pensé que l’élaboration d’un modèle épidémiologique utilisant des modèles de simulation sur ordinateur serait utile pour une meilleure compréhension de cette maladie. Un modèle de simulation sur ordinateur qui donne les tendances réalistes de la dynamique de la maladie a donc été développé. De plus, ce cadre fournit aux décideurs un outil d’évaluation de différentes alternatives de lutte, pour un planning rationnel et pour l’allocation de fonds. L’élaboration du modèle a été basé sur la mise en œuvre d’une base de connaissances épidémiologiques pour l’anaplasmose ; d’un modèle conceptuel pour les sous-populations de bovins et de tiques ; d’un modèle d’analyse de systèmes pour les sous-populations de bovins et de tiques ; d’un modèle mathématique ; d’un modèle de simulation informatique ; sur l’évaluation du modèle de simulation et l’utilisation de ce dernier pour l’évaluation des alternatives de lutte contre Anaplasma. La base de connaissances a été développée en utilisant la “Epidemiologic Problem Oriented Approach” (EPOA) pour la collecte et la compilation de l’information dans une base condensée de connaissances épidémiologiques sur l’anaplasmose. L’information sur l’anaplasmose a été extraite de manuels sélectionnés de médecine vétérinaire, de revues contemporaines, de documents divers, et de questionnaires remplis par des vétérinaires antillais. L’information épidémiologique a été présentée en diagrammes afin de conceptualiser l’épidémiologie détaillée de la maladie. En même temps, elle montre les parties fondamentales du système anaplasmose pour mieux décrire et analyser la maladie. Des diagrammes d’analyse de systèmes ont également été utilisés pour établir une corrélation entre le niveau pathologique et un niveau particulier qui était décrit et défini par des équations différentielles classiques. Toutes les équations étaient approchées en utilisant la méthode d’intégration de Euler. Ainsi, la dynamique de la maladie a été révélée. Ces diagrammes ont fourni le cadre sur lequel le modèle a été construit. L’évaluation du modèle a montré qu’il est stable. Des tendances biologiquement solides et raisonnables ont été affichées. Ce cadre a ensuite été utilisé pour évaluer les présentations diverses de la maladie et les alternatives différentes pour la lutte. Les manifestations de la maladie observées comprenaient la présentation de populations de bovins et de tiques avec et sans maladie, la dynamique de la maladie quant elle fut introduite par des bovins et des tiques infectés. Les alternatives de lutte testées sont : les effets de niveaux différents de lutte acaricide sur la population de tiques et l’évolution de la maladie ; l’influence de la génétique sur l’incidence de la maladie ; les effets de niveaux différents d’application d’antibiotiques sur la dynamique de la maladie, quant elle fut introduite par des bovins et des tiques infectieux. Le modèle de simulation informatique doit être testé et validé systématiquement pour être sensible aux conditions du terrain.
7

Leppänen, Anneli. "Improving the Mastery of Work and the Development of the Work Process in Paper Production." Relations industrielles 56, no. 3 (October 22, 2002): 579–609. http://dx.doi.org/10.7202/000083ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Les machines de fabrication du papier sont les plus grandes installations de production en continu au monde et la fabrication de la pâte, en tant que processus de travail, est particulièrement complexe. Le processus de fabrication du papier étant rapide, les conséquences des modifications apportées dans le premier temps de fabrication (partie humide de la machine), notamment au niveau de la concentration de la masse ou du réglage de la tête de la machine, n’apparaissent souvent que dans les paramètres de qualité du papier parvenus dans la « partie sèche » de la machine. Par conséquent, la fabrication du papier ne repose pas sur un ouvrier isolé, mais bien sur un groupe d’ouvriers. Tous ceux qui travaillent sur une machine et qui surveillent le processus au moyen des dispositifs informatiques du système de fonctionnement automatisé doivent émettre des hypothèses quant à l’état du processus et des actions à entreprendre. Ils doivent également communiquer aux autres membres du groupe leurs observations, leurs actions ou leurs décisions. Les retards sont fréquents et à l’occasion, il peut s’écouler plusieurs heures avant que les effets d’une modification dans les paramètres se manifestent. Les équipes doivent donc pouvoir compter sur des moyens efficaces pour se transmettre l’information et, conséquemment, avoir une même compréhension des concepts de la fabrication du papier. Les pratiques visant à créer et à améliorer les compétences professionnelles dans les moulins à papier ont beaucoup changé et plusieurs problèmes associés à des pratiques de formation inadéquates ont été constatés. Des programmes ont été élaborés dans le but de supporter l’amélioration de la maîtrise du processus de travail des ouvriers et de permettre le développement du processus de travail lui-même. Jusqu’à maintenant, la méthodologie a été appliquée sur environ 15 des 100 machines de fabrication du papier en Finlande. Les programmes de développement sont basés sur l’analyse des processus de production et du travail. L’analyse de ces processus nécessite la prise en compte des éléments de l’activité humaine au travail, des outils et de la division du travail. De plus, les modes d’action de l’équipe de travail dans différentes situations, la coopération des sujets à l’intérieur du processus de travail et des tâches y étant associées comme la maintenance ou le contrôle de la qualité sont également analysés. Pour y arriver, les chercheurs définissent des catégories ou identifient des questions clés en construisant des modèles. Ces catégories sont basées sur des analyses préliminaires du processus de travail de même que sur des entrevues et des observations avec le travailleur en activité. Lors de l’élaboration du programme, les participants doivent procéder à une analyse approfondie des processus de production et du travail. Les équipes doivent verbaliser et élaborer les différents modèles pouvant rendre compte de chacune des parties constituant le procédé de travail. Au cours de ce processus, les équipes apprennent à utiliser les connaissances disponibles dans le groupe. Les compétences et l’expertise du directeur de la production, de l’ingénieur des procédés de travail, des experts des procédés chimiques, des experts des systèmes de fonctionnement automatisé des opérations et des agents de marketing peuvent également être sollicitées. Quatre sessions de deux jours sont nécessaires pour élaborer le programme. Chaque session doit être tenue deux fois afin de permettre la participation des représentants de tous les quarts de travail de l’organisation. Les résultats des programmes de développement ont été évalués à plusieurs niveaux. La principale cible de ces programmes est d’améliorer la maîtrise conceptuelle du travail. Le premier niveau d’évaluation concerne l’apprentissage par la mesure de la maîtrise conceptuelle du travail et des perturbations possibles de même que le potentiel d’apprentissage que représentent les propositions de développement. Dans chaque programme de développement, plusieurs propositions de développement sont soulevées. Elles sont analysées en fonction des buts visés et du contenu du développement proposé. Les connexions entre la maîtrise objective et subjective du travail, à savoir l’évaluation que les ouvriers font de leur travail et le bien-être exprimé, et leur développement durant le programme ont aussi été étudiés. Ces connexions sont utilisées pour évaluer les conséquences du programme de développement sur les métacognitions traitant avec les facteurs des réactions subjectives, comme la satisfaction ou le stress au travail. Dans cet article, les résultats de deux études complémentaires concernant les programmes de développement sont abordés. Ils révèlent que la maîtrise conceptuelle du processus de fabrication du papier peut être considérablement améliorée à l’aide d’un programme de développement basé sur une analyse systématique et un modelage du processus de travail. Les résultats indiquent également que l’analyse du processus actuel de travail est un moyen adéquat pour favoriser son développement. En effet, dans chacune des études considérées, plus de cent propositions ont été formulées pour améliorer le processus de travail. Les propositions de développement portent autant sur le développement technique que sur la coopération entre les différents groupes de professionnels. Elles touchent donc le processus de travail en entier. De plus, elles représentent les besoins actuels de développement dans le processus de travail, en plus d’être des sources d’information importantes pour débuter des actions de développement. Les propositions de développement ont également été analysées du point de vue du potentiel d’apprentissage qu’elles représentent. La majorité des propositions visent essentiellement le développement du processus de production technique, c’est-à-dire une simple adaptation au contexte. De telles propositions représentent uniquement le niveau inférieur d’ap-prentissage. Cependant, les propositions visant à améliorer les modes d’action de l’équipe ou à augmenter la maîtrise cognitive du processus indiquent que les participants considèrent leur propre activité comme un objet de développement. Le besoin de comprendre le processus de travail et ses lois a clairement augmenté, démontrant ainsi une certaine augmentation de la motivation à travailler dans le nouveau contexte. Cette étude a également voulu vérifier si le bien-être au travail nécessite des caractéristiques de travail positives ainsi qu’une bonne maîtrise conceptuelle du processus de travail. Les rapports présumés ont émergé seulement à la suite du programme de développement. En effet, après le programme, un haut niveau de maîtrise des perturbations pouvant survenir en cours de production a été associé à la satisfaction. Dans l’analyse de régression, 72 % de la variance de la satisfaction au travail était expliquée par la maîtrise de ces perturbations de la production ainsi que par une évaluation positive du défi au travail et une attitude active face au développement du travail. Le programme de développement a semblé réorganiser les bases d’évaluation des sujets, spécialement en regard avec leurs qualifications actuelles et leurs évaluations subjectives. Les participants ont appris à évaluer les relations entre leurs propres compétences et les besoins découlant du processus de travail, indiquant ainsi que leur métacognitions du processus de travail se sont améliorées. L’émergence des connexions entre la maîtrise du processus de travail et la satisfaction suite au programme suggère que les qualifications professionnelles peuvent être une source de bien-être dans une organisation qui accorde de l’importance aux compétences et qui le démontre notamment par l’adoption continue du développement du processus de travail et de la maîtrise de ce processus en tant que caractéristique organisationnelle. Les résultats concernant les programmes de développement ou la formation au niveau organisationnel sont rares. La seconde étude considérée dans cet article se concentre sur les expériences de plusieurs fabricants de papier expérimentés devant maintenant travailler sur une nouvelle ligne de production compte tenu d’un déclin important de la productivité de la vieille ligne de production. Suite au programme, les ouvriers étant toujours affectés à la vieille ligne de production possédaient une maîtrise conceptuelle similaire à ceux qui ont été affectés à la nouvelle ligne de production et qui ont participé à une formation. De plus, la quantité et la qualité de la production sur la vieille ligne se sont grandement améliorée. De nos jours, la maîtrise du travail ou encore les connaissances reliées au travail sont considérées comme des préalables nécessaires au succès organisationnel. Les principes didactiques appliqués dans les programmes de développement sont devenus de plus en plus fréquents dans les pratiques de formation dans les écoles et dans les universités, mais elles sont encore rares dans les ateliers. L’application de ces principes devrait cependant supporter les organisations dans leur apprentissage par leurs propres activités.
8

Vignoles, Philippe, Philippe Hourdin, Gilles Dreyfuss, and Daniel Rondelaud. "Epidémiologie de la fasciolose dans le Limousin : bilan des recherches effectuées depuis les années 1970." Annales Scientifiques du Limousin, no. 28 (June 11, 2019). http://dx.doi.org/10.25965/asl.1030.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les auteurs dressent un bilan des recherches qu’ils ont effectuées depuis 1970 sur plusieurs espèces de Lymnaeidae dans le Limousin afin de déterminer leur rôle comme hôtes intermédiaires dans la transmission de la fasciolose humaine, de préciser plusieurs points dans le développement larvaire du parasite chez ces mollusques et de mettre au place un contrôle contre la limnée la plus fréquente, Galba truncatula. La fasciolose a fortement reculé dans la région depuis les années 2000 en raison de l’abandon du cresson « sauvage » dans la consommation humaine. Plusieurs espèces de limnées ont été identifiées dans ces cressonnières et trois modes d’infestation par Fasciola hepatica ont été mis en évidence. Chez G. truncatula, plusieurs générations rédiennes se succèdent dans le temps. La production de cercaires présente une variabilité en fonction des populations de limnées et également à l’intérieur d’une même population. Lors de l’évolution des formes larvaires du parasite, la limnée présente une pathologie au niveau de ses viscères. Dans les prairies sur sol acide, trois espèces d'escargots peuvent y vivre avec des caractéristiques propres pour chaque limnée. Deux types de contrôle pour G. truncatula ont été étudiés, l’un biologique basé sur des escargots prédateurs (Zonitoides nitidus) au début de l’assèchement estival, et l’autre intégré prenant en compte les différentes mesures connues pour déparasiter l’hôte définitif et éliminer la limnée. Les résultats obtenus lors de l’étude de ces différents thèmes sont analysés et plusieurs hypothèses de travail sont proposées pour les chercheurs à venir.
9

Petitjean, Mikael. "Numéro 98 - septembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis la crise des emprunts hypothécaires risqués aux Etats-Unis, plus personne n’ignore l’existence des agences de notation. La population, les responsables politiques et même certains économistes se posent légitimement les questions suivantes : pourquoi les agences de notation ont-elles été créées? Quelles sont leurs particularités ? Pourquoi jouent-elles un rôle si prépondérant aujourd’hui ? Quelles réformes faudrait-il mettre en œuvre ? Ce numéro de Regards économiques, intitulé «De l’(in)utilité des agences de notation», est organisé de la manière suivante. Pour bien comprendre le rôle que jouent aujourd’hui les agences de notation, il est essentiel, dans un premier temps, de définir le cadre historique dans lequel elles ont vu le jour. Dans un second temps, nous expliquons que les décisions prises par les autorités de régulation financière aux Etats-Unis, suite à la crise des années 1930, ont renforcé considérablement le rôle que jouent les agences de notation dans le système financier international. Ensuite, nous analysons le mode de rétribution des agences de notation pour en identifier les forces et les faiblesses. Nous montrons également que le club des agences de notation s’est refermé encore un peu plus à partir des années 1970, que le contrôle du risque dans le secteur bancaire s’est progressivement basé sur les notations émises par les agences, que la titrisation a accentué l’importance de ces notations et que la crise des «subprimes» a révélé au grand jour les failles du modèle de rétribution des agences. Enfin, il faut constater que les agences de notation ne sont ni des usurpateurs de pouvoir, ni des facteurs de transparence indispensables. C’est la raison pour laquelle nous insistons sur l’importance d’introduire des réformes qui conduisent aussi bien à une plus grande diversité qu’à un plus grand conservatisme dans l’octroi des notations. Les réformes actuelles doivent inciter les acteurs économiques à déterminer et utiliser des notations plus conservatrices, que ces notations soient émises par une agence officielle, une institution financière, ou calculée à partir de prix observés sur le marché. Les agences de notation jouent souvent les premiers rôles sur la scène économico-financière. Donnons-leur plutôt un rôle de figurant. Telle est la recommandation centrale de ce numéro de Regards économiques.
10

Petitjean, Mikael. "Numéro 98 - septembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2012.09.01.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis la crise des emprunts hypothécaires risqués aux Etats-Unis, plus personne n’ignore l’existence des agences de notation. La population, les responsables politiques et même certains économistes se posent légitimement les questions suivantes : pourquoi les agences de notation ont-elles été créées? Quelles sont leurs particularités ? Pourquoi jouent-elles un rôle si prépondérant aujourd’hui ? Quelles réformes faudrait-il mettre en œuvre ? Ce numéro de Regards économiques, intitulé «De l’(in)utilité des agences de notation», est organisé de la manière suivante. Pour bien comprendre le rôle que jouent aujourd’hui les agences de notation, il est essentiel, dans un premier temps, de définir le cadre historique dans lequel elles ont vu le jour. Dans un second temps, nous expliquons que les décisions prises par les autorités de régulation financière aux Etats-Unis, suite à la crise des années 1930, ont renforcé considérablement le rôle que jouent les agences de notation dans le système financier international. Ensuite, nous analysons le mode de rétribution des agences de notation pour en identifier les forces et les faiblesses. Nous montrons également que le club des agences de notation s’est refermé encore un peu plus à partir des années 1970, que le contrôle du risque dans le secteur bancaire s’est progressivement basé sur les notations émises par les agences, que la titrisation a accentué l’importance de ces notations et que la crise des «subprimes» a révélé au grand jour les failles du modèle de rétribution des agences. Enfin, il faut constater que les agences de notation ne sont ni des usurpateurs de pouvoir, ni des facteurs de transparence indispensables. C’est la raison pour laquelle nous insistons sur l’importance d’introduire des réformes qui conduisent aussi bien à une plus grande diversité qu’à un plus grand conservatisme dans l’octroi des notations. Les réformes actuelles doivent inciter les acteurs économiques à déterminer et utiliser des notations plus conservatrices, que ces notations soient émises par une agence officielle, une institution financière, ou calculée à partir de prix observés sur le marché. Les agences de notation jouent souvent les premiers rôles sur la scène économico-financière. Donnons-leur plutôt un rôle de figurant. Telle est la recommandation centrale de ce numéro de Regards économiques.

Дисертації з теми "Contrôle d'accès basé sur le temps":

1

Ghadi, Abderrahim. "Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles." Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
2

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
3

Komarova, Maryna. "Authentification rapide et contrôle d'accès basé sur la confiance dans les réseaux sans fil hétérogène." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003793.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Komarova, Maryna. "Authentification rapide et contrôle d'accès basé sur la confiance dans les réseaux sans fil hétérogènes." Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00003793/fr/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les défis clés de la mobilité omniprésente sécurisée ont été analysés, notamment la sélection du réseau candidat (cible), constitution dynamique des relations de confiance, authentification rapide réciproque et contrôle d'accès dans un environnement ouvert. Les contributions présentées dans cette thèse traitent des questions de réduction du temps d'authentification inter-domaine, d'optimisation de la signalisation liée à la sécurité et du contrôle d'accès dans un environnement ouvert. Afin de diminuer la latence d'authentification dans le scénario où l'authentification pour l'accès réseau et pour les services sont les processus séparés, nous avons proposé l'approche qui combine les opérations de 802. 1X et PANA. Puis, nous introduisons le protocole d'authentification rapide pourla transtion inter - domaine. L'approche proposée élimine la nécessité de communication entre le réseau cible et le réseau d'origine d'utilisateur. Nous développons ce protocole par la proposition d'un schéma pour la distribution des tickets d'authentification. Les résultats obtenus au cours des expériences et des simulations ont montré que l'approche proposée améliore les paramètres de handover tel que la latence et le coût de la signalisation. Nous introduisons le mécanisme du contrôle d'accès fondé sur la confiance qui permet de définir les droits d'accès d'un utilisateur selon son comportement antérieur, ses recommandations et les réputations des fournisseurs de recommandations. Ce modèle offre au réseau la possibilité d'adapter les politiques d'accès à l'environnement dynamique et de traiter l'historique d'interactions à long terme
In this thesis, we study the current situation and trends in wireless technologies development. We discuss the problems related to security mechanisms specific to each technology, and in particular the possibilities for integration and interworking. We first study the possibility of authentication latency decreasing in a scenario where the network access authentication is decoupled from the service access authentication. An authorized user is granted network and service access as a result of a single authentication process that combines 802. 1X and PANA operations. Then we introduce the Fast re-Authentication Protocol (FAP) for inter-domain roaming, which aims to reduce the authentication delay for a mobile user in a visited administrative domain. The approach eliminates the need for communication between the target and the user's home networks for credentials verification. We develop the Fast re-Authentication Protocol by suggesting a ticket distribution scheme for inter-domain roaming. This method decreases the number of tickets sent and consequently the overhead and delay of the ticket acquisition phase of the protocol. Numerical results obtained from experiments on a test-bed and a series of simulations show that the proposed scheme enhances inter-domain handover parameters such as authentication latency and signalling cost. To improve the access control to network resources we propose the adjustable trust model. The purpose of this work is to provide the network with the opportunity to react to user behaviour. Users are motivated to gain higher trust because trusted users have access to a larger set of services with higher quality of service. Validation of the proposed trust-based access control method has been done via simulations. Finally, we discuss how the proposed solutions can be implemented in a single framework
5

Samhat, Abed Ellatif. "La qualité de service dans le réseau d'accès radio terrestre umts basé sur IP." Paris 6, 2004. http://www.theses.fr/2004PA066398.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

El, Baida Rania. "Gestion des incohérences dans les systèmes de contrôle d'accès." Artois, 2004. http://www.theses.fr/2004ARTO0401.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation formelle des politiques de sécurité, contrôlant l'accès aux informations sensibles, est un problème important dans de nombreux domaines. Nous avons proposé un système de contrôle d'accès appelé OrBAC (Organization based access control). Ce système apporte de nombreuses solutions aux systèmes de contrôle d'accès existants, comme la prise en compte du contexte ou encore la possibilité de représenter les différentes formes de privilèges : permission, interdiction et obligation. Cependant, ce système ne permet pas de résoudre les conflits dus aux traitements simultanés des permissions ou obligations et des interdictions. Nous avons traité ce problème dans le système OrBAC, modélisé formellement par une base de connaissances de la logique du premier ordre. Nous avons montré que les approches de gestion des incohérences proposées pour les bases propositionnelles ne sont pas appropriées dans le cas de bases du premier ordre. Nous avons proposé une solution basée sur l'affaiblissement des formules du premier ordre responsables du conflit
Modelling information security policies is being an important task in many domains. We proposed a new access control system called OrBAC (Organization based access control). This system brings many solutions to the existing access control systems. For instance, OrBAC takes into account the context and is able to represent various kinds of privileges : permission, prohibition and obligation. However, this system does not deal with conflicts due to the joint handling of permission or obligation and prohibition policies. We dealt with the problem of handling conflicts in the OrBAC system, modelled by first order logic knowledge bases. We showed that approaches suggested for handling conflicts in propositionnal knowledge bases are not adapted for inconsistent first order knowledge bases. We proposed an approach in which we weak first order formulas responsible of conflicts
7

Tik, Sovanna. "Contrôle d'un système intégré d'assainissement urbain basé sur la qualité de l'eau vers des stratégies tolérantes aux fautes." Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40351.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En matière de gestion des eaux usées urbaines, l’évolution de la réglementation vers une approche holistique amène les gestionnaires des réseaux d’égouts et des stations de récupération des ressources de l’eau (StaRRE) à considérer le système intégré d’assainissement urbain (SIAU) de manière globale. Ce changement de paradigme ouvre la porte à des collaborations entre les domaines, autrefois considérés comme distincts, que sont le drainage urbain et le traitement des eaux usées. Dans ce contexte d’innovation et d’intégration, la modélisation devient un outil clef, permettant d’appréhender la complexité des interactions entre les différentes composantes d’un SIAU. D’autre part, les gestionnaires de SIAU sont amenés à développer la résilience de leurs systèmes pour faire face aux impacts des changements climatiques, dont les effets à long terme sont difficilement quantifiables. Cependant, les experts s’accordent à dire que les évènements de pluie d’intensité extrême deviendront plus fréquents, et viendront tester les capacités opérationnelles des infrastructures actuelles. Afin que les ouvrages continuent à fournir une performance respectant les normes en vigueur, tout en respectant les contraintes budgétaires de leurs gestionnaires, les solutions flexibles, telles que l’implantation de systèmes de contrôle en temps réel (CTR), devraient être privilégiées. D’autant plus que, grâce aux récents développements technologiques, de nouveaux outils de mesure, de communication et d’analyse, de plus en plus fiables, sont mis en marché. L’objectif de cette thèse est de proposer et d’évaluer la pertinence d’une gestion intégrée du SIAU par CTR basé sur la qualité de l’eau, utilisant des mesures de turbidité, un indicateur de la pollution particulaire, pouvant également être mesurée en concentration de matières en suspension (MeS). Ces stratégies de contrôles innovantes visent à réduire le déversement global de polluants particulaires (et des polluants associés, tels que les métaux lourds, les pathogènes, etc.) dans le milieu naturel. Dans ce cadre, un modèle intégré – réseau d’égouts et StaRRE – a été développé pour évaluer ces stratégies. Une approche de modélisation utilisant la distribution de la vitesse de chute des particules (DVCP) a été proposée pour mieux décrire les phénomènes de décantation et de remise en suspension dans l’ensemble des ouvrages et permettre ainsi une meilleure prédiction de l’évolution de la pollution particulaire lors des événements pluvieux. D’autre part, les études expérimentales ont montré que les capteurs de turbidité installés dans le SIAU sont soumis à des conditions difficiles, menant à des fautes. La perte de performance des stratégies de contrôle basées sur la qualité des eaux en cas de fautes sur le signal du capteur de turbidité a donc été évaluée. Grâce aux méthodes de détection de fautes, un système d’alarme pourrait permettre aux gestionnaires de décider du mode de gestion à adopter ou pourrait initier un basculement automatique en mode de gestion dégradé. Ce mode dégradé est défini par une stratégie de contrôle n’utilisant plus le signal fautif. Les simulations de ces scénarios ont montré la possibilité de maintenir une partie des bénéfices obtenus par les stratégies de contrôle utilisant un capteur parfait. Ces bénéfices sont conservés lorsque la faute est détectée dans un délai raisonnable - dépendant de la dynamique du système.Les résultats de cette étude laissent ainsi présager un fort potentiel d’optimisation des opérations des ouvrages de transport et de traitement des eaux usées et pluviales, particulièrement lorsqu’on considère leur utilisation de manière intégrée, plutôt qu’en tant que systèmes autonomes et distincts. D’autre part, le modèle intégré pourrait être utilisé comme outil d’aide à la décision pour déterminer les modes de gestion (integrée) les plus adaptés. Mots-clefs : contrôle en temps réel (CTR); gestion du temps de pluie ; modélisation intégrée ;système intégré d’assainissement urbain (SIAU); traitement primaire physico-chimique.
Regulation concerning urban wastewater management is evolving towards a holistic approach which leads stakeholders to increasingly consider the integrated urban wastewater system(IUWS), including the sewer system and the water resource recovery facility (WRRF), as a whole. This change of paradigm opens doors to new collaborations between the traditionally separated fields of urban drainage and wastewater treatment operation and research. In this context of innovation and integration, modelling is going to be a key tool, granting a better understanding of the complexity of interactions between the different parts of the IUWS. At the same time, the IUWS has to become more resilient to face the impacts of climate change, the long-term effects of which are difficult to quantify. Still, climate change experts agree on the increasing probability of occurrence of high intensity rain events, reaching the limits of current wastewater infrastructure operational capacities. In order for these infrastructures to continue to provide adequate performance with respect to current norms and regulations, while limiting costs and budgetary needs, flexible solutions, such as implementing real-time control (RTC) systems, should be considered. Especially since recent technological developments bring new and more reliable tools to measure water quality, and also to analyse and manage large quantities of data.This study focuses on the behaviour of the particulate pollution in the IUWS, an important water quality indicator, commonly measured as the total suspended solids (TSS) concentrationand highly correlated with turbidity measurement. As turbidity sensors are readilyavailable with increasing reliability, their operational use can be envisioned. The objective of this thesis is to develop and assess water quality-based control strategies for the IUWS. An integrated - sewer and WRRF - model, using the particle settling velocity distribution (PSVD) approach, has been proposed. This approach improves the description of particle settling and resuspension in the whole system, allowing a better forecast of TSS concentration dynamics, especially during rain events. Based on this integrated model, innovative water quality-based control strategies, aiming at reducing overall discharge of particulate pollutants (and the heavy metals, pathogens, etc. that come with it) to the receiving water during wet weather, have been proposed and successfully tested. Experimental studies demonstrated that turbidity sensors installed in the IUWS are subject to harsh conditions, leading to faulty sensor signals. The performance loss due to the use of water quality-based control strategies affected by a faulty turbidity signal has been evaluatedin detail and this has demonstrated the need for fault detection tools. When a faulty signal is detected, alarms will allow operators to decide which operating mode should be used instead of the one using the now faulty sensor. Alternatively, automatic responses and changes could be implemented to counteract the effects of a faulty signal. This last option, called downgraded operating mode, which implies reverting to a control strategy that does not use the faulty signal, has been simulated and tested. If the fault is detected within reasonable time (which depends on the system dynamics), these simulations have shown that part of the increase of performance gained with the water quality-based strategy using the good signal, can be maintained. The results of this study thus present a strong case for optimizing wastewater infrastructure operations, especially when they are considered as an integrated system, instead of autonomous and mutually exclusive systems. Furthermore, the developed integrated model may be use as a decision support tool to help determine the best possible (integrated) controlstrategy. Keywords : chemically enhanced primary treatment (CEPT); integrated modelling; integratedurban wastewater system (IUWS); real-time control (RTC); stormwater management.
8

Attemene, N'guessan Stéphane. "Optimisation temps réel des flux énergétiques au sein d'un système multi-sources multi-charges basé sur les énergies d'origine renouvelable." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est axé sur le contrôle optimal en temps réel d’un système autonome constitué d’un générateur photovoltaïque, d’une pile à combustible de technologie PEM, d’un électrolyseur alcalin, d’une batterie et d’un pack de supercondensateurs pour une application stationnaire. Le couplage de ces différentes sources a pour but d’améliorer les performances, la disponibilité du réseau électrique résultant, la fourniture d’électricité sur des périodes beaucoup plus longues, et surtout la satisfaction de la charge en utilisant chaque source de façon raisonnée.D’abord, une étude approfondie sur la faisabilité du système du point de vue technique, énergétique, économique et environnemental est effectué. En conséquence une méthode de dimensionnement optimal est proposée. Une analyse de sensibilité permettant d’évaluer l’influence du coût et de la taille des sous-systèmes respectivement sur le coût énergétique global et l’équivalent CO2 émis par le système est également effectuée. Ensuite un modèle permettant une mise à l’échelle aisée des composants afin d’atteindre la capacité requise pour le système est développé. Le modèle global du système est obtenu en exploitant la modularité de la REM (représentation énergétique macroscopique), qui est le formalisme utilisé pour la modélisation. Finalement Une méthode de gestion énergétique basé sur l’« Energy consumption Minimization Strategy » (ECMS) est proposée. La stratégie proposée est validée par étude comparative des résultats avec ceux de la programmation dynamique
This work is focused on the real-time optimal control of a stand-alone system consisting of a photovoltaic generator, a PEM fuel cell, an alkaline electrolyzer, a battery and supercapacitor pack for a stationary application. The coupling of these different sources aims to improve performance, the availability of the resulting electrical grid, the supply of electricity over much longer periods, and especially the satisfaction of the load by using each source in a controlled way.First, a thorough study of the feasibility of the system from a technical, energetic, economic and environmental point of view is carried out. As a result, an optimal sizing method is proposed. A sensitivity analysis to evaluate the influence of subsystems cost and the size respectively on the overall energy cost and the equivalent CO2 emitted by the system is also discussed. Then, a model enabling easy scaling of components to achieve the capacity required for the system is developped. The global model of the system is obtained by exploiting the modularity of the formalism used for modeling (the Energetic Macroscopic Representation). Finally, an energy management method based on Energy consumption Minimization Strategy (ECMS) is proposed. A comparative study of the results obtained by the ECMS and those obtained by dynamic programming has enabled the validation of the optimal control strategy developed
9

Mihaita, Adriana. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l’aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s’adapte aux événements arbitraires qui peuvent changer complètement l’évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu’à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l’état normal).Notre approche vise le développement d’un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l’énergie du système) pour la politiquede contrôle choisie. Nous proposons d’abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l’application ducontrôle.Un modèle analytique pour déterminer l’énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation
Hybrid systems are dynamical systems, characterized by a dual behaviour, a continuousinteraction between a discrete and a continuous functioning part. The center ofour work is represented by a particular class of hybrid systems, more specific by thestochastic switching systems which we model using continuous time Markov chains anddifferential equations.The random behaviour of such systems requires a special command which adapts tothe arbitrary events that can completely change the evolution of the system. We chose anevent-based control policy which is triggered only when it’s necessary (on an unforeseenevent - for example when a threshold that is reached), and until certain functioningconditions are met (the system returns in the normal state).Our approach aims to develop a probabilistic model that calculates a performancecriterion (in this case the energy of the system) for the proposed control policy. We startby proposing a discrete event simulation for the controlled stochastic switching system,which gives us the opportunity of applying a direct optimisation of the control command.It also allows us to compare the results with the ones obtained by the analytical modelswe have built when the event-based control is applied.An analytical model for computing the energy consumed by the system to apply thecontrol is designed by using the exit probabilities of the control region, respectively, thesojourn times of the Markov chain before and after reaching the control limits. The lastpart of this work presents the results we have obtained when comparing the analyticaland the simulation method
10

Cheaito, Marwan. "Un cadre de spécification et de déploi[e]ment de politiques d'autorisation." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1617/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre travail propose une méthodologie de conception et de développement d'un système d'autorisation adaptable aux différentes facettes que peut recouvrir le contrôle d'accès dans les organisations telles que l'hétérogénéité des pratiques organisationnelles, des technologies utilisées et des contextes à considérer. Pour y répondre, deux approches de gestion ont guidé nos études : le contrôle d'accès basé sur des attributs et la gestion à base de politiques. * Le contrôle d'accès basé sur des attributs permet de spécifier des permissions par rapport à toute caractéristique liée de la sécurité des utilisateurs, des actions, des ressources et de l'environnement. Cette approche répond aux problèmes liés à l'expressivité des langages de politiques d'autorisation. * La gestion à base de politiques, quant à elle, vise à permettre l'adaptabilité dynamique du comportement d'un système par le biais de politiques de gestion. Elle repose sur une architecture mettant en exergue deux entités : le Policy Decision Point (PDP) et le Policy Enforcement Point (PEP). Le PDP est une entité indépendante de l'élément géré, qui prend des décisions de gestion par rapport à une politique donnée. Le PEP fait l'interface entre le PDP et l'élément géré. Lorsqu'une requête est effectuée par un utilisateur sur une ressource, le PEP envoie une demande de décision au PDP et l'applique. Ce type d'architecture favorise l'intégration du système de gestion dans un environnement à gérer. Nous avons donc choisi le standard XACML comme technologie cible car il met en œuvre ces deux approches. Si d'un point de vue théorique XACML semble répondre aux problèmes d'adaptabilité, les systèmes conçus selon ce standard aujourd'hui sont limités à une situation donnée. En effet, un système XACML développé pour des besoins et un environnement technologique donnés ne peut pas être facilement réutilisé dans un autre contexte. Il est donc nécessaire de définir une méthodologie de conception et de développement pour rendre un tel système d'autorisation adaptable dans la pratique. Notre approche consiste à définir un système d'autorisation minimal qui puisse être facilement étendu pour des besoins spécifiques et contextuels (e. G. Capacité d'expression et de mise en œuvre de politiques incluant des contraintes complexes, adaptation à un environnement technologique particulier, etc). Ceci amène les questions suivantes : • Quelles extensions doivent être apportées au système d'autorisation minimal ? Est-il possible de réutiliser des extensions pour différentes situations données ? Par exemple, le nombre de technologies utilisées pour stocker les accréditations des utilisateurs est limité (e. G. LDAP, MySQL, Active Directory). Cependant, les accréditations ainsi que la structuration de ces données d'accréditation peuvent différer d'une organisation à une autre. • Comment gérer le cycle de vie des extensions dans le système d'autorisation ? En effet, il existe un lien fort entre l'utilisation d'une extension et les besoins exprimés dans une politique d'autorisation. Par exemple, l'existence dans le système d'autorisation d'une extension permettant de récupérer le rôle de l'utilisateur dans une base de données MySQL n'est nécessaire que si le système d'autorisation doit évaluer au moins une politique incluant des contraintes sur le rôle des utilisateurs. Dans le cas contraire, cette extension n'a pas lieu d'être présente dans le système d'autorisation minimal. De la même manière, si une politique incluant des contraintes sur les rôles des utilisateurs est chargée dans le système d'autorisation, l'extension associée doit être rajoutée. En nous basant sur les différents travaux issus du domaine du génie logiciel liés au concept d'adaptabilité, nous avons défini les besoins d'adaptation des systèmes d'autorisation. Ce travail nous a permis de déterminer une classification des extensions par rapport aux besoins d'adaptabilité des systèmes d'autorisation de type XACML. Nous avons aussi proposé une méthode permettant de faciliter la création d'extensions et favorisant leur réutilisabilité. Enfin, nous avons traité le problème de gestion du cycle de vie des extensions dans le système d'autorisation en proposant le concept de " politique auto-contenue ". Une politique auto-contenue comprend les règles d'autorisation ainsi que toute information nécessaire au système d'autorisation pour qu'il l'interprète et qu'il l'exécute (i. E. , les extensions et leurs configurations). Nous avons décrit une architecture pour spécifier et déployer des politiques auto-contenues en utilisant l'approche composants orientés-services. Notre architecture est flexible et dynamiquement adaptable. Nous l'avons implémentée en utilisant le cadriciel OSGi afin de valider notre travail à la fois en termes de faisabilité mais aussi de performance. De plus, nous avons réalisé un éditeur de politique auto-contenue qui facilite l'écriture des règles d'autorisation ainsi que la configuration des extensions utilisées
Our work proposes a methodology for the conception and the development of an adaptable authorization system that can cover the requirements of access control in organizations such as the heterogeneity of organizational practices, the technologies used and the contexts to consider. To answer, two approaches of management have guided our study: the attribute based access control and the policy based management. * The attribute based access control permits to specify permissions related to any security characteristics of users, actions, resources and environment. This approach addresses the problems related to the expressivity of languages of authorization policies. * The policy based management, for its part, aims to enable the dynamic adaptability behavior of the system through the management of policies. Roughly, the architecture supporting this approach consists of two main entities: a policy decision point (PDP), and a policy enforcement point (PEP). The PDP is independent of the managed element, which interprets the policy and takes management decisions based on it. The PEP is the interface between the PDP and the managed element. It compels the managed system to execute the management decisions taken by the PDP. This architecture supports the integration of the management system in a managed environment. Therefore, we have chosen the standard XACML as a target technology because it supports both approaches. If in a theoretical point of view, XACML seems to address the issues of adaptability. However, systems designed according to this standard are limited to a given situation. In fact, a developed XACML system that satisfies the given requirements and a particular technological environment cannot be easily reused in another context. Therefore, it is necessary to define a methodology in order to render such authorization system adaptable in practice. Our approach is to define a minimal authorization system (i. E. A core that only supports the standard XACML) that can be easily extended for specific requirements in a given situation (ex. , the ability to express and implement policies including complex constraints, adaptation to a particular technological environment, etc. ). This raises the following questions: * What extensions that should be imported to the minimal authorization system? Is it possible to reuse the extensions for different situations? For example, the number of technologies used to store the user credentials is limited (ex. , LDAP, MySQL, Active Directory). However, the user credentials and the structuring of the data of user credentials may differ from one organization to another. * How to manage the lifecycle of the extensions in the authorization system ? In fact, there is a strong link between the use of an extension and the requirements expressed in an authorization policy. For example, the existence in the authorization system of an extension to retrieve the role of the user in a MySQL database is required only if the authorization system must evaluate at least one policy that includes constraints on the role of users. Otherwise, this extension does not happen to be present in the minimal authorization system. Similarly, if a policy including constraints on user roles is loaded into the authorization system, the associated extension must be added also. Based on the various studies from the field of software engineering related to the concept of adaptability, we have identified the requirements of adaptation of authorization systems. This work allows us to determine a classification of extensions according to the requirements of adaptability in authorization systems of type XACML. We have also proposed a methodology to facilitate the creation of extensions and promoting their reusability in the authorization system. Finally, we have addressed the problem of managing the lifecycle of the extensions in the authorization system by proposing the concept of "self-contained policy". A self-contained policy includes the authorization rules and any necessary information in order the authorization system interprets and runs it (i. E. , the extensions and their configurations). Also, we have described the architecture for specifying and deploying self-contained policies using the approach components-oriented services. Our architecture is flexible and dynamically adaptable. We have implemented it using the OSGi framework in order to validate our work in both terms of feasibility, and performance. In addition, we have conducted a self-contained policy editor that facilitates the writing of authorization rules and the configuration of the used extensions

До бібліографії