Дисертації з теми "Circulation – Mesures de sécurité – Évaluation"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Circulation – Mesures de sécurité – Évaluation.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Circulation – Mesures de sécurité – Évaluation".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Zargouni, Yadh. "Évaluation de l'efficacité des mesures de sécurité routière." Paris 6, 1986. http://www.theses.fr/1986PA066194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail vise à construire des outils pour l'évaluation des mesures de sécurité routière telles que la limitation de vitesse, le port de la ceinture de sécurité et les lois sur l'alcoolémie des conducteurs. Extraction de séries chronologiques mensuelles de tués et de blessés dans les accidents de la circulation par types d'usagers en exploitant les fichiers annuels des accidents corporels de 1970 à 1985. Analyse descriptive de l'évolution des séries mensuelles du nombre de victimes des accidents.
2

Vache, Géraldine. "Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000356/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une nouvelle approche pour l’évaluation quantitative de la sécurité des systèmes informatiques. L’objectif de ces travaux est de définir et d’évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l’environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l’état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l’administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d’exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d’obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d’étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l’évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système
This thesis presents a new approach for quantitative security evaluation for computer systems. The main objective of this work is to define and evaluate several quantitative measures. These measures are probabilistic and aim at quantifying the environment influence on the computer system security considering vulnerabilities. Initially, we identified the three factors that have a high influence on system state: 1) the vulnerability life cycle, 2) the attacker behaviour and 3) the administrator behaviour. We studied these three factors and their interdependencies and distinguished two main scenarios based on nature of vulnerability discovery, i. E. Malicious or non malicious. This step allowed us to identify the different states of the system considering the vulnerability exploitation process and to define four measures relating to the states of the system: vulnerable, exposed, compromised, patched and secure. To evaluate these measures, we modelled the process of system compromising by vulnerability exploitation. Afterwards, we characterized the vulnerability life cycle events quantitatively, using real data from a vulnerability database, in order to assign realistic values to the parameters of the models. The simulation of these models enabled to obtain the values of the four measures we had defined. Finally, we studied how to extend the modelling to consider several vulnerabilities. So, this approach allows the evaluation of measures quantifying the influences of several factors on the system security
3

Dacier, Marc. "Vers une évaluation quantitative de la sécurité informatique." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1994. http://tel.archives-ouvertes.fr/tel-00012022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.
Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.
Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
4

Seigneur, Viviane. "La sécurité en haute montagne : penser la sécurité, jugement de fait, jugement de valeur...et autres jugements : approche anthropologique et sociologique." Rouen, 2003. http://www.theses.fr/2003ROUEL448.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a pour objet la sécurité en haute montagne. Elle vise à comprendre comment les initiatives en faveur de la sécurité s'y mettent en place, et tente de rendre compte de ses mécanismes de régulation. Pour ce faire, l'étude se concentre sur la connaissance qui inspire ces mécanismes. Cette connaissance est abordée au travers de trois plans : la vie quotidienne, mais aussi le monde institutionnel et les relations au risque. En outre, ce travail entend mettre au jour le poids des logiques " non rationnelles " par opposition aux logiques d'intérêts (plus ou moins économiques) dans les orientations prises. En effet, les connaissances objectives de la haute montagne dont l'intérêt économique est relativement limité, mais qui possède un fort potentiel mythique, nous sont apparues très fragiles. Ce sont précisément ces dynamismes peu " rationnels " que se propose de cerner cette double approche sociologique et anthropologique de la sécurité en haute montagne
The subject of this thesis is security in high mountain. This work reveals how the security initiatives are built and what the regulation mechanics are. With this aim in view, the research focus on the knowledge which influences on this mechanisms. This knowledge is studied from three points of view. The first one is about the daily life, the second one is about the institutional world and the last one is about the general relationships with risk. Moreover, this research studies the weight of the "non rationals logics" as opposed to "interests logics" (more or less economics) which influence the collective organisation of security. The high mountain is a good illustration with its little economic stakes, a limited scientific knowledge and a very strong mythical potential. The socio-anthropological approach is particularly interesting to identify this different "non rational" dynamisms
5

Rouzies, Françoise. "La question de la sécurité dans l'aviation civile : la navigation aérienne à l'épreuve de la société du risque." Paris 1, 2009. http://www.theses.fr/2009PA010724.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'aviation civile avait mis en oeuvre des mécanismes de contrôle du danger aéronautique bien avant l'intérêt récent pour la sécurité. Les pratiques historiques liées à la sécurité qui reposaient en partie sur la cohésion des collectifs se sont trouvées disqualifiées en même temps que la question de la sécurité passait à la première place des préoccupations institutionnelles. Pour percevoir les raisons de cette disqualification des pratiques qui étaient celles du moment, il est apparu nécessaire de placer la question de la sécurité dans un contexte plus large. La remédiation de la sécurité visait un changement radical d'habitus, pour reconstruire la sécurité sur des bases anhistoriques et scientifiques. Cette transformation ne peut se comprendre que dans le cadre de la libéralisation du ciel. II s'agit un recentrage sur une de ses valeurs fondatrices de façon compatible avec la concurrence. Ce travail analyse les quelques points forts de la remédiation que sont : l'analyse des incidents de contrôle, la perception de la catastrophe aérienne, la mesure objective de la sécurité et Ie contrôle les comportements. La remédiation conduit peu de changements techniques et structurels de grande ampleur par contre il est l'objet de nombreux échanges, de changement d'organisation, d'une amélioration de la connaissance du système. L'invention de la culture sécurité est une construction, un artefact porte par une réduction du courant culturaliste anglo-saxon, qui se résume à des attitudes, à des règles, visant à contrôler les opérateurs.
6

Macchi, Luigi. "A Resilience Engineering approach for the evaluation of performance variability : development and application of the Functional Resonance Analysis Method for air traffic management safety assessment." Paris, ENMP, 2010. http://pastel.archives-ouvertes.fr/pastel-00589633.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse montre la nécessité de développer des méthodes systémiques d'estimation de la sécurité permettant de tenir compte de l'effet de la variabilité de la performance sur la sécurité de la gestion du trafic aérien. Comme la plupart des systèmes socio-techniques modernes, la gestion du trafic aérien est tellement complexe que il lui est impossible d'être complètement décrite. Comme conséquence directe, sa performance ne peut être complètement explicitée, car elle doit varier afin de correspondre aux conditions réelles. La variabilité de la performance est un inévitable atout pour assurer le fonctionnement d'une organisation. Mais en même temps elle peut représenter une atteinte à la sécurité du système lorsqu'elle se déroule de manière indésirable ou inattendue. Cet argument indique la nécessité de méthodes d'estimation de la sécurité qui puissent traiter la variabilité de la performance. La Functional Resonance Analysis Method (FRAM) a la capacité de modéliser la variabilité de la performance. Cependant, certains points de la FRAM pourraient être améliorés dans le but de développer ses capacités a évaluer la variabilité de la performance. Cette thèse aborde ce point faible et développe une méthodologie pour l'évaluation de la variabilité de la performance. Cette méthodologie a été appliquée dans une étude de cas dans le domaine de la Gestion du Trafic Aérien Allemand. Ses résultats ont été comparés aux résultats officiels obtenus en utilisant l'estimation de la sécurité traditionnelle. La comparaison montre la valeur ajoutée de la méthodologie proposée. En particulier elle illustre la possibilité d'identifier des risques émergents et la contribution humaine a la sécurité d'un système
This thesis demonstrates the need to develop systemic safety assessment methods to account for the effect of performance variability on air traffic management safety. Like most modern socio-technical systems, air traffic management is so complex that it is impossible for it to be completely described. As consequence, performance cannot be completely specified because it must vary to meet performance demands. Performance variability is an inevitable asset to ensure the functioning of an organisation and at the same time can be harmful for system safety when it combines in an unexpected manner. This argument clearly indicates the need for safety assessment methods that can deal with performance variability. The Functional Resonance Analysis Method (FRAM) has the ability to model performance variability. However parts of the FRAM can be improved to expand its capabilities to evaluate performance variability. This thesis addresses this weakness and develops a methodology for the evaluation of performance variability. The methodology has been applied on a safety assessment case study for the German air traffic management domain. The results have been compared with the official results of a traditional safety assessment. The comparison shows the added valued of the proposed methodology. In particular it illustrates the possibility to identify emergent risks and human contribution to system safety
7

Ouattara, Baba Ouinténi. "Contribution à l'analyse, l'évaluation et la mise en œuvre des nouveaux moyens de contrôle du trafic aérien : application à l'Afrique occidentale." Toulouse 2, 2005. http://www.theses.fr/2005TOU20023.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce mémoire de thèse, un état de l'art sur les moyens et les méthodes de contrôle du trafic aérien, notamment dans le cadre des nouveaux moyens de navigation, est tout d'abord présenté. Puis le concept central de conflit potentiel est introduit et caractérisé sur le plan géométrique. Une approche stochastique puis une approche floue sont alors développées pour évaluer la criticité des conflits potentiels. L'analyse des différentes méthodes proposées pour la résolution des conflits conduit alors à proposer une approche de résolution dite stratégique compatible avec le transfert à bord d'une partie de la responsabilité de la gestion des conflits. La dernière partie de cette thèse, évalue sur le plan pratique les conséquences de la mise en œuvre du free flight, dans le cadre d'une délégation partielle, dans un espace aérien caractérisé par une couverture radar partielle et un trafic peu dense, démontrant son intérêt par rapport aux pratiques actuelles
In the first part of this study, a state of the art about the current means and methods devoted to Air Traffic Control, specially considering the new navigation systems, is presented. Then the central concept of potential conflict is introduced and characterized geometrically. A probabilistic and a fuzzy logic approach are introduced to evaluate the criticity of a potential conflict. Then the analysis of different proposals to cope with the resolution of conflicts leads to develop a strategic resolution approach which seems more compatible with the on board delegation to solve conflicts. In the last part of this thesis, the consequences of the adoption of a partial delegation within an airspace characterized by a low density traffic with partial radar coverage, are upraised, showing by comparison with the current practice the clear interest for their adoption
8

Guts, Nataliya. "Auditabilité pour les protocoles de sécurité." Paris 7, 2011. http://www.theses.fr/2011PA077004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les protocoles de sécurité enregistrent souvent des données disponibles lors de leurs exécutions dans un journal pour une éventuelle analyse a posteriori, aussi appelée audit. En pratique, les procédures d'audit restent souvent informelles, et le choix du contenu des journaux est laissé au bon sens du programmeur. Cette thèse a pour but la formalisation et la vérification des propriétés attendues des journaux d'audit. D'abord, nous nous intéressons à l'utilisation des journaux par les protocoles de sécurité dits optimistes qui, contrairement aux protocoles classiques, reposent sur le contenu des journaux pour remettre certaines vérifications de sécurité à la fin de leur exécution. Nous faisons une étude formelle de deux schémas optimistes : la mise en gage de valeur et le porte-monnaie électronique. En appliquant les techniques issues des langages de processus, nous montrons que les informations enregistrées par leurs implémentations suffisent pour détecter toute tentative de tricherie de participants. Ensuite nous définissons l'auditabilité comme la capacité d'un protocole de collecter assez de preuves pour convaincre une procédure d'audit préétablie (juge). Nous proposons une méthode basée sur les types avec des raffinements logiques, pour vérifier l'auditabilité, et nous l'implémentons dans une extension d'un typeur existant. Nous montrons que la vérification de l'auditabilité se réduit à une vérification par le typage. Nous implémentons également un support logique des pré- et post-conditions génériques pour améliorer le typage modulaire des fonctions d'ordre supérieur
Security protocols often log some data available at runtime for an eventual a posteriori analysis, called audit. In practice, audit procedures remain informal, and the choice of log contents is left to the programmer's common sense. The goal of this dissertation is to formalize and verify the properties expected from audit ! logs. First we consider the use of logs in so called optimistic security protocols which, as opposed to classic security protocols, rely on the logs to postpone certain security checks until the end of execution. We formally study two optimistic schemes: value commitment scheme and offline e-cash; using process languages techniques, we prove that the information logged by their implementations suffices to detect the cheat of participants, if any. Then we define auditability as the ability of a protocol to collect enough evidence to convince an audit ! procedure (judge). We propose a method based on types with logical refinements to verify auditability, and ; implement it as an extension to an existing typechecker. We show that verifying auditability boils down to typechecking the protocol implementation. We also implement logical support for generic pre- and post-! conditions to enhance modular typechecking of higher-order functions
9

Plourde, Guillaume. "Évaluation quantitative de l'exposition à la radiation en cardiologie interventionnelle : approche transradiale et facteurs techniques." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27673.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La maladie coronarienne athérosclérotique constitue la principale cause de mortalité au monde. Les interventions coronariennes percutanées occupent une place de choix parmi les modalités diagnostiques et thérapeutiques offertes aux patients et nécessitent à ces fins l’utilisation de rayons X. Or, les effets délétères résultant d’une exposition aux rayons X comptent parmi les risques auxquels sont exposés les patients et le personnel médical lors d’une intervention coronarienne percutanée. Dans le but de minimiser ces risques, il convient de s’intéresser à l’identification, puis à l’optimisation des facteurs influençant l’exposition à la radiation. Parmi ceux-ci, un accès vasculaire via l’artère radiale a été associé de façon inconstante à une exposition accrue, bien qu’il soit de plus en plus adopté à l’échelle mondiale. D’autres facteurs ont également été décrits, mais il n’existe pas à ce jour de classification pratique axée sur les facteurs modifiables par l’hémodynamicien au chevet du patient. Cette thèse avait donc pour objectif l’identification de facteurs techniques modifiables influençant l’exposition à la radiation des patients en cardiologie interventionnelle ainsi que la formulation de recommandations cliniques visant leur optimisation dans une perspective de réduction des risques. Quatre volets indépendants et complémentaires, correspondant à autant d’études publiées dans des journaux scientifiques avec comité de pairs, ont été entrepris à l’Institut universitaire de cardiologie et de pneumologie de Québec afin d’étudier l’influence de la séquence d’intervention, du nombre et du type de cathéters, de la cadence d’images et de la voie d’accès artérielle sur l’exposition à la radiation. Le temps de fluoroscopie et le produit dose-surface ont été utilisés comme principales mesures de l’exposition à la radiation. Les résultats obtenus suggèrent que la séquence d’intervention n’influence pas l’exposition des patients à la radiation, mais que l’usage de cathéters spécifiques et d’une cadence d’images en fluoroscopie à 7,5 images par seconde sont associés à une réduction de l’exposition des patients. La voie d’accès transradiale est quant à elle associée à une légère hausse de l’exposition à la radiation comparativement à la voie transfémorale, mais les répercussions cliniques de ce surplus semblent peu significatives pour le patient. En conclusion, l’optimisation de facteurs techniques modifiables permet de réduire l’exposition à la radiation des patients en cardiologie interventionnelle et réitère l’importance de l’adoption de bonnes pratiques de radioprotection.
Coronary artery disease is the leading cause of mortality throughout the world. Percutaneous coronary interventions are increasingly used as diagnostic and therapeutic tools applied to patient care. The use of X-rays is mandatory to perform these procedures. The side effects of radiation exposure are amongst the risks to which patients undergoing a percutaneous coronary intervention are exposed. In order to minimize these risks, one must identify and optimize factors influencing radiation exposure. Amongst them, the radial vascular access site has been inconsistently associated with an increased exposure, even if it is increasingly adopted worldwide as the primary access site. Other factors have also been identified, yet a clinical classification based on their optimization potential by the physician at patient’s bedside remains to be described. The aims of this thesis were identification of technical factors that could be modified at patient’s bedside and formulation of clinical recommendations influencing patient’s radiation exposure. Four independent and complementary projects have been proposed targeting revascularization strategy, catheters number and type, fluoroscopy acquisition rate and vascular access site as potential factors influencing radiation exposure. All studies were lead at Institut universitaire de cardiologie et de pneumologie de Québec. Fluoroscopy time and dose-area product were used as surrogate indicators of radiation exposure. Our results imply that the revascularization strategy did not influence radiation exposure, but that the use of a multiple catheters approach and a 7.5 images per second low-rate fluoroscopy were associated with a reduction of patient’s radiation exposure. Transradial access was associated with a modest increase in radiation exposure when compared with transfemoral access, but the clinical significance of this small increase is uncertain and unlikely to outweigh the clinical benefits of transradial access. In conclusion, identification of technical factors associated with a reduction in radiation exposure enables the formulation of clinical recommendations aiming at risk minimization for the patient and encourages good radiation protection practices.
10

Gadelrab, Mohammed El-Sayed Gadelrab. "Évaluation des systèmes de détection d'intrusion." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/435/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse vise à contribuer à l'amélioration des méthodes d'évaluation des systèmes de détection d'intrusions (en anglais, Intrusion Detection Systems ou IDS). Ce travail est motivé par deux problèmes actuels : tout d'abord, l'augmentation du nombre et de la complexité des attaques que l'on observe aujourd'hui nécessite de faire évoluer les IDS pour leur permettre de les détecter. Deuxièmement, les IDS actuels génèrent de trop fréquentes fausses alertes, ce qui les rend inefficaces, voir inutiles. Des moyens de test et d'évaluation sont donc nécessaires pour déterminer la qualité de détection des IDS et de leurs algorithmes de détection. Malheureusement, aucune méthode d'évaluation satisfaisante n'existe de nos jours. En effet, les méthodes employées jusqu'ici présentent trois défauts majeurs : 1) une absence de méthodologie rigoureuse d'évaluation, 2) l'utilisation de données de test non représentatives, et 3) l'utilisation de métriques incorrectes. Partant de ce constat, nous proposons une démarche rigoureuse couvrant l'ensemble des étapes de l'évaluation des IDS. Premièrement, nous proposons une méthodologie d'évaluation qui permet d'organiser l'ensemble du processus d'évaluation. Deuxièmement, afin d'obtenir des données de test représentatives, nous avons défini une classification des types d'attaques en fonction des moyens de détection utilisés par les IDS. Cela permet non seulement de choisir les attaques à inclure dans les données de test, mais aussi d'analyser les résultats de l'évaluation selon les types d'attaques plutôt que pour chaque attaque individuellement. Troisièmement, nous avons analysé un grand nombre d'attaques réelles et de programmes malveillants (communément appelés maliciels) connus, tels que les virus et les vers. Grâce à cette analyse, nous avons pu construire un modèle générique de processus d'attaques qui met en évidence la dynamique des activités d'attaque. Ce modèle permet de générer un nombre important de scénarios d'attaques, qui soient le plus possible représentatifs et variés. Pour montrer la faisabilité de notre approche, nous avons appliqué expérimentalement les étapes de notre démarche à deux systèmes différents de détection d'intrusions. .
This thesis contributes to the improvement of intrusion detection system (IDS) evaluation. The work is motivated by two problems. First, the observed increase in the number and the complexity of attacks requires that IDSes evolve to stay capable of detecting new attack variations efficiently. Second, the large number of false alarms that are generated by current IDSes renders them ineffective or even useless. Test and evaluation mechanisms are necessary to determine the quality of detection of IDSes or of their detection algorithms. Unfortunately, there is currently no IDS evaluation method that would be unbiased and scientifically rigorous. During our study, we have noticed that current IDS evaluations suffer from three major weaknesses: 1) the lack of a rigorous methodology; 2) the use of non-representative test datasets; and 3) the use of incorrect metrics. From this perspective, we have introduced a rigorous approach covering most aspects of IDS evaluation. In the first place, we propose an evaluation methodology that allows carrying out the evaluation process in a systematic way. Secondly, in order to create representative test datasets, we have characterized attacks by classifying attack activities with respect to IDS-relevant manifestations or features. This allows not only to select attacks that will be included in the evaluation dataset but also to analyze the evaluation result with respect to attack classes rather than individual attack instances. Third, we have analyzed a large number of attack incidents and malware samples, such as viruses and worms. Thanks to this analysis, we built a model for the attack process that exhibits the dynamics of attack activities. This model allows us to generate a large number of realistic and diverse attack scenarios. The proposed methods have been experimented on two very different IDSes to show how general is our approach. The results show that the proposed approach allows overcoming the two main weaknesses of existing evaluations, i. E. , the lack of a rigorous methodology and the use of non-representative datasets. .
11

Bouchiba, Anass. "Evaluation de dysfonctionnement d'un système par approche bayesienne : cas du système ferroviaire." Angers, 2013. http://tel.archives-ouvertes.fr/tel-00842756.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement de transport ferroviaire en milieu urbain ou non urbain, s'accompagne évidement d'une amélioration continue de la sécurité, qui reste une des préoccupations principales dans ce domaine de transport, où les accidents continuent à engendrer d'importants dégâts, et causer un nombre élevé de victimes. La maîtrise des risques du transport ferroviaire, implique d'une part l'identification et la prévision des risques, et d'autre part, la réduction de ces risques en agissant sur les moyens de diminution de leurs occurrences, leurs gravités, l'atténuation de leurs conséquences grâce à des moyens d'évitement et de protection contre les risques. Dans ce contexte, le présent travail de cette thèse vise à développer un outil d'évaluation et d'analyse des risques au niveau des Passages à Niveau du réseau ferroviaire de l'ONCF (Office National des Chemins de Fer) qui comporte 521 Passages à Niveau dont 80% environ ne sont pas gardés, ainsi que celui du réseau ferroviaire du Tramway à l'agglomération de Rabat/Salé, qui s'étend sur 20 km et dont l'insertion urbaine n'a pas été sans effet sur la ville, car les accidents entre le Tramway et les usagers de la route qu'ils soient des piétons ou des véhicules, continuent à avoir lieu et on enregistre une dizaine d'accidents par mois de différentes gravités. L'analyse des risques de ces deux systèmes est basée en premier lieu sur des études fonctionnelles et dysfonctionnelles de ces deux systèmes, puis en second lieu sur une modélisation des risques par Réseaux Bayésiens. En effet, l'approche Bayésienne dans l'évaluation des dysfonctionnements et la quantification des risques encourus, constitue une approche d'analyse permettant la prise en compte des aspects comportemental et temporel du système (événements liés aux facteurs humain ou matériel, événements aléatoires des accidents, conséquences non maîtrisées des accidents etc. ). Ce modèle de risque proposé permet aussi d'établir une prévision des risques à partir des données recueillies du passé (Retour d'EXpériences)
The development of railway in urban and non urban, is accompanied by recess continuous improvement of safety, which remains a primary concern in this area of transport, where accidents continue to cause significant damage, and cause a large number of victims. The control of risks of rail transport implies firstly the identification and prediction of risk, and secondly, reducing these risks by acting on ways to decrease their occurrence, their severity, mitigating their consequences by means of avoidance and protection against risks. In this context, the present work of this thesis is to develop an assessment tool and risk analysis at Level Crossings of the Moroccan railway network, which has 521 level crossings with about 80% are not guarded, and the railway network of tram in the cities of Rabat/Salé, which extends on 20 km and which its urban integration has not been without effect on the city, because accidents between the tram and road users whether pedestrians or vehicles, continue to occur and recorded about ten accidents per month of varying severity. The risk analysis of these two systems is based primarily on the functional and dysfunctional studies, then secondly on risk modelling by Bayesian Networks. In fact, the Bayesian approach in evaluating dysfunctions and quantification of the risks constitutes an analysis approach allowing taking into account the behavioural and temporal aspects of the system (events related to human factors or equipment, of random events of accidents, uncontrolled consequences of accidents etc. ). The risk model proposed also allows for a risk prediction based on data collected from the past (feedback)
12

Maghrebi, Houssem. "Les contre-mesures par masquage contre les attaques HO-DPA : évaluation et amélioration de la sécurité en utilisant des encodages spécifiques." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00913472.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les circuits électroniques réalisés avec les méthodes de conception assisté par ordinateur usuelles présentent une piètre résistance par rapport aux attaques physiques. Parmi les attaques physiques les plus redoutables figurent les attaques sur les canaux cachés, comme la ''timing attack'' ou la DPA, qui consistent à enregistrer une quantité physique (temps, consommation) fuie par le circuit pendant qu'il calcule. Cette information peut être exploité pour remonter aux secrets utilisés dans des calculs de chiffrement ou de signature. Plusieurs méthodes de durcissement des circuits contre les attaques sur les canaux cachés ont été proposées. On peut en distinguer deux catégories : Les contre-mesures par dissimulation (ou par logique différentielle), visant à rendre la fuite constante, donc statiquement indépendante des secrets. Les contre-mesures par masquage, visant à rendre la fuite aléatoire, donc statistiquement indépendante des secrets. La contre-mesure par masquage est la moins complexe et la plus simple à mettre en oeuvre, car elle peut s'appliquer au niveau algorithmique comme au niveau logique. Idéalement, le concepteur s'affranchit donc d'un placement-routage manuel, comme cela est le cas des contre-mesures statiques. En revanche elle est la cible d'attaques du second ordre, voire d'ordre plus élevé, permettant d'exhiber le secret en attaquant plusieurs variables simultanément. Cette thèse se fixe comme objectifs l'analyse en robustesse et complexité des implémentations de contre-mesures par masquage et la proposition des nouvelles structures de masquage qui permettent de faire face aux attaques d'ordre élevé.
13

Wiss, Jacques. "Contribution à l'étude de la sécurité des réacteurs chimiques au point d'ébullition par utilisation du refroidissement par évaporation : techniques d'évaluation des risques, méthodes de conception d'installations sûres." Mulhouse, 1992. http://www.theses.fr/1992MULH0250.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude de la sécurité ou de la conception d'un procédé chimique sous des conditions de reflux comprend quatre volets : 1) les données thermo-chimiques de la réaction déterminées par une nouvelle méthode de mesure de l'enthalpie de réaction et du flux de chaleur grâce à un calorimètre à flux de chaleur ; 2) la puissance de refroidissement maximale du condenseur est calculée afin d'éviter la dispersion d'un nuage de vapeurs inflammables et/ou toxiques dans l'atmosphère ; 3) une nouvelle corrélation permettant de prévoir l'engorgement du tube des vapeurs est proposée. La puissance thermique maximale admissible dépend de l'enthalpie de vaporisation du solvant et de la section du tube des vapeurs ; 4) la puissance thermique maximale possible pour éviter le trop plein du réacteur induit par l'augmentation du volume apparent à l'ébullition est calculée. Ces paramètres peuvent être calculés à l'aide du logiciel de simulation qui a été développé. Une méthodologie récapitulant la marche à suivre pour la conception et l'étude de la sécurité de tels procédés est présentée sous forme d'un arbre de décisions
14

Didelot, Armelle. "Contribution à l'identification et au contrôle des risques dans le processus de conception." Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL566N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les démarches de conception, dans leur ensemble, ont montré leurs limites en matière de prévisibilité des risques. Les outils dont elles disposent, souffrent du manque de prise en compte à la fois des variabilités des situations de travail et des migrations que le système subit entre la phase de conception et la phase d'exploitation. Par ailleurs, un paradoxe mis en évidence par la littérature souligne que l'Homme, à travers cette activité, assure la sécurité et les performances des systèmes automatisés; d'où l'importance d'un élargissement de la phase de conception vers un processus couvrant la conception, l'implantation et les premières utilisations. Les analyses de situations de travail que nous avons réalisées en utilisant la démarche MAFERGO confirment que face aux aléas et/ou dysfonctionnements, les opérateurs sont garants des objectifs de production. Ce fonctionnement dégradé est induit par les contraintes opérationnelles, par les migrations issues de la phase d'implantation et par des solutions techniques et/ou de sécurité ne couvrant pas toutes les situations. Dans ce cadre, nous montrons que les opérateurs développent des Activités Limites tolérées à l'Usage (ALU) qui fragilisent la sécurité du système et qui comportent un risque aussi bien pour eux-mêmes que pour le système. La définition des ALU a permis de décrire leurs caractéristiques et d'identifier leurs précurseurs (Conditions Limites tolérées par l'Usage) issus des phases amonts de l'exploitation. Au niveau du concepteur, une modélisation de la réussite et de l'échec de l'ALU lui permet de mieux comprendre ses origines et, si ce n'est de les éliminer, de faire en sorte qu'elles soient maîtrisables. Nous proposons finalement un modèle mettant en évidence tout le processus de migrations du système et des ALU associées.
15

Dequaire-Falconnet, Elodie. "Modélisation de l'activité individuelle et collective dans la perspective d'une prévention des risques des installations, dès la conception : Application au domaine de l'imprimerie." Compiègne, 2001. http://www.theses.fr/2001COMP1368.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La recherche d'une meilleure adaptation de la situation de travail aux caractéristiques de l'opérateur humain dans les systèmes complexes est un des objectifs de la prévention, Une avancée importante peut être réalisée vers la conception de systèmes à la fois productifs et sûrs, en cherchant à intégrer, dès la conception, les exigences de prévention et les connaissances relatives aux rôles et aux activités des opérateurs. Une présentation des techniques de prévention actuellement disponibles, au regard d'industriels et plus particulièrement du domaine de l'imprimerie (concepteur et utilisateurs), a permis d'expliciter les limites ou besoins de renforcement de certains aspects de la prévention des risques et notamment en matière d'analyse de l'activité. Aussi, nous sommes partis d'une construction intermédiaire, la méthode IDAR, qui cherche à réaliser un compromis entre d'une part une formalisation et d'autre pan un bilan de l'expérience actuelle en matière de prévention des risques (réglementation et normalisation, expertises, techniques de prévention). Gefle construction est enrichie de Fappod de l'analyse de l'activité menée dans le domaine de l'imprimerie, qui a consisté d'abord en une analyse ergonomique des activités de travail, en termes d'analyse des cours d'action et de leur articulation collective, avant de s'intéresser au fonctionnement du système technique et aux tâches prescrites. Il s'agit de voir la situation à travers l'expérience que construit l'acteur à chaque instant, avant de prendre de la distance relativement à elle, afin d'expliquer l'ac¬tivité et d'évaluer son adéquation en termes de sécurité. Cette double analyse (risques/activité) a permis d'apporter un regard critique et des possibilités d'amélioration pour une meilleure approche des conditions de sécurité des opérateurs au travers d'une analyse de l'activité dans la perspective d'une prévention des risques de la conception à l'exploitation par modélisation cognitive des activités de travail.
16

Bachy, Yann. "Sécurité des équipements grand public connectés à Internet : évaluation des liens de communication." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0014/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui, les équipements intégrant du logiciel et connectés à Internet sont de plus en plus nombreux et variés. Avec l’arrivée de l’“Internet des objets” et la tendance au “tout connecté”, de nombreux équipements de notre quotidien bénéficient maintenant d’une connexion à Internet : les Smart-TVs, les lecteurs DVD, les systèmes d’alarmes, les systèmes domotiques, jusqu’aux équipements facilitant l’hospitalisation à domicile de patients par exemple. Ces évolutions technologiques s’accompagnent malheureusement de problèmes de sécurité. L’utilisation massive du réseau Internet a facilité la propagation de logiciels malveillants, qui peuvent aujourd’hui cibler tout type d’équipement informatique et notamment les équipements connectés. Alors qu’il existe déjà des normes permettant d’évaluer la sécurité d’équipements informatiques industriels, leur application aux équipements grand public est encore limitée. La présence et la criticité des vulnérabilités qui peuvent affecter ces équipements sont encore mal connues car elles n’ont pas fait l’objet d’études approfondies. C’est précisément l’objectif de cette thèse, qui propose une méthode permettant de mener une analyse de vulnérabilités des équipements grand public connectés à Internet. Cette méthode est constituée de deux grandes phases : une phase d’analyse des risques suivie d’unephase d’expérimentations. L’analyse de sécurité d’un équipement, quelle qu’elle soit, nécessite une bonne connaissance de l’environnement de celui-ci. Afin de guider l’évaluateur dans cette tâche, nous proposons, dans une première phase, de nous fonder sur des méthodes d’analyse des risques existantes. Ces méthodes sont aujourd’hui bien éprouvées et permettent à l’évaluateur d’obtenir une vue globale des risques encourus par l’utilisation de l’équipement étudié. Ensuite, lors de la seconde phase de l’étude, l’évaluateur se concentre sur les risques les plus importants afin de montrer la faisabilité technique des scénarios menant aux risques considérés, à l’aide d’expérimentations. Étant donné le grand nombre et la diversité des connexions présentes sur les équipements connectés, il est important de mettre l’accent sur les scénarios d’attaque qui peuvent s’avérer riches, même si ces scénarios ont pour origine une vulnérabilité locale simple. Pour cette seconde phase, une méthode d’expérimentation est donc proposée pour étudier ces scénarios d’attaque, qui, de plus, ciblent des équipementsdont les spécifications ne sont pas forcément disponibles. Afin d’illustrer la méthode globale, cette thèse se fonde sur deux cas d’étude : les box ADSL et les téléviseurs connectés. Ces études ont été menées sur un panel d’équipements provenant des principaux fournisseurs d’accès à Internet et des principaux fabricants de téléviseurs, ce qui nous a permis de comparer les différents équipements présents sur le marché. Les vulnérabilités mises en évidence concernent en particulier les liens de communication (boucle locale pour les Box ADSL, interface DVB-T pour les Smarts TVs) reliant les équipements à leurs fournisseurs de service (FAI pour les Box ADSL, TV et VoD pour les Smart TVs). Ces liens de communication sont habituellement considérés de confiance et ne sont à notre connaissance pas ou peu étudiés jusqu’à présent. Cette thèse contribue ainsi à l’analyse de sécurité sur ces liens particuliers des équipements connectés et met en lumière des chemins d’attaque originaux.Enfin, cette thèse se termine par la présentation des différents mécanismes de protection existants afin d’empêcher l’introduction ou l’exploitation des failles de sécurité identifiées
Today, equipment embedding software and an Internet connection are more and more numerous and various. With the emergence of “the internet of things” and the trend to interconnect everything, many equipment used in our every day life are now connected to the internet: Smart-Tvs, DVD players, alarm and home automation systems, and even health assistance home devices, for example. Unfortunately, these technological evolutions also introduce new security threats. The massive use of internet facilitates the propagation of malware, capable of targeting any computer device, and more specifically any internet connected device. Although several methods allowing security analysis of industrial systems exist, their application to home devices is still limited. The existence and the criticality of potential vulnerabilities in these devices are not well-known, because they have not been thoroughly studied. This is precisely the objective of this thesis, which presents a method allowing to carry out a vulnerability analysis of internet connected home devices. This method is composed of two main phases: a risk analysis phasefollowed by an experimental phase. The security analysis of any type of equipement, requires a good knowledge ofits environment. In order to guide the evaluator in this task, we propose, as a first step, to rely on existing risk analysis methods. These methods are now mature, and allow the evaluator to obtain a global view of the risks incurred by the usage of anequipment. Then, during the second step of our method, the evaluator concentrates on the most important risks in order to demonstrate the technical feasibility of the scenarios leading to the considered risks, by carrying out several experiments.Considering the large amount and the diversity of I/Os on connected devices, it is important to focus on specifically rich attack scenarios, possibly depending on a simple local vulnerability. For this second step, an experimental method is proposedin order to study these attack scenarios, which, moreover, target equipement whose specifications are not necessarily available.In order to illustrate the entire method, this thesis presents two case studies: Integrated Access Devices and Smart-Tvs. These studies are carried out on a panel of devices from major internet service providers and TV manufacturers, allowing us to compare several devices available on the market. The vulnerabilities pointed out, mainly concern the communication means (local loop for the IAD, DVB-T interface for the smart-TVs) connecting these devices to their service providers (ISP for the IAD, TV and VoD for the smart-TVs). These communication links are usually considered safe, and have been, to our knowledge, seldom explored. Thisthesis thereby contributes to the security analysis of these particular communication means for connected devices and points out some original attack paths. Finally, this thesis ends by presenting different existing security mechanisms that can be used to avoid exploitation of the identified weaknesses
17

Chaudemar, Jean-Charles. "Étude des architectures de sécurité de systèmes autonomes : formalisation et évaluation en Event B." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La recherche de la sûreté de fonctionnement des systèmes complexes impose une démarche de conception rigoureuse. Les travaux de cette thèse s’inscrivent dans le cadre la modélisation formelle des systèmes de contrôle autonomes tolérants aux fautes. Le premier objectif a été de proposer une formalisation d’une architecture générique en couches fonctionnelles qui couvre toutes les activités essentielles du système de contrôle et qui intègre des mécanismes de sécurité. Le second objectif a été de fournir une méthode et des outils pour évaluer qualitativement les exigences de sécurité. Le cadre formel de modélisation et d’évaluation repose sur le formalisme Event-B. La modélisation Event-B proposée tire son originalité d’une prise en compte par raffinements successifs des échanges et des relations entre les couches de l’architecture étudiée. Par ailleurs, les exigences de sécurité sont spécifiées à l’aide d’invariants et de théorèmes. Le respect de ces exigences dépend de propriétés intrinsèques au système décrites sous forme d’axiomes. Les preuves que le principe d’architecture proposé satisfait bien les exigences de sécurité attendue ont été réalisées avec les outils de preuve de la plateforme Rodin. L’ensemble des propriétés fonctionnelles et des propriétés relatives aux mécanismes de tolérance aux fautes, ainsi modélisées en Event-B, renforce la pertinence de la modélisation adoptée pour une analyse de sécurité. Cette approche est par la suite mise en œuvre sur un cas d’étude d’un drone ONERA
The study of complex system safety requires a rigorous design process. The context of this work is the formal modeling of fault tolerant autonomous control systems. The first objective has been to provide a formal specification of a generic layered architecture that covers all the main activities of control system and implement safety mechanisms. The second objective has been to provide tools and a method to qualitatively assess safety requirements. The formal framework of modeling and assessment relies on Event-B formalism. The proposed Event-B modeling is original because it takes into account exchanges and relations betweenarchitecture layers by means of refinement. Safety requirements are first specified with invariants and theorems. The meeting of these requirements depends on intrinsic properties described with axioms. The proofs that the concept of the proposed architecture meets the specified safety requirements were discharged with the proof tools of the Rodin platform. All the functional properties and the properties relating to fault tolerant mechanisms improve the relevance of the adopted Event-B modeling for safety analysis. Then, this approach isimplemented on a study case of ONERA UAV
18

Clavet, Nicholas-James. "Évaluation des mesures de soutien aux personnes et aux familles : une approche par microsimulations comptables et comportementales." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30983.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le vieillissement de la population exercera dans les prochaines années des pressions importantes sur les finances publiques du Canada et du Québec. Dans un contexte budgétaire pré- occupant, les gouvernements du Canada et du Québec seront tentés de réduire ou du moins de limiter leurs dépenses liées à des programmes dispendieux, tels que les programmes de soutien aux personnes et aux familles. Cette thèse cherche donc à développer et à utiliser des outils permettant l'évaluation des effets des mesures de soutien aux personnes et des familles avant leur mise en place 1) sur le revenu de celles-ci, 2) sur leurs comportements de travail, et 3) sur les finances publiques. L'évaluation des effets d'une mesure de soutien avant sa mise en place (évaluation ex ante) nécessite l'utilisation de méthodes particulières, puisqu'il n'est pas possible de déduire les effets de celle-ci à partir de données recueillies. Il est donc nécessaire d'utiliser une approche par microsimulations comptables et comportementales. Les mesures de soutien aux personnes et aux familles étudiées dans cette thèse portent sur deux thèmes : 1) la réduction de la pauvreté par l'entremise de prestations directement versées aux personnes et aux familles, et 2) la réduction du coût net des services de garde pour les parents. Le chapitre 1 porte sur l'analyse des effets d'une proposition de revenu minimum garanti faite par le Comité consultatif de lutte contre la pauvreté et l'exclusion sociale du Québec. Les analyses sont effectuées à l'aide de microsimulations comptables et d'un modèle structurel d'offre de travail à choix discret tenant compte du système fiscal. Les simulations montrent que l'application de la proposition originale a d'importants impacts négatifs sur le taux de participation au marché du travail des individus à faible revenu, et que son coût dépasse 2 milliards de dollars annuellement. Cet exercice démontre que contrairement à ce que l'on croit généralement, les mécanismes visant à assurer un revenu garanti peuvent avoir pour effet d'accroître l'incidence du faible revenu plutôt que de la réduire. Le chapitre 2 porte sur les effets du report de l'âge d'admissibilité aux prestations de la Sécurité de la Vieillesse et du Supplément de Revenu Garanti de 65 à 67 ans. Les analyses sont effectuées à l'aide d'un modèle de microsimulation dynamique en forme réduite qui projette l'évolution socio-économique du Canada jusqu'en 2030. Les simulations montrent qu'à terme (c'est-à-dire, en 2030), le report de l'âge d'admissibilité augmente les revenus nets du gouvernement fédéral de 6,9 milliards de dollars, mais diminue de 620 millions de dollars ceux des provinces. À comportement de travail et d'épargne constant, ce report hausse de 6 % à 17 % le taux de faible revenu des individus de 65 et 66 ans (soit environ 100 000 aînés de plus en situation de faible revenu) et nuit davantage aux aînés les moins nantis et aux femmes. Le chapitre 3 porte sur les effets des trois mesures principales de financement public des services de garde (le crédit d'impôt provincial, la déduction d'impôt fédérale, et les subventions directes aux garderies) sur le revenu des familles, la participation des femmes au marché du travail, et sur les finances publiques québécoises et canadiennes. Ces effets sont estimés à l'aide d'un modèle structurel d'offre de travail comparable à celui utilisé dans le chapitre 1. Les simulations montrent que les mesures de financement des services de garde accroissent globalement et considérablement le revenu des familles après impôts, transferts et frais de garde ; les mesures ont aussi un impact plus marqué sur le revenu et sur le travail des femmes monoparentales que sur celui des femmes en couple. Leur abolition entraînerait des économies substantielles sur le plan des finances publiques provinciales, mais affecterait toutefois peu celles du gouvernement fédéral. Le chapitre 4 porte sur les effets de deux réformes du financement public des services de garde sur les familles et les finances publiques. La première réforme a été mise en place en 2015 par le Gouvernement du Québec, alors que la deuxième est une proposition de réforme faite par la Commission de révision permanente des programmes (CRPP) et de la Commission d'examen sur la fiscalité québécoise (CEFQ). Les effets de ces réformes sont évalués à l'aide de microsimulations comptables. Un constat majeur de l'analyse des avantages et des inconv énients des deux réformes est que la réforme des deux commissions est plus avantageuse que la réforme actuelle du gouvernement du Québec à la fois pour les familles et pour le gouvernement provincial. De plus, il est possible de formuler des propositions de réforme qui amènent le gouvernement fédéral à contribuer davantage au financement des services de garde et qui limite le fardeau financier des frais de garde pour les familles...
Over the next few years, the population aging will exert significant pressure on the public finances of Canada and Quebec. In a worrying fiscal context, the governments of Canada and Quebec will be tempted to reduce or at least limit their spending on expensive programs, such as person and family support programs. This thesis, therefore, seeks to develop and use tools enabling the assessment of the effects of support measures for persons and families before they are implemented 1) on their income, 2) on their working behavior, and 3) on public finances. Assessment of the effects of a support measure prior to its implementation (ex-ante evaluation) requires the use of special methods since it is not possible to deduce the effects of the measure from collected data. It is, therefore, necessary to use an accounting and behavioral microsimulation approach. The support measures for persons and families studied in this thesis focus on two themes: 1) poverty reduction through direct benefits to persons and families, and 2) reduction of net childcare expenses for parents. Chapter 1 examines the impact of a proposal for a guaranteed minimum income made by the Comité consultatif de lutte contre la pauvreté et l'exclusion sociale du Québec(Advisory Committee to Combat Poverty and Social Exclusion in Quebec). The analyses are carried out using accounting microsimulations and a structural discrete choice model of labor supply taking into account the tax system. The simulations show that the application of the original proposal has significant negative impacts on the labor market participation rate of low-income individuals and that its cost exceeds $2 billion annually. This exercise demonstrates that, contrary to what is generally believed, mechanisms to ensure a guaranteed income can have the effect of increasing the incidence of low income rather than reducing it. Chapter 2 examines the effects of increasing the age of eligibility for Old Age Security benefits and the Guaranteed Income Supplement from 65 to 67 years of age. The analyses are carried out using a reduced-form dynamic microsimulation model that projects Canada's socioeconomic evolution up to 2030. The simulations show that in the long term (i.e., 2030), increasing the age of eligibility increases the federal government's net revenues by $6.9 billion, but decreases the provincial revenues by $620 million. With constant labor and saving behavior, this reform increases the low-income rate of 65 to 66-year-olds (about 100,000 more seniors in low-income situations) from 6% to 17%. The poorest and the women are the most v penalized. Chapter 3 examines the effects of the three main public funding measures for childcare services (the provincial tax credit, the federal tax deduction, and direct childcare subsidies) on family income, women's participation to the labor market, and the public finances of Quebec and Canada. These effects are estimated using a structural model of labor supply comparable to that used in Chapter 1. The simulations show that child care financing measures increase overall and significantly the income of families after taxes, transfers, and childcare expenses; The measures also have a greater impact on the income and work of single mothers than on mothers in couple. Their abolition would result in substantial savings in provincial public finances but would be of little use to the federal government. Chapter 4 examines the effects of two reforms of childcare services' public funding on families and public finances. The first reform was introduced in 2015 by the Government of Quebec, while the second was a reform proposal made by the Commission de révision permanente des programmes (Permanent Program Review Committee) and the Commission d'examen sur la fiscalité québécoise (Québec Taxation Review Committee). The effects of these reforms are assessed using accounting microsimulations. A major finding of the analysis of the advantages and disadvantages of the two reforms is that the reform of the two commissions is more advantageous than the current reform of the Government of Quebec for families and provincial government. In addition, reform proposals can be made to lead the federal government to make a greater contribution to childcare funding, which limits the financial burden of childcare costs for families...
19

Piwowar, Julien. "Analyse des risques de malveillance sur systèmes complexes : anticipation et aide à la décision dans le cadre sécurité globale." Troyes, 2010. http://www.theses.fr/2010TROY0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’accroissement des flux économiques, de matières ou humains, dans des espaces toujours plus grands et des temps plus réduits entraînent un besoin accru pour sécuriser ces échanges, particulièrement dans les systèmes organisés en réseaux. De fait, apparaît pour chacun d’entre eux une interdépendance de la menace ayant comme générateur de risques des modes opératoires, de la simple dégradation au terrorisme. Peut-on alors gérer la sécurité de ces systèmes complexes avec des méthodes uniquement mathématiques ou issues de constatations empiriques ? Le développement d’un procédé alliant sciences comportementales et analytiques devient ainsi incontournable. Le fil conducteur de la thèse est la construction d’une arborescence générale permettant de s’approprier les diverses caractéristiques d’un système et ce dans un cadre holistique (analyse systémique). Ensuite, le but est d’évaluer (par avis d’experts) les vulnérabilités associées à chaque élément, puis de visualiser l’ensemble des chemins critiques sur un support pertinent permettant une vision globale du système, des flux associés et du dispositif de sécurité en place (caméras, barrières, effectifs, etc. ). La finalité d’une telle procédure méthodologique est de permettre aux décideurs de simuler diverses menaces selon plusieurs profils d’agresseurs, dans un contexte évolutif et dynamique. Cet outil d’aide à la décision permet d’optimiser la sécurité en tous points du système et d’observer les effets globaux associés, et par voie de conséquence, introduire la notion d’anticipation
Increased of economic, material or human flows, in ever-larger areas and in a reduced time imply a grow up need to secure these exchanges. This globalization is applied to all systems, which are connected through net-works today. In fact, the interdependence of each one lead to a global threat which generates risks of several malevolent procedures from simple degradation to terrorism. Now, it is not possible to manage the security of these complex systems with only mathematical methods or experimental judgments. So, it is the opportunity to develop a method combining analytical and behavioral science. The topic of the thesis is to build a general framework to capture the various characteristics of a system put in its environment with a holistic approach (systemic analysis). Then, the goal is to assess (with expert judgement) vulnerabilities associated to each component of the system and describe all critical paths using an adequate support with a global overview: human and goods flows, security systems, surveillance networks with closed-Circuit Television (CCTV), etc. The purpose of such a methodology is to permit stakeholders to simulate attacks on their infrastructure, according to several profiles of aggressors in a evoluating and dynamic con-text. Especially, it is a decision making tool to optimize security at all points of the system and to observe the global associated effects, and consequently to emphasize the concept of anticipation
20

Otsa'a, Nguema Daenis. "Sécurité et sûreté maritimes dans le golfe de Guinée : Diagnostic et évaluation des politiques pour un apport conceptuel et pratique de la sécurisation maritime régionale." Nantes, 2015. http://www.theses.fr/2015NANT3004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Jadis limitée au rôle de simple voie de communication servant à la recherche des nouvelles terres inconnues et à la logique d‟un milieu de prélèvement des ressources, l‟image des espaces maritimes et de ses activités associées a progressivement muté vers une considération aujourd‟hui bien plus polémique. Les enjeux ont également drainé des menaces et risques de vulnérabilité incarnés par le binôme « sécurité-sûreté » dans un domaine où les économies et les populations « se maritimisent » fortement. Cette tendance maritime paradoxale n‟a pas épargné les États côtiers du golfe de Guinée (de la Côte d‟Ivoire à l‟Angola) qui, déjà présents à l‟aube des premières négociations ayant conduit à ce que l‟on qualifia de « Yalta de la mer » (en référence à la Convention de Montego Bay du 10 décembre 1982), tentent aujourd‟hui de trouver des solutions au phénomène de l‟insécurité maritime par des réactions bien plus communautaires qu‟individuelles. Faisant partie d‟une géographie mondiale des régions stratégiques, ils ne peuvent et ne doivent rester en marge de l‟accélération des logiques sécuritaires qui nécessitent à différentes échelles une mutualisation commune des moyens de lutte et de prévention. Mais pour eux, si le temps n‟est plus à la tergiversation à propos de l‟intérêt que représente cette mutualisation commune des efforts, l‟heure est au diagnostic des politiques exercées jusqu‟à présent et qui ont quelque peu prouvé leurs limites. En effet, l‟insécurité maritime régionale ne se manifeste pas potentiellement et spatialement de la même façon selon les États ou les milieux considérés. Pourtant, malgré une considération disparate de l‟enjeu du fait maritime régional, les défis à relever pour la sécurisation maritime sont sensiblement identiques et doivent guider une réflexion profonde sur la conceptualisation et la pratique sécuritaire. Cette disparité des réalités idéologiques, structurelles, matérielles et techniques de la manifestation de la menace et du risque n‟est pas assez considérée dans les logiques de coopération régionale qui, par excès d‟ambition et d‟homogénéisation précipitée du contexte maritime ne tiennent pas compte ou très peu de la nécessité d‟une dimension évolutive multiscalaire partant des réalités locales et nationales. Inscrite dans le champ disciplinaire de la géopolitique et de la géostratégie des mers et des océans, plus précisément de la problématique de l‟enjeu maritime sécuritaire, cette réflexion qui porte sur les facteurs nationaux et régionaux de la vulnérabilité maritime par le binôme « sécurité-sûreté » se propose de contribuer au questionnement du « pourquoi sécuriser » mais aussi du « comment sécuriser » à travers quatre axes, à savoir, le diagnostic de la vulnérabilité maritime, l‟évaluation des réponses des États pour y faire face, le caractère de l‟hétérogénéité spatiale de cette vulnérabilité et de proposer des réformes multiscalaires en vue du régionalisme maritime sécuritaire de conviction
One limited to the simple role of communication channel used to search for new unknown lands with the use of resources, maritime spaces and their related activities have gradually evolved into a controversial topic today. The issues have also presented threats and risks of vulnerability, associated with binomial “safety-security”, in a field where economies and populations have a strong maritime emphasis. This paradoxical maritime trend has not been overlooked by the coastal State of the Gulf of Guinea (the Ivory Coast to Angola), which were already involved at the beginning of the negotiations which led to what was called, the “Yalta sea” (in reference to the Montego Bay Convention of December 10, 1982). Today, they are trying to find solutions to the phenomenon of maritime insecurity through more community responses rather than individual ones. As part of global geography of strategic regions, they cannot and must not remain on the sidelines of the acceleration of security and logistics, which require different levels of communal sharing of control and prevention methods. But, while it is no longer time for the prevarication of communal sharing efforts, it is time for the assessment of policies used up to now, which have, to some degree, shown to be limited. In fact, regional maritime insecurity is not potentially or spatially manifested in the same way, according to the States or regions considered. Yet, despite a disparate consideration of the regional maritime issues, maritime security challenges to be addressed are virtually the same and should guide an in depth study of conceptualization and practical security. This disparity of ideological, structural, material, and technical realities of the manifestation of threat and risk is not adequately addressed in regional cooperation, which by its excessive ambitions and homogenization of the maritime context, hardly takes into account the necessity of an evolutive multi-scalar dimension, based on local and national realities. Within the disciplinary field of geopolitics and maritime geostrategies, and more specifically, the issues of maritime security, this study, which considers national and regional factors of maritime vulnerability through the “Safety-Security” binomial, offers a contribution to the question, “why provide security”, but also “how to provide security”, across four strategies: the diagnosis of maritime vulnerability, the evaluation of responses of States to address it, the spatial heterogeneity of this vulnerability, and to propose multiscalar reforms in light of maritime security regionalism
21

Piètre-Cambacédès, Ludovic. "Des relations entre sûreté et sécurité." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00570432.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Historiquement séparées, sûreté et sécurité sont pourtant deux problématiques intimement liées. Si les trop rares initiatives de décloisonnement, adaptant notamment des outils d'un domaine à l'autre, ont abouti à des résultats convaincants, ce décloisonnement reste encore timide et son potentiel considérable. De plus, la récente convergence de risques de sécurité et de sûreté implique des interactions inédites entre exigences et mesures auparavant distinctes, dont la caractérisation nécessite une perspective globale. Dans ces conditions, ces travaux de thèse ont d'abord visé à mieux cerner les notions de sûreté et de sécurité. Ils ont conduit à un cadre référentiel dénommé SEMA (Système-Environnement Malveillant-Accidentel) permettant de positionner ces concepts l'un par rapport à l'autre selon les contextes. La complémentarité des outils de chaque discipline a ensuite été explorée. Cette démarche s'est concrétisée par l'adaptation des BDMP (Boolean logic Driven Markov Processes), issus de la sûreté, au domaine de la modélisation graphique d'attaques. Ils permettent de dépasser bien des limites des techniques classiquement employées. Enfin, l'extension des BDMP a été mise à profit pour fournir un formalisme intégratif, permettant de capturer graphiquement et de caractériser des situations où risques sûreté et sécurité s'exercent conjointement. Pour chacune de ces trois contributions, limites, améliorations et voies alternatives ont été identifiées. Elles n'auront sens que si les communautés de la sûreté et de la sécurité accentuent leur rapprochement, dont cette thèse se veut à la fois une manifestation et une invitation.
22

Eljamassi, Alaeddinne. "Utilisation des systèmes d'information géographique (SIG) dans la gestion des risques routiers en milieu urbain." Saint-Etienne, 2006. http://www.theses.fr/2006STET2088.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'intégration de la dimension spatiale dans l'analyse d'accidents routiers était moins bien traitée avant l'intégration des SIG (Systèmes d'Information Géographique) et leurs outils d'analyse spatiale qui nous ouvrent de nouvelles perspectives. La thèse vise à adapter ou autrement dit "customiser" certains modèles de risque d'accident en milieu urbain développés par le TRL en Grande-Bretagne aux contextes français et d'un pays arabe du Moyen-Orient. De plus une simplification du recueil et du codage des données nécessaires à ces modèles est proposée afin d'implémenter ces modèles plus facilement pour la gestion des risques routiers ; bien identifier et localiser les enjeux des risques sur le réseau en milieu urbain est possible grâce à l'utilisation de la technologie des SIG comme outil d'aide à la décision
The integration of spatial dimension in the analysis of road accidents was less well treated before the integration of GIS (Geographical Information Systems) and their tools for spatial analysis which open a new perspective to us. The thesis aims to customize some urban accident risk models developed at the Transport Research Laboratory in England to the context of French and Arabic countries in the Middle East. Some simplification of the data collection and coding necessary for these models, is proposed in order to implement these models in an easier way for road risk management ; A fair identification and localization of the major problems of road risk in urban area is now possible through the use of GIS technology as a tool for decision-making
23

Noumon, Allini Elie. "Caractérisation, évaluation et utilisation du jitter d'horloge comme source d'aléa dans la sécurité des données." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse, financée par la DGA, est motivée par la problématique d’évaluation des TRNG pour des applications à très haut niveau de sécurité. Les standards actuels tels que AIS-31 n’étant pas suffisants pour ces types d’applications, la DGA propose une procédure complémentaire, validée sur les TRNG utilisant les oscillateurs en anneau (RO), qui vise à caractériser la source d’aléa des TRNG afin d’identifier les bruits électroniques présents dans celle-ci. Ces bruits se traduisent dans les circuits numériques par le jitter d’horloge générée dans les RO. Ils peuvent être caractérisés par leur densité spectrale de puissance reliée à la variance d’Allan temporelle qui permet, contrairement à la variance standard pourtant encore largement utilisée, de discriminer ces différents types de bruit (thermique, flicker principalement). Cette étude a servi de base à l’estimation de la part du jitter due au bruit thermique utilisé dans les modèles stochastiques décrivant la sortie des TRNG. Afin d’illustrer et de valider l’approche de certification DGA sur d’autres principes de TRNG que les RO, nous proposons une caractérisation de la PLL en tant que source d’aléa. Nous avons modélisé la PLL en termes de fonctions de transfert. Cette modélisation a conduit à l’identification de la source de bruit en sortie de la PLL, ainsi que de sa nature en fonction des paramètres physiques de la PLL. Cela a permis de proposer des recommandations quant au choix des paramètres afin de garantir une entropie maximale. Afin d’aider à la conception de ce type de TRNG, nous proposons également un outil de recherche des paramètres non physiques du générateur assurant le meilleur compromis sécurité/débit
This thesis, funded by the DGA, is motivated by the problem of evaluation of TRNG for applications with a very high level of security. As current standards such as AIS-31 are not sufficient for these types of applications, the DGA proposes a complementary procedure, validated on TRNG using ring oscillators (RO), which aims to characterize the source of randomness of TRNG in order to identify electronic noises present in it. These noises are manifested in the digital circuits by the clock jitter generated in the RO. They can be characterized by their power spectral density related to the time Allan variance which allows, unlike the standard variance which is still widely used, to discriminate these different types of noise (mainly thermal, flicker). This study was used as a basis for estimating the proportion of jitter due to thermal noise used in stochastic models describing the output of TRNG. In order to illustrate and validate the DGA certification approach on other principles of TRNG apart from RO, we propose a characterization of PLL as a source of randomness. We have modeled the PLL in terms of transfer functions. This modeling has led to the identification of the source of noise at the output of the PLL, as well as its nature as a function of the physical parameters of the PLL. This allowed us to propose recommendations on the choice of parameters to ensure maximum entropy. In order to help in the design of this type of TRNG, we also propose a tool to search for the non-physical parameters of the generator ensuring the best compromise between security and throughput
24

Demay, Jonathan-Christofer. "Génération et évaluation de mécanismes de détection des intrusions au niveau applicatif." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00659694.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le chapitre 2 présente la première partie importante de nos travaux : l'approche pour la détection que nous proposons. Nous avons tout d'abord expliqué les caractéristiques des attaques contre les données de calcul et en quoi ces dernières se distinguent des autres types d'attaque. Ceci nous a notamment permis de montrer que pour perpétuer une intrusion, un utilisateur malveillant va chercher à cibler un ensemble bien précis de données de calcul. À l'aide de la logique de Hoare, nous avons ensuite expliqué que le code source des applications peut contenir des informations qui peuvent être utilisées pour détecter ce type bien précis d'attaque. Nous avons détaillé cela sur un exemple d'exploitation de vulnérabilité. Puis, nous avons présenté notre modèle de détection. Nous l'avons tout d'abord présenté empiriquement sur un cas réel d'attaques contre les données de calcul. Pour cela, nous avons détaillé la vulnérabilité utilisée dans notre exemple ainsi que les différents scénarios d'attaque et comment des invariants portant sur certaines variables permettent de détecter ces attaques. Enfin, nous avons présenté formellement notre modèle de détection. Celui-ci correspond à l'ensemble des domaines de variation des variables qui influencent l'exécution des appels de fonction. Ces domaines de variation sont calculés juste avant les appels de fonction et uniquement pour les variables qui sont atteignables à ces endroits du code source. Nous avons ensuite présenté une méthode pour construire un tel modèle. Premièrement, nous proposons d'utiliser le graphe de dépendance du programme pour déterminer pour chaque appel de fonction l'ensemble des variables qui influencent son exécution. Deuxièmement, nous proposons d'utiliser l'interprétation abstraite pour calculer pour chacun de ces ensembles de variables leur domaine de variation. Pour finir, nous présentons une implémentation de notre approche que nous avons réalisée pour les programmes écrits en langage C. Nous détaillons d'abord la phase de construction du modèle qui repose sur un outil d'analyse statique existant, Frama-C. Nous détaillons ensuite la phase d'instrumentation, celle-ci ayant pour contrainte de ne pas modifier le processus original de compilation. Le chapitre 3 présente la seconde partie importante de nos travaux : l'approche pour l'évaluation que nous proposons. Nous commençons par aborder la problématique de la simulation des erreurs engendrées par les attaques contre les données de calcul. Pour cela, nous présentons d'abord le modèle de faute que nous proposons pour simuler ce type bien particulier d'attaques. Nous étudions les caractéristiques qui doivent être simulées, quel sera leur impact sur le programme et dans quel cas ces dernières peuvent être détectées. Nous expliquons ensuite comment nous proposons de construire notre modèle de simulation. La principale problématique ici est de savoir comment déterminer l'ensemble des cibles potentielles. Il s'agit du même ensemble de variables que pour la détection. Nous proposons donc à nouveau de nous reposer sur le graphe de dépendance du programme et d'embarquer les mécanismes d'injection au sein des applications. Nous expliquons ensuite comment notre modèle de faute peut être utilisé pour l'évaluation d'un système de détection d'intrusion. Nous posons comme objectif que le résultat obtenu doit être une sur-approximation du taux de faux négatifs réel. Cela implique que nous voulons placer le système de détection d'intrusion à évaluer dans la situation la moins favorable possible. Pour respecter cette contrainte, nous montrons que notre modèle de faute doit être utilisé pour simuler une intrusion qui ne nécessite qu'une seule exploitation de la vulnérabilité, que la vulnérabilité donne accès à l'ensemble de l'espace mémoire du processus et que l'exploitation ne vise qu'une seule variable. Nous présentons enfin les modifications que nous avons apportées à notre outil afin qu'il instrumente aussi les programmes pour l'injection et comment les mécanismes d'injection ainsi ajoutés doivent être utilisés. Le chapitre 4 présente la dernière partie de nos travaux : l'évaluation de notre système de détection d'intrusion, notamment à l'aide de notre modèle de simulation d'attaque. Nous commençons par présenter la plateforme de tests que nous avons développée autour de nos mécanismes d'injection. Il s'agit d'une plateforme qui automatise la réalisation de tests ainsi que l'analyse des résultats obtenus. Nous abordons tout d'abord les problématiques d'écriture des scénarios d'exécution et de collecte des informations. Les scénarios doivent permettre de couvrir suffisamment le code des programmes utilisés pour les tests. Nous avons choisi de mesurer ce taux de couverture en fonction des appels de fonction. Les informations collectées sont utilisées pour produire deux résultats : une sur-approximation du taux réel de faux négatifs et une évaluation du taux de détection pour les injections ayant provoqué une déviation comportementale. Pour finir, nous présentons les résultats de l'évaluation de notre système de détection d'intrusion. Nous commençons par donner les performances de l'analyse. On note que la durée d'analyse peut être très grande, notamment en fonction de la taille du code à analyser, mais qu'en fonction de la sémantique du code, deux programmes de taille similaire peuvent présenter des durées d'analyse complètement différentes. Puis, nous donnons le niveau de surcharge à l'exécution. On note que la surcharge induite par nos mécanismes de détection est très faible, toujours inférieure à 1%. Nous continuons avec les performances de la détection. Nous pouvons voir que les résultats de la détection varient grandement d'un programme à l'autre, malgré un taux d'instrumentation similaire. Ce qui change, c'est le nombre d'invariants vérifiés. On voit ici la limite de notre approche : si la sémantique du code original ne permet pas de calculer suffisamment d'invariants, l'efficacité de notre approche sera alors limitée. De plus, la propagation de l'erreur n'apporte que peu d'aide à notre modèle de détection. Dans tous les cas, nous avons pu vérifier que notre approche ne génère bien pas de faux positif.
25

Mekki, Mokhtar Amina. "Processus d'identification de propriétés de sécurité-innocuité vérifiables en ligne pour des systèmes autonomes critiques." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1776/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès récents dans la définition de mécanismes décisionnels ont permis de déléguer de plus en plus de responsabilités aux systèmes informatiques. Par exemple, des robots de service travaillent aujourd'hui en interaction avec l'humain et réalisent des tâches de plus en plus complexes. Ce transfert de responsabilité pose alors de manière critique le problème de la sécurité pour l'homme, l'environnement du système, ou le système lui-même. La surveillance en ligne par un moniteur de sécurité indépendant vise à assurer un comportement sûr malgré la présence de fautes et d'incertitudes. Un tel moniteur doit détecter des situations potentiellement dangereuses afin d'enclencher des actions de mise en état sûr et d'éviter les défaillances catastrophiques. Cette thèse traite de l'identification de conditions de déclenchement de sécurité permettant de lancer des actions de mise en état sûr. Un processus systématique permettant d'identifier de telles conditions est défini, en partant d'une analyse de risque HazOp/UML du système fonctionnel. Par ailleurs, une méthode est proposée pour identifier les états du système où des actions de sécurité peuvent être enclenchées simultanément, afin d'être revues et corrigées, en cas de besoin, par un expert du système. L'approche proposée est appliquée à un robot déambulateur
Recent progress in the definition of decisional mechanisms has allowed computer-based systems to become more and more autonomous. For example, service robots can nowadays work in direct interaction with humans and carry out increasingly complex tasks. This transfer of responsibility poignantly raises the issue of system safety towards humans, the environment and the system itself. System surveillance by an independent safety monitor aims to enforce safe behaviour despite faults and uncertainties. Such a monitor must detect potentially dangerous situations in order to trigger safety actions aiming to bring the system towards a safe state. This thesis addresses the problem of identifying safety trigger conditions. A systematic process is proposed for the identification, starting from a HazOp/UML risk analysis. The proposed methodology also allows the identification of system states in which multiple safety actions might be executed concurrently, in order to be checked and, if necessary, corrected by a system expert. The methodology is applied to a robotic rollator
26

Obeid, Nizar. "Évaluation des performances en localisation d’un radar ultra large bande millimétrique pour l’automobile." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10139/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le domaine du transport, des travaux de recherche considérables sont menés visant à assurer une sécurité maximale des usagers des transports et à réduire le nombre d’accidents de la route. L’utilisation de radars embarqués sur les véhicules constitue un des points d’entrée technologiques considérés. Ces radars fournissent une mesure de la distance et de la vitesse d’approche de l’obstacle fixe ou mobile ainsi que la direction d’arrivée des obstacles. Ils fournissent également le nombre d’objets dans le champ du capteur. Plus récemment, une fonction secondaire de communication a été suggérée pour ces dispositifs. Ce travail de thèse a été réalisé dans le cadre d’un projet national, en partie financé par l’Agence Nationale de la Recherche, programme « Télécommunications », intitulé « Communication inter VEhicules et LOcalisation relative précise (VELO) ». Ce projet vise à concevoir et à réaliser un capteur radar fonctionnant en gamme millimétrique, à 79 GHz. Pour ce capteur, trois fonctions sont visées : Détection et mesure de distance radiale des cibles ; Communication inter-véhicules ; Localisation relative précise des cibles. L’objectif final est de construire une ceinture de sécurité immatérielle à 360° autour du véhicule, avec une résolution de détection radiale des obstacles inférieure à 10 cm et une capacité de communication inter-véhicules. La technologie Ultra Large Bande (ULB) a été sélectionnée pour assurer les exigences de détection radar, de communication et de localisation relative précise. Des modèles de simulation nécessaires à l’évaluation globale des performances du système de localisation relative ont été mis en œuvre et développés sous MatlabTM et ADSTM. Différents paramètres ont été étudiés et évalués tels que : la forme d’onde, la fréquence d’échantillonnage, la longueur de la ligne de base, la technique de localisation fondée sur des mesures de temps de vol des signaux de type TOA, TDOA et DOA (Time Of Arrival, Time Différence Of Arrival, Direction Of Arrival). De premières expérimentations effectuées à 4 GHz ont permis de nous familiariser avec la technique de localisation utilisant des impulsions brèves. D’autres expérimentations en laboratoire ont ensuite été menées en gamme millimétrique. Nous avons employé un banc de mesure réalisé à l’aide de composants disponibles à 60 GHz en attendant de disposer des prototypes à 79 GHz réalisés par ailleurs dans le projet. Ces tests ont permis de valider l’approche choisie ainsi que les différents résultats de simulation exploitant un modèle de propagation à deux rayons direct et réfléchi sur la chaussée
In order to ensure maximum safety of users of road transport and to reduce the number of road accidents, considerable scientific research is conducted. The use of radar mounted on vehicles is a considered technological entry point. The required functions are measuring the distance and the velocity of fixed or mobile obstacles and providing their directions of arrival. More recently, a secondary vehicle to vehicle communication function has been suggested for these radar sensors. This thesis was part of a national research project launched in 2007 entitled "Communication inter VEhicules and accurate relative LOcation (VELO)" following a call for tenders from the French National Agency of Research. This project aims to design and to implement a radar sensor operating at the recently assigned millimeter frequency band of 79 GHz. Different functions must be provided by this sensor: Detection and radial distances of the targets; Targets speed measurements; Vehicle to vehicle communication; and Accurate targets relative location. The ultimate goal of these sensors is to constitute a safety virtual belt operating at 360 ° all around the vehicle, providing a high resolution localization of all the surrounding targets and the ability to communicate with other vehicles. In this work we focus particularly on the part “accurate relative localization of the targets”. We show that through the use of the ultra wideband (UWB) technique and of sub nanosecond pulses we can simultaneously satisfy these requirements. To evaluate the relative localization accuracy provided by this approach, the impact of different parameters are modeled: pulse waveforms, sampling rate, jitter, TOA, TDOA, DOA (Time Of Arrival, Time Difference Of Arrival, Direction Of Arrival) methods. Simulation models needed to assess overall system performance relative location were implemented and developed in MatlabTM and ADSTM. These simulation results have been validated during an experimental phase where we have localized sources emitting at 4 GHz and 60 GHz in a laboratory environment. A channel model considering a two-ray approach was also implemented in the simulations and experimentally validated at 63 GHz
27

Varet, Antoine. "Conception, mise en oeuvre et évaluation d'un routeur embarqué pour l'avionique de nouvelle génération." Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00932283.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contexte aéronautique a depuis plusieurs années mis en évidence le besoin croissant de technologies de sécurité permettant d'éviter des utilisations malveillantes des matériels ou services installés à bord des avions. La plupart des approches de sécurisation 'avion' se concentre sur des méthodes et techniques permettant de sécuriser les échanges au sein de l'avion. Elles sont cependant inadaptées à la sécurisation dans les cas d'interconnexion des réseaux avioniques avec le reste des réseaux de communication (réseau Internet par exemple). Le problème abordé dans ce travail de thèse vise donc à proposer une architecture de sécurité et de sûreté pour l'ensemble des communications aéronautiques et permettant une interconnexion sécurisée entre le monde 'avion' et le monde extérieur, en tenant compte de l'ensemble des critères de sécurité qui caractérisent les divers environnements traversés et considère dès le départ les divers principes de standardisation associés afin de garantir la pérennité scientifique et industrielle. La solution architecturale proposée dans ce travail de thèse repose principalement sur un composant central de routage, de filtrage et de sécurisation des flux de données aéronautiques. Le travail de conception et de développement de ce composant appelé Routeur Sécurisé de Nouvelle Génération (routeur SNG) a permis une validation expérimentale sur un système reproduisant un système embarqué.
28

Llorens, Cédric. "Mesure de la sécurité "logique" d'un réseau d'un opérateur de télécommunications." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001492.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un prototype et une méthodologie pour mesurer la sécurité "logique" d'un réseau d'un opérateur de télécommunications. Cette méthode consiste à définir une politique de sécurité, à vérifier l'application de la politique de sécurité dans les configurations des équipements réseau, à définir des indicateurs de sécurité afin d'établir un tableau de bord de la sécurité réseau, à quantifier le risque associé à la non application de la politique de sécurité et enfin à définir des priorités pour corriger les faiblesses de sécurité les plus critiques.
29

Zouinkhi, Ahmed. "Contribution à la modélisation de produit actif communicant : spécification et évaluation d'un protocole de communication orienté sécurité des produits." Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La surveillance d'entrepôts de produits chimiques est une opération délicate dans le sens où elle passe par une connaissance de la nature de chaque produit stocké, sur leur localisation, sur leur possible interaction et sur les actions à mettre en oeuvre en cas d'alerte. Pour faciliter cette gestion de stockage, cette thèse propose d'utiliser le concept de l'ambiant où le produit possède son propre système d'information et de communication sans fil de façon à le rendre intelligent et autonome. Cette thèse propose et développe un modèle de comportement interne de produit actif permettant une approche distribuée de sécurité active. Celui-ci permet d'aboutir à un protocole de communication de niveau applicatif à embarquer dans les produits actifs. Ce protocole est évalué de façon formelle en utilisant les Réseaux de Petri colorés hiérarchiques. Finalement, ce protocole est implémenté dans le simulateur Castalia/Omnet++ pour l'analyser dans plusieurs scénarii et aussi pour l'éprouver lors du passage à l'échelle. Les résultats montrent l'intérêt et la faisabilité du concept de produit actif
Monitoring of chemical product storage is a delicate operation in the sense that it requires knowledge of the nature of each stored product, their location, their interaction and possible actions to be implemented in case of emergency. To facilitate the storage management, this thesis proposes to use the concept of ambient where the product has its own information system and wireless communication so as to make it intelligent and autonomous. This thesis proposes and develops a model of internal behavior of active product that allows a distributed approach of active security. This can lead to a communication protocol of application level to embed the active products. This protocol is formally assessed using hierarchical colored Petri nets. Finally, this protocol is implemented in the simulator Castalia/Omnet++ to analyze it in several scenarios and also for the experience when going to scale. The results show the usefulness and feasibility of the concept of active product
30

Swiderek, Karolina. "Communication et processus organisants : le cas du traitement des évènements de sécurité dans le domaine du contrôle aérien." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2474/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre objet d'étude se situe dans le domaine du contrôle aérien, et concerne plus spécifiquement ce qui est identifié comme le " système de traitement des événements sécurité " dans le cadre plus large du " système de gestion de la sécurité ". La sécurité de l'aviation se doit d'être maîtrisée et sans cesse retravaillée en lien avec l'augmentation du trafic aérien. Aux évolutions règlementaires et techniques sont associés de nouveaux enjeux liés aux démarches qualité-sécurité. Ces démarches s'appuient sur un principe d'amélioration continue mis en place à travers de ce qui est désigné en termes de " notification et traitement des événements relevant de la sécurité ", ainsi que de " retour d'expérience ". Or les normes ne sont jamais simplement appliquées, elles sont mises à l'épreuve des situations concrètes, négociées et interprétées. Dans cette recherche, nous interrogeons les formes de textualisation (Taylor, 1993) des organisations à travers les normes inscrites dans des textes prescriptifs, ainsi que d'autres " écrits professionnels " omniprésents dans les organisations (Delcambre, 1990 ; 1993). Nous interrogeons les processus organisants du point de vue de la manière dont ils se constituent, se négocient et se recomposent entre différentes formes scripturales. Ce faisant, nous proposons de contribuer à une approche communicationnelle des organisations renouvelée, mobilisant et retravaillant certaines contributions de deux approches très contemporaines : des approches de la communication constitutive des organisations (CCO) caractéristiques de tout un courant de recherches nord-américaines, et des approches communicationnelles des organisations (ACO), telles que travaillées par des chercheurs français et plus largement européens
Our object of study is situated in the field of air traffic control, and more specifically concerns what is identified as " security events processing system " in the wider context of " system security management ". The aviation security must be controlled and constantly rework due to the increase of the air traffic. The regulatory and technical evolutions are associated with new stakes related to quality and safety approaches. These approaches are based on a principle of continuous enhancement implemented through what is called in terms of " security events notification and processing " as well as " experience feedback ". However, the norms are never simply applied, they are tested in concrete situations, negotiated and interpreted. In this research, we question textualization forms (Taylor, 1993) of organizations through the norms inscribe in prescriptive texts and other " professional writings " omnipresent in organizations (Delcambre, 1990, 1993). We question organizing processes from the point of view of the way in which they constitute, negotiate and recompose between different scriptural forms. We propose to contribute to a renewed communicative approach of organizations, mobilizing and reworking some of the contributions of two very contemporary approaches: the approaches of communication as constitutive of organization (CCO) characteristics of all current North American researches and the communicative approaches of organizations (ACO), as worked by French researchers and more broadly European
31

Janès, Agnès. "Caractérisation des dangers des produits et évaluation des risques d'explosion d'ATEX, contribution à l'amélioration de la sécurité des procédés industriels." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0346/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La maîtrise des risques d'incendie et d'explosion dans les procédés industriels repose sur une évaluation des conditions d'occurrence et des conséquences prévisibles de ces évènements. L'étude du retour d'expérience relatif aux accidents industriels impliquant des produits combustibles met souvent en évidence la méconnaissance des dangers des produits par les opérateurs et/ou une évaluation insuffisante ou incomplète des risques générés par le procédé exploité. Les évolutions réglementaires intervenues ces dix dernières années ont pour objectif de mieux identifier et gérer ces risques. Pour autant, afin de réduire la fréquence et la gravité de ces accidents, il est nécessaire d'améliorer encore la sécurité des procédés qui mettent en oeuvre des produits combustibles. C'est lorsque cette évaluation est la plus juste et réaliste que les mesures de prévention et de protection sont adaptées. Ceci nécessite avant tout de caractériser les dangers présentés par les produits stockés, transportés ou utilisés. Il est ensuite nécessaire de mieux identifier et gérer les risques induits. Les travaux effectués ont été consacrés en premier lieu à la caractérisation réglementaire des dangers physico-chimiques des substances et des mélanges, ainsi qu'à l'évaluation de l'aptitude des produits inflammables sous forme de gaz, de vapeur ou de poussière à générer des atmosphères explosives et à être enflammés. En second lieu, ces travaux se sont attachés à mettre en évidence les éléments essentiels du contexte réglementaire, normatif et méthodologique sur les thèmes des atmosphères explosives et de l'évaluation des risques associés et à développer une méthode d'étude du risque associé à la formation d'atmosphères explosives dans les installations industrielles compatible avec les exigences réglementaires applicables
Controlling fire and explosion hazards in industrial processes is based on occurrence conditions and the assessment of possible effects and consequences of these events. The feedback from industrial accidents involving combustible products often reveals an insufficient identification of products hazards and/or an incorrect or incomplete risk assessment of the processes by the operators. The regulatory evolutions in the past decade were aimed at better identification and management of these risks. Nevertheless, in order to reduce the frequency and the severity of these accidents, it is necessary to further improve the safety procedures concerning combustible materials. When this evaluation is the most accurate and realistic, prevention and protection measures are the most adequate. This requires an accurate hazard characterization of the products stored, transported or used. It is also necessary to better identify and manage the risks associated. This work has been devoted primarily to the regulatory characterization of physical and chemical hazards of substances and mixtures, as well as evaluating the ability of flammable gas, vapour or dust to form explosive atmospheres and an eventual ignition. Secondly, this work have attempted to highlight the key elements of the regulatory, normative and methodological context concerning explosive atmospheres and to develop a specific methodology allowing explosive atmospheres explosion risk assessment in industrial facilities, consistent with applicable regulatory requirements
32

Kriaa, Siwar. "Modélisation conjointe de la sûreté et de la sécurité pour l’évaluation des risques dans les systèmes cyber-physiques." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC014/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les Systèmes Cyber Physiques (CPS) intègrent des composants programmables afin de contrôler un processus physique. Ils sont désormais largement répandus dans différentes industries comme l’énergie, l’aéronautique, l’automobile ou l’industrie chimique. Parmi les différents CPS existants, les systèmes SCADA (Supervisory Control And Data Acquisition) permettent le contrôle et la supervision des installations industrielles critiques. Leur dysfonctionnement peut engendrer des impacts néfastes sur l’installation et son environnement.Les systèmes SCADA ont d’abord été isolés et basés sur des composants et standards propriétaires. Afin de faciliter la supervision du processus industriel et réduire les coûts, ils intègrent de plus en plus les technologies de communication et de l’information (TIC). Ceci les rend plus complexes et les expose à des cyber-attaques qui exploitent les vulnérabilités existantes des TIC. Ces attaques peuvent modifier le fonctionnement du système et nuire à sa sûreté.On associe dans la suite la sûreté aux risques de nature accidentelle provenant du système, et la sécurité aux risques d’origine malveillante et en particulier les cyber-attaques. Dans ce contexte où les infrastructures industrielles sont contrôlées par les nouveaux systèmes SCADA, les risques et les exigences liés à la sûreté et à la sécurité convergent et peuvent avoir des interactions mutuelles. Une analyse de risque qui couvre à la fois la sûreté et la sécurité est indispensable pour l’identification de ces interactions ce qui conditionne l’optimalité de la gestion de risque.Dans cette thèse, on donne d’abord un état de l’art complet des approches qui traitent la sûreté et la sécurité des systèmes industriels et on souligne leur carences par rapport aux quatre critères suivants qu’on juge nécessaires pour une bonne approche basée sur les modèles : formelle, automatique, qualitative et quantitative, et robuste (i.e. intègre facilement dans le modèle des variations d’hypothèses sur le système).On propose ensuite une nouvelle approche orientée modèle d’analyse conjointe de la sûreté et de la sécurité : S-cube (SCADA Safety and Security modeling), qui satisfait les critères ci-dessus. Elle permet une modélisation formelle des CPS et génère l’analyse de risque qualitative et quantitative associée. Grâce à une modélisation graphique de l’architecture du système, S-cube permet de prendre en compte différentes hypothèses et de générer automatiquement les scenarios de risque liés à la sûreté et à la sécurité qui amènent à un évènement indésirable donné, avec une estimation de leurs probabilités.L’approche S-cube est basée sur une base de connaissance (BDC) qui décrit les composants typiques des architectures industrielles incluant les systèmes d’information, le contrôle et la supervision, et l’instrumentation. Cette BDC a été conçue sur la base d’une taxonomie d’attaques et modes de défaillances et un mécanisme de raisonnement hiérarchique. Elle a été mise en œuvre à l’aide du langage de modélisation Figaro et ses outils associés. Afin de construire le modèle du système, l’utilisateur saisit graphiquement l’architecture physique et fonctionnelle (logiciels et flux de données) du système. L’association entre la BDC et ce modèle produit un modèle d’états dynamiques : une chaîne de Markov à temps continu. Pour limiter l’explosion combinatoire, cette chaîne n’est pas construite mais peut être explorée de deux façons : recherche de séquences amenant à un évènement indésirable ou simulation de Monte Carlo, ce qui génère des résultats qualitatifs et quantitatifs.On illustre enfin l’approche S-cube sur un cas d’étude réaliste : un système de stockage d’énergie par pompage, et on montre sa capacité à générer une analyse holistique couvrant les risques liés à la sûreté et à la sécurité. Les résultats sont ensuite analysés afin d’identifier les interactions potentielles entre sûreté et sécurité et de donner des recommandations
Cyber physical systems (CPS) denote systems that embed programmable components in order to control a physical process or infrastructure. CPS are henceforth widely used in different industries like energy, aeronautics, automotive, medical or chemical industry. Among the variety of existing CPS stand SCADA (Supervisory Control And Data Acquisition) systems that offer the necessary means to control and supervise critical infrastructures. Their failure or malfunction can engender adverse consequences on the system and its environment.SCADA systems used to be isolated and based on simple components and proprietary standards. They are nowadays increasingly integrating information and communication technologies (ICT) in order to facilitate supervision and control of the industrial process and to reduce exploitation costs. This trend induces more complexity in SCADA systems and exposes them to cyber-attacks that exploit vulnerabilities already existent in the ICT components. Such attacks can reach some critical components within the system and alter its functioning causing safety harms.We associate throughout this dissertation safety with accidental risks originating from the system and security with malicious risks with a focus on cyber-attacks. In this context of industrial systems supervised by new SCADA systems, safety and security requirements and risks converge and can have mutual interactions. A joint risk analysis covering both safety and security aspects would be necessary to identify these interactions and optimize the risk management.In this thesis, we give first a comprehensive survey of existing approaches considering both safety and security issues for industrial systems, and highlight their shortcomings according to the four following criteria that we believe essential for a good model-based approach: formal, automatic, qualitative and quantitative and robust (i.e. easily integrates changes on system into the model).Next, we propose a new model-based approach for a safety and security joint risk analysis: S-cube (SCADA Safety and Security modeling), that satisfies all the above criteria. The S-cube approach enables to formally model CPS and yields the associated qualitative and quantitative risk analysis. Thanks to graphical modeling, S-cube enables to input the system architecture and to easily consider different hypothesis about it. It enables next to automatically generate safety and security risk scenarios likely to happen on this architecture and that lead to a given undesirable event, with an estimation of their probabilities.The S-cube approach is based on a knowledge base that describes the typical components of industrial architectures encompassing information, process control and instrumentation levels. This knowledge base has been built upon a taxonomy of attacks and failure modes and a hierarchical top-down reasoning mechanism. It has been implemented using the Figaro modeling language and the associated tools. In order to build the model of a system, the user only has to describe graphically the physical and functional (in terms of software and data flows) architectures of the system. The association of the knowledge base and the system architecture produces a dynamic state based model: a Continuous Time Markov Chain. Because of the combinatorial explosion of the states, this CTMC cannot be exhaustively built, but it can be explored in two ways: by a search of sequences leading to an undesirable event, or by Monte Carlo simulation. This yields both qualitative and quantitative results.We finally illustrate the S-cube approach on a realistic case study: a pumped storage hydroelectric plant, in order to show its ability to yield a holistic analysis encompassing safety and security risks on such a system. We investigate the results obtained in order to identify potential safety and security interactions and give recommendations
33

Boniface, Antoine. "Détection et évaluation de l'endommagement mécanique du béton par émission acoustique." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0954/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les problématiques de sureté nucléaire passent par l’évaluation des installations existantes et notamment des enceintes de confinement. L’enceinte est un double sarcophage en béton armé. Elle constitue une barrière protégeant à la fois le réacteur d’une agression extérieure mais aussi protégeant l’extérieur d’une éventuelle fuite en cas d’accident. Le bon fonctionnement de l’enceinte est assuré lorsqu’elle remplit ses fonctions de résistante et d’étanchéité. L’évaluation de ces deux fonctions se fait notamment par le suivi de l’état de fissuration de l’enceinte.La fissuration du béton est associée au développement de micro-fissures qui apparaissent lorsque les contraintes locales du matériau sont dépassées. Il résulte de ces micro-fissurations la libération d'énergie qui se propage dans le matériau sous la forme d'ondes mécaniques. La détection de ses ondes permettra de remonter à leur source et de caractériser l’état d’endommagement du matériau.L’émission acoustique (EA) permet, à l’aide d’un réseau de capteurs piézoélectriques placés sur la surface, d’enregistrer les signaux issus de la libération d’énergie mécanique émise par les microfissures au sein du matériau. L’analyse des temps de vol de ces ondes permet entre autre de localiser les micro-fissurations au sein du matériau. Cette particularité de l’EA est donc parmi les techniques passives d’inspection pour le suivi de l’endommagement et de la fissuration du béton.Cependant, la précision des outils de localisation existants est fortement dépendante des méthodes d’analyse des signaux d’EA enregistrés. Cette dépendance constitue un verrou important qu’il est nécessaire de lever afin d’assurer le suivi spatial de la propagation de fissures le plus fiable possible. Par ailleurs l’identification des mécanismes sources d’EA est un enjeu crucial car il permet de caractériser les différents phénomènes qui interviennent lors de la propagation de fissure.Sur la base d’essais de fissuration et d’endommagement thermique du béton nous avons montré l’effet des stratégies de localisation sur la représentation de l’endommagement. A partir de ces résultats nous avons montré qu’une analyse spatiale basée sur la densité d’événements acoustique et l’énergie libérée permettait de suivre la propagation de l’endommagement thermique mais aussi de la fissuration dans les éprouvettes. Une analyse originale des signaux par inter-corrélation est proposée afin de regrouper les signaux en classes. Enfin les méthodes développées ont été appliquées pendant les essais d’ouverture et de refermeture d’une fissure sur la souflerie de l’Onera ainsi que sur la maquette « Vercors » d’EDF qui représente une enceinte de confinement de centrale nucléaire à l’échelle 1/3
Nuclear safety issues involve the evaluation of existing installations, and in particular of containment systems. The enclosure is a double sarcophagus of reinforced concrete. It constitutes a protective barrier to both the reactor of an external aggression but also an agent of protection of the exterior of a possible leak in case of accident. The correct functioning of the enclosure is ensured in full filling of the functions of resistance and sealing. The evaluation of these two functions in particular for monitoring the state of cracking of the enclosure.The cracking of the concrete is associated with the development of micro-cracks which appear when the local stresses of the material are exceeded. As a result of these micro-cracks, the release of energy is propagated in the material in the form of mechanical waves. This phenomenon is called "acoustic emission".Acoustic emission (EA) is also the name of the technique used to directly measure the manifestation of these micro-cracks. The EA consists of recording, by means of a network of piezoelectric sensors placed on the surface, the ultrasonic waves emitted by the micro-cracks within the material. This particularity of the AE places it at the forefront of inspection techniques for monitoring the damage and cracking of concrete.The accuracy of the existing location tools is highly dependent on the methods of analyzing the recorded EA signals. This dependence constitutes an important lock that must be lifted in order to ensure the spatial follow-up of the most reliable crack propagation possible. Moreover, the identification of the source mechanisms of EA is a crucial stake because it makes it possible to characterize the different phenomena that intervene during the propagation of crack.On the basis of tests of cracking and thermal damage of the concrete we shown the impact of the strategies of localization on the representation of the damage. Based on our results, we proposed a spatial analysis based on the acoustic event density and the released energy allowing to follow the propagation of the thermal damage also of the cracking in the specimens. An original analysis of the signals by cross-correlation is proposed in order to group the signals into classes. Finally, the methods developed were applied during crack opening and referencing trials on the Onera blower and on a 1/3 scale model of a nuclear power plant confinement enclosure called “Vercors”
34

Le, Duy Tu Duong. "Traitement des incertitudes dans les applications des études probabilistes de sûreté nucléaire." Troyes, 2011. http://www.theses.fr/2011TROY0022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif principal de cette thèse est de proposer une démarche de traitement des incertitudes paramétriques et des incertitudes de modèle affectant les résultats des indicateurs de risque utilisés dans les applications des Etudes Probabilistes de Sûreté nucléaire (EPS). Après étude des limites de l’approche probabiliste traditionnelle pour modéliser les incertitudes dans les EPS, une méthodologie de traitement dans le cadre de la théorie de Dempster-Shafer a été proposée. Cette démarche se décompose en cinq étapes principales. La première étape concerne la modélisation des incertitudes paramétriques par les fonctions de croyance et de plausibilité selon les données fournies dans les EPS. La second étape correspond à la propagation des ces incertitudes à travers le modèle de risque pour représenter les incertitudes associées aux indicateurs de risque calculés en sortie. Les incertitudes de modèle sont ensuite intégrées dans la troisième étape en prenant en compte des modèles de risque alternatifs. La quatrième étape a pour objectif de fournir aux décideurs des informations nécessaires pour la prise de décision en présence d’incertitudes (paramétriques et de modèle) et d’autre part d’identifier les incertitudes d’entrée ayant des contributions importantes sur le résultat. Enfin, la dernière étape boucle le processus en étudiant la mise à jour des fonctions de croyances en présence des nouvelles données. La méthodologie proposée a été mise en œuvre sur une application réelle simplifiée du modèle EPS
The aim of this thesis is to propose an approach to model parameter and model uncertain-ties affecting the results of risk indicators used in the applications of nuclear Probabilistic Risk assessment (PRA). After studying the limitations of the traditional probabilistic approach to represent uncertainty in PRA model, a new approach based on the Dempster-Shafer theory has been proposed. The uncertainty analysis process of the pro-posed approach consists in five main steps. The first step aims to model input parameter uncertainties by belief and plausibility functions ac-cording to the data PRA model. The second step involves the propagation of parameter uncertainties through the risk model to lay out the uncertainties associated with output risk indicators. The model uncertainty is then taken into account in the third step by considering possible alternative risk models. The fourth step is intended firstly to provide decision makers with information needed for decision making under uncertainty (parametric and model) and secondly to identify the input parameters that have significant uncertainty contributions on the result. The final step allows the process to be continued in loop by studying the updating of beliefs functions given new data. The pro-posed methodology was implemented on a real but simplified application of PRA model
35

Bhatti, Junaid. "Les facteurs environnementaux dans les accidents de la circulation sur des routes interurbaines dans les pays en développement." Thesis, Bordeaux 2, 2010. http://www.theses.fr/2010BOR21724/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction : La sécurité routière sur le réseau interurbain est un problème majeur de santé publique dans les Pays à Revenu Bas et Moyen (PRBM) mais peu d'attention y a été consacrée. Les objectifs de cette thèse étaient d’évaluer le fardeau des traumatismes en relation avec le trafic interurbain, la déclaration des usagers blessés dans des bases de données différentes, d’analyser l’association entre les facteurs situationnels (caractéristiques physiques et circonstances environnementales) et les sites des accidents et la perception de la dangerosité des tronçons accidentogènes dans les PRBM. Méthodes et résultats : Pour répondre à ces objectifs, cinq études spécifiques ont été réalisées dans deux PRBM, le Cameroun et le Pakistan. L’étude I a évalué le nombre de tués par véhicules-km parcourus et les facteurs qui leur étaient associés, en utilisant les rapports de police entre 2004 et 2007 sur l’axe Yaoundé-Douala, Cameroun. Le taux de mortalité était de 73 par 100 millions véhicules km parcourus, un taux 35 fois plus élevé que sur un même type de route en pays à revenu élevé. La mortalité était plus élevée pour les accidents impliquant des usagers vulnérables, les véhicules roulant en sens opposé et ceux dus à une défaillance mécanique, y compris un éclatement de pneu. L’étude II a évalué les différences de déclaration d’accidents faites par les services de police, d’ambulance et des urgences en 2008 sur l’axe Karachi-Hala, Pakistan. La mortalité était de 53 par 109 véhicules-km parcourus ; le taux de mortalité était 13 fois plus élevé sur cet axe par rapport à un même type de route en France. La police a déclaré un mort sur cinq et un blessé grave sur dix. Les usagers de la route vulnérables, y compris les piétons et deux-roues ont été deux fois moins déclarés par la police que par les services d'ambulance ou des urgences. L’étude III a étudié les facteurs situationnels associés aux sites des accidents sur l’axe Yaoundé-Douala par une approche de type cas-témoins. Les facteurs tels que le profil routier plat (rapport de cotes [RC] ajusté =1,52 ; intervalle de confiance à 95 % [IC95 %]=1,15-2,04), les surfaces irrégulières (RC=1,43 ; IC95 %=1,04-1,99), les obstacles à proximité (RC=1,99 ; IC95 %=1,09-3,63) et les intersections à trois (RC=3,11 ; IC95 %=1,15-8,39) ou à quatre directions (RC=3,23 ; IC95 %=1,51-6,92) étaient significativement associés à des sites d’accidents corporels. De plus, la probabilité des accidents augmentait dans des zones urbaines situées dans des régions de plaine (RC=2,23 ; IC95 %=1,97-2,77). L’étude IV a étudié le fardeau des traumatismes dus aux accidents ainsi que les facteurs associés dans des zones en travaux sur l’axe Karachi-Hala en utilisant les méthodes de cohorte historique. Un tiers de la mortalité routière était survenu dans des zones en travaux et le risque de mortalité était quatre fois plus élevé dans ces zones que dans les autres zones. Un accident sur deux a eu lieu entre des véhicules roulant en sens opposé dans ces zones. L’étude V a étudié la perception de la dangerosité des tronçons accidentogènes (au moins 3 accidents sur 3 ans) et non accidentogènes (aucun accident déclaré) sur les deux axes des précédentes études, en montrant leurs vidéos à des conducteurs volontaires pakistanais. Les conducteurs n’ont perçu comme dangereux que la moitié des tronçons accidentogènes. La perception de la dangerosité des tronçons plats et droits était plus faible par rapport aux tronçons en courbes et avec une pente. La perception de la dangerosité en zone urbaine d’un tronçon accidentogène était significativement moins élevée (RC=0,58 ; IC95 %=0,51-0,68) que celle d’un tronçon non accidentogène ayant la même caractéristique (RC=2,04 ; IC95 %=1,51-2,74). La perception de la dangerosité d’un tronçon accidentogène avec panneau de signalisation était significativement plus élevée (RC=2,75 ; IC95 %=2,38-3,16) par rapport à des tronçons non accidentogènes ayant la même caractéristique (RC=0,50 ; IC95 %=0,34-0,72). Conclusion : Cette thèse montre combien des méthodes épidémiologiques simples, mais novatrices, peuvent être utiles pour évaluer le fardeau des traumatismes par accidents et leurs facteurs de risques dans les PRBM. Ces pays sont confrontés à un énorme fardeau de morbidité routière qui est souvent sous-déclarée dans les données de la police. Un système de surveillance fiable et valide est nécessaire dans les PRBM. De plus, la politique de prévention pourrait être améliorée par une meilleure communication d’information entre les autorités routières et policières concernant les facteurs situationnels. De la même façon, les mesures de sécurité dans les zones en travaux devraient être contrôlées par un système dédié. Enfin, la sécurité routière sur les routes interurbaines dans les PRBM pourrait être améliorée en rendant les routes plus « informant », en particulier avec l’application de mesures peu couteuses telles que les panneaux de signalisations sur les tronçons accidentogènes
Background: Interurban traffic safety is a major public health problem, but has received little attention in Low- and Middle-Income Countries (LMICs). The objectives of this thesis were to assess the burden of injury related to interurban traffic, and reporting of these injuries in different datasets, to analyze situational factors (physical characteristics and environmental circumstances) associated with crash sites, and road hazard perception of high-risk crash sites in LMICs. Methods and results: These objectives were assessed in five specific studies conducted in two LMICs, Cameroon and Pakistan. In study I, traffic fatality per vehicle-km and associated crash factors were assessed using police reports for years 2004 to 2007, on the two-lane Yaoundé-Douala road section in Cameroon. Traffic fatality was 73 per 100 million vehicle-km, a rate 35 times higher than a similar road in a high-income country. Fatality was higher for crashes involving vulnerable road users, crashes between oppositely-moving vehicles, and those due to mechanical failure including tyre burst. In study II, traffic injury reporting to police, ambulance, and Emergency Department (ED) in 2008 was assessed, on the four-lane Karachi-Hala road section in Pakistan. Crash fatality was over 53 per 109 vehicle-km, a rate 13 times higher than a similar road in France. Police reported only one out of five fatalities and one out of ten severe injuries. Vulnerable road users were two times less reported in police data than ambulance or ED data. In study III, situational factors associated with injury crash sites were assessed on the Yaoundé-Douala road section, using case-control methods. Factors such as flat road profiles (adjusted Odds Ratios [OR]=1.52; 95% Confidence Interval [95%CI]=1.15-2.01), irregular surface conditions (OR=1.43; 95%CI=1.04-1.99), nearby road obstacles (OR=1.99; 95%CI=1.09-3.63), and three- (OR=3.11; 95%CI=1.15-8.39) or four-legged (OR=3.23; 95%CI= 1.51-6.92) intersections were significantly associated with injury crash sites. Furthermore, the likelihood of crash increased with built-up areas situated in plain regions (OR=2.33; 95%CI=1.97-2.77). In study IV, traffic injury burden and factors associated with Highway Work Zones (HWZs) crashes were assessed on the Karachi-Hala road section, using historical cohort methods. HWZs accounted for one third of traffic fatalities, and fatality per vehicle-km was four times higher in HWZs than other zones. One out of two HWZ crashes occurred between oppositely moving vehicles. In study V, hazard perception of high-risk (with ≥ 3 crashes in 3 years) and low-risk sites (no crash reported) from the two above road sections was assessed by showing videos to voluntary Pakistani drivers. Drivers were able to identify only half of the high-risk sites as hazardous. Sites with a flat and straight road profile had a lower hazard perception compared to those with curved and slope road profile. High-risk sites situated in built-up areas were perceived less hazardous (OR = 0.58; 95%CI=0.51-0.68) compared to low-risk sites (OR = 2.04; 95%CI=1.51-2.74) with same road situation. Further, high-risk sites with vertical road signs were more likely to be perceived hazardous (OR = 2.75; 95%CI=2.38-3.16) than low-risk sites (OR = 0.50; 95%CI=0.34-0.72) with such signs. Conclusion: This thesis illustrates how innovative yet simple epidemiological methods can be useful in assessing the injury burden and specific risk factors in LMICs. These countries face a high burden of interurban road injuries, mostly under-reported in police data. A reliable and accurate injury surveillance system is needed in these countries. Moreover, prevention policy can be improved by better information transfer between road and police authorities regarding situational factors. Similarly, a monitoring system is required to examine the HWZ safety interventions in these countries. Lastly, interurban road safety can be improved by making roads self-explaining, especially by implementing low-cost interventions such as vertical signs at high-risk sites
36

Glatron, Sandrine. "L'évaluation des risques technologiques majeurs en milieu urbain : approche géographique : le cas de la distribution des carburants dans la région Ile-de-France." Paris 1, 1997. http://www.theses.fr/1997PA010684.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les risques technologiques majeurs constitue aujourd'hui un enjeu de société. En témoigne la contrainte qui pèse sur le planificateur depuis la loi du 22 juillet 1987 : celui-ci doit prendre en compte les risques majeurs lors de l'élaboration des plans d'aménagement, du POS (Plan d'Occupation des Sols) au schéma directeur régional. Partant de cette disposition qui instaure des mesures de maîtrise de l'urbanisation autour des installations dangereuses, une évaluation des risques est menée. Elle s'appuie sur la comptabilisation des dommages potentiels dans les périmètres d'effets d'un accident éventuel. Ceux-ci résultent du calcul des conséquences de l'accident le plus grave possible, dit "pénalisant", suivant la méthode déterministe adoptée en France pour traiter de cette question. L'évaluation des risques technologiques majeurs ne s'arrête pas aux établisseemnts dangereux. Elle considère les risques qui accompagnent tous les maillons d'une filière industrielle, y compris le transport. Les flux sont en effet étroitement liés à l'organisation spatiale d'une entreprise. La méthode d'évaluation mise au point prend acte de cette articulation forte en proposant une démarche commune aux risques-site et aux risques-transport. Elle permet de vérifier l'hypothèse selon laquelle il y aurait des transferts de risques depuis l'établissement fixe vers les transports de matières dangereuses si la géographie d'une entreprise était modifiée, suite à la "délocalisation" d'un établissement de stockage ou de production. La démonstration a été menée pour le cas du segment aval de la filière pétrolière : le stockage et la distribution de détail des carburants (par la route), dans la région Ile-de-France. Elle s'appuie sur l'analyse de l'espace telle qu'elle apparaît dans le mode d'occupation des sols (MOS), cartographie originale établie et suivie sur le système d'information géographique de l'Institut d'Aménagement et d'urbanisme de la région Ile-de-France (AURIF)
Technological hasards have now a societal dimension, as shown by the necessity for the town planner to consider them, since the French law of 1987. During the elaboration of urban plans, local (Land of urban, local (Land Use Plan) or regional, the technological hazards must be taken into account. An original assesment method is built, using this legal constraint - the control of urban development around dangerous industrial sites. It consists in counting the potential damages wihin the area concerned by the consequences of an accident. This area is calculated for the most serious accident, called "penalizing" accident, because of the determinist assessment method we use in France. This assessment doesn't concern only the dangerous plants. It is implemented for the hole steps of an industrial branch, including the transport. Flows are very closely linked to the spatial firm organisation. The assessing method elaborated takes account of this close link, when it proposes a common evaluation for plant - hazards and transport - hazards. It allows the verification of the following hypothesis : there might be risks transferts from the plant to the dangerous substances transports if the georgraphy of the firm was changed, as the storage or production plant is localized elsewhere. The evaluation method is undertaken for the end of the petroleum industrial branch, i. E. Storage and retail road distribution of fuel oils, in the Ile-de-France Region. It uses the spatial analysis described in the land use map worked out by the IAURIF (Town Planning Institut of the Ile-de-France Region)
37

Foucher, Karine. "Principe de précaution et risque sanitaire : recherche sur l'encadrement juridique de l'incertitude scientifique." Nantes, 2000. http://www.theses.fr/2000NANT4026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'emergence du principe de precaution resulte, du fait du progres des connaissances scientifiques, de la prise de conscience des limites du principe de prevention. Consacre dans le champ de la protection de l'environnement. Le principe de precaution a aussi vocation a s'appliquer dans le domaine de la sante publique. Il vise a prevenir des risques de dommages caracterises par l'incertitude, la gravite et l'irreversibilite. Sa mise en oeuvre ne requiert pas l'invention de nouveaux instruments juridiques, elle s'appuie au contraire sur l'arsenal juridique existant de la prevention des risques technologiques (evaluation et autorisation prealables, obligation de suivi, seuil, mesures conservatoires), qu'elle enrichit par la prise en compte de l'incertitude scientifique. Les mesures de gestiondes risques se trouvent ainsi "surdimensionnees" par rapport a l'action qui serait prescrite sur la base du principe de prevention. On peut distinguer les implications juridiques du principe de precaution selon qu'elles s'inscrivent dans le cadre de la gestion permissive ou de la gestion conservatoire du risque. L'un des interets de cette approche est de montrer que le principe de precaution est un principe d'action qui a vocation a s'appliquer aux differentes phases du processus decisionnel. En recensant, sur la base de cette distinction, les vecteurs actuels ou potentiels de prise en compte de l'incertitude scientifique dans le droit positif, l'on peut ainsi identifier la presence substantielle de ce principe dans le droit positif. Sa consecration formelle n'entraine donc pas de phenomene de rupture par rapport au droit existant. Il y a au contraire renforcement mutuel entre la presence substantielle du principe de precaution dans le droit positif et sa reconnaissance par le legislateur en tant que principe juridique.
38

Gorand, Olivier. "Création d'une base de données informatique de toxicologie industrielle dans la centrale nucléaire du Blayais." Bordeaux 2, 1998. http://www.theses.fr/1998BOR23069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Destercke, Sébastien. "Représentation et combinaison d'informations incertaines : nouveaux résultats avec applications aux études de sûreté." Toulouse 3, 2008. http://www.theses.fr/2008TOU30179.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Souvent, les valeurs de certains paramètres ou variables d'un système ne sont connues que de façon imparfaite, soit du fait de la variabilité des phénomènes physiques que l'on cherche à représenter, soit parce que l'information dont on dispose est imprécise, incomplète ou pas complètement fiable. Usuellement, cette incertitude est traitée par la théorie classique des probabilités. Cependant, ces dernières années ont vu apparaître des arguments indiquant que les probabilités classiques sont inadéquates lorsqu'il faut représenter l'imprécision présente dans l'information. Des cadres complémentaires aux probabilités classiques ont donc été proposés pour remédier à ce problème : il s'agit, principalement, des ensembles de probabilités, des ensembles aléatoires et des possibilités. Beaucoup de questions concernant le traitement des incertitudes dans ces trois cadres restent ouvertes. En particulier, il est nécessaire d'unifier ces approches et de comprendre les liens existants entre elles, et de proposer des méthodes de traitement permettant d'utiliser ces approches parfois cher en temps de calcul. Dans ce travail, nous nous proposons d'apporter des réponses à ces deux besoins pour une série de problème de traitement de l'incertain rencontré en analyse de sûreté. En particulier, nous nous concentrons sur les problèmes suivants : -Représentation des incertitudes -Fusion/évaluation de données venant de sources multiples -Modélisation de l'indépendance L'objectif étant de fournir des outils, à la fois théoriques et pratiques, de traitement d'incertitude. Certains de ces outils sont ensuite appliqués à des problèmes rencontrés en sûreté nucléaire
It often happens that the value of some parameters or variables of a system are imperfectly known, either because of the variability of the modelled phenomena, or because the available information is imprecise or incomplete. Classical probability theory is usually used to treat these uncertainties. However, recent years have witnessed the appearance of arguments pointing to the conclusion that classical probabilities are inadequate to handle imprecise or incomplete information. Other frameworks have thus been proposed to address this problem: the three main are probability sets, random sets and possibility theory. There are many open questions concerning uncertainty treatment within these frameworks. More precisely, it is necessary to build bridges between these three frameworks to advance toward a unified handling of uncertainty. Also, there is a need of practical methods to treat information, as using these framerowks can be computationally costly. In this work, we propose some answers to these two needs for a set of commonly encountered problems. In particular, we focus on the problems of: -Uncertainty representation -Fusion and evaluation of multiple source information -Independence modelling The aim being to give tools (both of theoretical and practical nature) to treat uncertainty. Some tools are then applied to some problems related to nuclear safety issues
40

Beerli, Monique J. "Saving the saviors : an international political sociology of the professionalization of humanitarian security." Thesis, Paris, Institut d'études politiques, 2017. http://www.theses.fr/2017IEPP0033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui, un discours dominant affirme que le travail humanitaire est devenu dangereux. Face à l’insécurité croissante, les organisations humanitaires ont développé de nouvelles politiques de sécurité afin de mieux protéger le personnel et les infrastructures. En se fondant sur la sociologie des professions d’Abbott, ainsi que sur la théorie du pouvoir de Bourdieu, cette thèse propose une sociologie politique internationale de la professionnalisation de la sécurité humanitaire. Afin de combler les lacunes des explications et des critiques de la sécurité humanitaire, ce travail examine les conditions de possibilités à l’émergence d’un microcosme de professionnels. Du fait de cette transformation de la division du travail, les humanitaires considèrent désormais que certaines des populations les plus nécessiteuses se trouvent au-delà des limites raisonnables du sacrifice. En comparant le coût de la perte d’une « vie d’humanitaire » à la valeur potentielle du sauvetage des vies, les humanitaires participent à l’intensification des inégalités mondiales. Les humanitaires ne contentent plus seulement d’atténuer la souffrance de lointains étrangers, mais ils contribuent aussi à redéfinir la notion de « populations dans le besoin », en les étiquetant comme « populations dangereuses ». Ainsi, la mise en place de la sécurité comme sens pratique de l’humanitaire inverse les impératifs humanitaires fondés sur le sauvetage des vies et sur la défense d’une humanité partagée. Tout en contribuant aux débats sur la sécurité humanitaire, cette thèse participe également à faire avancer les études sur les élites transnationales, sur la sécurité et sur les organisations internationales
In recent years, a dominant discourse has emerged asserting that humanitarian work has become a dangerous profession. In response to growing insecurity in the field, humanitarian organizations have developed new security policies to better protect humanitarian staff and infrastructures. Drawing from Andrew Abbott’s historical sociology of professions and Pierre Bourdieu’s social theory of power, this thesis proposes an international political sociology of the professionalization of humanitarian security. To address the shortcomings of normative-functionalist explanations and poststructuralist critiques of humanitarian security, this thesis examines the conditions of possibility fostering the emergence of a microcosm of humanitarian security professionals. As a consequence of this transformation in the division of humanitarian labor, humanitarian organizations now classify some of world’s neediest populations as beyond the limits of reasonable sacrifice. In the production of this exclusion, humanitarian actors reconstruct “populations in need” as “dangerous populations.” By weighing the cost of the loss of a “humanitarian life” against the potential value of saving the lives of needy others, humanitarian actors contribute to the intensification of global divides in their quest for a common humanity. In sum, the imposition of security as a humanitarian logic of practice is analyzed as a driving force of the inversion of the humanitarian imperative to save lives and act in defense of a shared humanity. Contributing to debates on humanitarian security, this thesis also advances the study of international organizations, security, and transnational power elites
41

Kooli, Maha. "Analysing and supporting the reliability decision-making process in computing systems with a reliability evaluation framework." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT252/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fiabilité est devenu un aspect important de conception des systèmes informatiques suite à la miniaturisation agressive de la technologie et le fonctionnement non interrompue qui introduisent un grand nombre de sources de défaillance des composantes matérielles. Le système matériel peut être affecté par des fautes causées par des défauts de fabrication ou de perturbations environnementales telles que les interférences électromagnétiques, les radiations externes ou les neutrons de haute énergie des rayons cosmiques et des particules alpha. Pour les systèmes embarqués et systèmes utilisés dans les domaines critiques pour la sécurité tels que l'avionique, l'aérospatiale et le transport, la présence de ces fautes peut endommager leurs composants et conduire à des défaillances catastrophiques. L'étude de nouvelles méthodes pour évaluer la fiabilité du système permet d'aider les concepteurs à comprendre les effets des fautes sur le système, et donc de développer des produits fiables et sûrs. En fonction de la phase de conception du système, le développement de méthodes d'évaluation de la fiabilité peut réduire les coûts et les efforts de conception, et aura un impact positif le temps de mise en marché du produit.L'objectif principal de cette thèse est de développer de nouvelles techniques pour évaluer la fiabilité globale du système informatique complexe. L'évaluation vise les fautes conduisant à des erreurs logicielles. Ces fautes peuvent se propager à travers les différentes structures qui composent le système complet. Elles peuvent être masquées lors de cette propagation soit au niveau technologique ou architectural. Quand la faute atteint la partie logicielle du système, elle peut endommager les données, les instructions ou le contrôle de flux. Ces erreurs peuvent avoir un impact sur l'exécution correcte du logiciel en produisant des résultats erronés ou empêcher l'exécution de l'application.Dans cette thèse, la fiabilité des différents composants logiciels est analysée à différents niveaux du système (en fonction de la phase de conception), mettant l'accent sur le rôle que l'interaction entre le matériel et le logiciel joue dans le système global. Ensuite, la fiabilité du système est évaluée grâce à des méthodologies d'évaluation flexible, rapide et précise. Enfin, le processus de prise de décision pour la fiabilité des systèmes informatiques est pris en charge avec les méthodes et les outils développés
Reliability has become an important design aspect for computing systems due to the aggressive technology miniaturization and the uninterrupted performance that introduce a large set of failure sources for hardware components. The hardware system can be affected by faults caused by physical manufacturing defects or environmental perturbations such as electromagnetic interference, external radiations, or high-energy neutrons from cosmic rays and alpha particles.For embedded systems and systems used in safety critical fields such as avionic, aerospace and transportation, the presence of these faults can damage their components and leads to catastrophic failures. Investigating new methods to evaluate the system reliability helps designers to understand the effects of faults on the system, and thus to develop reliable and dependable products. Depending on the design phase of the system, the development of reliability evaluation methods can save the design costs and efforts, and will positively impact product time-to-market.The main objective of this thesis is to develop new techniques to evaluate the overall reliability of complex computing system running a software. The evaluation targets faults leading to soft errors. These faults can propagate through the different structures composing the full system. They can be masked during this propagation either at the technological or at the architectural level. When a fault reaches the software layer of the system, it can corrupt data, instructions or the control flow. These errors may impact the correct software execution by producing erroneous results or prevent the execution of the application leading to abnormal termination or application hang.In this thesis, the reliability of the different software components is analyzed at different levels of the system (depending on the design phase), emphasizing the role that the interaction between hardware and software plays in the overall system. Then, the reliability of the system is evaluated via a flexible, fast, and accurate evaluation framework. Finally, the reliability decision-making process in computing systems is comprehensively supported with the developed framework (methodology and tools)
42

Rifi, Mouna. "Modélisation et Analyse des Réseaux Complexes : application à la sûreté nucléaire." Thesis, Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCD049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail propose une modélisation adéquate en graphes pour les systèmes et séquences accidentelles de sûreté nucléaire. Ces systèmes et séquences proviennent des "Etudes Probabilistes de Sûreté" (EPS) qui consistent à analyser de façon exhaustive tous les scénarios accidentels envisageables, d’estimer leurs probabilités d’occurrence (en les regroupant par famille) et les conséquences associées.Ensuite une analyse des réseaux complexes résultants est effectuée par des mesures de centralités.Une première application consiste à la prédiction du Facteur d’Accroissement du Risque nucléaire en utilisant les algorithmes d’apprentissages supervisé : méthodes à base d’arbre de classification, régression logistique et méthodes ensemblistes, sur des données déséquilibrées.Par ailleurs, un nouveau coefficient synthétique de centralité et une mesure de similarité sont conçus pour comparer les structures de réseaux, indépendamment de leurs caractéristiques topologiques, en se basant sur les interdépendances entre leurs vecteurs de centralités.Cette nouvelle approche utilise des techniques statistiques (échantillonnage, corrélation ethomogénéité).La pertinence et l’efficacité de cette nouvelle mesure de similarité sont validées sur le clustering de graphes théoriques classiques et la prédiction du type de graphes. Enfin, une application de cette approche est réalisée pour le clustering des réseaux complexes des systèmes de sûreté nucléaire
This work aims to propose an adequate graph modeling approach for nuclear safety accident systems and sequences.These systems and sequences come from "Probabilistic Safety Analysis" (PSA) which is an exhaustive analysis of all possible accident scenarios, to estimate their probabilities of occurrence (by grouping them by families) and the associated consequences.Then, an analysis of the resulting networks is performed by network centrality measures. A first application consists on predicting the nuclear Risk Increase Factor, which is a PSA importance factor, using supervised learning algorithms : classification tree methods, logistic regression and ensemble learning methods, on un balanced data. Furthermore, a new synthetic centrality coefficient and a similarity measure are developed to compare the networks structures and their topological characteristics, based on their centrality vectors interdependencies. This new approach uses statistical techniques (sampling,correlation and homogeneity).The relevance and appreciation of this new measure of similarity are validated on the clustering of most popular theoretical graphs and on the prediction of the type of these graphs. Finally, an application of this approach has been conducted for the clustering of nuclear safety systems networks
43

Denisse, Munante. "Une approche basée sur l'Ingénierie Dirigée par les Modèles pour identifier, concevoir et évaluer des aspects de sécurité." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3035/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'ingénierie des systèmes ou Génie Logiciel est une approche interdisciplinaire, dont le but est de formaliser la conception et le développement des systèmes. Cette approche commence par la définition des besoins, puis se poursuit avec la conception, l'implémentation et la validation du système. Historiquement, les systèmes ont été isolés et souvent basés sur des technologies propriétaires. De nos jours les systèmes informatiques s'interconnectent, s'ouvrent vers Internet, et s'appuient de plus en plus sur des technologies standards en favorisant l'inter-opérabilité. A côté d'apports indéniables, ces changements génèrent cependant de nouveaux risques de malveillance informatique. Pour y faire face, la sécurité informatique s'est fortement développée en permettant de mettre en place des contre-mesures plus ou moins fiables. Cette thèse se situe à la croisée de l'ingénierie des systèmes et de la sécurité. Elle vise à proposer une approche qui intègre ces deux domaines de manière collaborative et complémentaire. Même si ces deux domaines sont très liés l'un à l'autre, il existe relativement peu d'approches qui intègrent les aspects sécurité au processus d'ingénierie logicielle, et encore moins celles qui la considèrent dès la phase d'ingénierie des besoins, et/ou permettent l'évaluation de la politique de sécurité à un haut niveau d'abstraction. Cette thèse apporte une contribution dans ce domaine. Par conséquent, dans cette thèse nous proposons une approche basée sur l'IDM (Ingénierie Dirigée par les Modèles) et MDA (Model-Driven Architecture) qui intègre l’ingénierie des systèmes et la sécurité en utilisant les modèles. Cette approche permet d’identifier, de concevoir et d’évaluer des aspects de sécurité dans les différentes étapes de l'ingénierie des systèmes afin d'obtenir des systèmes sécurisés
Software engineering is an interdisciplinary approach aiming to formalize the development of systems. This approach begins with defining system requirements and then continues with defining the design, implementation and validation of systems. Historically, systems were isolated and often based on proprietary technologies. Todays, computer systems are interconnected using Internet and standard technologies by promoting interoperability. In spite of undeniable contributions, these changes engender new risks of computer vulnerabilities/attacks. To cope with these risks, information security has improved to implement more or less reliable counter-measures. This thesis is situated at the intersection/crossroads of the software engineering and the information security. It aims to propose an approach that integrates these two fields in a collaborative and complementary manner. Although both fields are closely related, there are few approaches that integrate security aspects into software engineering process, much less from engineering requirements, which allow the assessment of security policies from a high level of abstraction. Hence, this thesis makes a contribution in this area. Therefore, in this thesis, we propose an approach based on MDE (Model-Driven Engineering) and MDA (Model Driven Architecture) which integrates software engineering and information security using models. This approach allows to identify, to design and to assess security aspects in the stages of the system development in order to obtain secure systems
44

Hasrouny, Hamssa. "Gestion de confiance et solutions de sécurité pour les réseaux véhiculaires." Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux véhiculaires sont constitués de véhicules capables de s’échanger des informations par voie radio afin d'améliorer la sécurité routière (diffusion de messages d'alerte en cas d’accident ou de ralentissement anormal, conduite collaborative entre véhicules…) ou de permettre aux passager d’accéder à l’Internet (applications de réseaux collaboratifs, jeux interactifs, gestion des espaces libres dans les parkings…). Malheureusement, les messages liés à la sécurité routière échangés entre les véhicules peuvent être falsifiés ou éliminés par des entités malveillantes afin de causer des accidents et mettre en péril la vie des personnes. Dans cette thèse, nous nous concentrons particulièrement sur la définition, conception et l’évaluation d’une solution de sécurité pour les communications entre véhicules afin d’assurer une communication sécurisée et un bon niveau de confiance entre les différents véhicules participants. En adoptant un modèle basé sur la formation de groupes, nous procédons à l'évaluation de niveau de confiance des véhicules participants à ces réseaux et nous développons un modèle de confiance qui sert à analyser leurs comportements dans leurs groupes respectifs tout en respectant la vie privée des participants et en maintenant une surcharge minimale dans le réseau. Ensuite, nous proposons un modèle hiérarchique et modulaire permettant la détection de comportement malveillant et la gestion de la révocation des certificats des véhicules concernés
VANETs (Vehicular Ad-hoc Networks) consist of vehicles capable of exchanging information by radio to improve road safety (alerts in case of accidents or in case of abnormal slowdowns, collaborative driving…) or allow internet access for passengers (collaborative networks, infotainment, etc.). Road safety messages exchanged between vehicles may be falsified or eliminated by malicious entities in order to cause accidents and endanger people life. In this thesis, we focus on defining, designing and evaluating a security solution for V2V communications in VANET, to ensure a secure communication and a good level of confidence between the different participating vehicles. Adopting a group-based model, we consider the Trustworthiness evaluation of vehicles participating in VANET and we develop a Trust Model to analyze the behavior of the vehicles in the group while preserving the privacy of the participants and maintaining low network overhead. We then propose a hierarchical and modular framework for Misbehavior Detection and Revocation Management
45

Nedellec, Vincent. "Méthodes quantitatives pour évaluer les risques non mutagènes des substances chimiques : Application au cas du chlordécone." Thesis, Paris, CNAM, 2015. http://www.theses.fr/2015CNAM0997/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’évaluation des risques des produits chimiques utilise pour les effets non mutagènes un seuil de dose sans effet. L’objectif est d’élaborer une démarche qui permette de quantifier les risques non mutagènes. Elle s’inspire de celle utilisée pour les effets cancérigènes mutagènes. L’intérêt d’une approche sans seuil, est illustré par le cas du chlordécone en Guadeloupe. L’évaluation officielle indique 1 à 3 % de la population exposée au-dessus du seuil de dose toxique (atteintes rénales). Personne n’a quantifié les risques lorsque ce seuil est dépassé. Cependant, plusieurs millions d’euros (M€) sont investis chaque année pour la prévention des expositions.L’étude s’appuie uniquement sur des données disponibles en 2013. Les connaissances sur les modes d’actions toxiques du chlordécone permettent d’identifier les effets possibles à faible dose. Les études expérimentales multidoses ou les études épidémiologiques fournissent les données pour dériver des fonctions expositions risques (FER). Les données d’expositions internes (chlordéconémies) sont disponibles avant et après la mise en place en 2003 des actions de prévention. Les risques, estimés en multipliant les expositions par les FER, sont convertis en impacts via le nombre de personnes exposées. Les impacts sont monétarisés avec les DALYs et VOLY.Les effets possibles du chlordécone à faible dose chronique sont : cancers de la prostate et du foie, atteintes rénales et développement cognitif. Evaluer sans seuil et avec les expositions internes, le nombre de décès par cancer du foie avant 2003 est de 5,4 /an et après 2003 de 2,0 /an. Soit 3,4 décès/an évités grâce à la baisse des expositions. Pour les cancers de la prostate on compte respectivement : 2,8 et 1,0 (gain : 1,8 décès/an), pour les atteintes rénales : 0,10 et 0,04 (gain : 0,06 décès/an). Les pertes de points de QI sont de 1 173 pts/an et 1 003 pts/an (gain : 168 pts/an). Avant 2003, le coût total de ces impacts s’élève à 31,8 M€2006/an [10,6-64,3]. Les pertes de points de QI contribuent à 62 % du coût total, les cancers du foie 27 %, les cancers de la prostate 11 % et les atteintes rénales 0,6 %. Après 2003, le coût des impacts est de 21,3 M€2006/an [5,8-42,8]. Les bénéfices dus à la baisse des expositions sont de 10,5 M€2006/an. Les dépenses de préventions étant de 3,25 M€2006/an, le bénéfice est 3 fois plus élevé. La prise en compte d’un seuil de dose sans effet ne change pas significativement ces résultats. Evalué avec les expositions externes, le coût total des impacts ne représente plus que 4 % du coût avec les expositions internes. Une analyse de sensibilité par simulation Monté Carlo, montre que la variable « exposition » est la plus influente sur les résultats.Ce travail est le premier à prendre en compte un scénario d’évaluation sans seuil, ce qui est de plus en plus souvent recommandé pour les perturbateurs endocriniens. C’est aussi le premier à monétariser les impacts sanitaires du chlordécone. Cette approche est féconde d’informations utiles à la décision. Elle permet de comparer des options fondamentales comme l’existence ou non d’un seuil, la prise en compte d’expositions externes ou internes. Elle permet aussi de comparer le coût des actions de prévention aux bénéfices sanitaires qu’elles engendrent. Les résultats obtenus facilitent la hiérarchisation des priorités de sécurité sanitaire. On recommande cette démarche quantitative pour les facteurs d’environnement auxquels sont déjà exposées les populations. Les actions de prévention en Guadeloupe sont efficientes et justifiées au plan du coût social. Des enquêtes épidémiologiques sur le rôle du chlordécone dans les pathologies qui n’ont pas pu être prises en compte (neurotoxicité adulte, maladies auto immunes, autres effets sur le développement) seraient nécessaires. Il serait utile de prévoir des études mécanistiques avant les études épidémiologiques. Prolonger la cohorte TIMOUN permettrait de réduire l’incertitude sur le développement cognitif
Risk assessment of chemicals uses for non-mutagenic effects a threshold dose without effect. The aim is to develop a risk assessment framework that allows quantification of non-mutagenic risks. It is inspired by the approach used for genotoxic carcinogens. The added value for safety decision making is shown on the case of chlordecone exposure in Guadeloupe. The official assessment is 1 to 3% of the population are exposed above the threshold (kidney damage). No one has quantified the risks when the threshold is exceeded. However, several million euros (M€) are invested annually for the prevention of exposure to chlordecone in Guadeloupe.The study is based only on published data available in 2013. The analysis of modes of action will identify the possible effects of chlordecone at chronicle low doses. Multidoses experimental studies or epidemiological studies provide data to derive exposure-response functions (ERF). The internal exposure data (blood chlordecone concentration) are available for Guadeloupe before and after the introduction in 2003 of preventive actions. The external exposure data are available only after 2003. Risks, estimated with exposures and ERF, are converted into impacts through the number of people exposed. The impacts are monetized via DALYs and VOLY.Four effects of chlordecone can occur at chronic low dose: prostate and liver cancers, kidney damages and cognitive development impairments. Without threshold and with internal exposure data, the estimated numbers of deaths from liver cancer are respectively before and after 2003: 5.4 /year and 2.0 /year. That is 3.4 deaths avoided per year by reducing exposure. For prostate cancer there are respectively 2.8 and 1.0 /yr (gain: 1.8 /yr) and for kidney damages 0.10 and 0.04 /yr (gain: 0.06 /yr). Loss of IQ points are 1 173/yr and 1 003 /yr (gain = 168 pt./yr). Before 2003, the total annual cost of these impacts is 31.8 million €2006 [10.6 to 64.3]. Impacts on cognitive development account for 62% of the total, liver cancer 27%, prostate cancer 11% and kidney damage 0.6%. After 2003, the cost of impacts is 21.3 M€/yr [5.8 to 42.8]. The benefits due to the reduction of exposures (avoided impacts) are 10.5 M€/yr [4.8 to 21.5]. Compared to annual spending estimated at 3.25 M€/yr, the annual benefit is three times higher. Including a threshold dose in the model do not significantly change the results. Use of the external exposure data, dramatically decreased the costs of impacts down to 4% of the costs estimated with internal exposures data. A sensitivity analysis with Monte Carlo simulation show that the "exposure" variable is the one that most influences the results.This work is the first to consider a quantitative assessment of health risks scenario without threshold, which is more and more often recommended for endocrine disrupters. It is also the first to monetize health impacts of chlordecone in Guadeloupe. This approach proves fruitful of useful information for decision making. It enables to compare basic options such as whether or not a threshold should be used in the model, taking into account any external or internal exposures. It also allows a comparison of the cost of preventive actions with the health benefits they generate. The results obtained facilitate the prioritization of actions for health safety. This quantitative approach is recommended for environmental factors to which are already exposed populations. Actions for reducing exposure to chlordecone in Guadeloupe are justified and efficient in terms of social cost. Epidemiological surveys to study the role of chlordecone in diseases that could not been taken into account for lack of knowledge (adult neurotoxicity, autoimmune diseases, and other developmental effects) would be needed. It would be useful to provide mechanistic studies before epidemiological studies implementation. Extend follow-up of the TIMOUN cohort could reduce uncertainty about cognitive development
46

Debure, Antoine. "Crédibiliser pour expertiser : le Codex Alimentarius et les comités d'experts FAO-OMS dans la production réglementaire internationale de sécurité sanitaire des aliments." Paris, EHESS, 2012. http://www.theses.fr/2012EHES0054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’expertise scientifique réalisée au Codex Alimentarius par les comités internationaux FAO-OMS afin d’établir des normes relatives à la sécurité sanitaire des aliments joue un rôle essentiel, sans doute de plus en plus important, dans la régulation de la production et du commerce international des aliments. C’est ce rôle, et les questions qu’il soulève du point de vue de la relation entre science et politique, que la thèse propose d’étudier à travers l’analyse des processus de crédibilisation de l’expertise. Le cadre théorique qui structure l’analyse articule sociologie des organisations et sociologie des sciences, et mobilise également les concepts centraux de la sociologie de l’action publique et politique. La relation entre science et politique se caractérise par une instabilité tant constitutive que contextuelle. L’expertise FAO-OMS s’inscrit dans le contexte plus large de normalisation internationale dont l’applicabilité s’impose aux Etats, et qui, de fait, participe à amplifier l’instabilité. La thèse montre que le processus de crédibilisation dans lequel s’investissent les différents acteurs (experts, institutionnels, régulateurs, industriels, associations, etc. ) permet d’atténuer l’instabilité de la relation. En étant opérant, le processus de crédibilisation offre aux acteurs qui s’y investissent la possibilité de négocier à leur avantage leur position dans la relation, tout en évitant une remise en cause. La thèse conçoit les processus de crédibilisation comme l’ensemble des stratégies visant à renforcer la « capacité du sujet à dire et à faire », une notion qui dépasse les limites des notions d’autorité et de légitimité. Ces processus sont saisis en analysant à la fois les stratégies et comportements des institutions mais aussi ceux des experts dans leurs réseaux transnationaux et dans les situations locales de l’expertise collective FAO-OMS. Les processus de crédibilisation reposent sur trois dimensions interdépendantes : une crédibilisation procédurale, une crédibilisation communautaire et une crédibilisation délibérative. La thèse montre ainsi une expertise indissociable des processus de crédibilisation qui l’accompagnent. La crédibilisation est à la fois le produit des interdépendances qui jalonnent l’expertise et une condition indispensable pour que ces interdépendances fonctionnent de façon à permettre la production d’une expertise. Si la thèse permet de mettre en lumière une expertise plurielle grâce à l’analyse des processus de crédibilisation sur lesquels elle s’appuie, notamment entre un modèle traditionnel et un modèle précautionneux, elle invite aussi à réfléchir sur la pertinence de la séparation entre science et politique, sans cesse recherchée et réaffirmée par les autorités sanitaires et pourtant toujours aménagée implicitement dans les pratiques
The scientific expertise, produced for the Codex Alimentarius by international committees of the FAO and the WHO, has a growing central role in the regulation of food production and international trade. It is this role and the questions arising from the relation between science and policy that this research work explores by analyzing the “credibilization processes” of expertise. The theoretical framework articulates Sociology of organizations, Sociology of science as well as central concepts of political sociology. The relationship between science and policy is known to be unstable. The FAO-WHO’s expertise is even more unstable with regard to its participation in the international normalization/standardization which has an enforceable power over national regulation systems. This dissertation demonstrates that the “credibilization processes” in which different actors are involved (experts, institutions, regulators, industries, consumers…) enables to reduce this instability. By engaging in these processes, actors obtain the resources to negotiate their position in the relationship to their advantage, and are able to avoid criticism at the same time. We consider the “credibilization processes” as a set of strategies aiming at strengthening “the subject’s ability to state and to take action”, a notion that exceeds the limits of “authority” and “legitimacy”, other central notions. Processes are grasped by analyzing strategies and behavior of institutions as well as experts in their transnational networks and in the course of FAO-WHO collective expertise. The “credibilization processes” rest upon three interdependent dimensions: a procedural credibilization, a collaborative credibilization and a deliberative credibilization. This research illustrates an expertise that is inseparable from the “credibilization processes”. The credibilization is both the result of interdependencies along the expertise, and a prerequisite for interdependencies to exist in order to produce an expertise. The “credibilization processes” analysis unveils a plural expertise, more specifically in between a “traditional” model and a “precautionary” model. Finally, this dissertation questions the relevance of maintaining science and policy separated; a separation always reasserted by national and international authorities, but remaining however implicitly adjusted in practice
47

Martinet, Simon. "Estimation in-situ des facteurs d’émission des polluants du trafic routier." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSET006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La pollution atmosphérique en milieu urbain est un enjeu majeur pour la santé humaine et l’environnement. Le trafic routier représente la principale source de pollution dans les zones urbaines et contribue fortement à cette pollution atmosphérique dans ces zones malgré des améliorations de technologies de dépollution et de motorisations. Pour mesurer et approfondir les connaissances des émissions de polluants des véhicules routiers, différentes méthodes existent, avec chacune ses avantages et ses limites. Par exemple, les mesures sur un banc d’essai permettent d’étudier les émissions des véhicules selon leur technologie et avec une bonne reproductibilité des conditions de test. Cependant, cette approche reste limitée notamment pour la représentativité des émissions d’un parc de véhicules dans des conditions réelles de fonctionnement. La connaissance limitée des émissions des polluants non-réglementés, tels que les BTEX, les alcanes de C9 à C22, les composés carbonylés, les particules en nombre et le carbone suie qui ont des effets néfastes sur la santé et l’environnement et qui sont rarement mesurés en raison de la complexité de la métrologie, constitue un second axe d’approfondissement des émissions du trafic. L’objectif de ce travail est d’estimer in-situ des facteurs d’émission des polluants non-réglementés du trafic routier, dans des conditions réelles de circulation des véhicules et pour des parcs dont la composition est caractérisée avec précision. Dans ce but, les travaux de cette thèse ont permis de développer et de mettre en œuvre des méthodologies de mesure in-situ, en zone urbaine, des émissions de polluants non-réglementés du trafic routier, d’estimer des facteurs d’émission à partir des mesures effectuées sur différents sites (site ouvert en bord de route et site confiné). Ces facteurs d’émission sont établis pour des polluants non-réglementés, et pour un parc automobile réel précisément défini (connaissance détaillée de la composition du parc automobile en circulation et des conditions locales de circulation). Les facteurs d’émission ainsi déterminés in-situ sont comparés avec ceux dérivés des mesures sur banc à rouleau afin d’en vérifier la cohérence et analyser en fonction des différents sites de mesure et de l’impact de la composition du parc sur les émissions de polluants. Trois campagnes de mesure in-situ ont été menées, deux en bord de route dans des zones urbaines (sites ouverts) et une dans un tunnel proche d’une zone urbaine (site confiné). Les concentrations des polluants ciblés mesurées sur ces trois sites, ainsi que les différentes compositions de parc et les conditions de circulation relevées ont été utilisées pour estimer des facteurs d’émission par véhicule ou pour l’ensemble d’un parc
Urban air pollution is a major issue for human health and the environment. Road traffic is the main source of pollution in urban areas and contributes significantly to air pollution in these areas despite improvements in pollution control technologies and engines. To measure and improve knowledge of pollutant emissions from road vehicles, different methods exist, each with its own advantages and limitations. For example, measurements on a test bench make it possible to study vehicle emissions according to their technology and with good reproducibility of test conditions. However, this approach remains limited, particularly for the representativeness of vehicle fleet emissions under real operating conditions. The limited knowledge of emissions of unregulated pollutants, such as BTEX, C9-22 alkanes, carbonyl compounds, particulate matter and soot carbon, which have adverse effects on health and the environment and are rarely measured due to the complexity of metrology, is a second area for further study of traffic emissions. The objective of this work is to estimate in-situ emission factors for unregulated pollutants from road traffic, under real vehicle traffic conditions and for fleets whose composition is precisely characterized. For this purpose, the work of this thesis has made it possible to develop and implement methodologies for in-situ measurement, in urban areas, of unregulated pollutant emissions from road traffic, and to estimate emission factors based on measurements made at different sites (open roadside site and confined site). These emission factors are established for unregulated pollutants, and for a precisely defined actual vehicle fleet (detailed knowledge of the composition of the vehicle fleet in use and local traffic conditions). The emission factors thus determined in-situ are compared with those derived from bench measurements in order to verify their consistency and analyse them according to the different measurement sites and the impact of the composition of the fleet on pollutant emissions. Three in-situ measurement campaigns were carried out, two roadside in urban areas (open sites) and one in a tunnel near an urban area (confined site). The concentrations of the targeted pollutants measured at these three sites, as well as the different fleet compositions and traffic conditions identified, were used to estimate emission factors per vehicle or for the entire fleet
48

Bennaceur, Mokhtar Walid. "Formal models for safety analysis of a Data Center system." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV078/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un Data Center (DC) est un bâtiment dont le but est d'héberger des équipements informatiques pour fournir différents services Internet. Pour assurer un fonctionnement constant de ces équipements, le système électrique fournit de l'énergie, et pour les maintenir à une température constante, un système de refroidissement est nécessaire. Chacun de ces besoins doit être assuré en permanence, car la conséquence de la panne de l'un d'eux entraîne une indisponibilité de l'ensemble du système du DC, ce qui peut être fatal pour une entreprise.A notre connaissance, il n'existe pas de travaux d'étude sur l'analyse de sûreté de fonctionnement et de performance, prenant en compte l'ensemble du système du DC avec les différentes interactions entre ses sous-systèmes. Les études d'analyse existantes sont partielles et se concentrent sur un seul sous-système, parfois deux. L'objectif principal de cette thèse est de contribuer à l'analyse de sûreté de fonctionnement d'un Data Center. Pour cela, nous étudions, dans un premier temps, chaque sous-système (électrique, thermique et réseau) séparément, afin d'en définir ses caractéristiques. Chaque sous-système du DC est un système de production qui transforment les alimentations d'entrée (énergie pour le système électrique, flux d'air pour le système thermique, et paquets pour le réseau) en sorties, qui peuvent être des services Internet. Actuellement, les méthodes d'analyse de sûreté de fonctionnement existantes pour ce type de systèmes sont inadéquates, car l'analyse de sûreté doit tenir compte non seulement de l'état interne de chaque composant du système, mais également des différents flux de production qui circulent entre ces composants. Dans cette thèse, nous considérons une nouvelle technique de modélisation appelée Arbres de Production (AP) qui permet de modéliser la relation entre les composants d'un système avec une attention particulière aux flux circulants entre ces composants.La technique de modélisation en AP permet de traiter un seul type de flux à la fois. Son application sur le sous-système électrique est donc appropriée, car il n'y a qu'un seul type de flux (le courant électrique). Toutefois, lorsqu'il existe des dépendances entre les sous-systèmes, comme c'est le cas pour les sous-systèmes thermiques et les sous-systèmes de réseaux, différents types de flux doivent être pris en compte, ce qui rend l'application de la technique des APs inadéquate. Par conséquent, nous étendons cette technique pour traiter les dépendances entre les différents types de flux qui circulent dans le DC. En conséquence, il est facile d'évaluer les différents indicateurs de sûreté de fonctionnement du système global du DC, en tenant compte des interactions entre ses sous-systèmes. De plus, nous faisons quelques statistiques de performance. Nous validons les résultats de notre approche en les comparant à ceux obtenus par un outil de simulation que nous avons implémenté et qui est basé sur la théorie des files d'attente.Jusqu'à présent, les modèles d'arbres de production n'ont pas d'outils de résolution. C'est pourquoi nous proposons une méthode de résolution basée sur la Distribution de Probabilité de Capacité (Probability Distribution of Capacity - PDC) des flux circulants dans le système du DC. Nous implémentons également le modèle d'AP en utilisant le langage de modélisation AltaRica 3.0, et nous utilisons son simulateur stochastique dédié pour estimer les indices de fiabilité du système. Ceci est très important pour comparer et valider les résultats obtenus avec notre méthode d'évaluation. En parallèle, nous développons un outil qui implémente l'algorithme de résolution des APs avec une interface graphique basée qui permet de créer, éditer et analyser des modèles d'APs. L'outil permet également d'afficher les résultats et génère un code AltaRica, qui peut être analysé ultérieurement à l'aide du simulateur stochastique de l'outil AltaRica 3.0
A Data Center (DC) is a building whose purpose is to host IT devices to provide different internet services. To ensure constant operation of these devices, energy is provided by the electrical system, and to keep them at a constant temperature, a cooling system is necessary. Each of these needs must be ensured continuously, because the consequence of breakdown of one of them leads to an unavailability of the whole DC system, and this can be fatal for a company.In our Knowledge, there exists no safety and performance studies’, taking into account the whole DC system with the different interactions between its sub-systems. The existing analysis studies are partial and focus only on one sub-system, sometimes two. The main objective of this thesis is to contribute to the safety analysis of a DC system. To achieve this purpose, we study, first, each DC sub-system (electrical, thermal and network) separately, in order to define their characteristics. Each DC sub-system is a production system and consists of combinations of components that transform entrance supplies (energy for the electrical system, air flow for the thermal one, and packets for the network one) into exits, which can be internet services. Currently the existing safety analysis methods for these kinds of systems are inadequate, because the safety analysis must take into account not only the internal state of each component, but also the different production flows circulating between components. In this thesis, we consider a new modeling methodology called Production Trees (PT) which allows modeling the relationship between the components of a system with a particular attention to the flows circulating between these components.The PT modeling technique allows dealing with one kind of flow at once. Thus its application on the electrical sub-system is suitable, because there is only one kind of flows (the electric current). However, when there are dependencies between sub-systems, as in thermal and network sub-systems, different kinds of flows need to be taken into account, making the application of the PT modeling technique inadequate. Therefore, we extend this technique to deal with dependencies between the different kinds of flows in the DC. Accordingly it is easy to assess the different safety indicators of the global DC system, taking into account the interactions between its sub-systems. Moreover we make some performance statistics. We validate the results of our approach by comparing them to those obtained by a simulation tool that we have implemented based on Queuing Network theory.So far, Production Trees models are not tool supported. Therefore we propose a solution method based on the Probability Distribution of Capacity (PDC) of flows circulating in the DC system. We implement also the PT model using the AltaRica 3.0 modeling language, and use its dedicated stochastic simulator to estimate the reliability indices of the system. This is very important to compare and validate the obtained results with our assessment method. In parallel, we develop a tool which implements the PT solution algorithm with an interactive graphical interface, which allows creating, editing and analyzing PT models. The tool allows also displaying the results, and generates an AltaRica code, which can be subsequently analyzed using the stochastic simulator of AltaRica 3.0 tool
49

Lone, Sang Fernand. "Protection des systèmes informatiques contre les attaques par entrées-sorties." Phd thesis, INSA de Toulouse, 2012. http://tel.archives-ouvertes.fr/tel-00863020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les attaques ciblant les systèmes informatiques vont aujourd'hui au delà de simples logiciels malveillants et impliquent de plus en plus des composants matériels. Cette thèse s'intéresse à cette nouvelle classe d'attaques et traite, plus précisément, des attaques par entrées-sorties qui détournent des fonctionnalités légitimes du matériel, tels que les mécanismes entrées-sorties, à différentes fins malveillantes. L'objectif est d'étudier ces attaques, qui sont extrêmement difficiles à détecter par des techniques logicielles classiques (dans la mesure où leur mise en oeuvre ne nécessite pas l'intervention des processeurs) afin de proposer des contre-mesures adaptées, basées sur des composants matériels fiables et incontournables. Ce manuscrit se concentre sur deux cas : celui des composants matériels qui peuvent être délibérément conçus pour être malveillants et agissants de la même façon qu'un programme intégrant un cheval de Troie ; et celui des composants matériels vulnérables qui ont été modifiés par un pirate informatique, localement ou au travers du réseau, afin d'y intégrer des fonctions malveillantes (typiquement, une porte dérobée dans son firmware). Pour identifier les attaques par entrées-sorties, nous avons commencé par élaborer un modèle d'attaques qui tient compte des différents niveaux d'abstraction d'un système informatique. Nous nous sommes ensuite appuyés sur ce modèle d'attaques pour les étudier selon deux approches complémentaires : une analyse de vulnérabilités traditionnelle, consistant à identifier une vulnérabilité, développer des preuves de concept et proposer des contre-mesures ; et une analyse de vulnérabilités par fuzzing sur les bus d'entrées-sorties, reposant sur un outil d'injection de fautes que nous avons conçu, baptisé IronHide, capable de simuler des attaques depuis un composant matériel malveillant. Les résultats obtenus pour chacunes de ces approches sont discutés et quelques contre-mesures aux vulnérabilités identifiées, basées sur des composants matériels existants, sont proposées.
50

Wang, Tairan. "Decision making and modelling uncertainty for the multi-criteria analysis of complex energy systems." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse doctorale traite l'analyse de la vulnérabilité des systèmes critiques pour la sécurité (par exemple, les centrales nucléaires) dans un cadre qui combine les disciplines de l'analyse des risques et de la prise de décision de multi-critères.La contribution scientifique suit quatre directions: (i) un modèle hiérarchique et quantitative est développé pour caractériser la susceptibilité des systèmes critiques pour la sécurité à plusieurs types de danger, en ayant la vue de `tous risques' sur le problème actuellement émergeant dans le domaine de l'analyse des risques; (ii) l'évaluation quantitative de la vulnérabilité est abordé par un cadre de classification empirique: à cette fin, un modèle, en se fondant sur la Majority Rule Sorting (MR-Sort) Méthode, généralement utilisés dans le domaine de la prise de décision, est construit sur la base d'un ensemble de données (en taille limitée) représentant (a priori connu) des exemples de classification de vulnérabilité; (iii) trois approches différentes (à savoir, une model-retrieval-based méthode, la méthode Bootstrap et la technique de validation croisée leave-one-out) sont élaborées et appliquées pour fournir une évaluation quantitative de la performance du modèle de classification (en termes de précision et de confiance dans les classifications), ce qui représente l'incertitude introduite dans l'analyse par la construction empirique du modèle de la vulnérabilité; (iv) basé sur des modèles développés, un problème de classification inverse est résolu à identifier un ensemble de mesures de protection qui réduisent efficacement le niveau de vulnérabilité du système critique à l’étude. Deux approches sont développées dans cet objectif: le premier est basé sur un nouvel indicateur de sensibilité, ce dernier sur l'optimisation.Les applications sur des études de cas fictifs et réels dans le domaine des risques de centrales nucléaires démontrent l'efficacité de la méthode proposée
This Ph. D. work addresses the vulnerability analysis of safety-critical systems (e.g., nuclear power plants) within a framework that combines the disciplines of risk analysis and multi-criteria decision-making. The scientific contribution follows four directions: (i) a quantitative hierarchical model is developed to characterize the susceptibility of safety-critical systems to multiple types of hazard, within the needed `all-hazard' view of the problem currently emerging in the risk analysis field; (ii) the quantitative assessment of vulnerability is tackled by an empirical classification framework: to this aim, a model, relying on the Majority Rule Sorting (MR-Sort) Method, typically used in the decision analysis field, is built on the basis of a (limited-size) set of data representing (a priori-known) vulnerability classification examples; (iii) three different approaches (namely, a model-retrieval-based method, the Bootstrap method and the leave-one-out cross-validation technique) are developed and applied to provide a quantitative assessment of the performance of the classification model (in terms of accuracy and confidence in the assignments), accounting for the uncertainty introduced into the analysis by the empirical construction of the vulnerability model; (iv) on the basis of the models developed, an inverse classification problem is solved to identify a set of protective actions which effectively reduce the level of vulnerability of the critical system under consideration. Two approaches are developed to this aim: the former is based on a novel sensitivity indicator, the latter on optimization.Applications on fictitious and real case studies in the nuclear power plant risk field demonstrate the effectiveness of the proposed methodology

До бібліографії