Дисертації з теми "Evaluation probabiliste des fautes"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Evaluation probabiliste des fautes.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-31 дисертацій для дослідження на тему "Evaluation probabiliste des fautes".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Alexandrescu, Marian-Dan. "Outils pour la simulation des fautes transitoires." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0084.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les événements singuliers proviennent de l'interaction d'une particule énergétique avec un circuit microélectronique. Ces perturbations peuvent modifier d'une manière imprévue le fonctionnement du circuit et introduire des fautes. La sensibilité des circuits augmentant à chaque nouvelle génération technologique, il devient nécessaire de disposer d'outils spécifiques pour la conception des circuits durcis face aux événements singuliers. Les travaux de cette thèse visent à étendre la compréhension de ces phénomènes et à proposer des outils CAO pour faciliter l'analyse de ces problèmes dans les circuits actuels. Nous avons développé des méthodologies pour l'analyse du comportement des cellules de la bibliothèque standard et des outils pour la simulation accélérée des fautes et pour l'évaluation probabiliste des effets singuliers. Les résultats fournis par ces outils vont permettre aux concepteurs d'évaluer et de choisir des méthodes adéquates pour améliorer la fiabilité des circuits intégrés
Single Events (SE) are produced by the interaction of charged particles with the transistors of a microelectronic circuit. These perturbations may alter the functioning of the circuit and cause logic faults and errors. As the sensitivity of circuits increases for each technological evolution, specific tools are needed for the design of hardened circuits. This thesis aims at furthering the comprehension of the phenomena and proposes EDA tools to help the analysis of these problems in today's ICs. We have developed methodologies for the characterization of the cells from the standard library and tools for accelerated fault simulation and probabilistic analysis of single events. The results provided by these tools allow the designer to correctly evaluate the sensitivity of his design and select the most adequate methods to improve the reliability of ICs
2

Kaâniche, Mohamed. "Evaluation de la sûreté de fonctionnement informatique. Fautes physiques, fautes de conception, malveillances." Habilitation à diriger des recherches, Institut National Polytechnique de Toulouse - INPT, 1999. http://tel.archives-ouvertes.fr/tel-00142168.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux résumés dans ce mémoire ont pour cadre la sûreté de fonctionnement des systèmes informatiques. Ils couvrent plusieurs aspects complémentaires, à la fois théoriques et expérimentaux, que nous avons groupés en quatre thèmes. Le premier thème traite de la définition de méthodes permettant de faciliter la construction et la validation de modèles complexes pour l'analyse et l'évaluation de la sûreté de fonctionnement. Deux approches sont considérées : les réseaux de Petri stochastiques généralisés et la simulation comportementale en présence de fautes. Le deuxième thème traite de la modélisation de la croissance de fiabilité pour évaluer l'évolution de la fiabilité et de la disponibilité des systèmes en tenant compte de l'élimination progressive des fautes de conception. Ces travaux sont complétés par la définition d'une méthode permettant de faciliter la mise en ¿uvre d'une étude de fiabilité de logiciel dans un contexte industriel. Le troisième thème concerne la définition et l'expérimentation d'une approche pour l'évaluation quantitative de la sécurité-confidentialité. Cette approche permet aux administrateurs des systèmes de suivre l'évolution de la sécurité opérationnelle quand des modifications, susceptibles d'introduire de nouvelles vulnérabilités, surviennent dans la configuration opérationnelle, les applications, le comportement des utilisateurs, etc. Enfin, le quatrième thème porte d'une part, sur l'élaboration d'un modèle de développement destiné à la production de systèmes sûrs de fonctionnement, et d'autre part, sur la définition de critères d'évaluation visant à obtenir une confiance justifiée dans l'aptitude des systèmes à satisfaire leurs exigences de sûreté de fonctionnement, en opération et jusqu'au retrait du service.
3

Carjaval, Moncada Claudio Andrés. "Evaluation probabiliste de la sécurité structurale des barrages-poids." Clermont-Ferrand 2, 2009. https://hal.archives-ouvertes.fr/tel-01298893.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de la thèse est d'aborder l'évaluation de la sécurité structurale d'un barrage par une approche d'analyse de fiabilité. Notre travail est focalisé sur la catégorie des barrages-poids et propose des méthodes probabilistes pour la modélisation des propriétés des matériaux et des sollicitations. Pour la modélisation probabiliste des propriétés des matériaux, notre travail se focalise sur le corps des barrages-poids en béton. Les méthodes développées mettent en oeuvre : -l'analyse des dispersions des propriétés des matériaux aux différentes échelles spatiales, une démarche de fusion des informations disponibles et l'utilisation des relations physiques entre les résistances du béton des barrages. Concernant la modélisation probabiliste des sollicitations, nous focalisons notre recherche sur les actions hydrauliques, qui constituent les principales actions agissant sur les barrages. Les méthodes développées présentent deux principaux aspects innovants par rapport à une démarche d'ingénierie classique : la prise en compte de divers scénarios de crues et la prise en compte de la variabilité de la cote de la retenue avant l'occurence d'un événement hydrologique. La modélisation probabiliste de l'état-limite de résistance à l'effort tranchant, couplé avec l'ouverture de fissures est basée sur des méthodes classiques d'analyse de fiabilité, telles que les méthodes FORM/SORM et les méthodes de simulation de Monte-Carlo. L'application des méthodes développées est réalisée sur plusieurs cas de barrages en service. En terme de valorisation, nous proposons des recommandations et des outils opérationnels permattant la mise en oeuvre des méthodes développées
4

Oboni, Franco. "Evaluation probabiliste des performances des pieux forés chargés axialement en tête /." [S.l.] : [s.n.], 1988. http://library.epfl.ch/theses/?nr=716.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Koita, Abdourahmane. "Evaluation probabiliste de la dangerosité des trajectoires de véhicules en virages." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00626964.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Situé dans le contexte général de la sécurité routière, et plus particulièrement axé sur la sécurité des véhicules légers (VL) en virages, ce travail de thèse a pour objet de proposer une méthodologie fiabiliste de prédiction de trajectoires à risque, basée sur le traitement statistique et la modélisation probabiliste de trajectoires réelles de VL en virages. La première partie du travail concerne la construction de modèles probabilistes simples et robustes représentatifs des trajectoires réelles observées. Ces modèles sont des transformées de processus aléatoires scalaires normalisés du second ordre, faiblement stationnaires, ergodiques et non gaussiens, et permettent de décrire de façon réaliste la variabilité aléatoire observée du triptyque Véhicule-Infrastructure-Conducteur. Ils permettent aussi, par construction, de s'affranchir d'éventuelles difficultés dans l'alimentation des paramètres dominants qui les gouvernent. La seconde partie est consacrée au développement et à la mise en oeuvre d'une stratégie fiabiliste destinée à associer un niveau de risque à chaque trajectoire en entrée de virage. Basée sur l'emploi conjoint de méthodes probabilistes pour la modélisation des incertitudes, fiabilistes pour l'évaluation des niveaux de risque et statistiques pour la classification et le traitement des trajectoires, cette approche est une réponse réaliste au problème posé. De par sa conception et ses possibilités, la méthodologie fiabiliste proposée est une contribution significative au développement de procédures d'alerte destinées à réduire notablement le nombre d'accidents en virages.
6

Joubert, Philippe. "Conception et evaluation d'une architecture multiprocesseur a memoire partagee tolerante aux fautes." Rennes 1, 1993. http://www.theses.fr/1993REN10004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette etude est la proposition d'une architecture multiprocesseur a memoire partagee tolerante aux fautes. Pour recuperer les defaillances de processus communiquant par memoire partagee, nous proposons un protocole de recuperation d'erreurs par retour arriere de type planifie qui prend en compte les communications au moyen d'une relation de dependance qui permet de definir dynamiquement l'ensemble des processus concernes par l'etablissement ou la restauration d'un point de recuperation. Nous proposons une mise en uvre de ce protocole dans laquelle la gestion des points de recuperation et des dependances est centralisee dans une memoire stable remplacant la memoire partagee de la machine. Cette technique evite d'avoir a concevoir d'autres composants specifiques. Nous evaluons ensuite les performances de notre proposition par simulation. Du fait des mecanismes de recuperation d'erreurs, une certaine degradation des performances par rapport a une architecture non tolerante aux fautes est inevitable. Cependant, les simulations montrent que cette degradation reste dans des limites raisonnables. Les simulations montrent aussi que notre proposition obtient des performances superieures a celles des autres architectures tolerantes aux fautes du meme type
7

Kameni, Ngassa Christiane. "Décodeurs LDPC opérant sur des circuits à comportement probabiliste : limites théoriques et évaluation pratique de la capacité de correction." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0735/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces dernières années ont vu naitre un intérêt grandissant pour les décodeurs correcteurs d'erreurs opérant sur des circuits non fiables. En effet, la miniaturisation croissante des composants électroniques ainsi l'échelonnage agressif de la tension d'alimentation ont pour conséquence la diminution de la fiabilité des systèmes. Par conséquent, les futures générations de circuits électroniques seront intrinsèquement non fiables. En outre, les décodeurs correcteurs d'erreurs sont indispensables non seulement pour assurer une transmission fiable de l'information mais aussi pour concevoir des systèmes de stockage performants.Nous nous intéressons, dans cette thèse, plus particulièrement aux décodeurs à précision finie Min-Sum (MS), Self-Corrected Min-Sum (SCMS) et Stochastiques.Nous commençons par effectuer une analyse statistique du décodeur Min-Sum opérant sur des circuits à comportement probabiliste. Pour ce faire nous introduisons des modèles d'erreurs probabilistes pour les composants logiques et les opérateurs arithmétiques du décodeur et étudions leurs propriétés de symétrie. Puis nous effectuions une analyse asymptotique rigoureuse et en déduisons les équations d'évolution de densité du décodeur Min-Sum bruité. Nous mettons ainsi en évidence l'effet positif, dans certains cas, du bruit issu du circuit sur la capacité de correction du décodeur. Nous révélons ensuite l'existence d'un phénomène de seuil particulier que nous nommons seuil fonctionnel. Ce dernier peut être considéré comme la généralisation du seuil classique pour les décodeurs non fiables. Nous corroborons ensuite les résultats asymptotiques par des simulations Monte-Carlo.Nous implémentons des décodeurs LDPC bruités pour plusieurs paramètres de bruit et montrons que les décodeurs LDPC bruité ont des résultats très proches de ceux des décodeurs non bruités. Nous pouvons par conséquent considérer le circuit d'autocorrection comme un patch bruité appliqué au décodeur MS bruité afin d'améliorer la robustesse du décodeur face au bruit issu des composants non fiables. Nous évaluons par railleurs l'impact de l'ordonnancement et montrons qu'un ordonnancement série dégrade fortement la robustesse des décodeurs bruités MS et SCMS qui ne parviennent plus à atteindre une capacité de correction acceptable.Pour finir nous étudions les performances des décodeurs stochastiques pourvus de mémoires d'arêtes et opérant sur des circuits non fiables. Nous proposons deux modèles d'erreurs décrivant le comportement probabiliste des composants du décodeur. Nous montrons que, dans certains cas, le bruit issu du circuit non fiable permet de réduire le plancher d'erreur. Nous en déduisons alors que le décodeur stochastique est intrinsèquement tolérant aux fautes
Over the past few years, there has been an increasing interest in error correction decoders built out of unreliable components. Indeed, it is widely accepted that future generation of electronic circuit will be inherently unreliable, due to the increase in density integration and aggressive voltage scaling. Furthermore, error correction decoders play a crucial role both in reliable transmission of information and in the design of reliable storage systems. It is then important to investigate the robustness of error correction decoders in presence of hardware noise.In this thesis we focus on LDPC decoders built out of unreliable computing units. We consider three types of LDPC decoders: the finite-precision Min-Sum (MS) decoder, the Self-Corrected Min-Sum (SCMS) decoder and the Stochastic decoder.We begin our study by the statistical analysis of the finite-precision Min-Sum decoder with probabilistic components. To this end, we first introduce probabilistic models for the arithmetic and logic units of the decoder and discuss their symmetry properties. We conduct a thorough asymptotic analysis and derive density evolution equations for the noisy Min-Sum decoder. We highlight that in some particular cases, the noise introduced by the device can increase the correction capacity of the noisy Min-Sum with respect to the noiseless decoder. We also reveal the existence of a specific threshold phenomenon, referred to as functional threshold, which can be viewed as the generalization of the threshold definition for noisy decoders. We then corroborate the asymptotic results through Monte-Carlo simulations.Since density evolution cannot be defined for decoders with memory, the analysis of noisy Self-corrected Min-Sum decoders and noisy Stochastic decoders was restricted to Monte-Carlo simulations.We emulate the noisy SCMS decoders with various noise parameters and show that noisy SCMS decoders perform close to the noiseless SCMS decoder for a wide range of noise parameters. Therefore, one can think of the self-correction circuit as a noisy patch applied to the noisy MS decoder, in order to improve its robustness to hardware defect. We also evaluate the impact of the decoder scheduling on the robustness of the noisy MS and SCMS decoders and show that when the serial scheduling is used neither the noisy MS decoder nor the noisy SCMS decoder can provide acceptable error correction.Finally, we investigate the performance of stochastic decoders with edge-memories in presence of hardware noise. We propose two error models for the noisy components. We show that in some cases, the hardware noise can be used to lower the error floor of the decoder meaning that stochastic decoders have an inherent fault tolerant capability
8

QUENNESSON, CYRIL. "Evaluation de circuits vlsi autocontroles prenant en compte un modele de fautes multiples." Paris 6, 1997. http://www.theses.fr/1997PA066163.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Devant la necessite de circonvenir les consequences de phenomenes physiques (flash ionisant, foudre, courants de commutation,. . . ) generant de fortes perturbations transitoires au sein des circuits integres, nous nous sommes fixe pour objectif de montrer la faisabilite de systemes efficaces de test en ligne, dans le cas de fautes multiples presentes dans le circuit. Les methodes actuelles demontrent, de facon formelle, l'efficacite d'un autocontrole, mais ne peuvent etre appliquees si l'on adopte un modele de fautes multiples. Nous avons donc developpe une methode de mesure de taux d'integrite utilisant un tel modele. Cette methode, originale, repose sur la simulation et l'introduction de defectuosites dans les circuits testes. Elle fournit une mesure statistique de l'efficacite des systemes implantes. L'approche est interessante car elle permet de realiser simplement une analyse approfondie de n'importe quel type d'autocontrole. En outre, ses fondements sont tres generaux et autorisent tout modele de faute. Nous avons developpe cati (calcul de taux d'integrite), outil de cao correspondant. Grace a plusieurs etudes realisees a l'aide de ce logiciel, nous montrons la specificite du probleme des fautes multiples. Nous montrons egalement qu'il est possible d'obtenir d'excellents resultats avec un modele de fautes multiples, en modifiant et adaptant les architectures existantes dediees a l'autocontrole. Afin de demontrer experimentatlement la faisabilite d'un autocontrole performant selon un modele de fautes multiples, deux circuits de demonstration ont ete realises. Ils comportent dix types differents d'autocontrole. Leur analyse par cati et les resultats des experimentations effectuees permettent de valider notre methode de mesure de taux d'integrite et de montrer qu'il est possible de concevoir un autocontrole performant en presence d'erreurs multiples.
9

GEFFLAUT, ALAIN. "Proposition et evaluation d'une architecture multiprocesseur extensible a memoire partagee tolerante aux fautes." Rennes 1, 1995. http://www.theses.fr/1995REN10034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette etude est la proposition d'une architecture multiprocesseur extensible a memoire partagee tolerante aux fautes. Pour ameliorer leur efficacite, les architectures extensibles a memoire partagee utilisent des caches maintenus coherents a l'aide de protocoles de coherence. Les architectures coma (cache only memory architectures) etendent ce principe en utilisant les memoires standard comme des caches de grande dimension. D'un autre cote, la recuperation arriere est une technique de tolerance aux fautes qui necessite la conservation et la replication de donnees de recuperation. Le but de cette etude est d'utiliser les mecanismes de replication de donnees offerts par les architectures coma pour assurer la redondance necessaire a l'implementation d'une technique de recuperation arriere. Nous proposons un protocole de coherence etendu qui gere de facon transparente les donnees courantes et les donnees de recuperation. Ce protocole permet de tolerer les defaillances des nuds de l'architecture en limitant le materiel specifique, grace a l'utilisation des memoires standard pour stocker les donnees courantes et les donnees de recuperation. Une evaluation du protocole par simulation montre que l'utilisation des mecanismes de replication de donnees et des memoires pour la gestion des donnees de recuperation, limite la degradation de performance tout en conservant l'extensibilite de l'architecture
10

Sopena, Julien. "Algorithmes d'exclusion mutuelle : tolérance aux fautes et adaptation aux grilles." Paris 6, 2008. http://www.theses.fr/2008PA066665.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Borrel, Nicolas. "Evaluation d'injection de fautes Laser et conception de contre-mesures sur une architecture à faible consommation." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4358.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses applications comme les cartes bancaires manipulent des données confidentielles. A ce titre, les circuits microélectroniques qui les composent, font de plus en plus l'objet d'attaques représentant des menaces pour la sécurité. De plus, un grand nombre des circuits électroniques portables et fonctionnant sur batterie demandent que la consommation électrique soit toujours plus réduite. Les concepteurs de circuit doivent donc proposer des solutions sécurisées, tout en limitant la consommation.Ce travail présente l'évaluation sécuritaire et la conception de contre-mesures pour des architectures à triple-caisson dédiées à la réduction de la consommation. Ces recherches, liées au contexte, se sont focalisées sur l'évaluation de cette architecture face à des injections de fautes Laser. Dès le début de ce manuscrit, l’état de l’art de l’injection de fautes est développé, en se focalisant sur les effets physiques d’un faisceau laser. Les architectures à double et triple-caisson sont ensuite analysées dans le but de comparer leur robustesse. Cette démarche permet d’appréhender d’éventuels effets physiques induits par le laser à l’intérieur des caissons de polarisations Nwell, Pwell et des transistors MOS. Suite à cette analyse des phénomènes physiques, des modélisations électriques des portes CMOS ont été développées pour des architectures à double et triple-caisson. De bonnes corrélations ont pu être obtenues entre les mesures et les simulations électriques. Pour conclure, ce travail a permis d'extraire de potentielles règles de conception permettant d’améliorer la robustesse sécuritaire des portes CMOS et de développer des moyens de détections d’attaques lasers
In many applications such as credit cards, confidential data is used. In this regard, the systems-on-chip used in these applications are often deliberately attacked. This puts the security of our data at a high risk. Furthermore, many SoC devices have become battery-powered and require very low power consumption. In this context, semiconductor manufacturers should propose secured and low-power solutions.This thesis presents a security evaluation and a countermeasures design for a low-power, triple-well architecture dedicated to low-power applications. The security context of this research focuses on a Laser sensitivity evaluation of this architecture.This paper first presents the state of the art of Laser fault injection techniques, focusing on the physical effects induced by a Laser beam. Afterward, we discuss the different dual-and triple-well architectures studied in order to compare their security robustness. Then, a physical study of these architectures as substrate resistor and capacitor modeling highlights their impact on security. This evaluation lets us anticipate the phenomena potentially induced by the Laser inside the biasing well (P-well, N-well) and the MOS transistors.Following the analysis of the physical phenomena resulting from the interaction between the laser and the silicon, electrical modeling of the CMOS gates was developed for dual and triple-well architectures. This enabled us to obtain a good correlation between measurements and electrical simulations.In conclusion, this work enabled us to determine possible design rules for increasing the security robustness of CMOS gates as well as the development of Laser sensors able to detect an attack
12

Belhadaoui, Hicham. "Conception sûre des systèmes mécatroniques intelligents pour des applications critiques." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2011. http://tel.archives-ouvertes.fr/tel-00601086.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La criticité des systèmes complexes programmables nécessite de garantir un niveau de fiabilité et de sécurité convenable. Des études de sûreté de fonctionnement doivent être menées tout au long du cycle de développement du système. Ces études permettent une meilleure maîtrise des risques et de la fiabilité. Les points faibles sont mis en évidence et permettent aux concepteurs de spécifier des stratégies de reconfiguration avant la phase de prototype réel et les tests réels. Les études de sûreté de fonctionnement doivent être menées au plus tôt dans la phase de conception, afin de réduire les coûts et le nombre de prototypes nécessaires à la validation du système. Le travail présenté dans ce mémoire de thèse a pour objectif de définir une méthodologie de conception des systèmes complexes programmables dédiés à une application mécatronique [Belhadaoui et al., 2008-a], intégrant dès les premières phases du cycle de développement [Aït-Kadi et al., 2000], les aspects sûreté de fonctionnement. L'apport d'une telle méthodologie doit permettre de faire face à un certain nombre de contraintes propres au domaine des capteurs intelligents (les exigences de cahier des charges, le respect des normes législatives en vigueur). La méthodologie développée doit permettre de :  Modéliser et simuler les comportements fonctionnels et dysfonctionnels des systèmes  Estimer la fiabilité par modélisation  Réaliser des mesures de sensibilité afin de connaître la contribution de chaque composant à la fiabilité du système  Capitaliser la connaissance sur le système au cours des différentes phases d'évaluation (prévisionnelle, expérimentale et opérationnelle) pour affiner les estimations de fiabilité Ce Travail introduit le concept d'information en sûreté de fonctionnement. Nous interprétons la défaillance de celle-ci comme étant le résultat de l'initiation et de la propagation d'informations erronées à travers l'architecture d'un capteur intelligent dédié à une application mécatronique. Cette propagation s'est accompagnée de contraintes (partage de ressources matérielles et informationnelles, modes dégradés d'information...) qui tendent à influencer fortement la crédibilité de cette information. Nous débutons sur un état de l'art pour montrer l'intérêt de l'approche flux informationnel sur un cas d'étude complexe. Ceci est lié à la présence d'une partie programmable (interaction matériel-logiciel) et évidement du système hybride (signaux mixtes analogique-numérique). Cette nouvelle approche distingue, les phénomènes d'apparition et de disparition d'erreurs (matérielles, logicielles et environnementales), ainsi que les séquences de propagation aboutissant à un mode de dysfonctionnement du système. Grâce à cette distinction nous expliquons les concepts mal traités par les méthodes conventionnelles, tels que la défaillance simultanée, la défaillance de cause commune et abordons d'une manière réaliste les problématiques des interactions matériel-logiciel et celle des signaux mixtes. Les séquences de propagation d'erreurs générées permettent à l'aide d'un modèle markovien non homogène, de quantifier d'une manière analytique les paramètres de la sûreté de fonctionnement du système (fiabilité, disponibilité, sécurité) et de positionner le capteur dans un mode de fonctionnement parmi les six que nous avons définis suivant les spécifications du cahier des charges.
13

Schwob, Cyrille. "Approche non locale probabiliste pour l'analyse en fatigue des zones à gradient de contraintes." Toulouse 3, 2007. http://www.theses.fr/2007TOU30246.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les choix de conception de pièces et structures sont habituellement validés en fatigue à l'aide de critère de fatigue tels que les critères de Crossland, Dang Van ou encore Papadopoulos. Ces critères sont idéalement identifiés à partir de données expérimentales obtenues sur des éprouvettes simples. Cependant l'application de ces modèles ne conduit pas toujours à une prévision fiable du comportement en fatigue de la pièce étudiée. En effet le transfert vers une pièce réelle des caractéristiques de fatigue d'un matériau, à l'aide de critères, ne prend généralement pas directement en compte de nombreux effets, notamment les effets de concentrations de contraintes. De plus la réponse binaire d'un critère de fatigue ne reflète pas de façon adéquate l'importante dispersion observée expérimentale lors de tout essai de fatigue. Les travaux de thèses s'attachent à définir un critère de fatigue prenant en compte l'effet de gradient de contrainte et à l'intégrer dans une démarche probabiliste générale. Le critère développé est un critère non local qui moyenne un critère classique sur une zone d'influence définie par un critère mésoscopique inspiré de l'analyse de Papadopoulos. Les prédictions de durée de vie moyenne réalisées à l'aide de ce critère ont été comparées à des résultats issus de la littérature scientifique d'une part et d'une base de données sur un alliage d'aluminium réalisée au cours de la thèse d'autre part. Au cours de cette campagne, plusieurs configurations géométriques (éprouvettes trouées et plates) et plusieurs rapports de chargements ont été testés. Les bonnes corrélations obtenues dans tous les cas montrent la robustesse du critère vis-à-vis de la géométrie et du chargement. L'intégration de ce modèle dans une démarche probabiliste nécessite alors de traiter les deux points suivants. .
A fatigue criterion taking into account the stress gradient effect has been developed and integrated in a global probabilistic framework. The proposed criterion is a non local criterion averaging a classical criterion over a particular area. This area is defined by a mesoscopic criterion derived from Papadopoulos analysis. The predictions of the new criterion are compared to experimental results coming from a dedicated test campaign on an aluminium alloy. Results are found to be in good agreement with experiments for a wide variety of geometry and load, thus demonstrating the relative robustness of the fatigue model. The fatigue model is then integrated in a probabilistic framework, the results being again satisfactorily confronted to experimental results on the same alloy. In particular the statistical quality of the probabilized SN curves obtained from the whole model is similar to the experimental one
14

Berthelot, Christophe. "Evaluation d'une architecture vectorielle pour des méthodes de Monte Carlo : analyse probabiliste de conditions au bord artificielles pour des inéquations variationnelles." Paris 6, 2003. http://www.theses.fr/2003PA066505.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Smidts, Olivier. "Analyse probabiliste du risque de stockage de déchets radioactifs par la méthode des arbres d'événements continus." Doctoral thesis, Universite Libre de Bruxelles, 1997. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212182.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les études du risque du stockage de déchets radioactifs comprennent, comme toute étude du risque, un traitement de l'incertitude. L'outil de calcul du risque, appelé outil PRA (Probabilistic Risk Assessment), est formé d'un code de calcul d'écoulement des eaux souterraines et de transport de chaînes de radionucléides. Ce type d'outil est essentiel pour l'évaluation de performance de la barrière géologique. Le manque de connaissances au sujet de la variabilité (dans l'espace et le temps) des propriétés hydrogéologiques de cette barrière est la raison primaire de l'incertitude et des méthodes stochastiques ont été développées en hydrogéologie pour le traiter.

Dans cette thèse, l'analyse d'incertitude liée à la composition du milieu géologique est partagée entre l'écoulement et le transport de la manière suivante: a) une solution moyenne de l'écoulement est tout d'abord déterminée à l'aide d'un code basé sur la méthode des différences finies. Cette solution est ensuite soumise à une analyse de sensibilité. Cette analyse débouche sur la résolution d'un problème inverse afin d'améliorer l'estimation initiale des paramètres moyens d'écoulement; b) l'effet de la variation aléatoire de la vitesse d'écoulement est envisagé lors du transport des radionucléides. Le transport est résolu à l'aide d'une méthode Monte Carlo non analogue.

L'analyse de sensibilité du problème d'écoulement est réalisée à l'aide d'une méthode variationnelle. La méthode proposée a comme avantage celui de pouvoir quantifier l'incertitude de structure; c'est-à-dire l'incertitude liée à la géométrie du milieu géologique.

Une méthodologie Monte Carlo non analogue est utilisée pour le transport de chaînes de radionucléides en milieu stochastique. Les apports de cette méthodologie pour le calcul du risque reposent sur trois points:

1) L'utilisation d'une solution de transport simple (sous la forme d'une solution adjointe) dans les mécanismes de la simulation Monte Carlo. Cette solution de transport permet de résumer, entre deux positions successives du marcheur aléatoire, les processus chimicophysiques (advection, diffusion-dispersion, adsorption, désorption,) apparaissant à l'échelle microscopique. Elle rend possible des simulations efficaces de transport en accélérant les mécanismes de transition des marcheurs aléatoires dans le domaine géologique et dans le temps.

2) L'application de la méthode des arbres d'événements continus au transport de chaînes de radionucléides. Cette méthode permet d'envisager les transitions radioactives entre éléments d'une chaîne selon un même formalisme que celui qui prévaut pour les simulations de transport d'un radionucléide unique. Elle permet donc de passer du transport d'un radionucléide au transport d'une chaîne de radionucléides sans coûts supplémentaires en temps de calcul et avec un coût supplémentaire en mémoire limité.

3) L'application de techniques dites de "double randomization" au problème de transport de radionucléides dans un milieu géologique stochastique. Ces techniques permettent de combiner efficacement une simulation Monte Carlo de paramètres avec une simulation Monte Carlo de transport et ainsi d'inclure l'incertitude associée à la composition du milieu géologique explicitement dans le calcul du risque.

Il ressort de ce travail des perspectives prometteuses de développements ultérieurs de la méthodologie Monte Carlo non analogue pour le calcul du risque.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

16

Mahdavi, Chahrokh. "Analyse probabiliste du comportement des sols et des ouvrages. Evaluation des risques dans les études géotechniques de traces de remblais sur sols mous." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1985. http://tel.archives-ouvertes.fr/tel-00523281.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Lors des études de tracés routiers ou autoroutiers dans les zones de sols compressibles, la reconnaissance géotechnique des sols utilise différentes techniques de sondage, de prélèvement d'échantillons de sol intact ou remanié, d'essais en place et d'essais en laboratoire. Ces sondages et essais sont répartis régulièrement le long du tracé envisagé, mais ils ne concernent qu'une fraction minime du sol qui aura à supporter le remblai, de sorte qu'il existe une certaine incertitude sur les propriétés réelles de ces sols. Cette incertitude sur les propriétés mécaniques des sols se traduit par une incertitude sur la représentativité des résultats des calculs réalisés lors de l'élaboration du projet. Le travail réalisé dans le cadre de cette thèse porte sur le traitement quantitatif de cette incertitude dans le cas des calculs de stabilité à court terme des remblais sur sols mous. Le traitement de l'incertitude sur les propriétés de résistance au cisaillement non drainé des sols mous a été effectué en suivant la démarche habituelle des ingénieurs chargés d'élaborer de tels projets : - définition de couches homogènes du point de vue de la nature et des principes généraux de comportement des sols, - utilisation éventuelle de corrélations pour compléter les données directement utilisables pour les calculs, - définition de valeurs "représentatives" des différents paramètres nécessaires au dimensionnement. A partir de cette étape de l'étude, on passe à un traitement de type probabiliste, afin de déterminer l'incertitude sur la valeur estimée du coefficient de sécurité le long du tracé et de calculer des probabilités de rupture. L'analyse des résultats de la reconnaissance géotechnique a été effectuée en utilisant les méthodes de géostatistique. Tous les traitements effectués sur les données sont représentés sur l'écran d'une console de visualisation interactive, qui sert également à transmettre à la chaîne de traitement les instructions qui lui sont nécessaires. L'estimation des valeurs des paramètres mécaniques du sol entre les sondages de reconnaissance est effectuée au moyen du programme Bluepack de l'E.N.S.Mines de Paris. Pour le calcul de la stabilité du remblai, on a utilisé un schéma de calcul en rupture circulaire, en analysant la stabilité de blocs de sol cylindriques et de longueur limitée. Le calcul de la loi de probabilité des valeurs du coefficient de sécurité, dont on déduira la probabilité de rupture, est effectué par la méthode de Monte Carlo. La méthode développée dans le cadre de cette thèse a été appliquée à l'analyse de la stabilité d'un long remblai sur sols mous dont la construction a été étudiée dans le sud-ouest de la France. L'étude permet de retrouver par le calcul un résultat bien connu, qui est qu'il existe une longueur critique vis à vis de la stabilité du remblai, et de prévoir la position de cette zone le long du tracé. La méthode d'étude ainsi développée constitue une première étape dans la résolution de ce problème complexe de la prévision des risques de rupture sur les tracés de remblais sur sols mous, compte tenu du volume limité des reconnaissances qu'il est possible d'effectuer en pratique.
17

Echard, Benjamin. "Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00800208.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les méthodes traditionnelles de dimensionnement à la fatigue s'appuient sur l'utilisation de coefficients dits de "sécurité" dans le but d'assurer l'intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l'ingénieur ont le mérite d'être simples d'application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l'influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d'acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l'analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s'appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d'évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d'évaluations du modèle mécanique. L'approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi.
18

Wall, Martinez Hiram Alejandro. "Evaluation probabiliste du risque lié à l'exposition à des aflatoxines et des fumonisines dû à la consommation de tortillas de maïs à la ville de Veracruz." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0068/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des dangers chimiques les plus importants relevés par l'OMS concerne la contamination des céréales par les mycotoxines et notamment les aflatoxines et les fumonisines. La réglementation recommande des contaminations maximales d'aflatoxines dans les céréales inférieures à 20 mg/kg ; cependant on relève couramment des taux supérieurs à 200 mg/kg dans le maïs au Mexique. Bien qu'il ait été évalué que le processus de nixtamalisation détruit plus de 90 % des fumonisines et de 80 à 95 % des aflatoxines, le taux résiduel peut encore être élevé : certaines publications rapportent des concentrations jusqu'à 100 mg/kg dans les tortillas, ce qui représente un risque avéré vue la grande consommation de tortillas au Mexique (325g/j). Le JECFA (2001) a établi une dose maximale acceptable de 2μg/kg pc/j pour la fumonisine et recommande de réduire l'exposition aux aflatoxines au plus faible niveau possible en considérant que le seuil de 1 ng/kg pc/j ne devrait pas être atteint. Au cours de cette thèse 3 enquêtes aléatoires et représentatives ont été menées dans 40 tortillerias de la ville de Veracruz. La consommation de maïs de la population a été évaluée à partir d'un questionnaire de consommation. L'analyse des mycotoxines a été réalisée par HPLC-FD par utilisation de colonnes à immunoaffinité selon la réglementation européenne (CIRAD-Montpellier). L'analyse des données obtenues a été effectuée selon une méthode probabiliste permettant de construire une fonction de distribution de probabilités à partir de la méthode de Monte Carlo (UBO). La représentativité de la population a été validée à partir d'évaluation de quotas de population après échantillonnage aléatoire initial. La contamination des tortillas a été mesurée à 0.54-1.96 mg/kg pour les aflatoxines et à 65-136 mg/kg pour les fumonisines. La consommation moyenne de tortillas a été mesurée à 148 g de maïs par jour. L'exposition de la population aux aflatoxines apparaît alors comprise entre 0,94 et 3,14 ng/kg pc/j et celle aux fumonisines entre 146 et 315 ng/kg pc/j. Les échantillons les plus contaminés proviennent des tortillerias réalisant elles-mêmes leur procédure de nixtamalisation. L'analyse des résultats montre que 60 % de la population de Veracruz serait à risque selon les préconisations du JECFA. L'exposition aux fumonisines atteint 5 % de la dose maximale acceptable, du fait d'une relativement faible contamination du maïs à cette mycotoxine. Les résultats montrent donc un risque sanitaire pour la population de la ville de Veracruz. Une extension de ce travail à la totalité de l’Etat de Veracruz, incluant la population rurale, devrait être menée du fait du risque probablement accru de cette dernière catégorie de population en lien avec sa plus forte consommation de maïs
One of the chemical hazards that WHO has reported more frequently is cereals contamination with mycotoxins, mainly aflatoxins and fumonisins. NOM-188-SSA1-2002 establishes that aflatoxin concentration in grain should not exceed 20 mg kg-1 ; however, there are reported concentrations > 200 mg kg-1 in maize. Although it has been documented that nixtamalizacion removes more than 90% of fumonisins and between 80 and 95% of aflatoxins, the residual amount could be important, finding reports concentrations higher than 100 mg kg-1 of aflatoxin in tortilla, representing a risk due to the high consumption of tortillas in Mexico (325 g d-1). The JECFA (2001) establishes a maximum intake of 2 mg kg-1 pc d-1 for fumonisin and aflatoxin recommends reducing “as low as reasonably achievable” levels. 3 random and representative sampling in Veracruz city, each in 40 tortillerias, were made. Corn intake and weight of the population were estimated using a consumption questionnaire. Mycotoxins analysis were performed by HPLC-FD using immunoaffinity columns according to European standard UNE-EN ISO 14123 : 2008 for aflatoxins and UNE-EN 13585 : 2002 for fumonisin in the CIRAD (Montpellier, France). Statistical analysis were performed under a probabilistic approach in collaboration with the University of Bretagne Occidentale (Brest, France), building probability density function (PDF) and using the Monte Carlo method. PDF parameters of the weight of the population was 74.15kg for men (which coincides with reported by CANAIVE) and 65.83kg for women ; the pollution aflatoxin tortilla was 0.54 – 1.96mg kg-1 and fumonisin from 65.46 – 136.00mg kg-1 ; the tortilla consumption was 148.3g of corn per person per day ; the daily intake of aflatoxins was 0.94 – 3.14ng kg-1 bw d-1 and fumonisin of 146.24 – 314.99ng kg-1 bw d-1. Samples with higher aflatoxin contamination came from tortillerias that make the nixtamalization in situ. In assessing exposure it was found that up to 60% of the population could be consuming more than the recommended by JECFA (2001) for aflatoxin dose (1ng kg-1 bw d-1). Exposure to fumonisins intake was < 5% due to low contamination by these mycotoxins. The results suggest that the population of the city of Veracruz could be in food risk by eating contaminated corn tortillas AFT. It is advisable to extend this study in rural communities, where risk factors could increase
19

Excoffon, William. "Résilience des systèmes informatiques adaptatifs : modélisation, analyse et quantification." Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20791/1/Excoffon_20791.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On appelle résilient un système capable de conserver ses propriétés de sûreté de fonctionnement en dépit des changements (nouvelles menaces, mise-à-jour,…). Les évolutions rapides des systèmes, y compris des systèmes embarqués, implique des modifications des applications et des configurations des systèmes, en particulier au niveau logiciel. De tels changements peuvent avoir un impact sur la sûreté de fonctionnement et plus précisément sur les hypothèses des mécanismes de tolérance aux fautes. Un système est donc résilient si de pareils changements n’invalident pas les mécanismes de sûreté de fonctionnement, c’est-à-dire, si les mécanismes déjà en place restent cohérents malgré les changements ou dont les incohérences peuvent être rapidement résolues. Nous proposons tout d’abord dans cette thèse un modèle pour les systèmes résilients. Grâce à ce modèle nous pourrons évaluer les capacités d’un ensemble de mécanismes de tolérance aux fautes à assurer les propriétés de sûreté issues des spécifications non fonctionnelles. Cette modélisation nous permettra également de définir un ensemble de mesures afin de quantifier la résilience d’un système. Enfin nous discuterons dans le dernier chapitre de la possibilité d’inclure la résilience comme un des objectifs du processus de développement
20

Chibani, Kais. "Analyse de robustesse de systèmes intégrés numériques." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT080/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les circuits intégrés ne sont pas à l'abri d'interférences naturelles ou malveillantes qui peuvent provoquer des fautes transitoires conduisant à des erreurs (Soft errors) et potentiellement à un comportement erroné. Ceci doit être maîtrisé surtout dans le cas des systèmes critiques qui imposent des contraintes de sûreté et/ou de sécurité. Pour optimiser les stratégies de protection de tels systèmes, il est fondamental d'identifier les éléments les plus critiques. L'évaluation de la criticité de chaque bloc permet de limiter les protections aux blocs les plus sensibles. Cette thèse a pour objectif de proposer des approches permettant d'analyser, tôt dans le flot de conception, la robustesse d'un système numérique. Le critère clé utilisé est la durée de vie des données stockées dans les registres, pour une application donnée. Dans le cas des systèmes à base de microprocesseur, une approche analytique a été développée et validée autour d'un microprocesseur SparcV8 (LEON3). Celle-ci repose sur une nouvelle méthodologie permettant de raffiner les évaluations de criticité des registres. Ensuite, une approche complémentaire et plus générique a été mise en place pour calculer la criticité des différents points mémoires à partir d'une description synthétisable. L'outil mettant en œuvre cette approche a été éprouvé sur des systèmes significatifs tels que des accélérateurs matériels de chiffrement et un système matériel/logiciel basé sur le processeur LEON3. Des campagnes d'injection de fautes ont permis de valider les deux approches proposées dans cette thèse. En outre, ces approches se caractérisent par leur généralité, leur efficacité en termes de précision et de rapidité, ainsi que leur faible coût de mise en œuvre et leur capacité à ré-exploiter les environnements de validation fonctionnelle
Integrated circuits are not immune to natural or malicious interferences that may cause transient faults which lead to errors (soft errors) and potentially to wrong behavior. This must be mastered particularly in the case of critical systems which impose safety and/or security constraints. To optimize protection strategies of such systems, it is essential to identify the most critical elements. The assessment of the criticality of each block allows limiting the protection to the most sensitive blocks. This thesis aims at proposing approaches in order to analyze, early in the design flow, the robustness of a digital system. The key criterion used is the lifetime of data stored in the registers for a given application. In the case of microprocessor-based systems, an analytical approach has been developed and validated on a SparcV8 microprocessor (LEON3). This approach is based on a new methodology to refine assessments of registers criticality. Then a more generic and complementary approach was implemented to compute the criticality of all flip-flops from a synthesizable description. The tool implementing this approach was tested on significant systems such as hardware crypto accelerators and a hardware/software system based on the LEON3 processor. Fault injection campaigns have validated the two approaches proposed in this thesis. In addition, these approaches are characterized by their generality, their efficiency in terms of accuracy and speed and a low-cost implementation. Another benefit is also their ability to re-use the functional verification environments
21

Lemaire, Jean. "Un modèle d'évaluation de la vulnérabilité sismique du bâti existant selon l'Eurocode : essai méthodologique et application sur un territoire." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le risque sismique est un sujet d’étude pluridisciplinaire qui fait l’objet de nombreux travaux de recherches. Pendant longtemps, il a été étudié sous l’aspect de l’aléa et ce n’est qu’au milieu du XXe siècle que nous nous sommes intéressés à la vulnérabilité des éléments exposés. Malgré la multiplicité des études sur le risque sismique, aucune d’entre elles n’adopte une démarche globale en utilisant la règlementation parasismique. Dans le cadre de cette thèse, nous soutenons l’hypothèse selon laquelle il est possible d’évaluer la vulnérabilité des lieux d’habitation à l’échelle de plusieurs bâtiments en utilisant la norme Européenne, l’Eurocode 8. Utiliser cette règlementation a l’avantage de réduire les temps d’étudede la vulnérabilité physique puisque l’on évalue la résistance sismique d’un unique bâtiment dont ce dernier représente une population de plusieurs immeubles à usage d’habitation collective. La méthodologie proposée, illustrée sur l’exemple de la conurbation Mulhouse-Bâle, se compose de deux phases. La première consiste à étudier l’aléa sismique de la zone urbaine de Mulhouse et de Bâle à travers les études bibliographiques de quelques auteurs. Cette phase consiste aussi à examiner la compatibilité de la règlementation parasismique européenne et helvétique. En dernier lieu, un diagnostic du bâti existant et de la population est réalisé pour évaluer la vulnérabilité de ces deux territoires urbains, après un découpage des deux villes en secteurs historico géographiques. Une seconde phase consiste à proposer un modèle simplifié d’évaluation déterministe et probabiliste de la vulnérabilité du bâti, Celui-ci est fondé à partir de la nouvelle règlementation Européenne et de la mécanique des structures, pour évaluer la résistance sismique des bâtiments. L’aspect probabiliste a permis d’affiner le modèle proposé afin d’intégrer certaines incertitudes. Une étude de cas simulant un séisme important de magnitude Mw égale à 6 sur l’échelle de Richter, intégrant les phénomènes d’effets de site comme le préconise l’Eurocode 8, a permis de valider l’application du modèle envisagé. Le modèle d’évaluation proposé a pour intérêt de fournir un outil permettant d’évaluer la vulnérabilité du bâti sans effectuer de calcul mécanique. Il se veut donc accessible à tous(géographes, ingénieurs, sismologues, etc.…). Plus généralement, ce modèle pour objectif de fournir un outil d’aide à la décision dans la démarche de prévention que doivent les autorités publiques à la population, puisqu’ils permettent de déterminer la plus ou moins grande vulnérabilité des zones étudiées
The seismic risk is a subject of multidisciplinary study which is the object of numerous research works. For a long time, it was studied in terms of hazard and it is only in the middle of the 20th century that we became interested in the vulnerability of the exposed elements. In spite of the multiplicity of the studies on the seismic risk, none of them adopts a global approach by using the earthquake-resistant regulations. Within the framework of thesis, we support the hypothesis that it possible to estimate the vulnerability of dwellings on the scale of several buildings by using the European standard, Eurocode 8. Using these regulations has the advantage reducing the time to study physical vulnerability by assessing the seismic resistance of a single building, where the latter represents a population of several buildings used as collective dwellings. The proposed methodology, illustrated on the example of the Mulhouse-Basel conurbation, consists of two phases. The first one consists in studying the seismic hazard of the urban area of Mulhouse and Basel through the bibliographical studies of some authors. This phase also consists in examining the compatibility of the European and Helvetian seismic regulations. Finally, a diagnosis of the existing structures and of the population is made to assess the vulnerability of these two urban territories, after a division of both cities into historic-geographical sectors. A second phase consists in proposing a simplified model of deterministic and probabilistic assessment of the vulnerability of the built, based on the new European regulation and the mechanics of the structures, to evaluate the seismic resistance of buildings. The probability aspect allowed to refine the proposed model to integrate certain uncertainties. A case study feigning an important earthquake of magnitude Mw equal to 6 on the Richter scale, integrating the phenomena of site effects as recommended by Eurocode 8, validated the application of the envisaged model. The proposed evaluation model is intended to provide a tool for assessing the vulnerability of the built without performing mechanical calculations. Thus, it aims to be accessible to all (geographers, engineers, seismologists, etc…). More generally, this model aims to provide a decision-making tool in the approach of prevention which the public authorities owe to the population, because they allow to determine the more or less big vulnerability of the studied areas
22

Ramos, Vargas Pablo Francisco. "Evaluation de la sensibilité face aux SEE et méthodologie pour la prédiction de taux d’erreurs d’applications implémentées dans des processeurs Multi-cœur et Many-cœur." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La présente thèse vise à évaluer la sensibilité statique et dynamique face aux SEE de trois dispositifs COTS différents. Le premier est le processeur multi-cœurs P2041 de Freescale fabriqué en technologie 45nm SOI qui met en œuvre ECC et la parité dans leurs mémoires cache. Le second est le processeur multifonction Kalray MPPA-256 fabriqué en technologie CMOS 28nm TSMC qui intègre 16 clusters de calcul chacun avec 16 cœurs, et met en œuvre ECC dans ses mémoires statiques et parité dans ses mémoires caches. Le troisième est le microprocesseur Adapteva E16G301 fabriqué en 65nm CMOS processus qui intègre 16 cœurs de processeur et ne pas mettre en œuvre des mécanismes de protection. L'évaluation a été réalisée par des expériences de rayonnement avec des neutrons de 14 Mev dans des accélérateurs de particules pour émuler un environnement de rayonnement agressif, et par injection de fautes dans des mémoires cache, des mémoires partagées ou des registres de processeur pour simuler les conséquences des SEU dans l'exécution du programme. Une analyse approfondie des erreurs observées a été effectuée pour identifier les vulnérabilités dans les mécanismes de protection. Des zones critiques telles que des Tag adresses et des registres à usage général ont été affectées pendant les expériences de rayonnement. De plus, l'approche Code Emulating Upset (CEU), développée au Laboratoire TIMA, a été étendue pour des processeurs multi-cœur et many-cœur pour prédire le taux d'erreur d'application en combinant les résultats issus des campagnes d'injection de fautes avec ceux issus des expériences de rayonnement
The present thesis aims at evaluating the SEE static and dynamic sensitivity of three different COTS multi-core and many-core processors. The first one is the Freescale P2041 multi-core processor manufactured in 45nm SOI technology which implements ECC and parity in their cache memories. The second one is the Kalray MPPA-256 many-core processor manufactured in 28nm TSMC CMOS technology which integrates 16 compute clusters each one with 16 processor cores, and implements ECC in its static memories and parity in its cache memories. The third one is the Adapteva Epiphany E16G301 microprocessor manufactured in 65nm CMOS process which integrates 16 processor cores and do not implement protection mechanisms. The evaluation was accomplished through radiation experiments with 14 Mev neutrons in particle accelerators to emulate a harsh radiation environment, and by fault injection in cache memories, shared memories or processor registers, to simulate the consequences of SEUs in the execution of the program. A deep analysis of the observed errors was carried out to identify vulnerabilities in the protection mechanisms. Critical zones such as address tag and general purpose registers were affected during the radiation experiments. In addition, The Code Emulating Upset (CEU) approach, developed at TIMA Laboratory was extended to multi-core and many core processors for predicting the application error rate by combining the results issued from fault injection campaigns with those coming from radiation experiments
23

Duroeulx, Margaux. "Évaluation de la fiabilité des systèmes modélisés par arbres de défaillances grâce aux techniques de satisfiabilité." Thesis, Université de Lorraine, 2020. http://www.theses.fr/2020LORR0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’intéresse à la conception des systèmes critiques, dont le fonctionnement est impacté par des défaillances, qui pourraient être dangereuses pour les biens et les personnes qui l’entourent. Lors de sa conception, il est essentiel de réaliser une analyse de sûreté de fonctionnement pour déterminer les potentielles défaillances, leur criticité et leur probabilité d'occurrence. Cette analyse permet de statuer sur la confiance qu'il est justifié d'accorder au système et de renforcer le système si nécessaire. L'objectif de cette thèse est de faire intervenir les techniques de satisfiabilité pour préparer le calcul de la fiabilité du système : sa probabilité d'assurer sa mission pour un temps donné. Dans une première partie, nous nous intéressons aux systèmes statiques, ceux dont l'état (marche, arrêt) ne dépend que de l'état de ses composants. Nous modélisons le système par un arbre de défaillances, qui est un outil de modélisation très répandu dans la communauté de la sûreté de fonctionnement. La fonction de structure est une formule décrivant les combinaisons de défaillances qui sont tolérées ou non par le système, qui peut être déterminée à partir de l'arbre de défaillances du système. Nous faisons appel aux techniques de satisfiabilité pour identifier les liens minimaux, sous-ensembles des composants dont le fonctionnement garantit le fonctionnement du système. Nous modélisons également le système par un diagramme de Hasse, qui représente l'état du système en fonction de l'état de ses composants. L'évaluation probabiliste du niveau de confiance accordé au système est basée sur le polynôme de fiabilité, obtenu à partir du diagramme de Hasse. Dans une seconde partie, nous considérons les systèmes dits dynamiques, pour lesquels l'ordre d'occurrence des défaillances impacte le fonctionnement du système. C’est par exemple le cas des générateurs électriques, dont la défaillance prive de courant les autres composants et les empêche d’assurer leur fonction. Afin d’adapter aux systèmes dynamiques l’approche développée dans la première partie, nous définissons les séquences de lien minimales, extension des liens minimaux aux systèmes dynamiques, que nous déterminons grâce aux techniques de satisfiabilité. Nous proposons également une adaptation du diagramme de Hasse aux systèmes dynamiques afin de déterminer leur fiabilité
This thesis focuses on designing critical systems, those functioning is impacted by failures that could be dangerous for goods and people. During its design, it is crucial to convey a dependability analysis in order to determine the potential failures, their criticity and their probability of occurrence. The aim of this thesis is to involve satisfiability techniques in the computation of the reliability of the system: its probability to ensure its mission for a given time. In the first part, we consider static systems, those for which the functioning only depends on the functioning of their components functioning. We model the system by a fault tree, which is a widespread modeling tool in the reliability community, from which we can obtain the structure function. The structure function is a formula describing the combinations of components failure which are tolerated or not by the system. We also model the system by a Hasse diagram, which represents the states of the system depending on the states of the components. The probabilistic assessment of the trust placed to the system is based on the reliability function determined from the Hasse diagram. In the second part, we consider dynamic systems, for which the order between failures has an impact on the system. For example, it is the case for electric generators, which deprive the other components of electricity when they fail. In order to adapt to dynamic systems, the approach developed of the first part, we define minimal tie set sequences as the extension of minimal tie sets for dynamic systems, and we compute them by using satisfiability techniques. We also propose an adaptation of Hasse diagrams for dynamic systems to determine the reliability function
24

Bentria, Dounia. "Combining checkpointing and other resilience mechanisms for exascale systems." Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0971/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous sommes intéressés aux problèmes d'ordonnancement et d'optimisation dans des contextes probabilistes. Les contributions de cette thèse se déclinent en deux parties. La première partie est dédiée à l’optimisation de différents mécanismes de tolérance aux pannes pour les machines de très large échelle qui sont sujettes à une probabilité de pannes. La seconde partie est consacrée à l’optimisation du coût d’exécution des arbres d’opérateurs booléens sur des flux de données.Dans la première partie, nous nous sommes intéressés aux problèmes de résilience pour les machines de future génération dites « exascales » (plateformes pouvant effectuer 1018 opérations par secondes).Dans le premier chapitre, nous présentons l’état de l’art des mécanismes les plus utilisés dans la tolérance aux pannes et des résultats généraux liés à la résilience.Dans le second chapitre, nous étudions un modèle d’évaluation des protocoles de sauvegarde de points de reprise (checkpoints) et de redémarrage. Le modèle proposé est suffisamment générique pour contenir les situations extrêmes: d’un côté le checkpoint coordonné, et de l’autre toute une famille de stratégies non-Coordonnées. Nous avons proposé une analyse détaillée de plusieurs scénarios, incluant certaines des plateformes de calcul existantes les plus puissantes, ainsi que des anticipations sur les futures plateformes exascales.Dans les troisième, quatrième et cinquième chapitres, nous étudions l'utilisation conjointe de différents mécanismes de tolérance aux pannes (réplication, prédiction de pannes et détection d'erreurs silencieuses) avec le mécanisme traditionnel de checkpoints et de redémarrage. Nous avons évalué plusieurs modèles au moyen de simulations. Nos résultats montrent que ces modèles sont bénéfiques pour un ensemble de modèles d'applications dans le cadre des futures plateformes exascales.Dans la seconde partie de la thèse, nous étudions le problème de la minimisation du coût de récupération des données par des applications lors du traitement d’une requête exprimée sous forme d'arbres d'opérateurs booléens appliqués à des prédicats sur des flux de données de senseurs. Le problème est de déterminer l'ordre dans lequel les prédicats doivent être évalués afin de minimiser l'espérance du coût du traitement de la requête. Dans le sixième chapitre, nous présentons l'état de l'art de la seconde partie et dans le septième chapitre, nous étudions le problème pour les requêtes exprimées sous forme normale disjonctive. Nous considérons le cas plus général où chaque flux peut apparaître dans plusieurs prédicats et nous étudions deux modèles, le modèle où chaque prédicat peut accéder à un seul flux et le modèle où chaque prédicat peut accéder à plusieurs flux
In this thesis, we are interested in scheduling and optimization problems in probabilistic contexts. The contributions of this thesis come in two parts. The first part is dedicated to the optimization of different fault-Tolerance mechanisms for very large scale machines that are subject to a probability of failure and the second part is devoted to the optimization of the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. In the first chapter, we present the related work of the first part and then we introduce some new general results that are useful for resilience on exascale systems.In the second chapter, we study a unified model for several well-Known checkpoint/restart protocols. The proposed model is generic enough to encompass both extremes of the checkpoint/restart space, from coordinated approaches to a variety of uncoordinated checkpoint strategies. We propose a detailed analysis of several scenarios, including some of the most powerful currently available HPC platforms, as well as anticipated exascale designs.In the third, fourth, and fifth chapters, we study the combination of different fault tolerant mechanisms (replication, fault prediction and detection of silent errors) with the traditional checkpoint/restart mechanism. We evaluated several models using simulations. Our results show that these models are useful for a set of models of applications in the context of future exascale systems.In the second part of the thesis, we study the problem of minimizing the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. The problem is to determine the order in which predicates should be evaluated so as to shortcut part of the query evaluation and minimize the expected cost.In the sixth chapter, we present the related work of the second part and in the seventh chapter, we study the problem for queries expressed as a disjunctive normal form. We consider the more general case where each data stream can appear in multiple predicates and we consider two models, the model where each predicate can access a single stream and the model where each predicate can access multiple streams
25

Kamali, Nejad Mojtaba. "Propositions de résolution numérique des problèmes d'analyse de tolérance en fabrication : approche 3D." Phd thesis, Grenoble 1, 2009. http://tel.archives-ouvertes.fr/tel-00445639.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail contribue à développer des méthodes de résolution associées à la méthode de simulation MMP (Model of Manufactured Part) développée par F.Vignat et F.Villeneuve. Le MMP est un modèle générique 3D des défauts géométriques engendrés sur les pièces fabriquées par un processus de fabrication donné. Ce modèle permet de générer un ensemble de pièces virtuellement fabriquées incluant les incertitudes de fabrication et permet par conséquent de mener l'analyse de tolérances fonctionnelles. Les méthodes de résolution développées autour du MMP permettent aux ingénieurs de fabrication d'évaluer une gamme de fabrication candidate du point de vue géométrique. Le développement des méthodes de résolution s'est effectué selon 2 axes. Le premier axe consiste à développer des méthodes pour la recherche du pire des cas (WCTA). La première approche de cet axe utilise des méthodes d'optimisation (SQP pour Sequential Quadratic Programming et GA pour les algorithmes génétiques) basées sur la recherche du pire des cas. La recherche du pire des cas consiste en un algorithme d'optimisation multicouche comportant deux boucles principales. La deuxième approche de cet axe consiste à faire une adaptation de la méthode du torseur des petits déplacements avec intervalle (modèle Jacobien Torseur développé au Canada) à la méthode MMP. Le deuxième axe concerne les méthodes stochastiques permettant une simulation de production d'un ensemble de pièces et l'analyse des résultats d'un point de vue statistique. La méthode stochastique est basée sur une méthode de tirage aléatoire sous contraintes. Les différentes approches sont finalement comparées entre elles.
26

Safadi, El Abed El. "Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT059/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci
When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed
27

Bounceur, Ahcène. "Plateforme CAO pour le test de circuits mixtes." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La complexité croissante des puces microélectroniques pose de très importants problèmes de test, avec des coûts en forte augmentation dus principalement à l'utilisation d'équipements de test très sophistiqués et à des temps de test trop long. Ceci est particulièrement vrai dans le cas des puces mixtes, intégrant simultanément des parties numériques ainsi que des parties analogiques, mixtes ou RF. De nombreuses recherches sont en cours dans le domaine du test de circuits mixtes. Ces recherches concernent des techniques permettant l'optimisation du test lors de la production ou lors de l'utilisation des puces dans leur application finale (test en ligne ou hors ligne). Certaines de ces techniques permettent d'ajouter des circuits additionnels dans la puce pour faciliter le test (conception en vue du test) et même réaliser un auto-test. Cependant, elles doivent être évaluées lors de la conception afin d'estimer la qualité des tests proposés et évaluer les avantages économiques obtenus. Ceci nécessite l'utilisation d'outils de CAO orientés au test (CAT) qui se font rares et généralement non commercialisés en raison de leur nature académique, ce qui limite leur application, ainsi, leur utilisation. Dans le cadre de cette thèse, nous avons développé une plateforme de CAT permettant de valider les techniques de test analogique, incluant des outils de modélisation, d'injection et de simulation de fautes ainsi que des outils de génération et d'optimisation de vecteurs de test analogiques. Une nouvelle méthode statistique a été proposée afin d'évaluer la qualité d'une technique de test lors de la phase design. Cette technique permet de fixer les limites des critères de test considérés. Ensuite, les différentes métriques de test (telles que la Couverture de fautes, le Taux de défauts ou la Perte de Rendement) sont évaluées sous la présence de fautes paramétriques ou catastrophiques. Des tests spécifiques à la détection de fautes peuvent être ajoutés pour augmenter la Couverture de fautes. Cette plateforme de CAT est intégrée dans l'environnement de conception microélectronique Cadence
The growing complexity of modern chips poses challenging test problems due to the requirement for specialized test equipment and the involved lengthy test times. This is particularly true for heterogeneous chips that comprise digital, analogue, and RF blocks onto the same substrate. Many research efforts are currently under way in the mixed-signal test domain. Theses efforts concern optimization of tests at the production stage (e. G. Off-line) or during the lifetime of the chip (on-line test). A promising research direction is the integration of additional circuitry on-chip, aiming to facilitate the test application (Design For Test) and/or to perform Built-In-Self-Test. The efficiency of such test techniques, both in terms of test accuracy and test cost, must be assessed during the design stage. However, there is an alarming lack of CAT tools, which are necessary, in order to facilitate the study of these techniques and, thereby, expedite their transfer into a production setting. In this thesis, we develop a CAT platform that can be used for the validation of analogue test techniques. The platform includes tools for fault modeling, injection and simulation, as well as tools for analogue test vector generation and optimization. A new statistical method is proposed and integrated into the platform, in order to assess the quality of test techniques during the design stage. This method aims to set the limits of the considered test criteria. Then, the different test metrics (as Fault coverage, Defect level or Yield loss) are evaluated under the presence of parametric and catastrophic faults. Some specific tests can be added to improve the structural fault coverage. The CAT platform is integrated in the Cadence design framework environment
28

Schweitzer, Alexis. "Amélioration du niveau de sécurité des systèmes électroniques programmables par application du concept d'analyse de signature." Nancy 1, 1987. http://www.theses.fr/1987NAN10034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Mise en oeuvre d'un analyseur de signature en ligne destiné à la sécurité des systèmes électroniques programmables. Présentation d'une méthodologie générale pour une utilisation optimale du modèle analyseur
29

Elghazel, Wiem. "Wireless sensor networks for Industrial health assessment based on a random forest approach." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2055/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une maintenance prédictive efficace se base essentiellement sur la fiabilité des données de surveillance.Dans certains cas, la surveillance des systèmes industriels ne peut pas être assurée à l’aide de capteurs individuels ou filaires. Les Réseaux de Capteurs Sans Fil (RCSF) sont alors une alternative. Vu la nature de communication dans ces réseaux, la perte de données est très probable. Nous proposons un algorithme distribué pour la survie des données dans le réseau. Cet algorithme réduit le risque d’une perte totale des paquets de données et assure la continuité du fonctionnement du réseau. Nous avons aussi simulé de différentes topologies du réseau pour évaluer leur impact sur la complétude des données au niveau du nœud puits. Par la suite, nous avons proposé une démarche d’évaluation de l’état de santé de systèmes physiques basée sur l’algorithme des forêts aléatoires. Cette démarche repose sur deux phases : une phase hors ligne et une phase en ligne. Dans la phase hors ligne, l’algorithme des forêts aléatoires sélectionne les paramètres qui contiennent le plus d’information sur l’état du système. Ces paramètres sont utilisés pour construire les arbres décisionnels qui constituent la forêt. Dans la phase en ligne, l’algorithme évalue l’état actuel du système en utilisant les données capteurs pour parcourir les arbres construits. Chaque arbre dans la forêt fournit une décision, et la classe finale est le résultat d’un vote majoritaire sur l’ensemble de la forêt. Quand les capteurs commencent à tomber en panne, les données décrivant un indicateur de santé deviennent incomplètes ou perdues. En injectant de l’aléatoire dans la base d’apprentissage, l’algorithme aura des points de départ différents, et par la suite les arbres aussi. Ainsi, l’absence des mesures d’un indicateur de santé ne conduit pas nécessairement à l’interruption du processus de prédiction de l’état de santé
An efficient predictive maintenance is based on the reliability of the monitoring data. In some cases, themonitoring activity cannot be ensured with individual or wired sensors. Wireless sensor networks (WSN) arethen an alternative. Considering the wireless communication, data loss becomes highly probable. Therefore,we study certain aspects of WSN reliability. We propose a distributed algorithm for network resiliency and datasurvival while optimizing energy consumption. This fault tolerant algorithm reduces the risks of data loss andensures the continuity of data transfer. We also simulated different network topologies in order to evaluate theirimpact on data completeness at the sink level. Thereafter, we propose an approach to evaluate the system’sstate of health using the random forests algorithm. In an offline phase, the random forest algorithm selects theparameters holding more information about the system’s health state. These parameters are used to constructthe decision trees that make the forest. By injecting the random aspect in the training set, the algorithm (thetrees) will have different starting points. In an online phase, the algorithm evaluates the current health stateusing the sensor data. Each tree will provide a decision, and the final class is the result of the majority voteof all trees. When sensors start to break down, the data describing a health indicator becomes incompleteor unavailable. Considering that the trees have different starting points, the absence of some data will notnecessarily result in the interruption of the prediction process
30

Diouri, Mohammed El Mehdi. "Efficacité énergétique dans le calcul très haute performance : application à la tolérance aux pannes et à la diffusion de données." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00881094.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les infrastructures de calcul très haute performance ont connu une croissance rapide en particulier ces dernières années. Cette croissance a toujours été motivée par les besoins accrus en puissance de calcul qu'expriment les scientifiques dans divers domaines. Cependant, ces systèmes devenus de plus en plus larges constituent de gros consommateurs d'électricité et consomment déjà plusieurs mégawatts. Afin de consommer ''moins'' et ''mieux'', nous avons proposé un environnement logiciel qui d'une part, permet de choisir avant de pré-exécuter l'application, les versions de services applicatifs consommant le moins d'énergie, et qui d'autre part, repose sur une grille électrique intelligente pour planifier les réservations des ressources de calcul de ces infrastructures. Cet environnement, appelé SESAMES, a été adapté à deux services applicatifs indispensables au calcul très haute performance : la tolérance aux pannes et la diffusion de données. Des validations expérimentales ont montré que l'on peut réduire la consommation énergétique de chacun des deux services étudiés en s'appuyant sur les estimations énergétiques précises fournies par SESAMES pour n'importe quel contexte d'exécution et pour n'importe quelle plate-forme dotée de wattmètres. Notre méthodologie d'estimation repose sur une description du contexte d'exécution et sur une calibration de la plate-forme d'exécution basée sur la collecte de mesures énergétiques. Des simulations ont démontré que l'ordonnanceur multi-critères des réservations de ressources proposé dans SESAMES, permet de réduire à la fois la consommation énergétique, le coût financier et l'impact environnemental de ces réservations, tout en respectant les contraintes imposées par l'utilisateur et le fournisseur d'énergie.
31

HADJIAT, K. "EVALUATION PREDICTIVE DE LA SURETE DE FONCTIONNEMENT D'UN CIRCUIT INTEGRE NUMERIQUE." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00009485.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La probabilité des fautes transitoires augmente avec l'évolution des technologies. Ceci a suscité un intérêt croissant pour les méthodes prédictives d'analyse des comportements erronés d'un circuit. Ce travail porte sur l'étude de deux aspects complémentaires : l'injection de fautes dans des circuits décrits au niveau RTL et l'analyse des résultats obtenus à l'issue de campagnes d'injection.
Nous présentons une nouvelle approche pour la génération de mutants, permettant l'instrumentation d'un circuit pour des modèles de fautes hétérogènes. Pendant la définition d'une campagne d'injection de fautes, le flot d'analyse que nous avons proposé permet au concepteur d'introduire, dans le même circuit, des inversions de bits uniques (SEU) ou multiples (MBF), ou encore des transitions erronées. En outre, nous avons visé une génération de mutant la plus efficace selon plusieurs contraintes qui incluent (1) la modification simple et automatique de la description initiale du circuit, (2) l'optimisation des entrées additionnelles pour le contrôle d'injection et (3) la réduction du surcoût matériel après synthèse pour une bonne compatibilité avec des campagnes d'injection de fautes basées sur l'émulation.
Dans le flot d'analyse, un modèle comportemental est généré permettant au concepteur d'identifier les chemins de propagation d'erreurs dans le circuit. Une telle analyse vise à identifier, très tôt dans le flot de conception, les modes de défaillance inacceptables d'un circuit afin de modifier immédiatement sa description et ainsi améliorer sa robustesse.
Nous présentons des résultats obtenus suite à des injections multi niveaux dans des descriptions VHDL de circuits numériques. Ces résultats démontrent qu'une campagne d'injection réalisée très tôt dans le processus de conception, sur une description encore très éloignée de l'implémentation finale, peut donner des informations très utiles sur les caractéristiques de sûreté d'un circuit.

До бібліографії