To see the other types of publications on this topic, follow the link: Méthodes de test.

Dissertations / Theses on the topic 'Méthodes de test'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes de test.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Baschiera, Daniel. "Modélisation de pannes et méthodes de test de circuits intégrés CMOS." Phd thesis, Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00320020.

Full text
Abstract:
Étude pour des circuits VLSI sur substrat de silicium. Les modèles de pannes développés pour la technologie NMOS ne sont plus adaptes à la vérification des pannes en technologie CMOS. On examine les pannes de type déclenchement parasite, court-circuit, blocage sur et blocage ouvert. Pour chacune de ces pannes un modèle est défini et on détermine les méthodes de vérification correspondantes. Les principaux comportements étudies sont la transformation d'un circuit logique en analogique et la transformation d'un circuit combinatoire en un circuit séquentiel. On démontre un ensemble de lemmes et théorèmes de base pour la vérification des pannes en technologie CMOS. Ces théorèmes étendent à la vérification du blocage ouvert CMOS les résultats formules pour la vérification des collages logiques dans les réseaux. Certains de ces théorèmes impliquent une conception adaptée pour faciliter la vérification. Réduction des séquences de vérification et vérification simultanée.
APA, Harvard, Vancouver, ISO, and other styles
2

Fagot, Christophe. "Méthodes et algorithmes pour le test intégré de circuits VLSI combinatoires." Montpellier 2, 2000. http://www.theses.fr/2000MON20003.

Full text
Abstract:
Le travail presente dans cette these porte sur la recherche de structures efficaces pour le test integre de circuits vlsi combinatoires. La qualite d'une structure de test integre se juge sur le temps de test qu'elle implique, la surface de silicium qu'elle occupe, et le nombre de fautes qu'elle permet de detecter. Tout d'abord, nous presentons une methode qui permet d'initialiser un generateur de vecteurs afin que la sequence qu'il produit permette soit de faire apparaitre avec le moins d'erreurs possible un ensemble de vecteurs donnes, soit de detecter le plus de fautes possible. Nous presentons ensuite une structure de correction des vecteurs produits par ce generateur. Cette structure est un ensemble de masques utilises cycliquement pour modifier les valeurs des bits de ces vecteurs. Des algorithmes gloutons de construction d'une telle structure sont enfin proposes.
APA, Harvard, Vancouver, ISO, and other styles
3

Hariri, Yassine. "Étude de faisabilité d'une méthodologie de test exploitant le test par le courant IDDQ, et l'intéraction d'autres méthodes de test de diagnostic." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/113/1/HARIRI_Yassine.pdf.

Full text
Abstract:
Cette thèse porte globalement sur l'élaboration d'une méthodologie permettant d'améliorer le test des circuits intégrés (CI), et ce, en utilisant des concepts propres au diagnostic et en se basant sur l'interacfion des méthodes de test existantes. Le premier objectif de cette thèse est la généralisation plus poussée de la méthode de diagnostic basée sur les signatures probabilistes du courant AIDDQ, et ce, à plusieurs niveaux. D'une part, nous avons développé plusieurs modèles de pannes de courts-circuits incluant la totalité des types de portes logiques de la technologie CMOS 0.35|xm. D'autre part, nous avons amélioré la technique de réduction des sites physiques de courts-circuits; nous parlons de celle basée sur les résultats des sorties erronées du circuit sous test obtenus à l'aide de son émulation (ou son test). Cette technique supportait des circuits purement combinatoires. L'améliorafion apportée permet maintenant d'ufiliser cette technique sur des circuits séquentiels. Nous avons également présenté les derniers résultats de réduction des sites de court-circuit, et ce. en se basant sur les signatures AIDDQ, les capacités parasites de routage extraites du dessin des masques et les erreurs logiques observées à la sortie du circuit, et ce, pour les technologies 0.35|a.m et 90nm. La combinaison de ces trois techniques réduit significativement le nombre de sites de courts-circuits à considérer dans le diagnostic. Les résultats de simulation confirment que le nombre de sites de court-circuit est réduit de O(N') à 0(N), où N est le nombre de noeuds dans le circuit. Du coté de l'outil logiciel permettant l'émulation de la méthode de diagnostic proposée, nous avons complété sa conception, et nous avons défini les conditions permettant son ufilisafion dans un environnement de test en temps réel. Le deuxième objectif de cette thèse est l'introduction d'une nouvelle stratégie d'optimisation pour le test adaptatif de haute qualité. La stratégie proposée permet dans un premier temps de couvrir les pannes qui habituellement ne causent pas une consommation anormale du courant IDDQ avec le minimum de vecteurs possibles qui sont appliqués à tous les circuits; et dans un deuxième temps, propose deux pistes de traitement pour les pannes qui habituellement causent une élévation du courant IDDQ- Le traitement a priori (prévision) est basé sur l'ajout d'autres vecteurs de test pour couvrir les sites non couverts par les tests logiques ou de délais. Le traitement a posteriori (guérison) est basé sur un diagnostic rapide sur les sites non couverts. Nous faisons appel à la méthode de diagnostic proposée avec quelques modifications. Ce traitement correspond à une stratégie d'optimisation visant à n'appliquer les vecteurs supplémentaires que sur les CI montrant des symptômes particuliers
APA, Harvard, Vancouver, ISO, and other styles
4

Leroux, (zinovieva) Elena. "Méthodes symboliques pour la génération de tests desystèmes réactifs comportant des données." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00142441.

Full text
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans le développement de tels systèmes. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérier si les comportements d'un système sous test sont corrects par rapport à sa spécication. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de test se sont développés. Dans ces théories et algorithmes, les spécications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système
de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels
cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitement toutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
APA, Harvard, Vancouver, ISO, and other styles
5

Qin, Yilong. "SPICE benchmark pour méthodes tomographiques globaux et test des modèles tomographiques globaux." Paris, Institut de physique du globe, 2007. http://www.theses.fr/2007GLOB0016.

Full text
Abstract:
Au cours des deux dernières décennies, de nombreux modèles de vitesse globaux ont été obtenus en utilisant différents types des mesures sismologiques (temps de parcours des ondes volumiques, vitesse de phase des ondes de surface et forme d'onde) et différentes hypothèse théoriques (isotropie, anisotropie et anélasticite��). Selon le choix de l'algorithme d'inversion, la régularisation, la paramétrisation et le type de données, les modèles tomographiques sont généralement différents. Parallèlement, de nouvelles méthodes tomographiques de type fréquence finies ont été développes. Dans le cadre de cette thèse, nous avons réalise le banc d'essai (Blind test en anglais) pour méthodes tomographiques globaux. Et nous avons aussi vérifié les modèles tomographiques globaux existants
Over the last two decades, a lot of global-scale or regional-scale seismic models of the Earth's interiors have been constructed from different types of seismological measurements (body-wave traveltime, surface-wave phase velocity or full waveforms) and with different theoretical assumptions of seismic wave propagation (ray theory, Born approximation or wave equation) and with different inversion techniques (iterative least-square inversion, Monte-Carlo or Neighborhood algorithm) and different parameterizations (spherical harmonics up to a variable degree or blocks or adaptive triangles). Generally these different tomographic methods generate different tomographic models. To calibrate these different tomographic methods and test these different tomographic models, we decided to perform a global-scale benchmark for seismic tomography and test different global-scale tomographic models. So this thesis is divided into two parts
APA, Harvard, Vancouver, ISO, and other styles
6

Legrand, Claire. "Méthodes d'étude de la tolérance oculaire "in vivo" et "in vitro"." Paris 5, 1992. http://www.theses.fr/1992PA05P079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sicard, Pascal. "Nouvelles méthodes de synthèse logique." Phd thesis, Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00327269.

Full text
Abstract:
Recherche de nouvelles méthodes de synthèse logique sur différentes cibles technologiques: PLA détaillé libre et PLD de type PAL. Une méthode originale de minimisation deux couches d'un ensemble de fonctions booléennes sur une cible de type PLA libre est étudiée. Une méthode de synthèse sur les réseaux programmables de type PAL, dont les dimensions et les structures sont figées, est aussi proposée
APA, Harvard, Vancouver, ISO, and other styles
8

Zinovieva-Leroux, Eléna. "Méthodes symboliques pour la génération de tests de systèmes réactifs comportant des données." Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00142441.

Full text
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans ledéveloppement de tels système. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérifier si les comportements d'un système sous test sont corrects par rapport à sa spécification. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de testse sont développées. Dans ces théories et algorithmes, les spécifications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitementtoutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
APA, Harvard, Vancouver, ISO, and other styles
9

Fromont, Magalie. "Quelques problèmes de sélection de modèles : construction de tests adaptatifs, ajustement de pénalités par des méthodes de bootstrap." Paris 11, 2003. http://www.theses.fr/2003PA112276.

Full text
Abstract:
L'approche non asymptotique de la sélection de modèles par pénalisation initialement proposée par Birgé et Magsart pour l'estimation adaptative a pu s'appliquer à de nombreux problèmes statistiques. Cette thèse, consacrée à la construction de tests adaptatifs et de règles de classification dans des cadres non paramétriques, s'inscrit précisément dans cette lignée. Dans une première partie, nous considérons le cadre d'un modèle de densité, où la densité s est supposée appartenir à L2(R). Nous proposons des tests d'adéquation de s à une densité donnée ou à une famille de translation/échelle. Nous décrivons des classes d'alternatives pour lesquelles ces tests ont une puissance prescrite, puis nous montrons qu'ils sont adaptatifs au sens du minimax (à un éventuel facteur logarithmique près) sur des classes de Holder ou des boules de Besov. Une deuxième partie, motivée par une application en vibrométrie laser, traite du problème de la détection d'un signal périodique dans le cadre d'un modèle de régression gaussienne de design régulier. Après une étude des vitesses de séparation minimax sur des boules de l'espace de Sobolev périodique à variance connue, nous présentons un test valable à période et variance inconnues et adaptatif (à un facteur logarithmique près) sur ces boules de Sobolev. Dans une troisième partie, nous envisageons le cadre plus atypique de la classification binaire. Nous construisons de nouvelles règles de classification par minimisation d'un critère défini comme la somme de l'erreur de classification empirique et d'un terme de pénalité basé sur des échantillons bootstrap des observations. Ces règles vérifient des inégalités de type "oracle" et atteignent le risque minimax global sur les classes de Vapnik-Chervonenkis. Les méthodes développées dans cette thèse s'inspirent de la théorie des processus empiriques. Chaque résultat théorique avancé est par ailleurs illustré par une étude expérimentale
The nonasymptotic approach to model selection by penalization for adaptive estimation, as initially proposed by Birgé and Massart, has been adapted to numerous statistical problems. This thesis, which is devoted to the construction of adaptive tests and classification rules in nonparametric frameworks, further developes this line of research. In the first section, we consider a density model, where the density s is assumed to belong to L2(R). We propose some goodness-of-fit tests of hypotheses such as "s equals some given density" or "s belongs to some translation/scale family". We describe classes of alternatives over which these tests have a prescribed power. Then we prove that they are adaptive in the minimax sense (up to a possible logarithmic factor) over Hölder classes or Besov balls. The second section, motivated by an application to laser vibrometry, deals with the problem of periodic signal detection in a Gaussian fixed design regression model. After studying the minimax separation rates over some periodic Sobolev balls when the variance is known, we present a testing procedure available when the variance and the period are unknown, and adaptive (up to a logarithmic factor) over the considered Sobolev balls. In the third section, we consider the binary classification framework. We build new classification rules by minimizing the sum of the empirical classification error and a penalty term based on bootstrap samples of the observations. The obtained rules satisfy "oracle" type inequalities and achieve the global minimax risk over Vapnik-Chervonenkis classes. The methods developed in this thesis are inspired by the empirical processes theory. Each theoretical result is furthermore illustrated by an experimental study
APA, Harvard, Vancouver, ISO, and other styles
10

Beurton, Alexandra. "Prédiction de la réponse à l’expansion volémique : Nouvelles limites, nouvelles méthodes." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS468/document.

Full text
Abstract:
L’expansion volémique est le traitement de première intention de l’insuffisance circulatoire aiguë dans presque tous les cas. Cependant, son efficacité très inconstante et ses effets secondaires incitent à en prédire les effets avant de l’entreprendre. Plusieurs tests ont été développés pour détecter cet état de précharge dépendance, et nous nous sommes intéressés au perfectionnement de certains d’entre eux et à la description de leurs limites.Le test de passive leg raising (PLR) repose sur le transfert de sang veineux depuis le territoire veineux splanchnique et les membres inférieurs vers le thorax. Nous avons démontré qu’en cas d’hypertension intra-abdominale, la valeur diagnostique du test était plus faible, avec l’apparition de nombreux cas de faux négatifs. Cette limite du PLR test est importante en raison de la prévalence de l’hypertension intra-abdominale chez les patients de soins intensifs.Les effets de ce test doivent être appréciés sur le débit cardiaque, et plusieurs méthodes ont déjà été décrites pour cela. Nous avons d’abord pu montrer que celle qui consiste à mesurer les effets du test sur les débits artériels carotidien et fémoral n’était pas fiable, avec une très mauvaise corrélation entre les changements de débit cardiaque et ceux de ces deux débits artériels. En revanche, nous avons décrit une méthode originale et fiable pour mesurer les effets du test, qui consiste en la mesure de l’indice de perfusion (IP), rapport entre la portion pulsatile et non pulsatile du signal de saturation pulsée en oxygène. Même si le signal ne pouvait pas être recueilli de façon stable chez tous les patients, les changements de cet indice lors du PLR permettaient de mesurer ses effets et de détecter la précharge dépendance. Ces résultats ouvrent la possibilité de mesurer les effets du test grâce à un outil non-invasif et pouvant être utilisé chez tous les patients en réanimation et au bloc opératoire.Enfin, nous avons appliqué la mesure de l’IP à un autre test détectant la précharge dépendance, le test d’occlusion télé-expiratoire. Il consiste à interrompre la ventilation mécanique pendant quelques secondes et à observer les changements simultanés du débit cardiaque. Même s’ils sont de plus faible amplitude que ceux induits par le PLR, ces changements étaient correctement suivis par les modifications de l’IP et ils détectaient de façon fiable la précharge dépendance
Volume expansion is the first-line treatment of acute circulatory failure in almost all cases. However, its inconsistent effectiveness and side effects encourage to predict its effects before undertaking it. Several tests have been developed to detect preload responsiveness and we have sought to improve some of them and describe their limits.The passive leg raising (PLR) test is based on the transfer of some venous blood from the venous compartment of the splanchnic compartment and the lower limbs toward the thorax. We have shown that, in case of intra-abdominal hypertension, the diagnostic value of the test was lower, with many cases false negatives cases. This limitation of the PLR test is of importance because of the prevalence of intra-abdominal hypertension in critically ill patients.The effects of this test should be evaluated on cardiac output, and several methods have already been described for this evaluation. First, we have shown that measuring the effects of the test on carotid and femoral arterial flows was unreliable, with a very poor correlation between changes in cardiac output and those in these two arterial flows. Second, we have described an original and reliable method for measuring the effects of the test, which consists in measuring the perfusion index (PI), the ratio between the pulsatile and non-pulsatile portions of the pulse oximetry signal. Although a stable signal could not be obtained in all patients, changes in this index during PLR allowed the measurement of its effects and the detection of preload responsiveness. These results open up the possibility of measuring the effects of the test with a non-invasive tool that can be used in all patients in the intensive care unit and the operating room.Finally, we applied the PI measurement to another test of preload responsiveness, the end-expiratory occlusion test. It consists in interrupting mechanical ventilation for a few seconds and observing simultaneous changes in cardiac output. Although the changes are smaller than those induced by PLR, these changes were well tracked by PI changes and reliably detected preload dependence
APA, Harvard, Vancouver, ISO, and other styles
11

Rigaud, Fabrice. "Etude et conception des structures de test et méthodes d'analyse pour les technologies CMOS." Aix-Marseille 1, 2010. http://www.theses.fr/2010AIX1A083.

Full text
Abstract:
Dans la course à la réduction des tailles de transistor, il devient de plus en plus difficile d'obtenir de bons rendements. Le but de cette thèse est de proposer des outils pour accélérer la montée en rendement des technologies CMOS. Ces outils passent par la conception de structures de test, associées à des méthodes de test et d'analyse de résultat. Trois types de structure sont ainsi étudiés : des TEG logiques, une macro-cellule de test et une TEG hybride. Les TEG logiques étudiées sont composées de chaines d'inverseurs et permettent ainsi de détecter les défauts et les variations du procédé de fabrication. La macro-cellule de test étudiée comporte un plan mémoire SRAM qui est capable d'osciller. Le mode mémoire SRAM permet de détecter et de localiser des défauts présents sur le plan mémoire. Le mode oscillation permet, grâce à différentes configurations d'interconnections des points mémoire, de caractériser les variations du procédé de fabrication. La dernière structure proposée est une TEG hybride composée de plusieurs oscillateurs en anneau avec différentes configurations de layout. Un bloc numérique est également implémenté, permettant de mesurer des fréquences d'oscillations jusqu'à 1,5GHz et de les restituer sur une sortie numérique. Une méthodologie d'analyse est alors développée dans le but d'obtenir les valeurs de paramètres préalablement choisis en fonction des fréquences d'oscillation. La méthode est dans un premier temps validée par simulation. Puis quelques plaquettes embarquant la TEG sont testées. Le test montre que l' apprentissage réalisé par simulation doit être reproduit sur silicium pour obtenir les résultats attendus
Because of the constant transistors size reduction, it becomes more and more difficult to obtain good yields. The aim of this work is to propose tools to speed up the yield ramp up of CMOS technologies. These tools consist of test circuit design, combined with test and analysis methods. Three kinds of test structure are analyzed in this work: logic TEG, a test macro-cell and a hybrid TEG. The analyzed logic TEG are compound of inverter chains and allow to detect defects and process variations. Defects can also be localized in order to ease their analysis. The test macro-ceIl studied contains an "oscillating" SRAM memory array which is able to oscillate. The SRAM mode allows detecting and localizing of defects present on the memory array. In comparison with logic TEG, the probability to catch defects is more important thanks to the structure size. The oscillating mode allows, thanks to different interconnection configurations of memory cells, to characterize process variations. The last proposed structure is a hybrid TEG which consists of several ring oscillators with different layout configurations. A numeric bloc is also embedded, allowing to measure oscillating frequencies up to 1. 5GHz and to restitute them on a numeric output. An analysis method is then developed in order to retrieve values of parameters previously chosen as a function of oscilIating frequencies. Ln a fust time, the method is validated by simulation. Then, some wafers with the TEG embedded on are tested. The test shows tbat the learning performed by simulation has to be executed on silicon to obtain expected results
APA, Harvard, Vancouver, ISO, and other styles
12

Rekik, Ahmed. "Méthodes alternatives pour le test et la calibration de MEMS : application à un accéléromètre convectif." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20091/document.

Full text
Abstract:
Le test et la calibration des MEMS sont des enjeux complexes à cause de leur nature multi-domaines. Ils nécessitent l'application de stimuli physiques, en utilisant des équipements de test coûteux, afin de tester et de calibrer leurs spécifications. L'objectif de cette thèse est de développer des méthodes alternatives et purement électriques pour tester et calibrer un accéléromètre MEMS convectif. Premièrement, un modèle comportemental du capteur est développé et validé en se basant sur des simulations FEM. Il inclut l'influence de tous les paramètres géométriques sur la sensibilité du capteur. Deuxièmement, le modèle est utilisé pour simuler des fautes dans le but d'identifier la corrélation qui peut exister entre la sensibilité du capteur à l'accélération et certains paramètres électriques. Troisièmement, cette corrélation est exploitée pour développer des méthodes de test et de calibration alternatives où la sensibilité est estimée en effectuant uniquement des mesures électriques et sans appliquer de stimuli physiques (accélérations). L'efficacité de ces méthodes est ainsi démontrée. Finalement, deux architectures permettant l'auto-test et l'auto-calibration sur puce sont proposées
MEMS test and calibration are challenging issues due to the multi-domain nature of MEMS devices. They therefore require the application of physical stimuli, using expensive test equipments, to test and to calibrate their specifications. The main objective of this thesis is to develop alternative electrical-only test and calibration procedures for MEMS convective accelerometers.First, a behavioral model that includes the influence of sensor geometrical parameters on sensitivity is developed and validated with respect to FEM simulations. Second, the model is used to perform fault simulations and to identify correlation that may exist between device sensitivity to acceleration and some electrical parameters. Third, this correlation is exploited to develop alternative test and calibration methods where the sensitivity is estimated using only electrical measurements and without applying any physical stimulus (acceleration). The efficiency of these methods is demonstrated. Finally, two architectures that allow on-chip test and calibration are proposed
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Roy Pascale. "Méthodes de détection de gènes majeurs : application aux animaux domestiques." Paris 11, 1989. http://www.theses.fr/1989PA112146.

Full text
Abstract:
Des tests statistiques ont été proposés pour mettre en évidence des gènes à effet majeur à partir de données recueillies sur des populations non expérimentales, notamment sur des populations humaines. Ces méthodes sont comparées sur le plan de leurs qualités statistiques (puissance, niveau, robustesse) et de leur facilité d'utilisation (temps de calcul). Des adaptations sont proposées pour l'étude des populations d'animaux domestiques. Les comparaisons sont réalisées à l'aide de simulations à grande échelle des distributions des statistiques de test sous différentes hypothèses relatives à la présence et à la qualité du gène à effet majeur. Les méthodes sont regroupées en trois catégories : méthodes rapides pouvant servir d'indicateurs de la présence d'un gène majeur, analyse de ségrégation, analyse de pedigrees complexes. Tous ces tests sont appliqués à différentes mesures concernant deux lignées mâles synthétiques de porcs et un troupeau expérimental de chèvres. Les résultats indiquent la ségrégation de gènes à effet majeur sur la qualité technologique de la viande et le taux de muscle des porcs, ainsi que sur le débit de traite des chèvres
Statistical tests have been proposed for identification of major genes from data collected in non-experimental populations, in particular in human populations. These methods are compared on their statistical properties (power, level, robustness) and their speed (computation time). Adaptations are proposed for livestock studies. The comparisons are realised using large scale simulations of the test statistics distributions under different hypotheses concerning existence and characteristics of the major gene. The methods are classified in three groups: fast methods used as indicators of major gene segregation, segregation analysis, and analysis of complex pedigrees. All these tests are applied to different data sets concerning two male composite lines of pigs and an experimental flock of goats. The results show segregation of major genes on technological pork quality and lean percentage of pigs, as well as on milk flow of goats
APA, Harvard, Vancouver, ISO, and other styles
14

Pienkowski, Catherine. "Etude des diffèrentes méthodes d'exploration somatotrope dans 257 cas de retard statural : tests pharmacologiques, sécrétion nycthémérale, test GHRH, somatomédine C." Toulouse 3, 1988. http://www.theses.fr/1988TOU31260.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Lauer, Peccoud Marie-Reine. "Méthodes statistiques pour le controle de qualité en présence d'erreurs de mesure." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997NICE5136.

Full text
Abstract:
Lorsqu'on cherche a controler la qualite d'un ensemble de pieces a partir de mesures bruitees des grandeurs d'une caracteristique de ces pieces, on peut commettre des erreurs de decision nuisibles a la qualite. Il est donc essentiel de maitriser les risques encourus afin d'assurer la qualite finale de la fourniture. Nous considerons qu'une piece est defectueuse ou non selon que la grandeur g correspondante de la caracteristique est superieure ou inferieure a une valeur g#o donnee. Nous supposons que, compte tenu de l'infidelite de l'instrument de mesure, la mesure m obtenue de cette grandeur est de la forme f(g) + ou f est une fonction croissante telle que la valeur f(g#o) est connue et est une erreur aleatoire centree de variance donnee. Nous examinons d'abord le probleme de la fixation d'une mesure de rejet m de maniere a ce que, pour le tri d'un lot de pieces consistant a accepter ou rejeter chacune selon que la mesure associee est inferieure ou superieure a m, un objectif donne de qualite du lot apres tri soit respecte. Nous envisageons ensuite le probleme de test de la qualite globale d'un lot au vu de mesures pour un echantillon de pieces extrait du lot. Pour ces deux types de problemes, avec differents objectifs de qualite, nous proposons des solutions en privilegiant le cas ou la fonction f est affine et ou l'erreur et la variable g sont gaussiennes. Des resultats de simulations permettent d'apprecier les performances des procedures de controle definies et leur robustesse a des ecarts aux hypotheses utilisees dans les developpements theoriques.
APA, Harvard, Vancouver, ISO, and other styles
16

Ba, Papa-Sidy. "Détection et prévention de Cheval de Troie Matériel (CTM) par des méthodes Orientées Test Logique." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT271/document.

Full text
Abstract:
Pour réduire le coût des Circuits Intégrés (CIs), les entreprises de conception se tournent de plus en plus vers des fonderies basées dans des pays à faible coût de production (outsourcing). Cela a pour effet d’augmenter les menaces sur les circuits. En effet, pendant la fabrication,le CI peut être altéré avec l’insertion d’un circuit malicieux, appelé cheval de Troie Matériel (CTM). Ceci amène les vendeurs de CI à protéger leurs produits d’une potentielle insertion d’un CTM, mais également, d’en assurer l’authenticité après fabrication (pendant la phase de test).Cependant, les CTMs étant furtifs par nature, il est très difficile, voire impossible de les détecter avec les méthodes de test conventionnel, et encore moins avec des vecteurs de test aléatoires. C’est pourquoi nous proposons dans le cadre de cette thèse, des méthodes permettant de détecter et de prévenir l’insertion de CTM dans les CIs pendant leur fabrication.Ces méthodes utilisent des approches orientées test logique pour la détection de CTM aussi bien en phase de test (après fabrication du CI) qu’en fonctionnement normal (run-time).De plus, nous proposons des méthodes de prévention qui elles aussi s’appuient sur des principes de test logique pour rendre difficile, voire impossible l’insertion de CTM aussi bien au niveau netlist qu’au niveau layout
In order to reduce the production costs of integrated circuits (ICs), outsourcing the fabrication process has become a major trend in the Integrated Circuits (ICs) industry. As an inevitable unwanted side effect, this outsourcing business model increases threats to hardware products. This process raises the issue of un-trusted foundries in which, circuit descriptions can be manipulated with the aim to possibly insert malicious circuitry or alterations, referred to as Hardware Trojan Horses (HTHs). This motivates semiconductor industries and researchers to study and investigate solutions for detecting during testing and prevent during fabrication, HTH insertion.However, considering the stealthy nature of HTs, it is quite impossible to detect them with conventional testing or even with random patterns. This motivates us to make some contributions in this thesis by proposing solutions to detect and prevent HTH after fabrication (during testing).The proposed methods help to detect HTH as well during testing as during normal mode(run-time), and they are logic testing based.Furthermore, we propose prevention methods, which are also logic testing based, in order tomake harder or quasi impossible the insertion of HTH both in netlist and layout levels
APA, Harvard, Vancouver, ISO, and other styles
17

Desmoulin, Alexandra. "Test d'interopérabilité de protocoles : de la formalisation des critères d'interopérabilité à la génération des test." Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/desmoulin.pdf.

Full text
Abstract:
Cette thèse s'intéresse au domaine du test d'interopérabilité de protocoles. Il s'agit de vérifier que plusieurs composants de réseaux sont capables de communiquer correctement tout en fournissant le service prévu dans leur spécification. Nous proposons une définition formelle de la notion d'interopérabilité via des critères d'interopérabilité qui précisent les conditions dans lesquelles des composants peuvent être considérés interopérables. Pour le contexte le plus utilisé du test d'interopérabilité de deux composants, nous proposons une méthode de génération automatique de tests. Cette méthode évite le problème d'explosion combinatoire généralement rencontrélors de la génération de tests d'interopérabilité. Un des problèmes spécifiques au domaine du test d'interopérabilité est celui de la vérification du traitement effectif par un composant d'un message qui lui a été envoyé. Nous proposons une solution basée sur les dépendances causales entre messages. Pour le contexte du test d'interopérabilité de multiple (plus de deux) composants, nous proposons une classification des architectures de test possibles, des définitions de critères d'interopérabilité, une méthodologie pour le choix des topologies d'interconnexion à utiliser et quelques éléments pour la dérivation des tests
This thesis deals with the domain of protocol interoperability testing. The objective is to verify that different network components are able to communicate correctly while providing the service described in their respective specification. We propose a formal definition of the interoperability notion using interoperability criteria that precise conditions to be verified by components to be considered interoperable. We propose an automatic test generation method for the most used context of two components interoperability testing. This method avoids the state space explosion problem that interoperability test generation generally faces. A specific problem of the interoperability testing domain is the verification of the actual reception of a message that was sent to a component. We propose a solution based on causal dependencies between messages. For the interoperability of multiple components (more than two), we propose a classification of the possible testing architectures, definitions of interoperability criteria, a methodology for the choice of interconnection topologies to be used and some elements for the test derivation
APA, Harvard, Vancouver, ISO, and other styles
18

Guyot, Nathalie. "Étude numérique du test d'indentation de Brinell couplage des méthodes d'éléments finis et d'éléments frontières." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL044N.

Full text
Abstract:
L’objectif de ce mémoire est d'étudier numériquement le test de Brinell et donc de résoudre le problème du contact entre un indenteur sphérique et un support déformables par la méthode des éléments finis. La première partie de cette étude est consacrée à la résolution du contact avec frottement en élasticité classique. Le frottement est modélisé à l'aide de la loi de Coulomb, pour laquelle nous testons deux régularisations. L’extrapolation des contraintes sur la surface de contact étant trop imprécise, nous calculons celles-ci par la méthode des éléments frontières, que nous couplons à notre programme général de résolution par éléments finis. Celui-ci nous donne des résultats en accord avec la théorie de Hertz, dans le cas sans frottement. Pour les calculs avec frottement, l'une des régularisations testées permet de mettre en évidence la partition de la surface de contact en zones d'adhérence et de glissement, et donne des résultats conformes à la solution analytique de Spence. Ce qui n'est pas le cas de la deuxième méthode de régularisation. La deuxième partie de ce mémoire consiste en l'étude du contact sans frottement en élastoplasticité. Nous décrivons le comportement élastoplastique à l'aide du modèle de Prandtl-Reuss (modèle d'écrouissage isotrope) associé au critère de plasticité de Von Mises. Nous avons réalisé des calculs avec écrouissage et en plasticité parfaite. Nos résultats, présentés sous forme de distribution de contraintes, d'évolution de la zone plastifiée et de déformée, sont conformes à ceux publiés par Johnson, et Sinclair et al. Ils sont, de plus, en accord avec différentes observations expérimentales. En particulier, en ce qui concerne la déformée, nous mettons en évidence les phénomènes de « sinking-in » et de « piling-up » selon que le matériau est écrouissable ou non.
APA, Harvard, Vancouver, ISO, and other styles
19

Garstecki, Lukasz. "Méthodes efficaces de test de conformité fonctionelle pour les bibliothèques de programmation parallèle et distribuée." Grenoble INPG, 2004. http://www.theses.fr/2004INPG0068.

Full text
Abstract:
Cette thèse présente une méthodologie complète de création de Suites de Tests de Conformité pour les langages de programmation, bibliothèques et APIs, une attention particulière étant portée aux bibliothèques de programmation parallèles et distribuées. L'auteur a commencé sa recherche dans le domaine du test de conformité pour les bibliothèques de programmation parallèle et distribuée, mais la méthodologie Consecutive Confinements Method (CoCoM), inventée par l'auteur, s'est révélée assez générale pour être appliquée à une large classe de bibliothèques de programmation, langages et APIs, y compris les modèles de programmation séquentiels et non séquentiels basés sur la programmation impérative. La méthodologie CoCoM est basée sur des notions définies dans la norme internationale ISO/IEC 13210: Information Technology , - Requirements and Guidelines for Test Methods Specifications and Test Method Implementations for Measuring Conformance to POSIX Standards, et à laquelle est fournit des extensions. CoCoM peut être vue comme un cadre général où différentes méthodologies et des outils variés peuvent être incorporés, permettant une adaptation à n'importe quel formalisme spécifique, pour lequel un moteur de traitement est fourni en support. Dans le cadre de sa thèse, l'auteur a développé une maquette d'outil appelé CTS Designer, qui implémente des parties importantes de la norme ISO/IEC 13210 et de la méthodologie CoCoM et qui peut être considéré comme le principal composant intégrateur du cadre formel mentionné ci-dessus
The thesis presents a complete methodology for creating Conformance Test Suites for programming languages, libraries and APIs, with a special attention to parallel and distributed programming libraries. Author has started his research in the field of conformance testing for parallel and distributed programming libraries, but methodology Consecutive Confinements Method (CoCoM), invented by Author, turned out to be general enough to be applied to a wider class of programming libraries, languages and APIs, including both sequential and non-sequential programming models based on imperative programming paradigm. Methodology CoCoM is based on notions defined in the international standard ISO/IEC 13210: Information Technology , - Requirements and Guidelines for Test Methods Specifications and Test Method Implementations for Measuring Conformance to POSIX Standards, and attempts to extend it. CoCoM can be seen as a framework, where many different methodologies and tools can be incorporated, allowing for expansion towards any specific formalism, for which a supporting processing engine can be found. For the purpose of the Thesis Author has developed a prototype tool called CTS Designer, which implements significant parts of the standard ISO/IEC 13210 and the CoCoM methodology and shall be considered a top integrating component of a dedicated formal framework postulated before
APA, Harvard, Vancouver, ISO, and other styles
20

Prigent, Armelle. "Le test des systèmes temps-réel paramétrés : application à la conception d'architectures avioniques." Nantes, 2003. http://www.theses.fr/2003NANT2097.

Full text
Abstract:
Les systèmes embarqués critiques doivent être soumis à une validation rigoureuse afin d'assurer leurs performances et leur sûreté de fonctionnement. Le test de conformité est l'activité permettant de s'assurer que le produit final correspond aux attentes de la spécification. Dans le cas des systèmes temps-réel, il est important de tester la conformité en prenant en considération les contraintes temporelles du modèle. Cette thèse propose une approche de génération de tests pour des systèmes d'automates temporisés paramétrés. L'algorithme de construction des tests utilise un objectif de test pour sélectionner les comportements à tester. Les tests sont construits grâce à une analyse d'accessibilité symbolique des états du modèle, et une représentation des contraintes d'horloges par une extension paramétrée des diagrammes différentiels d'horloges Clock difference diagrams. Au cours de ce travail, nous avons développé un outil de génération de tests : RTT (Real Time Test Generator).
APA, Harvard, Vancouver, ISO, and other styles
21

Voon, Lew Yan, and Lew Fock Chong. "Contribution au test intégré déterministe : structures de génération de vecteurs de test." Montpellier 2, 1992. http://www.theses.fr/1992MON20035.

Full text
Abstract:
Ce memoire concerne la synthese de structures de generation de vecteurs de test (gvt) deterministes. Une etude empirique, basee sur des simulations exhaustives, des sequences generees par des registres a decalage a retroaction lineaire et non-lineaire montre que ces derniers sont inaptes a produire des sequences de vecteurs de test deterministes. Nous avons donc etendu notre recherche au cas general de machine d'etats finis lineaire et autonome (mefla) avec inversion. Apres avoir presente les principes fondamentaux d'une mefla avec inversion, nous proposons une methode de synthese de structures gvt deterministes et deterministe/pseudo-aleatoire
APA, Harvard, Vancouver, ISO, and other styles
22

Sellami, Fayçal. "Méthodes d'étude des régimes perturbés dans les systèmes électroniques de puissance : conception de procédure de test." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT031H.

Full text
Abstract:
Mise au point de methodes, utilisant aussi bien l'analyse theorique, que la simulation ou les essais, permettant de determiner le comportement des convertisseurs statiques en regime perturbe, notamment en vue d'ameliorer leur fiabilite au niveau de la conception
APA, Harvard, Vancouver, ISO, and other styles
23

Gentil, Marie-Hélène. "Conception et réalisation d'un planificateur de test hiérarchisé pour circuits logiques complexes." Montpellier 2, 1994. http://www.theses.fr/1994MON20035.

Full text
Abstract:
Ce memoire propose une methodologie de generation hierarchisee de vecteurs de test dediee au test logique des circuits a haute echelle d'integration. La mesure de testabilite de haut niveau utilisee tout au long du processus est presentee puis comparee a trois autres mesures de testabilite existantes (cata, tmeas et la mesure d'abraham et thearling). La methodologie generale debute par le decoupage du circuit en partitions facilement testables par l'outil de generation automatique de vecteurs de test au niveau porte. Plusieurs techniques de partitionnement sont disponibles permettant la satisfaction de criteres de taille, de testabilite et d'optimisation de temps de test. En cas d'echec pendant le processus ou si l'utilisateur desire ameliorer la testabilite globale du circuit, une methodologie d'insertion automatique et de haut niveau de cellules de testabilite est proposee. Ensuite, les informations de test sont propagees des bornes de chacune des partitions jusqu'aux broches primaires du circuit en utilisant, si necessaire, les notions de simulation de fautes et de generation iterative de vecteurs de test. L'algorithme developpe est ensuite employe sur plusieurs circuits d'evaluation tant universitaires qu'industriels
APA, Harvard, Vancouver, ISO, and other styles
24

Doche, Marielle. "Techniques formelles pour l'évaluation de systèmes critiques complexes : test et modularité." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 1999. http://www.theses.fr/1999ESAE0024.

Full text
Abstract:
L'intérêt des méthodes formelles est de permettre le développement rigoureux de systèmes informatiques critiques. Pour des systèmes complexes, elles peuvent être complétées par des formalismes de structuration et de modularité. Nous proposons ici une démarche pour la génération et l'évaluation de jeux de test fonctionnel à partir de spécifications formelles structurées ou modulaires. Nous nous appuyons sur un formalisme de spécification modulaire Moka-TRIO basé d'une part sur la théorie des catégories et le calcul des modèles défini par Ehrig et Mahr (qui permettent de structurer une modélisation et éventuellement d'encapsuler des données) et d'autre part sur la logique temporelle métrique TRIO (pour décrire des comportements réactifs). Des outils associés à ce formalisme permettent de définir et valider une spécification complexe. Nous montrons comment la structure d'une spécification Moka-TRIO permet de mettre en avant différents niveaux d'abstraction pour le test : unitaire, intégration, agrégat et système. Pour chacun de ces niveaux, nous décrivons un mécanisme de génération de jeux de test à partir d'une spécification complexe en s'appuyant sur la sémantique de celle-ci. Enfin, nous reprenons le cadre théorique d'évaluation défini par Bernot, Gaudel et Marre qui détermine la pertinence d'un jeu de test. En étendant la définition d'institution pour prendre en compte des catégories de cas de test, nous montrons comment nos mécanismes de génération permettent de définir des jeux pertinents. L'outil Moka-TRIO implémente les différents mécanismes de génération. L'approche a été appliquée à un système de contrôle de commandes électriques de vol.
APA, Harvard, Vancouver, ISO, and other styles
25

Rodriguez, Béatrice. "Contribution au test des pannes temporelles : diagnostic et génération de vecteurs de test orientée diagnostic." Montpellier 2, 1996. http://www.theses.fr/1996MON20111.

Full text
Abstract:
Cette these s'inscrit dans le cadre du test de pannes temporelles et concerne plus particulierement le diagnostic. Les pannes temporlles, ou fautes de delai, modelisent des defauts physiques (fabrication) ou des defauts de conception qui perturbent le fonctionnement normal d'un circuit a haute frequence uniquement. Nous proposons une methode de diagnostic dediee aux pannes temporelles pour traiter les circuits sequentiels synchrones. Cette approche represente une alternative a la simulation de fautes et repose sur une simulation multi-valuee et un trace de chemins critiques. Elle permet d'obtenir, par regroupement des chemins traces, une localisation approchee du site de la panne. Les resultats obtenus avec les circuits de reference iscas'89 ont valide l'efficacite de cette methode. La precision du diagnostic depend de la sequence de test. Il est possible d'ameliorer cette precision en generant des vecteurs de test en vue du diagnostic. Compte tenu des limitations des techniques deterministes (temps d'execution prohibitifs) et aleatoires (aucun controle de la creation des vecteurs de test), nous proposons une methode de generation de vecteurs de test orientee diagnostic basee sur les algorithmes genetiques. Cette approche permet d'obtenir, a partir d'une sequence de test initiale aleatoire, des vecteurs de test qui presentent de bonnes aptitudes a distinguer des fautes de delai les unes des autres, sans augmenter la longueur de test. Les resultats obtenus avec les circuits de reference iscas'85 ont permis de valider l'efficacite de cette approche par rapport aux techniques deterministes et/ou aleatoires
APA, Harvard, Vancouver, ISO, and other styles
26

Elleuch, Ahmed. "Contribution au test des circuits intégrés : extraction automatique de liste de fautes." Montpellier 2, 1989. http://www.theses.fr/1989MON20047.

Full text
Abstract:
L'approche pseudo-aleatoire et l'approche predeterminee, majoritairement utilisees pour le test des circuits integres logiques, ont recours a une liste de fautes hypothetiques. Une faute hypothetique est entierement definie par la donnee d'un modele logique de faute associe a une localisation dans le circuit. Le but de ce travail est d'affiner la liste de fautes prises en compte, tant au niveau de la modelisation qu'au niveau de la localisation. En ce qui concerne la localisation, une methodologie basee sur la prise en compte de la description topologique est presentee. Un outil logiciel permet l'extraction automatique de la description du circuit et de la liste de fautes a partir du dessin des masques. En ce qui concerne la modelisation des fautes, des circuits integres contenant des transistors en configuration de grille flottante ont ete realises et caracterises. Cette etude a permis d'etablir de nouveaux modeles logiques de fautes pour ce type de defaillance. De plus, une methodologie generale pour la modelisation des fautes dependantes de la topologie et de la technologie a ete etablie
APA, Harvard, Vancouver, ISO, and other styles
27

Exantus, Judith. "Comparaison des propriétés métriques des scores obtenus avec un test de concordance de script au regard de trois méthodes de détermination des scores." Thesis, Université d'Ottawa / University of Ottawa, 2020. http://hdl.handle.net/10393/40447.

Full text
Abstract:
Le test de concordance de script (TCS) est un outil qui vise à mesurer le raisonnement clinique (RC) des apprenants en contexte d’incertitude en comparaison à celui des experts. La nature de cet instrument fait en sorte que le processus de détermination des scores est névralgique et influence ainsi l’interprétation de ces derniers. Le but de cette recherche à caractère exploratoire était d’examiner l’impact de trois méthodes de détermination des scores sur les propriétés métriques des scores obtenus avec un TCS. Nous avons réalisé une analyse secondaire de données recueillies entre 2010 et 2014 auprès de 160 étudiants inscrits dans un programme de médecine familiale à l'Université de Liège en Belgique. Ainsi la théorie classique des tests et le modèle de Rasch ont été mis à contribution. Selon les résultats obtenus, la méthode selon la bonne réponse n’est pas recommandée. En revanche, la méthode des scores combinés très utilisée dans le contexte du TCS n’a pas prouvé, selon nous, sa supériorité sur la méthode avec pénalité de distance. D’autres études s’avèrent nécessaires pour approfondir ces résultats.
APA, Harvard, Vancouver, ISO, and other styles
28

Azam, Philippe. "Développement de méthodes alternatives à l'expérimentation animale pour la détection du potentiel de sensibilisation de contact." Montpellier 1, 2004. http://www.theses.fr/2004MON13515.

Full text
Abstract:
L'allergie de contact est une hypersensibilité retardée à médiation cellulaire, initialisée au niveau de la peau par la cellule de Langerhans, cellule dendritique spécialisée, au contact des haptènes. Actuellement, seuls des tests in vivo réglementaire sont disponibles pour la détermination du potentiel sensibilisant des produits chimiques. L'objectif de ce travail a été de développer deux nouvelles méthodes : le LLNA-IL-2 dérivé de la méthode in vivo réglementaire LLNA (Local Lymph Node Assay), et la lignée myéloïde cellulaire MUTZ-3 comme modèle in vitro. La première approche a consisté en l'amélioration du LLNA par la mesure de la production ex-vivo d'IL-2 par les cellules ganglionnaires. Après comparaison de diverses techniques de dosages et optimisation du protocole, les performances de cette méthode baptisée LLNA-IL-2 ont été évaluées à l'aide d'un panel de sensibilisants et irritants prototypiques. Les résultats obtenus sont comparables qualitativement et quantitativement à ceux du LLNA radioactif (P. Azam et al. . 2004 Toxicology. Sous presse). Le développement d'un test prédictif in-vitro, réalisé sur la lignée cellulaire myéloïde humaine. Cytoline dépendante et CD34 positive, MUTZ- constituait la deuxième partie du projet. Après caractérisation du phénotype monocytaire de la lignée, une évaluation de sa capacité de réponse à un panel d'irritants et de sensibilisants faibles, modérés ou forts, a été effectuée par cytométrie en flux sur l'expression d'une série de marqueurs d'activation (HLA-DR, CD54, CD86, CD40, B7-H1, B7-H2, B7-DC). En particulier avec CD86, l'ensemble des sensibilisants testés induisant une réponse positive spécifique. D'autres part, dans des expériences préliminaires, la lignée MUTZ-3 a présenté des capacités uniques de différenciation en cellules de types dendritiques. Ces données suggèrent la possibilité du développement d'un modèle in-vitro de criblage (MUTZ-3 non différenciées), d'un modèle in-vitro hautement différencié (MUTZ-3 différenciées) et de comparer leurs performances avec les tests in-vivo (LLNA) ou en cours de développement (PBMC).
APA, Harvard, Vancouver, ISO, and other styles
29

Nemouchi, Yakoub. "Model-based Testing of Operating System-Level Security Mechanisms." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS061/document.

Full text
Abstract:
Le test à base de modèle, en particulier test basé sur des assistants à la preuve, réduit de façon transparente l'écart entre la théorie, le modèle formel, et l’implémentation d'un système informatique. Actuellement, les techniques de tests offrent une possibilité d'interagir directement avec de "vrais" systèmes : via différentes propriétés formelles, les tests peuvent être dérivés et exécutés sur le système sous test. Convenablement, l'ensemble du processus peut être entièrement automatisé. Le but de cette thèse est de créer un environnement de test de séquence à base de modèle pour les programmes séquentiels et concurrents. Tout d'abord une théorie générique sur les monades est présentée, qui est indépendante de tout programme ou système informatique. Il se trouve que notre théorie basée sur les monades est assez expressive pour couvrir tous les comportements et les concepts de tests. En particulier, nous considérons ici : les exécutions séquentielles, les exécutions concurrentes, les exécutions synchronisées, les exécutions avec interruptions. Sur le plan conceptuel, la théorie apporte des notions comme la notion raffinement de test, les cas de tests abstraits, les cas de test concrets, les oracles de test, les scénarios de test, les données de tests, les pilotes de tests, les relations de conformités et les critères de couverture dans un cadre théorique et pratique. Dans ce cadre, des règles de raffinement de comportements et d'exécution symbolique sont élaborées pour le cas générique, puis affinées et utilisées pour des systèmes complexes spécifique. Comme application pour notre théorie, nous allons instancier notre environnement par un modèle séquentiel d'un microprocesseur appelé VAMP développé au cours du projet Verisoft. Pour le cas d'étude sur la concurrence, nous allons utiliser notre environnement pour modéliser et tester l'API IPC d'un système d'exploitation industriel appelé PikeOS.Notre environnement est implémenté en Isabelle / HOL. Ainsi, notre approche bénéficie directement des modèles, des outils et des preuves formelles de ce système
Formal methods can be understood as the art of applying mathematical reasoningto the modeling, analysis and verification of computer systems. Three mainverification approaches can be distinguished: verification based on deductive proofs,model checking and model-based testing.Model-based testing, in particular in its radical form of theorem proving-based testingcite{brucker.ea:2012},bridges seamlessly the gap between the theory, the formal model, and the implementationof a system. Actually,theorem proving based testing techniques offer a possibility to directly interactwith "real" systems: via differentformal properties, tests can be derived and executed on the system under test.Suitably supported, the entire process can fully automated.The purpose of this thesis is to create a model-based sequence testing environmentfor both sequential and concurrent programs. First a generic testing theory basedon monads is presented, which is independent of any concrete program or computersystem. It turns out that it is still expressive enough to cover all common systembehaviours and testing concepts. In particular, we consider here: sequential executions,concurrent executions, synchronised executions, executions with abort.On the conceptual side, it brings notions like test refinements,abstract test cases, concrete test cases,test oracles, test scenarios, test data, test drivers, conformance relations andcoverage criteria into one theoretical and practical framework.In this framework, both behavioural refinement rules and symbolic executionrules are developed for the generic case and then refined and used for specificcomplex systems. As an application, we will instantiate our framework by an existingsequential model of a microprocessor called VAMP developed during the Verisoft-Project.For the concurrent case, we will use our framework to model and test the IPC API of areal industrial operating system called PikeOS.Our framework is implemented in Isabelle/HOL. Thus, our approach directly benefitsfrom the existing models, tools, and formal proofs in this system
APA, Harvard, Vancouver, ISO, and other styles
30

Hammi, Tarik. "Étude de méthodes de mesures et réalisation d'un banc de test pour l'évaluation des propriétés électrostatiques des textiles." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Hammi.pdf.

Full text
Abstract:
Les matériaux textiles ont une place importante dans un grand nombre de secteurs industriels. Ces industries sont souvent confrontées aux problèmes introduits par les phénomènes de charge et de décharge électrostatique des textiles. Outre l'effet désagréable ressenti par les êtres humains lors des décharges, ces phénomènes peuvent menacer le fonctionnement d'appareils électroniqmes ou dans le pire cas, provoquer l'explosion de matières inflammables. La caractérisation de ces matériaux textiles est dès lors indispensable et fortement tributaire des exigences normatives. On propose ici une étude expérimentale des comportements électrostatiques de matériaux textiles dans le but de réaliser un banc de test pour évaluer ces phénomènes. Une partie importante de ce travail est consacrée aux mécanismes de polarisation qui jouent un grand rôle dans les phénomènes de charge et de décharge. Cette approche expérimentale est étayée par une étude bibliographique conséquente mettant en évidence les mécanismes miscroscopiques mis en Jeu. Néanmoins, le moyen le plus répandu pour charger les textiles reste le frottement. La caractérisation de ce mécanisme de manière reproductible est donc nécessaire et constitue le second axe majeur de ce travail. Plusieurs systèmes basés sur le dépôt de charges par effet triboélectrique ont été réalisés, ainsi que différents capteurs permettant l'analyse de paramètres variés tels que le champ éléctrique, le temps de décharge, le courant de décharge, le champ éléctrique dynamique. . .
APA, Harvard, Vancouver, ISO, and other styles
31

Courchesne, Marie-Pierre. "Test du cadran de l'horloge : analyse de deux méthodes de cotation servant à discriminer les déficits cognitifs légers." Thèse, Université du Québec à Trois-Rivières, 2003. http://depot-e.uqtr.ca/4526/1/000105205.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Graffeo, Nathalie. "Méthodes d'analyse de la survie nette : utilisation des tables de mortalité, test de comparaison et détection d'agrégats spatiaux." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5067/document.

Full text
Abstract:
La survie nette, indicateur clé de l'efficacité des systèmes de soin dans la lutte contre le cancer, est un concept théorique représentant la survie que l'on observerait dans un monde hypothétique où le cancer étudié serait la seule cause de décès. En s'affranchissant de la mortalité due aux causes autres que ce cancer, elle permet des comparaisons entre populations. Dans cette thèse, après présentation du concept et des méthodes d'estimation de la survie nette quand la cause de décès est inconnue, nous étudions trois problématiques. La première porte sur les tables de mortalité utilisées pour estimer la survie nette. En France, ces tables sont stratifiées sur âge, sexe, année et département. Il serait intéressant d'utiliser des tables stratifiées sur d'autres facteurs impactant la mortalité. Nous étudions l'impact du manque de stratification sur les estimations des effets des facteurs pronostiques sur la mortalité en excès (celle due au cancer en l'absence des autres causes de décès) par des études de simulations et sur données réelles. La deuxième problématique porte sur la construction d'un test de type log-rank pour comparer des distributions de survie nette estimées par l'estimateur Pohar-Perme, estimateur non paramétrique consistant de la survie nette. Notre troisième problématique est de déterminer dans une aire géographique des zones différentes en termes de survie nette. Nous adaptons une méthode de détection de clusters à la survie nette en utilisant le test précédemment développé comme critère de découpage. Ce travail propose ainsi des développements et outils nouveaux pour étudier et améliorer la qualité de la prise en charge des patients atteints d'un cancer
In cancer research, net survival is a key indicator of health care efficiency. This theoretical concept is the survival that would be observed in an hypothetical world where the disease under study would be the only possible cause of death. In population-based studies, where cause of death is unknown, net survival allows to compare net cancer survival between different groups by removing the effect of death from causes other than cancer. In this work, after presenting the concept and the estimation methods of net survival, we focus on three complementary issues. The first one is about the life tables used in the estimates of net survival. In France, these tables are stratified by age, sex, year and département. Other prognostic factors impact on mortality. So it would be interesting to use life tables stratified by some of these factors. We study the impact of the lack of stratification in life tables on the estimates of the effects of prognostic factors on excess mortality by simulations and real data studies. In 2012, the Pohar-Perme estimator was proposed. It is a consistent non parametric estimator of net survival. The second issue involves the building of a log-rank type test to compare distributions of net survival (estimated by the Pohar-Perme estimator) between several groups. Our third issue is to propose a method providing potential spatial clusters which could contain patients with similar net cancer survival rates. We adapt a clustering method using the test we have built as a splitting criterion. This work proposes new developments and new tools to study and improve the quality of care for cancer patients. These methods are suitable to other chronic diseases
APA, Harvard, Vancouver, ISO, and other styles
33

L'Moudden, Ahmed. "Test d'indépendance et d'ajustement basé sur le processus de Kendall calcul des valeurs critiques par deux méthodes numériques." Thèse, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/5065.

Full text
Abstract:
Dans les domaines d'application de la statistique, tels que l'actuariat, la finance, l'hydrologie, l'environnement et l'épidémiologie, les copules (copulas en anglais) représentent la meilleure façon de modéliser la dépendance qui existe entre les composantes des données multidimensionnelles. L'objectif principal de cette thèse; est de faire l'inférence directement sur la fonction de répartition d'une copule paramétrique et non-paramétrique. Tout d'abord, nous exploitons le processus de Kendall étudié par Barbe et al (1996) pour construire un nouveau processus appelé sous-processus de Kendall dont la fonction de covariance limite est mathématiquement souple. Sous l'hypothèse nulle d'indépendance bivarié, au moyen d'une étude de Monte-Carlo, nous fournissons les tableaux des quantiles des statistiques fonctionnelles univariées suivantes: la statistique Cramér-von Mises, la statistique de Genest et al (2002), la statistique de Kolmogorov-Smirnov et le tau de Kendall basés sur ces deux processus. Afin de coter l'efficacité de ces deux processus, nous comparons la puissance de ces statistiques sous la dépendance archimédienne. En outre, la convergence des processus empiriques de Kendall sériel et non sériel vers la même loi limite, nous a poussé [i.e. poussés] à examiner par échantillonnage, l'accélération de cette convergence en comparant les quantiles de ces statistiques basées sur le processus empirique de Kendall avec celles données par Genest et al (2002). Toutefois, pour tout ce qui a trait au comportement asymptotique de certaines de ces statistiques, nous disposons de deux méthodes numériques efficaces: la première est façonnée par l'équation différentielle de Sturm-Liouville plus la technique d'Imhof et la deuxième proposée par Deheuvels & Martynov (1996) repose sur la fonction de covariance limite de ces processus. Sous l'hypothèse nulle d'ajustement non paramétrique et par le calcul explicite des fonction [i.e. fonctions] de covariance du processus limite de Kendall pour les deux familles de copules archimédiennes, à savoir la famille de Clayton et la famille de Gumbel, nous présentons sous forme de tableaux les valeurs critiques de la statistique de Cramér-von Mises. Enfin, nous introduisons la notion de processus de Kendall monoparamétrique, qui est bâti sur l'estimateur de la fonction de répartition d'une copule monoparamétrique à partir d'observations paramétriques. Pour tester la modélisation de ces dernières par des modèles statistiques monoparamétriques archimédiennes de type Clayton ou Gumbel, nous présentons sous formes de tableaux les valeurs critiques de la statistique de Cramér-von Mises basée sur ce processus monoparamétrique. Ceci nous permettra l'application de méthodes plus fines, en particulier des techniques de prévision complexe, des tests statistiques, etc. Nous pensons que ces derniers tableaux vont répondre à beaucoup d'attentes, spécialement dans les domaines d'application de la statistique comme ceux de l'hydrologie, de l'environnement et de l'épidémiologie.
APA, Harvard, Vancouver, ISO, and other styles
34

Sall, Alioune. "Un test pour la bonne spécification d'un modèle structurel marginal." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32526.

Full text
Abstract:
Estimer l’effet d’une exposition variant dans le temps à l’aide de modèles de régression ordinaires peut entraîner un biais si des variables confondantes variant dans le temps sont un effet des expositions passées. Les modèles structurels marginaux (MSMs) sont une solution à ce problème qui est de plus en plus utilisée, notamment dans les études en santé. L’une des hypothèses principales des MSMs est que la relation entre l’issue et les expositions antérieures est bien spécifiée. Ainsi, nous avons développé un test statistique de cette hypothèse. Différentes pondérations peuvent être utilisées pour estimer les paramètres du MSM et celles-ci devraient produire des estimations similaires lorsque le modèle est correctement spécifié. Un test statistique vérifiant si les différences observées sont au-delà de celles attendues permet donc de tester que le modèle est correct. La performance du test est étudiée à l’aide d’une étude de simulations sur des données synthétiques, où différentes véritables relations entre les expositions et l’issue, ainsi que différentes tailles d’échantillons étaient considérées. L’étude de simulation démontre une bonne performance du test : les taux de rejet de modèles corrects sont faibles alors que ceux de modèles incorrects sont généralement élevés, surtout pour des tailles d’échantillons élevées. Cependant, il existe des situations où le test est incapable de détecter des erreurs de spécification. Le test est appliqué pour étudier l’effet d’une exposition répétée au stress au travail sur une période de 5 ans sur la pression artérielle ambulatoire dans une cohorte de 1576 travailleurs cols-blancs.
Estimating the effect of a time-varying exposure using ordinary regression models may lead to bias if time-varying confounding variables are an effect of past exposures. Marginal structural models (MSMs) are a solution to this problem that is increasingly used, especially in health studies. One of the main assumptions of MSMs is that the relationship between outcome and past exposures is well specified. Thus, we developed a statistical test of this hypothesis. Different weights can be used to estimate MSM parameters and these should produce similar estimates when the model is correctly specified. A statistical test verifying if the differences observed are beyond those expected makes it possible to test that the model is correct. The performance of the test is investigated using a synthetic data simulation study, where different true relationships between exposures and outcome, as well as different sample sizes were considered. The simulation study demonstrates good test performance: rejection rates for correct models are low, while rejection rates for incorrect models are generally high, especially for large sample sizes. However, there are situations where the test is unable to detect specification errors. The test is applied to study the effect of repeated psychosocial work stressor exposure over a 5-year period on ambulatory blood pressure in a cohort of 1576 white-collar workers.
APA, Harvard, Vancouver, ISO, and other styles
35

Guedj, Mickael. "Méthodes Statistiques pour l'Analyse de Données Génétiques d'Association à Grande Echelle." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00169411.

Full text
Abstract:
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse.
Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux tests d'association, ainsi que de leur combinaisons. Nous considérons ensuite l'utilisation d'approches multi-marqueurs avec le développement d'une méthode d'analyse fondée à partir de la statistique du Score Local. Celle-ci permet d'identifier des associations statistiques à partir de régions génomiques complètes, et non plus des marqueurs pris individuellement. Il s'agit d'une méthode simple, rapide et flexible pour laquelle nous évaluons les performances sur des données d'association à grande échelle simulées et réelles. Enfin ce travail traite également du problème du test-multiple, lié aux nombre de tests à réaliser lors de l'analyse de données génétiques ou génomiques haut-débit. La méthode que nous proposons à partir du Score Local prend en compte ce problème. Nous évoquons par ailleurs l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien.
L'ensemble des méthodes décrites dans ce manuscrit ont été implémentées à travers trois logiciels disponibles sur le site du laboratoire Statistique et Génome : fueatest, LHiSA et kerfdr.
APA, Harvard, Vancouver, ISO, and other styles
36

Mazuet, Christine. "Stratégies de test pour des programmes synchrones : application au langage LUSTRE." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT112H.

Full text
Abstract:
A travers l'exemple de lustre, les travaux realises dans le cadre de cette these ont pour but de definir des methodes de test appropriees a la nouvelle famille de langages a laquelle il appartient, c'est-a-dire les langages flot de donnees synchrones. La strategie de test que nous preconisons s'appuie sur la complementarite de donnees de test statistique et deterministe. Les entrees de test statistique sont generees aleatoirement, le profil de test et le nombre d'entrees etant determines a partir de criteres bases sur un modele du programme ; en complement, les entrees de test deterministe ciblent des points singuliers du domaine d'entree. Cette strategie mixte s'applique a chacune des etapes d'un processus progressif de test test unitaire et test d'integration. La definition des differents niveaux de test s'inscrit dans le cadre d'une demarche globale montante, qui est guidee par un souci d'optimisation de l'effort de test et de minimisation du cout global. Au niveau unitaire, la conception du test statistique et deterministe repose sur l'automate d'etats finis genere lors de la compilation lustre. La complexite de cet automate est alors un facteur decisif de l'algorithme definissant le niveau unitaire. Lors des phases d'integration, l'obtention d'un modele de complexite maitrisable consiste a faire abstraction des modules prealablement valides, afin de reduire la complexite de l'automate lustre. La definition des niveaux d'integration successifs procede iterativement en exploitant, a chaque stade de son deroulement, l'information acquise lors des tests precedents. L'ensemble de ces travaux theoriques est illustre par une etude de cas reel. Les resultats experimentaux confirment la faisabilite et l'efficacite de l'approche elaboree ; de plus, ils mettent en evidence des elements qui nous permettent d'affiner notre demarche et de proposer une methode de test globale combinant judicieusement test unitaire et test d'integration
APA, Harvard, Vancouver, ISO, and other styles
37

Diack, Cheikh Ahmed Tidiane. "Test de convexité pour une fonction de régression." Toulouse 3, 1997. http://www.theses.fr/1997TOU30165.

Full text
Abstract:
Le cadre de cette these est la construction de tests de convexite pour une fonction de regression dans un modele non-parametrique. Dans un premier temps, nous rappellons quelques proprietes geometriques sur les cones convexes polyhedriques, suivies de generalites sur les tests d'hypotheses lineaires sur la moyenne d'un vecteur gaussien, et sur les splines. Nous definissons par la suite deux tests (de convexite et non-convexite) bases sur des estimateurs splines cubiques de la regression. Nous etudions leurs proprietes asymptotiques. Nous etablissons notamment la convergence des tests, etudions le comportement local pour le test de non-convexite et montrons qu'il est robuste a la non-normalite. Dans la partie qui suit, nous nous inspirons respectivement de yatchew et schlee, pour construire deux autres tests de convexite dans le cadre de notre modele et la aussi, nous etablissons de nouveaux resultats de convergence. Pour terminer, nous faisons une etude comparative des differents tests, une etude basee sur des simulations et sur un exemple de donnees reelles.
APA, Harvard, Vancouver, ISO, and other styles
38

Salomond, Jean-Bernard. "Propriétés fréquentistes des méthodes Bayésiennes semi-paramétriques et non paramétriques." Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090034/document.

Full text
Abstract:
La recherche sur les méthodes bayésiennes non-paramétriques connaît un essor considérable depuis les vingt dernières années notamment depuis le développement d'algorithmes de simulation permettant leur mise en pratique. Il est donc nécessaire de comprendre, d'un point de vue théorique, le comportement de ces méthodes. Cette thèse présente différentes contributions à l'analyse des propriétés fréquentistes des méthodes bayésiennes non-paramétriques. Si se placer dans un cadre asymptotique peut paraître restrictif de prime abord, cela permet néanmoins d'appréhender le fonctionnement des procédures bayésiennes dans des modèles extrêmement complexes. Cela permet notamment de détecter les aspects de l'a priori particulièrement influents sur l’inférence. De nombreux résultats généraux ont été obtenus dans ce cadre, cependant au fur et à mesure que les modèles deviennent de plus en plus complexes, de plus en plus réalistes, ces derniers s'écartent des hypothèses classiques et ne sont plus couverts par la théorie existante. Outre l'intérêt intrinsèque de l'étude d'un modèle spécifique ne satisfaisant pas les hypothèses classiques, cela permet aussi de mieux comprendre les mécanismes qui gouvernent le fonctionnement des méthodes bayésiennes non-paramétriques
Research on Bayesian nonparametric methods has received a growing interest for the past twenty years, especially since the development of powerful simulation algorithms which makes the implementation of complex Bayesian methods possible. From that point it is necessary to understand from a theoretical point of view the behaviour of Bayesian nonparametric methods. This thesis presents various contributions to the study of frequentist properties of Bayesian nonparametric procedures. Although studying these methods from an asymptotic angle may seems restrictive, it allows to grasp the operation of the Bayesian machinery in extremely complex models. Furthermore, this approach is particularly useful to detect the characteristics of the prior that are strongly influential in the inference. Many general results have been proposed in the literature in this setting, however the more complex and realistic the models the further they get from the usual assumptions. Thus many models that are of great interest in practice are not covered by the general theory. If the study of a model that does not fall under the general theory has an interest on its owns, it also allows for a better understanding of the behaviour of Bayesian nonparametric methods in a general setting
APA, Harvard, Vancouver, ISO, and other styles
39

Michel, Thierry. "Test en ligne des systèmes à base de microprocesseur." Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343488.

Full text
Abstract:
Cette thèse traite de la vérification en ligne, par des moyens matériels, du flot de contrôle d'un système a base de microprocesseur. Une technique de compaction est utilisée pour faciliter cette vérification (analyse de signature). La plupart des méthodes proposées jusqu'ici imposent une modification du programme d'application, afin d'introduire dans celui-ci des propriétés invariantes (la signature en chaque point de l'organigramme est indépendante des chemins préalablement parcourus). Les méthodes proposées ici, au contraire, ont comme caractéristique principale de ne pas modifier le programme vérifie et utilisent un dispositif de type processeur, disposant d'une mémoire locale, pour assurer l'invariance de la signature. Deux méthodes sont ainsi décrites. La première est facilement adaptable a différents microprocesseurs et présente une efficacité qui la place parmi les meilleures méthodes proposées jusqu'ici. La seconde methode a été dérivée de la première dans le but de diminuer la quantité d'informations nécessaire au test. Cette dernière methode a été implantée sur un prototype d'unité centrale d'automate programmable (avec la société télémécanique) et son efficacité a été évaluée par des expériences d'injection de fautes. Le cout d'implantation particulièrement faible dans le cas du prototype réalise peut permettre d'envisager une évolution de celui-ci vers un produit industriel
APA, Harvard, Vancouver, ISO, and other styles
40

Sulis, Sophia. "Méthodes statistiques utilisant des simulations hydrodynamiques d'atmosphères stellaires pour détecter des exoplanètes en vitesse radiale." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4073/document.

Full text
Abstract:
Considérant une série temporelle affectée par un bruit coloré dont les propriétés statistiques sont inconnues, la difficulté pour la détection de signaux périodiques est de contrôler le degré de confiance avec lequel les tests de détection rejettent l'hypothèse nulle en faveur de l'hypothèse alternative. L'objectif de cette thèse est de développer une nouvelle méthode utilisant des séries temporelles simulées du bruit pour améliorer ce contrôle. Dans le cas d'un échantillonnage régulier, nous avons analysé les performances de différents tests de détection appliqués à un périodogramme standardisé par le spectre simulé du bruit. La standardisation proposée entraîne, dans la majorité des cas, des tests de détection puissants dont les taux de fausses alarmes sont constants. Grâce au développement des distributions asymptotiques de ce périodogramme, nous avons déterminé des expressions analytiques pour les probabilités de fausses alarmes (PFA) et de détections de différents tests. Dans le cas d'un échantillonnage irrégulier, nous montrons qu'il est possible de combiner la standardisation proposée du périodogramme avec des techniques de bootstrap pour contrôler la PFA de manière fiable. La procédure peut être optimisée en utilisant les valeurs extrêmes généralisées. Cette étude a été appliquée au cas de la détection de planètes extrasolaires par la méthode des vitesses radiales dont l'une des principales barrières pour détecter des planètes de masse terrestre vient de l'activité de l'étoile hôte, notamment la convection de surface. Le travail effectué dans cette thèse a porté sur la contribution de simulations hydrodynamiques du bruit convectif dans le processus de détection
Considering a time series affected by a colored noise of unknown statistics, a difficulty for periodic signal detection is to control the true significance level at which the detection tests are conducted. The objective of this thesis is to develop a new method using training datasets of the noise to improve this control. For the case of regularly sampled observations, we analyze the performances of various detectors applied to periodograms standardized using the noise training datasets. The proposed standardization leads, in some cases, to powerful constant false alarm rate tests. Thanks to the development of the asymptotical distribution of the standardized periodogram, we derive analytical expressions for the false alarm and detection rates of several tests. In the case of irregular sampling, we show that it is possible to combine the proposed periodogram standardization and bootstrap techniques to consistently estimate the false alarm rate. We also show that the procedure can be improved by using generalized extreme value distributions. This study has been applied to the case of extrasolar planet detection in radial velocity (RV) data. The main barrier to detect Earth-mass planets comes from the host star activity, as the convection at the stellar surface. This work investigates the possibility of using hydrodynamic simulations of the stellar convection in the detection process to control exoplanet detection claims
APA, Harvard, Vancouver, ISO, and other styles
41

Criqui, Françoise. "L'asthme aux isocyanates, valeur des méthodes diagnostiques : tests de provocation bronchique spécifiques et mise en évidence d'IgE spécifiques : à propos de 75 cas." Université Louis Pasteur (Strasbourg) (1971-2008), 1987. http://www.theses.fr/1987STR1M030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Rouillard, Davy. "Application de techniques de preuve assistée pour la spécification, la vérification et le test." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12573.

Full text
Abstract:
Les méthodes formelles ont pour objectif d'augmenter le niveau de confiance que l'on peut avoir en un système informatique, en proposant des techniques d'analyse dont les fondements sont mathématiques. Traditionnellement, ces méthodes sont classées en trois grandes familles : le model-checking, la preuve interactive et le test. Ce mémoire décrit le développement d'un environnement formel qui autorise à la fois une activité de vérification et dont l'objectif est permettre l'étude de systèmes complexes modélisés sous la forme d'automates. Cet environnement prend la forme d'un ensemble de théories Isabelle/HOL dont la racine est formée par la formalisation des systèmes de transitions et leur comportements. Plusieurs mécanismes de preuve sont présentés et il est mit en évidence l'importance du mécanisme de réécritures. Nous nous intéressons également à une nouvelle approche du test qui consiste à envisager la création d'un test comme la démonstration d'un énoncé.
APA, Harvard, Vancouver, ISO, and other styles
43

Burgueño, Arjona Augusto. "Vérification et synthèse de systèmes temporisés par des méthodes d'observation et d'analyse paramétrique." Toulouse, ENSAE, 1998. http://www.theses.fr/1998ESAE0012.

Full text
Abstract:
La complexité croissante des systèmes informatiques a mis en évidence la nécessité de méthodes formelles automatiques pour assister la concepteur dans la maîtrise de leur comportement. Il s'agit tout d'abord de définir des langages formels fondés sur une sémantique précise pour décrire les propriétés attendues des systèmes (spécification) et leur comportement réel (conception). Il s'agit ensuite de définir des procédures permettant soit de savoir si le compirtememnt réel du système répond aux spécifications (vérification), soit d'obtenir une conception qui satisfasse la spécification (synthèse). L'objectif de cette thèse est de présenter des langages formels et des méthodes de vérification et de synthèse se systèmes temps-réel. Nous utilisons le modèle des automates temporisés de Alur et Dill, en ce qui concerne la conception, et un sous-ensemble du mu-calcul temporisé que nous appelons XSL, en ce qui concerne la spécification. Dans la première partie, nous proposons une méthode de vérification sur modèle (model-checking) par l'intermédiaire du test : étant donnée une formule ϕ dans XSL, il s'agit d'obtenir un automate temporisé Tϕ, appelé automate de test de ϕ, avec un nœud particulier appelé nœud de rejet, tel que, mis en parallèle avec le système examiné (un réseau d'automate temporisés), l'automate de test atteint son nœud de rejet si et seulement si le système examiné n'est pas un modèle de ϕ. Cette approche au model-checking a un intérêt pratique puisque le problème de l'accessibilité est décidable pour les automates temporisés et est traité par des outils tels que UPPAAL, KRONOS ou HYTECH. La deuxième partie décrit une méthode de synthèse : étant donné une conception paramétrée (un réseau d'automates hybrides à pentes paramétrées), il s'agit de déterminer une évaluation des paramètres qui permette au système de satisfaire une propriété donnée (une formule XSL). Cette méthode repose sur un algorithme de résolution de systèmes d'inégalités non linéaires.
APA, Harvard, Vancouver, ISO, and other styles
44

Bulone, Joseph. "Généralisation des méthodes de scan pour le test des circuits intégrés complexes et application à des circuits critiques en vitesse." Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344980.

Full text
Abstract:
Cette thèse propose une extension des méthodes classiques de chemins de «scan». On utilise des opérateurs combinatoires plus généraux à la place des multiplexeurs à une seule sortie. Ils peuvent comporter des entrées et des sorties multiples. Ils peuvent boucler sur eux-mêmes par l'intermédiaire d'une ou plusieurs bascules. Lorsqu'ils vérifient certaines propriétés de bijectivité et qu'ils forment une structure propageant de l'information, alors cette structure est aussi utile que les chaînes du «scan» complet et s'utilise de manière semblable. Elle permet aussi une approche hiérarchique du test des circuits. On montre comment tirer profit de cette méthode plus générale pour réduire l'impact de la méthode de «scan» complet sur les performances de circuits complexes implantant des fonctions mathématiques courantes ou des séquenceurs. Des résultats sont donnés pour le cas réel d'un circuit CMOS, très rapide, spécifique pour le réseau numérique large bande et pour lequel les contraintes en vitesse étaient primordiales
APA, Harvard, Vancouver, ISO, and other styles
45

Delétage, Jean-Yves. "Etude de la durée de vie d'assemblages microélectroniques par l'utilisation de simulations, de modèles de dégradation et de circuits intégrés spécifiques de test." Bordeaux 1, 2003. http://www.theses.fr/2003BOR12796.

Full text
Abstract:
Ce travail s'intègre dans les domaines de l'analyse et de la prédiction de la fiabilité des assemblages microélectroniques. Il présente l'étude de leur comportement thermomécanique par des méthodes analytiques simples et comparatives (sous la forme d'un outil logiciel) et par des simulations numériques par éléments finis. Ces méthodes permettent d'évaluer la criticité au niveau des joints brasés dès la phase de conception. Il propose une estimation de la durée de vie des assemblages à partir d'un test expérimental et de l'utilisation d'un modèle mixte de dégradation de l'alliage constituant le joint brasé. Ce modèle est basé sur une loi analytique et empirique issue de résultats expérimentaux et sur une simulation par éléments finis. L'impact de la variation d'un paramètre technologique sur la distribution de leur durée de vie est étudié à partir de ce même modèle. Enfin, il décrit la conception et la mise en œuvre de circuits intégrés spécifiques de test pour la mesure in situ des contraintes générées par l'enrobage plastique des composants
This work is in the field of reliability estimation of microelectronics assemblies. We study their thermomechanical behaviour with simple analytical and comparative method but also with FEM simulations. These tools are used from the design step to evaluate the criticality of the assemblies considering solder joint failures. We evaluate the lifetime of assemblies using an experimental test and a degradation law model of the alloy of the solder joint. This model consists of an analytical expression deduced from experimental results and of a FEM simulation. The effect of the deviation of technological parameters on the lifetime distribution is studied from this model. Finally, the design and the use of full custom integrated circuits dedicated to measure, in situ, stress induced by the moulding compound, is described
APA, Harvard, Vancouver, ISO, and other styles
46

Chebana, Fateh. "Estimation et tests par des méthodes fonctionnelles : applications aux M-estimateurs et aux tests de Bickel-Rosenblatt." Paris 6, 2003. http://www.theses.fr/2003PA066517.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Derème, Tristan. "Test en tension des courts-circuits en technologie CMOS." Montpellier 2, 1995. http://www.theses.fr/1995MON20032.

Full text
Abstract:
Cette these traite de la modelisation des defaillances dues a la presence de particules accidentellement deposees sur un des masques de fabrication. Au niveau d'un circuit integre, ces defaillances se traduisent par la mise en relation de deux nuds independants dans le circuit sain. L'apparition de potentiels intermediaires et le caractere inconnu de la resistance de court-circuit constituent les caracteristiques principales de ces fautes. Dans une premiere hypothese considerant cette resistance comme nulle, un modele a ete developpe qui permet par simple comparaison de dimensions de transistors de connaitre la valeur logique a propager dans le circuit. Le second modele developpe dans l'hypothese de resistance non nulle, prend en compte implicitement cette resistance inconnue. La definition d'intervalles parametriques permet de determiner la probabilite de detection de chaque faute. Ces deux nouveaux modeles couvrent la grande majorite des courts-circuits avec une representativite et une maniabilite excellentes
APA, Harvard, Vancouver, ISO, and other styles
48

Jabbour, Jacques. "Méthodes d’essais de vieillissement accéléré des bétons à l’échelle des ouvrages." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLN038.

Full text
Abstract:
Cette thèse fait partie des programmes de recherche sur le vieillissement des ouvrages de génie civil nucléaire lancés par l’IRSN (Institut de Radioprotection et de Sûreté nucléaire) dans le cadre du projet de prolongement de la durée d’exploitation des centrales nucléaires françaises. Le but étant de contribuer à la connaissance des mécanismes de vieillissement des matériaux constitutifs des ouvrages non-remplaçables d’une centrale nucléaire, tels que les enceintes de confinement. En effet, leur comportement représente un point important pour l’évaluation de la sûreté des installations nucléaires, car elles représentent la troisième et la dernière barrière de confinement contre le relâchement éventuel des produits radioactifs dans l'environnement.Parmi les phénomènes intervenants lors du vieillissement des ouvrages, le développement éventuel des pathologies, notamment les réactions de gonflements internes (RGI) qui sont susceptibles de dégrader le béton et conduire à l’apparition des fissurations dans les structures touchées. Ces réactions de gonflement internes (RGI) englobent la réaction sulfatique interne (RSI), la réaction alcali-granulat (RAG) et la concomitance de ces deux. Il s’agit de réactions endogènes, se produisant suite à l’interaction des composants initiaux du matériau. Ces interactions peuvent avoir lieu suite à l’utilisation de granulats réactifs en cas de RAG et/ou suite à un échauffement important au jeune âge en cas de RSI. Dans les ouvrages nucléaires, l’éventualité de ces phénomènes ne peut pas être écartée. En effet, ils comportent des éléments structuraux massifs en béton armé pour lesquels un échauffement important a pu se produire lors de la prise du béton et des granulats réactifs ont pu être utilisés pendant la confection. Ce risque doit donc être étudié d’autant plus que le prolongement de la durée d’exploitation des installations est envisagé.Cependant, la cinétique d’apparition des désordres suite au développement de ces réactions dans les ouvrages est en général lente allant jusqu’à quelques dizaines d’années, d’où le recourt à des essais accélérés. Cependant les solutions pratiquées dans les laboratoires de recherche, consiste à utiliser des protocoles d’essais accélérés mis au point sur des éprouvettes de faibles dimensions.Le travail de recherche réalisé dans le cadre de cette thèse comporte trois grandes axes : la mise au point d’un protocole expérimental visant à accélérer les réactions de gonflement interne du béton à l’échelle de structures massives, l’analyse multi-échelle des phénomènes et la mise au point d’une instrumentation innovante adaptée à cette problèmatique. Trois maquettes (de dimensions 2,4 x 1,4 x 1 m3) représentatives d’un ouvrage massif ont été réalisées dans des conditions maitrisées et optimisées afin de favoriser respectivement le développement de la réaction sulfatique interne (RSI), de la réaction alcali-granulat (RAG) et de la concomitance des deux pathologies, RAG et RSI. Ceci a permis d’étudier ces pathologies et de les caractériser à une telle échelle.L’effet d’échelle sur la cinétique de gonflement est mis en évidence grâce à une étude expérimentale multi-échelle permettant de comparer l’évolution des réactions dans les maquettes avec leur évolution dans des éprouvettes en béton reconstitué et des carottages.Une méthode d’instrumentation innovante par fibres optiques a été spécifiquement développée pour ces maquettes, permettant de suivre l’évolution des pathologies dans la masse et d’en déduire les champs de déformation dans plusieurs plans d’intérêt. Les mesures sont utilisées pour décrire finement les mécanismes évolutifs du gonflement et la dégradation des structures. Ces mesures sont aussi utilisées comme référence pour des simulations numériques ultérieures
This thesis is part of a research program on the aging of nuclear infrastructures launched by the IRSN (Institute for Radiological Protection and Nuclear Safety) within the project aiming to extend the lifespan of the French nuclear power plants. The goal is to contribute to the knowledge of aging mechanisms touching the constituents of non-replaceable structures of a nuclear power plant, such as the containment building. Matter of fact, the behavior of such structures is an important point for the safety assessment of nuclear installations because they represent the third and last barrier against the dispersion of radioactive particles in the environment. Among the phenomena involved in aging mechanisms, internal swellings reactions (ISR) are pathologies that can degrade concrete by causing swelling, cracking and major disorders in the affected structures. Internal swelling reactions (ISW) include the delayed ettringite formation (DEF), the alkali-aggregate reaction (AAR) and the concomitance of the two. These pathologies are endogenous reactions, occurring as a result of the interaction between the initial components of the material. These interactions take place following the use of reactive aggregates in case of AAR and/or following a significant warm-up at the concrete’s early age in case of DEF. In nuclear facilities, the possibility of these phenomena cannot be ruled out. Matter of fact, they include massive reinforced concrete elements for which a significant heating could have occurred at the early age. Moreover, reactive aggregates may have been used during the construction phase. Therefore those risks ought to be studied especially if the extension of the lifespan of these installations is envisaged.However, the kinetics of these reactions are generally slow and it can take for up to a few decades for disorders to appear in the structure. Among the solutions used in research laboratories, one is to use accelerated test methods developed on small specimens.The research work carried out in this context includes three major axis: the development of an experimental protocol to accelerate internal swelling reactions of concrete on a massive structure scale, multi-scale analysis of the phenomena involved and the development of innovative instrumentation adapted to this problem. The purpose is to allow better observation and understanding of swelling reactions at such scale. Hence, three representative massive concrete mock-ups whose dimensions are 2,4 x 1,4 x 1 m3 were realized under controlled and optimized conditions for the development of delayed ettringite formation (DEF), alkali silica reaction (ASR) and the concomitant ASR-DEF case respectively.The scale effect on swelling kinetics is demonstrated by an experimental study comparing the evolution of swelling reaction in the massive samples with the evolution in reconstituted concrete laboratory specimens as well as coring specimens.An innovative instrumentation method using optical fibers is also developed thus allowing the monitoring of the pathologies in the massive structures and the tracking of the respective deformation fields in several two-dimensional plans of interest. The measurements are to finely describe and help in understanding the evolutionary mechanisms of structural degradation and can be used subsequently as a reference for numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
49

N'Cho, Janvier Sylvestre. "Développement de nouvelles méthodes de diagnostic et de régénération des huiles pour transformateurs de puissance." Thesis, Ecully, Ecole centrale de Lyon, 2011. http://www.theses.fr/2011ECDL0004/document.

Full text
Abstract:
L’indisponibilité d’un transformateur de puissance a de fortes répercussions financières aussi bien pour les exploitants de réseaux d’énergie électriques que pour les clients qui y sont connectés. Afin de prévenir les pannes et d’optimiser la performance de ces équipements d’importance stratégique, de nombreuses techniques et outils de diagnostic ont été développés. L’huile contient environ 70 % des informations de diagnostic sur l’état des transformateurs. Le défi consiste à y accéder et à les utiliser efficacement. L’atteinte d’un tel objectif passe nécessairement par des techniques de diagnostic fiables. En plus des techniques traditionnellement utilisées, trois nouvelles techniques de diagnostic issues des normes ASTM sont utilisées : (1) le test de stabilité qui permet de simuler le comportement sous champ électrique d’une huile en fournissant des informations sur la qualité de celle-ci ; (2) la spectrophotométrie UV/Visible qui permet de mesurer la quantité relative de produits de décomposition dissous dans l’huile ; et (3) la turbidité qui mesure la pureté d’une huile neuve ou usagée. Une méthode quantitative permettant de déterminer les paramètres affectant la formation du soufre corrosif sur les conducteurs en cuivre dans les transformateurs de puissance est proposée. Il est montré entre autres que la tendance au gazage des esters naturels est plus faible que celle de tous les autres types d’huile (minérales, esters synthétiques, silicone). La turbidité et la spectrophotométrie UV/Visible permettent de quantifier efficacement les contaminants qui résultent de l’action d’une décharge électrique sur l’huile isolante. Un nombre important de cycles de régénération (au moins 15) est nécessaire pour qu’une huile vieillie en service retrouve les aptitudes d’une huile neuve. Une nouvelle technique de régénération est présentée pour réduire le nombre de cycles de régénération ; celle-ci consiste à utiliser la terre à foulon traitée avec de l’azote. Il est montré également que le temps constitue le paramètre le plus nuisible dans la formation de soufre corrosif. L’action combinée du temps et de l’agressivité de l’oxygène dissous l’accélère fortement
A power transformer outage has a dramatic financial consequence not only for electric power systems utilities but also for interconnected customers. In order to prevent any failure and to optimize their maintenance, various diagnostic techniques and tools have been developed. Insulating oil contains about 70% of diagnostic information on the transformer condition. The challenge is to access and use them efficiently. To meet this objective reliable diagnostic techniques are required. In addition to traditional testing methods, three recently developed ASTM testing techniques were used: (1) oil stability testing that simulates the behaviour of oil under electrical stress by providing information on its quality; (2) the UV/Visspectrophotometry that measures the amount of the relative dissolved decay products in insulating oil; and (3) the turbidity that measures the purity of virgin and aged oil. A quantitative laboratory technique capable of determining the parameters affecting the formation of corrosive sulphur deposition on copper conductors in power transformer is proposed. It is shown among other that the gassing tendency of natural esters is lower than that of the other types of insulating fluids (mineral oil, synthetics esters and silicone oil). The turbidity and UV/Vis spectrophotometry allow quantifying effectively, the relative amount of contaminants resulting from electrical discharge in oils. A large number of reclamation cycles (around 15 passes) are required for in-service aged oil to regenerate to the level of new oil. Anew technique enabling reducing the number of reclamation cycles is proposed; this latter consists in the use of Fuller’s Earth previously treated with dry nitrogen. It is also shown that time is the most influential parameter in the formation of corrosive sulfur. The process is accelerated when time and aggressiveness of oxygen are partnered
APA, Harvard, Vancouver, ISO, and other styles
50

Gasser, Jean-Luc. "Analyse de signature des circuits intégrés complexes par test aléatoire utilisant les méthodes de traitement du signal : application à un microprocesseur." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT079H.

Full text
Abstract:
On presente une methode de test des composants a tres haute densite d'integration (vlsi), et son application au microprocesseur 6809 (thomson-efcis). Une strategie de test aleatoire est proposee: on soumet le composant a analyser a une sequence de vecteurs aleatoires, qui n'est pas forcement reproductible, et on analyse sa reponse par des methodes de traitement du signal. Aucun modele du composant et tres peu d'hypotheses de panne sont elabores. On rappelle les principes de deux methodes permettant de simuler des pannes ou de tester la resistance des composants aux rayonnements cosmiques: l'utilisation des lasers et celle de sources radioactives. Les resultats experimentaux de l'irradiation electronique d'un lot de six 6809 mettent en evidence des points faibles de ce composant. On etablit une statistique des pannes en tenant compte de sa structure interne. La signature partielle du microprocesseur est obtenue par une methode d'analyse d'histogramme. L'application des fonctions de walsh-rademacher permet l'elaboration d'un estimateur du comportement individuel de chaque bit du bus du composant, dont les proprietes theoriques et numeriques sont decrites. On en deduit la distribution de la sequence a analyser qui autorise la probabilite de detection de panne maximale. On effectue l'analyse spectrale de l'estimateur par les methodes classiques (fft) et par la modelisation autoregressive (ar). La moyenne de l'estimateur est un parametre significatif, et son analyse spectrale met en evidence certaines proprietes du signal, mais egalement des problemes de non-stationarite qui n'ont pas ete resolus a cause des limitations dues a l'implantation materielle. Des solutions a ces problemes sont proposees, et on examine les applications de la methode de test a d'autres composants ou a des systemes logiques plus complexes
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography