To see the other types of publications on this topic, follow the link: Test à partir de modèles.

Dissertations / Theses on the topic 'Test à partir de modèles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Test à partir de modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Monnot, Olivier. "Recalage de modèles dynamiques à partir de la réponse en fréquence : application au recalage des modèles du lanceur Ariane 5." Châtenay-Malabry, Ecole centrale de Paris, 1995. http://www.theses.fr/1995ECAP0407.

Full text
Abstract:
Le contexte général du recalage de modèle à partir d'essais vibratoires est présenté dans le premier chapitre. En particulier, les critères usuels pour confronter modes calcules et modes mesures sont décrits. Dans une seconde partie, un recensement des méthodes de recalage déjà existantes est effectué. On distingue ainsi les méthodes de correction globale de celles basées sur le contrôle paramétrique du modèle. Ces dernières reposent sur trois idées différentes : les techniques de sensibilité, l'évaluation des forces résiduelles dans les équations d'équilibre, l'analyse des erreurs en relation de comportement. La démarche adopté par l'auteur est développée dans le troisième chapitre. Elle est composée de trois étapes : l'expansion des données expérimentales, étape la plus critique, la localisation des erreurs par l'analyse des forces résiduelles, la correction paramétrique des zones localisées par minimisation sous contraintes d'une fonctionnelle énergétique. Une méthode d'optimisation de l'emplacement des capteurs basée sur la maximisation de la matrice d'information de Fisher est également présentée. Dans la dernière partie, la méthode a été appliquée sur un cas test garteur, et également pour le recalage des modèles du lanceur Ariane 5. De nombreuses références bibliographiques sont fournies
APA, Harvard, Vancouver, ISO, and other styles
2

Fourneret, Elizabeta. "Génération de tests à partir de modèle UML/OCL pour les systèmes critiques évolutifs." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00861015.

Full text
Abstract:
Cette thèse porte sur l'étude d'une démarche et de techniques pour prendre en compte les spécificités des systèmes sécurisés évolutifs lors de la génération des tests à partir de modèles UML/OCL. Dans ce travail, trois axes sont étudiés : (i) le cycle de vie des tests, (ii) les exigences fonctionnelles et (iii) les exigences de sécurité. Dans un premier temps, nous avons défini la clé de voûte de notre approche qui est la caractérisation des statuts du cycle de vie des tests. À l'issu de ces travaux, nous avons pu définir la démarche de classification des tests pour les systèmes évolutifs, appelée SeTGaM. La notation UML, accompagnée du langage de spécification OCL, permet de formaliser les comportements du système. Le langage OCL spécifie ainsi les gardes/actions des transitions et les pré/post conditions des opérations. La méthode propose ainsi deux classifications des tests : la première s'appuie sur les comportements issus des transitions du diagramme d'états/transitions, tandis que l'autre repose sur l'étude des comportements issus des opérations du diagramme de classes. Dans le domaine du test de logiciels critiques, une des questions clés concerne la sécurité. Pour cette raison, nous avons enrichi l'approche SeTGaM en prenant en compte l'aspect sécurité. Ainsi, SeTGaM permet de générer sélectivement des tests qui ciblent les différentes exigences de sécurité lors des évolutions du système. Finalement, le prototype de SeTGaM a été intégré, avec l'outil Smartesting CertifyIt, à l'environnement IBM Rational Software Architect. Ceci nous a permis de valider expérimentalement le passage à l'échelle de la méthode sur des études de cas industriels, notamment proposées par Gemalto/Trusted Labs dans le cadre du projet européen SecureChange.
APA, Harvard, Vancouver, ISO, and other styles
3

Tissot, Régis. "Contribution à la génération automatique de tests à partir de modèles et de schémas de test comme critères de sélection dynamiques." Besançon, 2009. http://www.theses.fr/2009BESA2015.

Full text
Abstract:
Cette thèse est une contribution à la conception d'une méthode de génération automatique de tests à partir de modèles (ou MBT -Model Based Testing). Le contexte de nos travaux se situe dans la continuité de ceux effectués autour de l'outil BZ- TT (BZ- Testing Tools) qui permet d'engendrer des tests fonctionnels à partir de modèles décrits en langage B. Les critères de sélection de tests implémentés dans l'outil BZ- TT reposent sur la couverture structurelle du modèle du système à valider en prenant en compte les structures de données et de contrôle de celui-ci. Cette approche ne permet pas de générer de tests à partir de propriétés liées au comportement dynamique du système, par exemple en tenant compte de propriétés basées sur des enchaînements d'opérations. Afin de répondre à cette problématique, un certain nombre de travaux proposent des méthodes où l'expertise humaine est exploitée afin de définir des critères de sélection de tests "dynamiques". De tels critères de sélection permettent, à l'ingénieur de définir des stratégies basées sur des propriétés et des aspects du système qu'il souhaite valider. Nos contributions s'inscrivent dans cette voie, tout en visant la complémentarité par rapport à la génération automatique de tests par couverture structurelle du modèle dans un objectif de valorisation des technologies et ressources déployées à cette fin. Notre première contribution est la définition d'un langage de formalisation d'objectifs de tests qui permet d'exprimer des ensembles de scénarios de tests inspirés de propriétés à valider sur le système. Ce langage permet de décrire des schémas de tests à partir d'un formalisme, basé sur celui des expressions régulières, qui permet de décrire des ensembles de scénarios principalement par des enchaînements d'appels d'opération et d'états symboliques. Nous définissons une méthode de génération de tests intégrée à l'outil BZ- TT, afin que celui-ci prenne en compte ce nouveau critère de sélection de tests. Cette méthode permet de réutiliser les technologies d'animation symbolique et de résolution de contraintes de cet outil, ainsi que de conserver les fonctionnalités d'exportation et de concrétisation des tests produits. Dans cette méthode, la seule charge supplémentaire pour l'ingénieur de validation est la définition des schémas de test utilisés comme critère de sélection. Nos dernières contributions, visent à évaluer la complémentarité de notre méthode avec celle de génération automatique de tests par couverture structurelle du modèle. Nous proposons une méthode d'évaluation de la complémentarité entre deux suites de tests. Cette méthode est basée sur le calcul de la couverture d'états et de transitions des suites de tests sur une abstraction du système. Enfin, nous appliquons cette méthode à trois études de cas (deux applications de type carte à puce et un système de gestion de fichiers Posix), et nous montrons la complémentarité qu'elle apporte<br>This PhD thesis is a contribution to the conception of an automatic Model Based Testing (MBT) approach for test generation. The framework of our works is the BZ-TT (BZ-Testing Tools) technology, that allows for generating functional tests from models written in B. The test selection criteria implemented in BZ- TT ensure structural coverage of the model of the system to validate. It takes into account the data and control structures of the model. This approach does not allow for generating tests from properties expressing dynamic behaviors of the system such as properties based on operations sequencing. To address this problem, some works propose to involve human expertise to define "dynamic" selection criteria. Such selection criteria make it possible for the validation engineer to define strategies based on properties and aspects of the system thet he wants to validate. Our contributions explore this way, and target the complementarity with respect to the tests generated from the structural coverage of the model, in order to benefit from the resources and technology previously deployed for this goal. Our first contribution is the definition of a language for the formalization of test purposes, that allows for expressing test scenarios inspired by the properties to validate on the system. This language is based on a regular expressions-like formalism, and aims at describing scenarios by means of operation calls and symbolic states. We define a test generation method integrated to BZ- TT, so that these tools can take these new selection criteria into account. This way, we can re-use the technics of symbolic animation and of constraint solving of BZ- TT. We also benefit from the functionalities of export and concretization of the produced tests. With this method, the only additional work for the validation engineer is to define the test schemas used as selection criteria. Our last contribution is to assess the complementarity of our method with the automatic generation of tests by structural coverage of the model. We propose a method to assess the complementarity of two test suites. It is based on the computing of the coverage in terms of states and transitions of an abstraction of the system by th test suites. Finally, we apply this method to three case studies (two smart card applications and the POSIX fil management system), and we show the complementarity brought by the method
APA, Harvard, Vancouver, ISO, and other styles
4

Grandpierre, Christophe. "Stratégies de génération automatique de tests à partir de modèles comportementaux UML/OCL." Besançon, 2008. http://www.theses.fr/2008BESA2017.

Full text
Abstract:
Les travaux présentés dans cette thèse proposent un environnement de génération de tests à partir de notations UML/OCL. La notation UML proposée pour la conception de modèles de test se compose de trois diagrammes usuels. Le diagramme de classes est utilisé pour structurer les données du système sous test dans un paradigme objet. Le diagramme d'objets instancie ce diagramme de classes pour définir l'état initial du modèle ainsi que l'ensemble du jeu de données disponible lors de l'évolution du système. Le diagramme d'étatsltransitions représente, sous la forme d'un automate à états finis, la vue dynamique du système sous test. Cette notation UML s'accompagne du langage de spécification OCL, permettant de formaliser les comportements du système. Le langage spécifie ainsi les pré-/post-conditions des opérations et les gardes/actions des transitions. On introduit par ailleurs une interprétation originale des post-conditions et des actions, traitées comme des actions et non plus comme des prédicats. Cette interprétation permet de considérer OCL comme un langage d'actions exécutable, permettant ainsi l'animation du modèle UML. Ce nouvel environnement de test est aujourd'hui industrialisé à travers l'outil Smartesting Test Designer. Afin d'améliorer la pertinence des tests générés par cet environnement, nous proposons une série de quatre familles de stratégies de génération de tests. Ces stratégies s'appuient sur la structure et les données constituantes d'un comportement. Ainsi, la stratégie Effets Garantis assure l'influence des actions d'un comportement sur les tests générés. La stratégie Contextes Garantis assure l'importance des conditions d'activation d'un comportement. La stratégie Evolution Garantie permet de faire évoluer la valeur de l'ensemble des variables d'états d'un comportement. Enfin, la stratégie Paires définition-utilisation réalise une couverture des paires de comportements du modèle de test. Ces stratégies permettent ainsi d'enrichir le contexte d'activation des comportements couverts par les cas de test générés<br>This thesis de scribes a test generation environment that generates tests from UMUOCL models. Three classic kinds of UML diagrams are used to specify the test model. A class diagram is used to design the data structure of the system under test. An object diagram instantiates this class diagram to define the initial state and ail the data available for use during the evolution of the system. A state diagram, used as an extended finite state machine, specifies the dynamic behavior of the system under test. The abject Constraint Language (OCL) is used with UML to formalize the different system behaviors. It specifies the operation preconditions and postconditions and the transition guards and actions. We introduce a new interpretation of OCL for postconditions and actions, which treats some OCL constructs as actions rather than as predicates. This new interpretation makes it possible to animate the UML test model, using OCL as an executable action language. This new Model-based Testing solution is now embedded in the Smartesting Test Designer tool. To improve the test relevance, we propose a set of four coverage criteria, based on the structure of the data and the OCL predicates. The Guarantee-Effect criterium measures coverage of the atomic actions within an OCL postcondition/action. The Guarantee-Context criterium measures coverage of the activation conditions of a transition. The Guarantee-Evolution criterium measures the changes in the values of state variables. The Def-Use Pairs criterium measures the coverage of pairs of behaviors in the model. These criteria make it possible to generate test suites that cover a wider range of activation conditions and behaviors
APA, Harvard, Vancouver, ISO, and other styles
5

Cantenot, Jérôme. "Stratégies de génération de tests à partir de modèles UML/OCL interprétés en logique du premier ordre et système de contraintes." Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2042/document.

Full text
Abstract:
Les travaux présentés dans cette thèse proposent une méthode de génération automatique de tests à partir de modèles.Cette méthode emploie deux langages de modélisations UML4MBT et OCL4MBT qui ont été spécifiquement dérivées d’ UML et OCL pour la génération de tests. Ainsi les comportements, la structure et l’état initial du système sont décrits au travers des diagrammes de classes, d’objets et d’états-transitions.Pour générer des tests, l’évolution du modèle est représente sous la forme d’un système de transitions. Ainsi la construction de tests est équivalente à la découverte de séquences de transitions qui relient l’´état initial du système à des états validant les cibles de test.Ces séquences sont obtenues par la résolution de scénarios d’animations par des prouveurs SMT et solveurs CSP. Pour créer ces scénarios, des méta-modèles UML4MBT et CSP4MBT regroupant formules logiques et notions liées aux tests ont été établies pour chacun des outils.Afin d’optimiser les temps de générations, des stratégies ont été développé pour sélectionner et hiérarchiser les scénarios à résoudre. Ces stratégies s’appuient sur la parallélisation, les propriétés des solveurs et des prouveurs et les caractéristiques de nos encodages pour optimiser les performances. 5 stratégies emploient uniquement un prouveur et 2 stratégies reposent sur une collaboration du prouveur avec un solveur.Finalement l’intérêt de cette nouvelle méthode à été validée sur des cas d’études grâce à l’implémentation réalisée<br>This thesis describes an automatic test generation process from models.This process uses two modelling languages, UML4MBT and OCL4MBT, created specificallyfor tests generation. Theses languages are derived from UML and OCL. Therefore the behaviours,the structure and the initial state of the system are described by the class diagram, the objectdiagram and the state-chart.To generate tests, the evolution of the model is encoded with a transition system. Consequently,to construct a test is to find transition sequences that rely the initial state of the system to thestates described by the test targets.The sequence are obtained by the resolution of animation scenarios. This resolution is executedby SMT provers and CSP solvers. To create the scenario, two dedicated meta-models, UML4MBTand CSP4MBT have been established. Theses meta-models associate first order logic formulas withthe test notions.7 strategies have been developed to improve the tests generation time. A strategy is responsiblefor the selection and the prioritization of the scenarios. A strategy is built upon the properties ofthe solvers and provers and the specification of our encoding process. Moreover the process canalso be paralleled to get better performance. 5 strategies employ only a prover and 2 make theprover collaborate with a solver.Finally the interest of this process has been evaluated through a list of benchmark on variouscases studies
APA, Harvard, Vancouver, ISO, and other styles
6

Papailiopoulou, Virginia. "Test automatique de programmes Lustre / SCADE." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00454409.

Full text
Abstract:
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité.
APA, Harvard, Vancouver, ISO, and other styles
7

Lasalle, Jonathan. "Génération automatique de tests à partir de modèles SysML pour la validation fonctionnelle de systèmes embarqués." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00762053.

Full text
Abstract:
Les travaux présentés dans ce mémoire proposent une méthode originale de génération automatique de tests à partir de modèles SysML pour la validation de systèmes embarqués. Un sous-ensemble du langage SysML (appelé SysML4MBT) regroupant les éléments de modélisation pris en compte dans notre approche a été défini et une stratégie de génération de tests dédiée (intitulée ComCover) a été créée. Cette stratégie, basée sur les principes du critère de couverture de modèles bien connu Def-Use, s'intéresse à la couverture des communications (envois / réceptions) au sein du système et entre le système et son environnement.La mise en œuvre opérationnelle d'un prototype, basé sur un générateur de tests à partir de modèle UML, a nécessité la définition de règles de réécriture permettant la transformation du modèle SysML4MBT vers le format d'entrée natif du générateur de tests tout en conservant l'expressivité de SysML4MBT. Finalement, les étapes de concrétisation des tests en scripts exécutables et l'établissement automatique du verdict lors de l'exécution sur banc de test définis durant le projet VETESS permettent l'établissement d'une chaîne outillée opérationnelle de génération et d'exécution automatique de tests à partir de spécifications SysML. Cette chaîne outillée a été étrennée sur plusieurs cas d'étude automobile tels que l'éclairage avant, les essuie-glaces ou la colonne de direction de véhicule. Sur ce dernier exemple, nous avons eu l'opportunité d'exécuter les tests sur un banc de test physique. Ces cas d'étude ont permis de valider chacune des étapes de l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
8

Gonga-Saholiarilava, Nahossio. "Quantification du relief terrestre à partir de grilles numériques : méthodes géomorphométriques, potentiel, analyse critique : tests et applications dans des zones de fronts montagneux." Paris 7, 2010. http://www.theses.fr/2010PA070075.

Full text
Abstract:
Nous avons voulu rassembler ici le fruit de quatre années d'expérience en bureau d'étude et d'auto-apprentissage qui ont permis d'étudier et de caractériser des formes de la surface terrestre et des indicateurs de géomorphologie quantitative à partir d'analyses géomorphométriques basées sur des modèles ou grilles d'élévation. On y présente tout d'abord, sous forme d'un état des lieux, les caractéristiques et la structure des modèles d'élévation ainsi que la géomorphométrie et ses applications en géomorphologie et en reconnaissance de formes. Les bases analytiques et numériques des dérivées mathématiques de l'élévation (pente, convexités locales) et l'évaluation des erreurs au sein des modèles ont été développées et présentées dans un effort de synthèse didactique. Différents tests comparatifs à partir de grilles de sources et de résolutions variées ont été effectués sur plusieurs zones de fronts montagneux présélectionnées pour leurs caractéristiques structurales et géomorphologiques, débouchant sur des algorithmes d'analyse et de calcul adaptés aux conditions du terrain et proposant une méthodologie de cartographie de l'autocorrélation spatiale. À partir de l'analyse du réseau hydrographique et du calcul et de l'évaluation de la pente et des convexités locales, une procédure de localisation automatique des knickpoints a également été développée. Cette procédure est destinée à localiser rapidement et avec précision ces irrégularités dans le profil en long des rivières, par exemple pour des études exploratoires qui précèdent un travail de géomorphologie fluviale ou pour une analyse morphotectonique régionale. Cette nouvelle méthode a été testée dans le contexte de trois fronts montagneux : la Sierra Nacimiento (Nouveau Mexique), le segment de Weber des Wasatch Mountains (Utah), et le secteur de Solsona-Boixols dans les Pyrénées orientales espagnoles, et a permis d'identifier 50 à 80% des knickpoints observés sur le terrain. La variation des résultats obtenus dépend du type de modèle d'élévation utilisé et de sa résolution au sol. Pour de meilleurs résultats l'application demande à être calibrée plus finement grâce à l'introduction de contraintes géomorphométriques supplémentaires. Une telle amélioration se destinerait à prendre en compte l'ensemble des dynamiques d'écoulement fluvial qui caractérisent la présence d'un knickpoint et d'atteindre une capacité de détection de 70-80% quel que soit le modèle d'élévation retenu et la montagne considérée. Notre travail a permis de poser les bases d'un outil reproductible en fonction des paramètres intrinsèques aux modèles ou grilles d'élévation (erreurs, précision, exactitude et structure), qu'il est possible d'intégrer à des logiciels à finalité académique ou industrielle lorsqu'il s'agit d'utiliser les caractéristiques des réseaux hydrographiques comme instruments de diagnostic des dynamiques de la surface et de la subsurface terrestre<br>This work brings together results from four years of both professional experience and self-study focusing on digital elevation models and grid studies, which today form an important basis for terrestrial surface analysis and research in quantitative geomorphology. A didactic inventory of the characteristics and structures of elevation models and their related geomorphometric components is proposed. Analytical and numerical development of the mathematical derivatives of elevation (i. E. Slope and local slope curvatures) and techniques for assessing errors and error propagation in DEMs are proposed, with emphasis on spatial autocorrelation mapping as a tool for locating error hotspots. Comparative tests were carried out on selected geographical areas exhibiting mountain fronts with specific structural and geomorphologic features. Algorithms and methods for the calculation and interpretation of primary and secondary topographic attributes were designed and tested for their suitability to the chosen terrain conditions. I have also developed a numerical script that performs an automated search of geomorphologic features such as river knickpoints on multiple drainage networks. This prototype is designed to locate knickpoints rapidly and effectively, e. G. For exploratory studies prior to field investigations or for mapping crustal deformation and/or structural geology on a regional scale. Verifications and tests are carried out on three mountain fronts with differing characteristics: the Sierra Nacimiento, New Mexico; the Weber segment, Wasatch Mountains, Utah; and the Solsona-Boixols area, eastern Spanish Pyrénées. Based on ground-truth checks, the script could identify 50 to 80% of knickpoints depending on DEM source and ground resolution. Improvements to the script performance ratings call for the introduction of additional geomorphometncal constraints. In order to be process-based as well as purely geomorphometric in nature, these must reflect the dynamics of river flow. A desirable target would be a detection capacity ranging between 70 and 80% whatever the DEM and the mountain terrain considered. This script offers a reproducible numerical tool based on the key geomorphometric parameters of elevation grids including considerations of error, precision, accuracy and structure. It can be readily incorporated into software commonly used in academic and industrial applications that rely on drainage system characteristics for interpreting surface or subsurface dynamics
APA, Harvard, Vancouver, ISO, and other styles
9

Habka, Dany. "Modélisation toxico-pharmacocinétique à partir de méthodes bioinformatiques et de tests in vitro." Compiègne, 2011. http://www.theses.fr/2011COMP1941.

Full text
Abstract:
L'objectif de la thèse est de développer et d'évaluer une approche alternative pour prédire les profils cinétiques de molécules chez l'Homme. Dans cette approche, la disposition de substance dans l'organisme est décrite par un modèle PBPK. Ce dernier est paramétré en utilisant des outils statistiques et diverses sources d'informations. La paramétrisation du modèle PBPK dans le cadre d'une approche intégrée in silico/in vitro a été évaluée. Nos résultats ont montré que la pertinence des prédictions du profil cinétique dépend de la qualité des données et de l'état de notre connaissance sur la molécule. La possibilité d'échec de la méthodologie est donc importante. Nous avons alors évalué 2 pistes pour améliorer la prédictibilité de l'approche. Tout d'abord, nous avons évalué un nouveau système dynamique in vitro développé à l'UTC. Ce dernier offre un environnement plus réaliste pour les cellules en culture par rapport aux systèmes classiques; l'espoir étant d'améliorer la pertinence des estimations in vitro. Notre travail a porté sur la modélisation de cinétiques in vitro dans le système. Nos résultats préliminaires sur le métabolisme hépatique sont encourageants. Ensuite, nous avons évalué la généralisation de l'approche intégrée in silico / in vitro en intégrant d'informations in vivo disponibles chez l'Homme. Nous avons choisi l'ifosfamide comme preuve de concept. Nos résultats ont montré que toutes les données (QSAR, in vitro et in vivo) étaient nécessaires pour paramétrer le modèle. Enfin, nous avons montré un bon niveau prédictif du modèle paramétré en réalisant des exercices d'extrapolation entre différentes doses d'administration et entre individus de différent âge<br>In this work we report calibration methodologies of PBPK models using methods that are alternatives to animal experimentations. Our aim was to develop predictive PBPK models of xenobiotics disposition in humans. PBPK / in vitro / in silico approaches have already been implemented in several commercial PK softwares. We evaluated the predictability of this approach and showed that the goodness of the PK predictions was widely dependent on the precision of ADME parameters estimation, in particular relative to partition coefficients and metabolic parameters. To increase the predictability of PBPK models, we investigated two approaches. First we investigated the development of realistic techniques like cell microchips which provide an in vivo-like environment for cells in culture and may lead to more accurate estimations of ADME parameters, notably metabolism. We evaluated preliminary metabolic data obtained on a hepatic cells microchip developed by UTC. For this purpose, we proposed a mathematical model that account for the unspecific binding to the device and cell constituents. Our results showed that the metabolic clearance predictions were equally or more accurate than the predictions made using static devices. Second the calibration of PBPK models may combine in silico, in vitro information together with in vivo data available for humans like blood concentrations. To illustrate this PBPK / QSAR / in vitro / in vivo approach, we developed a PBPK model for ifosfamide. This exercise emphasized the complementarities of the several information sources used in the calibration step. Once parameterized, the model was used to extrapolate between doses and population groups
APA, Harvard, Vancouver, ISO, and other styles
10

Balikas, Georgios. "Explorer et apprendre à partir de collections de textes multilingues à l'aide des modèles probabilistes latents et des réseaux profonds." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM054/document.

Full text
Abstract:
Le texte est l'une des sources d'informations les plus répandues et les plus persistantes. L'analyse de contenu du texte se réfère à des méthodes d'étude et de récupération d'informations à partir de documents. Aujourd'hui, avec une quantité de texte disponible en ligne toujours croissante l'analyse de contenu du texte revêt une grande importance parce qu' elle permet une variété d'applications. À cette fin, les méthodes d'apprentissage de la représentation sans supervision telles que les modèles thématiques et les word embeddings constituent des outils importants.L'objectif de cette dissertation est d'étudier et de relever des défis dans ce domaine.Dans la première partie de la thèse, nous nous concentrons sur les modèles thématiques et plus précisément sur la manière d'incorporer des informations antérieures sur la structure du texte à ces modèles.Les modèles de sujets sont basés sur le principe du sac-de-mots et, par conséquent, les mots sont échangeables. Bien que cette hypothèse profite les calculs des probabilités conditionnelles, cela entraîne une perte d'information.Pour éviter cette limitation, nous proposons deux mécanismes qui étendent les modèles de sujets en intégrant leur connaissance de la structure du texte. Nous supposons que les documents sont répartis dans des segments de texte cohérents. Le premier mécanisme attribue le même sujet aux mots d'un segment. La seconde, capitalise sur les propriétés de copulas, un outil principalement utilisé dans les domaines de l'économie et de la gestion des risques, qui sert à modéliser les distributions communes de densité de probabilité des variables aléatoires tout en n'accédant qu'à leurs marginaux.La deuxième partie de la thèse explore les modèles de sujets bilingues pour les collections comparables avec des alignements de documents explicites. En règle générale, une collection de documents pour ces modèles se présente sous la forme de paires de documents comparables. Les documents d'une paire sont écrits dans différentes langues et sont thématiquement similaires. À moins de traductions, les documents d'une paire sont semblables dans une certaine mesure seulement. Pendant ce temps, les modèles de sujets représentatifs supposent que les documents ont des distributions thématiques identiques, ce qui constitue une hypothèse forte et limitante. Pour le surmonter, nous proposons de nouveaux modèles thématiques bilingues qui intègrent la notion de similitude interlingue des documents qui constituent les paires dans leurs processus générateurs et d'inférence.La dernière partie de la thèse porte sur l'utilisation d'embeddings de mots et de réseaux de neurones pour trois applications d'exploration de texte. Tout d'abord, nous abordons la classification du document polylinguistique où nous soutenons que les traductions d'un document peuvent être utilisées pour enrichir sa représentation. À l'aide d'un codeur automatique pour obtenir ces représentations de documents robustes, nous démontrons des améliorations dans la tâche de classification de documents multi-classes. Deuxièmement, nous explorons la classification des tweets à plusieurs tâches en soutenant que, en formant conjointement des systèmes de classification utilisant des tâches corrélées, on peut améliorer la performance obtenue. À cette fin, nous montrons comment réaliser des performances de pointe sur une tâche de classification du sentiment en utilisant des réseaux neuronaux récurrents. La troisième application que nous explorons est la récupération d'informations entre langues. Compte tenu d'un document écrit dans une langue, la tâche consiste à récupérer les documents les plus similaires à partir d'un ensemble de documents écrits dans une autre langue. Dans cette ligne de recherche, nous montrons qu'en adaptant le problème du transport pour la tâche d'estimation des distances documentaires, on peut obtenir des améliorations importantes<br>Text is one of the most pervasive and persistent sources of information. Content analysis of text in its broad sense refers to methods for studying and retrieving information from documents. Nowadays, with the ever increasing amounts of text becoming available online is several languages and different styles, content analysis of text is of tremendous importance as it enables a variety of applications. To this end, unsupervised representation learning methods such as topic models and word embeddings constitute prominent tools.The goal of this dissertation is to study and address challengingproblems in this area, focusing on both the design of novel text miningalgorithms and tools, as well as on studying how these tools can be applied to text collections written in a single or several languages.In the first part of the thesis we focus on topic models and more precisely on how to incorporate prior information of text structure to such models.Topic models are built on the premise of bag-of-words, and therefore words are exchangeable. While this assumption benefits the calculations of the conditional probabilities it results in loss of information.To overcome this limitation we propose two mechanisms that extend topic models by integrating knowledge of text structure to them. We assume that the documents are partitioned in thematically coherent text segments. The first mechanism assigns the same topic to the words of a segment. The second, capitalizes on the properties of copulas, a tool mainly used in the fields of economics and risk management that is used to model the joint probability density distributions of random variables while having access only to their marginals.The second part of the thesis explores bilingual topic models for comparable corpora with explicit document alignments. Typically, a document collection for such models is in the form of comparable document pairs. The documents of a pair are written in different languages and are thematically similar. Unless translations, the documents of a pair are similar to some extent only. Meanwhile, representative topic models assume that the documents have identical topic distributions, which is a strong and limiting assumption. To overcome it we propose novel bilingual topic models that incorporate the notion of cross-lingual similarity of the documents that constitute the pairs in their generative and inference processes. Calculating this cross-lingual document similarity is a task on itself, which we propose to address using cross-lingual word embeddings.The last part of the thesis concerns the use of word embeddings and neural networks for three text mining applications. First, we discuss polylingual document classification where we argue that translations of a document can be used to enrich its representation. Using an auto-encoder to obtain these robust document representations we demonstrate improvements in the task of multi-class document classification. Second, we explore multi-task sentiment classification of tweets arguing that by jointly training classification systems using correlated tasks can improve the obtained performance. To this end we show how can achieve state-of-the-art performance on a sentiment classification task using recurrent neural networks. The third application we explore is cross-lingual information retrieval. Given a document written in one language, the task consists in retrieving the most similar documents from a pool of documents written in another language. In this line of research, we show that by adapting the transportation problem for the task of estimating document distances one can achieve important improvements
APA, Harvard, Vancouver, ISO, and other styles
11

Dubois-Lambert, Anne. "Les stratégies patrimoniales des travailleurs indépendants en vue de la retraite : formalisation et test d'un modèle de retraite à partir de l'Enquête Actifs Financiers 91." Montpellier 1, 1996. http://www.theses.fr/1996MON10041.

Full text
Abstract:
L'objet de cette these est d'analyser le role du patrimoine et du taux de remplacement des revenus professionnels dans le processus de decision de retraite des travailleurs independants. A partir de l'enquete actifs financiers realisee en 1991-92 par l'insee a l'echelle nationale, on elabore tout d'abord des faits stylises a partir d'une description empirique de leurs comportements patrimoniaux et d'activite professionnelle et de l'analyse de l'evolution des regimes de retraite. Cette caracterisation des strategies individuelles d'accumulation patrimoniale et des processus de gestion de l'offre de travail sur le cycle de vie conduit ensuite a elaborer, en s'inspirant des modeles de cycle de vie elargis un modele specifique base sur l'endogeneite des ressources, decoulant de la formalisation de la relation "menageentreprise" et integrant la possibilite d'arbitrage entre une preparation collective et privee de la retraite. On en derive une regle de decision que l'on teste sur la population independante situee au voisinage de la retraite. La methodologie de test retenue consiste alors a confronter un modele myope de remplacement des revenus d'activite (selon lequel la decision de retraite serait prise en comparant les revenus alternatifs instantanes attaches a cette decision) a un modele qui est conditionnel au niveau de patrimoine accumule en fin de carriere, integrant l'aspect dynamique inherent aux problemes de cycle de vie. L'infirmation de cette regle de decision par les comportements de retraite des independants met en avant la specificite de ces derniers en termes de profils de carriere et de preference pour le travail et souligne le role des strategies patrimoniales de plus long terme liees a des considerations intergenerationnelles. Ces caracteristiques constituent un frein au mouvement d'harmonisation entre salaries et non-salaries mis en oeuvre par les regimes de retraite, que reflete une certaine inertie des comportements de retraite des independants face a la reforme<br>The purpose of this thesis is to analyse the function of wealth and income replacement rate in the retirement decision process of self-employed workers. First of all, empirical facts are elaborated from a preliminary descriptive analysis of a data set on french households collected by insee at national level. The characterisation of wealth accumulation and labour supply strategies in the life cycle leads us to build a specific retirement model which endogeneises resources, resulting from the "firm-household" status which characterises self-employed workers and integrates their ability to choose between private and professional financing of their retirement. We derive from this model a decision rule which is tested on the self-employed population. The test methodology consists in confronting a short-sighted model of income replacement rate (according to which retirement decisions are taken only in view of the alternative instantaneous income linked to the retirement decision) with a model which is conditional to the personal accumulated wealth at the end of one's career, integrating the dynamic aspect inherent to life cycle problems. The invalidation of the "short-sighted" decision rule by the retirement behaviours observed within the self-employed population brings into light the characteristics of this population in terms of professional career and leisure preference and highlights the weight of their longer term wealth strategies linked to intergenerational motives. These characteristics tend to impede to the harmonisation process between wage-earners and self-employed workers promoted by the reform on retirement conditions. This result is illustrated by the relative inertia of retirement behaviours of self-employed workers in face of this reform
APA, Harvard, Vancouver, ISO, and other styles
12

Vernotte, Alexandre. "A pattern-driven and model-based vulnerability testing for Web applications." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2024/document.

Full text
Abstract:
Cette thèse propose une approche originale de test de vulnérabilité Web à partir de modèles etdirigée par des patterns de tests, nommée PMVT. Son objectif est d’améliorer la capacité de détectionde quatre types de vulnérabilité majeurs, Cross-Site Scripting, Injections SQL, Cross-Site RequestForgery, et Privilege Escalation. PMVT repose sur l’utilisation d’un modèle comportemental del’application Web, capturant ses aspects fonctionnels, et sur un ensemble de patterns de test devulnérabilité qui adressent un type de vulnérabilité de manière générique, quelque soit le type del’application Web sous test.Par l’adaptation de technologies MBT existantes, nous avons développé une chaîne outillée complèteautomatisant la détection des quatre types de vulnérabilité. Ce prototype a été exprimenté et évaluésur deux applications réelles, actuellement utiliseés par plusieurs dizaines de milliers d’utilisateurs.Les résultats d’expérimentation démontrent la pertinence et de l’efficience de PMVT, notamment enaméliorant de façon significative la capacité de détection de vulnérabilités vis à vis des scannersautomatiques d’applications Web existants<br>This thesis proposes an original approach, dubbed PMVT for Pattern-driven and Model-basedVulnerability Testing, which aims to improve the capability for detecting four high-profile vulnerabilitytypes, Cross-Site Scripting, SQL Injections, CSRF and Privilege Escalations, and reduce falsepositives and false negatives verdicts. PMVT relies on the use of a behavioral model of theapplication, capturing its functional aspects, and a set of vulnerability test patterns that addressvulnerabilities in a generic way. By adapting existing MBT technologies, an integrated toolchain that supports PMVT automates thedetection of the four vulnerability types in Web applications. This prototype has been experimentedand evaluated on two real-life Web applications that are currently used by tens of thousandsusers. Experiments have highlighted the effectiveness and efficiency of PMVT and shown astrong improvement of vulnerability detection capabilities w.r.t. available automated Web applicationscanners for these kind of vulnerabilities
APA, Harvard, Vancouver, ISO, and other styles
13

Ciocan, Alexandru. "Contributions aux systèmes de stockage d’énergie en utilisant des systèmes hybrides à partir de sources d’énergie alternatives." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0028/document.

Full text
Abstract:
La thèse intitulée «Contributions aux systèmes de stockage d’énergie en utilisant des systèmes à partir de sources d’énergie alternatives» propose une étude des technologies de stockage d'énergie en sachant qu'elles sont considérées comme l'une des options qui peuvent faciliter une forte pénétration de sources renouvelables. Dans ce contexte, le travail présenté vise à comprendre les défis liés au stockage de l'énergie et à développer un modèle général d'étude utilisant l'air comprimé comme moyen de stockage d'énergie.La thèse est structurée dans dix chapitres dont les quatre premiers sont consacrés à la présentation potentielle des sources d'énergie renouvelables, à l'évolution du secteur de l'énergie au cours des dernières décennies et aux technologies de stockage d'énergie, notamment sous forme d'air comprimé. Les six autres chapitres concernent les calculs thermodynamiques théoriques dans la mesure où il s'agit d'étudier les performances d'un système de stockage d'énergie hybride et de présenter un modèle mathématique contenant les étapes prises en compte dans la conversion de l'énergie renouvelable en énergie mécanique, stockées dans une forme d'air comprimé et plus tard reconvertis en électricité. De plus, ces chapitres présentent des données expérimentales obtenues sur une installation de laboratoire qui ont contribué à la validation des résultats théoriques obtenus suite à une simulation Matlab, et enfin une étude de cas pour une application à petite échelle, 30 kWh d'énergie stockée, où vise à trouver une configuration optimale. De l'ensemble du système en termes de pression de travail de l'air, analysé sous deux points de vue, technique et économique. La thèse se termine par un chapitre de conclusions générales et nous constatons qu'il reste encore quelques défis à surmonter pour que le stockage de l'énergie sous forme d'air comprimé soit une solution possible d'une perspective économique<br>The thesis entitled «Contributions to energy storage using hybrid systems from alternative energy sources» proposes a study of the energy storage technologies knowing the fact that these are considered one of the options that can facilitate a high penetration of renewable sources. In this context, the presented work aims to understand challenges in terms of energy storage and to develop a general studying model using compressed air as an energy storage medium.The thesis is structured in ten chapters from which the first four are dedicated to the presentation of the renewable energy sources potential, to the energy sector evolution in the last decades and to the energy storage technologies, especially in the form of compressed air. The other six chapters are dealing with the theoretical thermodynamic calculations as far as that goes in investigating the performances of a hybrid energy storage system and presenting a mathematical model containing the steps taken into account in the renewable energy conversion into mechanical energy, stored in a form of compressed air and later reconverted into electricity. In addition these chapters present experimental data obtained on a laboratory installation which helped in validating the theoretical results obtained following a Matlab simulation, and finally a case study for a small scale application, 30 kWh of energy stored, where is aiming to find an optimal configuration of the whole system in terms of air working pressure, being analyzed from two points of view, technical and economic. The thesis ends with a chapter of general conclusions and indicates that there are still challenges that must be overcome in order to make the energy storage in a form of compressed air a feasible solution from an economic perspective
APA, Harvard, Vancouver, ISO, and other styles
14

Tran, Quoc Anh. "Modélisation numérique du comportement des milieux granulaires à partir de signaux pénétrométriques : approche micromécanique par la méthode des éléments discrets." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22561/document.

Full text
Abstract:
Dans la pratique actuelle du génie géotechnique, les essais de pénétration tels que les CPT, SPT, Panda sont largement utilisés pour caractériser mécaniquement les sols, au travers notamment d’une caractéristique de rupture appelée résistance de pointe. Par ailleurs, les dernières évolutions technologiques apportées aux essais de pénétration dynamique (Panda 3) permettent d’obtenir pendant chaque impact une courbe charge–enfoncement donnant la charge en pointe en fonction de l’enfoncement à partir de la mesure et du découplage des ondes générées durant l’essai. L’exploitation de cette nouvelle courbe fournit des informations non seulement sur la résistance de pointe dynamique mais également sur des paramètres mécaniques complémentaires mis en jeu pendant l’enfoncement de la pointe. L’objectif de cette thèse est de développer un modèle numérique en 2D capable de reproduire les signaux pénétrométriques obtenus expérimentalement par essais de type statique ou dynamique. Ce modèle est basé sur la méthode des éléments discrets avec une loi de contact linéaire simple. Une fois le modèle validé, une étude paramétrique a été réalisée en jouant essentiellement sur les modes d’application de la sollicitation (vitesse d’impact ou de pénétration), la granulométrie du matériau ainsi que l’arrangement granulaire (variation de la densité). Outre l’influence de ces paramètres sur les signaux pénétrométriques et la résistance de pointe mesurée, une attention particulière est portée sur l’analyse micromécanique : dissipation d’énergie dans le milieu, évolution des chaines de force, orientations des contacts. Cette analyse nécessite de développer des outils numériques spécifiques afin de mieux comprendre le mécanisme de l’enfoncement et tenter d’expliquer la réponse mécanique macroscopique obtenue. L’effet de la vitesse n’influence significativement que sur les essais de pénétration statiques et dynamiques en régime d’écoulement dense. A vitesse d’enfoncement comparable, il n’y a aucune différence significative au niveau microscopique entre les deux modes de sollicitation statique et dynamique. En ce qui concerne l’influence des caractéristiques du matériau, les résultats obtenus par le modèle numérique conforment aux celui réel lors que le frottement entre particules ou la compacité du milieu varie. Concernant la granulométrie, la variation de la courbe charge-enfoncement et la force de pointe dynamique augmente lorsque le diamètre moyen augmente<br>In the field of in situ mechanical characterization of soils, penetration tests are commonly used. Penetration tests measure the properties of soils in the domain of large deformations. The tip resistances, deduced from pile driving theory, can be measured either in dynamic conditions (q d ) either in static conditions (q c ). Recently, the measurement technique in dynamic conditions has been improved and it is now possible to record the whole response of the soil during one impact in terms of tip force and penetration distance. The exploitation of this new curve provides information not only on dynamic tip resistance but also on additional mechanical parameters involved during the driving of the tip. The objective of this work is to develop a numerical model in 2D able to reproduce the penetrometric record obtained experimentally by static or dynamic penetration tests. This model is based on the discrete element method with a simple linear contact model. After the validation of the model, a parametric study was performed essentially on the loading type (static or dynamic), the penetration rate, the particle size of the granular material and the arrangement (density variation). Besides the influence of these parameters on the penetrometer signals and the tip resistance, a particular attention was focused on micromechanical analysis: energy dissipation in the medium, force chain evolution, contact orientation. This analysis requires the development of specific numerical tools to better understand the penetration mechanism and try to explain the macroscopic mechanical response obtained. The penetration rate influences significantly only in the dense flow regime on the static and dynamic penetration tests. There is no significant microscopic difference between static and dynamic penetration tests with similar penetration rates. Regarding the influence of the characteristics of the material, the numerical results obtained conform to the real results when the particle friction or the compactness of the medium varies. Concerning the particle size, the dynamic signal variation and the dynamic tip force increases when the average particle diameter increases
APA, Harvard, Vancouver, ISO, and other styles
15

Cogranne, Rémi. "Détection statistique d'informations cachées dans une image naturelle à partir d'un modèle physique." Troyes, 2011. http://www.theses.fr/2011TROY0016.

Full text
Abstract:
De nos jours, de nombreuses images naturelles numériques, acquises par un appareil photographique, circulent un peu partout dans le monde. Les images sont parfois modifiées de façon légitime ou illicite pour transmettre une information confidentielle ou secrète. Dans ce contexte, la stéganographie constitue une méthode de choix pour transmettre et dissimuler de l’information. Par conséquent, il est nécessaire de détecter la présence d’informations cachées dans des images naturelles. L’objectif de cette thèse est de développer une nouvelle approche statistique pour effectuer cette détection avec la meilleure fiabilité possible. Dans le cadre de ces travaux, le principal enjeu est la maîtrise des probabilités d'erreur de détection. Pour cela, un modèle paramétrique localement non-linéaire d’une image naturelle est développé. Ce modèle est construit à partir de la physique du système d’acquisition optique et de la scène imagée. Quand les paramètres de ce modèle sont connus, un test statistique théorique est proposé et ses propriétés d’optimalité sont établies. La difficulté principale de la construction de ce test repose sur le fait que les pixels de l’image sont toujours quantifiés. Lorsqu’aucune information sur l'image n'est pas disponible, il est proposé de linéariser le modèle tout en respectant la contrainte sur la probabilité de fausse alarme et en garantissant une perte d'optimalité bornée. De nombreuses expérimentations sur des images réelles ont confirmé la pertinence de cette nouvelle approche<br>With the advent of mainstream computing, the Internet and digital photography, many natural images (acquired by a camera) circulate around the world. The images are sometimes altered by a legitimate or illegal information in order to transmit confidential or secret information. In this context, steganography is a method of choice to transmit and to hide information. Therefore, it is necessary to detect the presence of hidden information in natural images. The objective of this thesis is to develop a new statistical approach to perform this detection with the highest reliability possible. As part of this work, the main challenge is to control the probability of detection error. For this purpose, a parametric model locally non-linear of a natural image (acquired by a camera) is developed. This model is built from the physics of optical acquisition system and the imaged scene. When the parameters of this model are known, a statistical test is proposed and its theoretical optimality properties are established. The main difficulty in the construction of this test is based on the fact that image pixels are always quantified. When information on the image is not available, it is proposed to linearize the model while respecting the constraint on the probability of false alarm and guaranteeing a loss of optimality bounded. Many experiments on real images have confirmed the relevance of this new approach
APA, Harvard, Vancouver, ISO, and other styles
16

Marsso, Lina. "Etude de génération de tests à partir d'un modèle pour les systèmes GALS." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM078.

Full text
Abstract:
Cette thèse porte sur la génération de tests à partir d’un modèle pour les systèmes GALS (Globalement Asynchrones et Localement Synchrones). La combinaison des aspects synchrones et asynchrones en font des systèmes complexes, imposant de recourir à de nouvelles méthodes d’analyse. Pour faire face à cette complexité, nous explorons trois directions : (1) techniques pour les composants synchrones ; (2) techniques pour les protocoles de communication entre les composants ; et (3) techniques pour des systèmes GALS complets, combinant les résultats des deux directions précédentes.Dans la première direction, nous explorons des techniques formelles pour le test fonctionnel de composants synchrones. En tant qu’étude de cas, nous reprenons l’algorithme d’authentification de message (MAA), une fonction cryptographique conçue au milieu des années 80. Nous formalisons cet algorithme en tant que flux de données synchrone. La modélisation et la validation du MAA nous ont permis de découvrir diverses erreurs dans les spécifications (informelles et formelles) préalables du MAA, les vecteurs de test et code des normes ISO 1987 et ISO 1990 ; dans les compilateurs et outils de vérification que nous avons utilisés.Dans la seconde direction, nous explorons la formalisation et le test fonctionnel d’un protocole de communication. Dans notre étude de cas, nous évaluons le protocole d’établissement d’une liaison sécurisé au niveau de la couche de transport (TLS), responsable de l’authentification et de l’échange de clés nécessaires pour établir ou reprendre une communication sécurisée. Notre modèle de la version 1.3 TLS a été validé par une approche utilisant notre nouvel outil de génération de cas de test de conformité à la volée, nommé TESTOR, développé à partir de la boı̂te à outils CADP. Cet outil explore le modèle et génère automatiquement un ensemble de cas de tests ou un graphe de test complet (CTG),à exécuter sur une implémentation physique d’un système.Dans la troisième direction, nous proposons une méthodologie de test permettant d’analyser les systèmes GALS dans leur ensemble. Nous tirons parti de la génération de tests de conformité des systèmes asynchrones pour dériver automatiquement des scénarios réalistes (contraintes d’entrées et oracles), qui sont ardus à concevoir manuellement et sujet d’erreurs. Ainsi, notre méthodologie intègre (1) modèles concurrents synchrones et asynchrones; (2) les tests unitaires fonctionnels et les tests de conformité comportementale; et (3) diverses méthodes formelles et leurs outils. Nous illustrons notre méthodologie sur un exemple simple, mais représentatif inspiré des voitures autonomes<br>This dissertation focuses on the model-based testing of GALS (GloballyAsynchronous and Locally Synchronous) systems, which are inherentlycomplex because of the combination of synchronous and asynchronous aspects.To cope with this complexity, we explore three directions:(1) techniques for synchronous components;(2) techniques for communication protocols between components; and(3) techniques for complete GALS systems, combining theresults of the two previous directions.In the first direction, we explore formal techniques for the functionaltesting of synchronous components.As a case-study, we reconsider the Message Authenticator Algorithm(MAA), a pioneering cryptographic function designed in the mid-80s, andformalize it as a synchronous dataflow.The modeling and validation of the MAA enabled us to discover variousmistakes in prior (informal and formal) specifications of the MAA, thetest vectors and code of the ISO 1987 and ISO 1990 standards, and incompilers and verification tools used by us.In the second direction, we explore the formalization and the functionaltesting of a communication protocol. As a case-study, we reconsider the formalization of the Transport Layer Security (TLS) handshake, a protocol responsible for the authentication and exchange of keys necessary to establish or resume a secure communication.Our model of the TLS version 1.3 has been validated by an approach using our new on-the-fly conformance test case generation tool, named TESTOR, developed on top of the CADP toolbox.TESTOR explores the model and generates automatically a set of controllable testcases or a complete test graph (CTG) to be executed on a physical implementation ofthe system.In the third direction, we propose a testing methodology for GALSsystems combining the two previous directions.We leverage the conformance test generation for asynchronous systems toautomatically derive realistic scenarios (inputs constraints andoracles), which are necessary ingredients for the unit testing of individual synchronouscomponents, and are difficult and error-prone to design manually.Thus our methodology integrates(1) synchronous and asynchronous concurrent models;(2) functional unit testing and behavioral conformance testing;and (3) various formal methods and their tool equipments.We illustrate our methodology on a simple, but relevant example inspiredby autonomous cars
APA, Harvard, Vancouver, ISO, and other styles
17

Ebeido, Kebieh Amira. "Test d'hypothèses et modèles aléatoires autorégressifs." Paris 2, 1987. http://www.theses.fr/1987PA020091.

Full text
Abstract:
Le travail presente ici concerne l'estimateurs et les tests utilises sur des modeles autoregressifs construits a partir de l'observation d'une serie temporelle. La serie traitee en elle-meme, independamment d'autres series avec lesquelles elle pourrait etre en relation. On a distingue trois parties essentielles : la premiere s'attache aux modeles autoregressifs du premier ordre. Les methodes d'estimation et les proprietes des estimateurs obtenues sont discutees. Deux hypotheses essentielles sont testees :. La premiere hypothese concerne le parametre autoregressif : processus stable avec b <1; processus explosif avec b >1; processus a cheminement aleatoire avec b = 1. . La seconde hypothese concerne le terme aleatoire et : les et independants ou non. La deuxieme partie s'attache aux modeles autoregressifs - moyennes mobiles (arma); les methodes d'estimation et les tests concernant l'adequation du modele identifie et estime sont analyses. La troisieme se compose enfin de deux applications pratiques : l'une porte sur le cours des actions industrielles aux etats-unis pendant ces douze dernieres annees, (de 1974 a 1985), ce processus qui est identifie comme un processus autoregressif du premier ordre suit un cheminement aleatoire. L'autre application concerne la production d'automobiles "voitures de tourisme" au japon pour la periode allant de janvier 1974 a juin 1986. Apres identification et tests le pro- cessus apparait comme un arma (2,16).
APA, Harvard, Vancouver, ISO, and other styles
18

Longuet, Delphine. "Test à partir de spécifications axiomatiques." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00258792.

Full text
Abstract:
Le test est l'une des méthodes les plus utilisées pour la validation du logiciel. L'activité de test consiste à exécuter le logiciel sur un sous-ensemble de ses entrées possibles de manière à déceler d'éventuelles erreurs. La présence d'erreurs est établie par confrontation du comportement du logiciel avec un objet de référence. Le processus de test est généralement décomposé en trois phases : la sélection du sous-ensemble des entrées sur lequel le logiciel sera exécuté, la soumission de ces entrées au logiciel en collectant les sorties (les réponses du logiciel) et la décision de l'adéquation de ces sorties avec les sorties attendues.<br /><br />La sélection des données à soumettre au logiciel peut être effectuée selon différentes approches. Lorsque la phase de sélection d'un jeu de tests est opérée à partir d'un objet de référence décrivant plus ou moins formellement le comportement du logiciel, sans connaissance de l'implantation elle-même, on parle de test « boîte noire ». Une des approches de test boîte noire pour laquelle un cadre formel a été proposé est celle qui utilise comme objet de référence une spécification logique du système sous test.<br /><br />Le cadre général de test à partir de spécifications logiques (ou axiomatiques) pose les conditions et les hypothèses sous lesquelles il est possible de tester un système. La première hypothèse consiste à considérer le système sous test comme un modèle formel implantant les opérations dont le comportement est décrit par la spécification. La seconde hypothèse a trait à l'observabilité du système sous test. Il faut fixer la forme des formules qui peuvent être interprétées par le système, c'est-à-dire qui peuvent être des tests. On se restreint généralement au moins aux formules qui ne contiennent pas de variables. Une fois ces hypothèses de test posées, on dispose d'un jeu de tests initial, celui de toutes les formules observables qui sont des conséquences logiques de la spécification. <br /><br />Le premier résultat à établir est l'exhaustivité de cet ensemble, c'est-à-dire sa capacité à prouver la correction du système s'il pouvait être soumis dans son intégralité. Le jeu de tests exhaustif étant le plus souvent infini, une phase de sélection intervient afin de choisir un jeu de tests de taille finie et raisonnable à soumettre au système. Plusieurs approches sont possibles. L'approche suivie dans ma thèse, dite par partition, consiste a diviser le jeu de tests exhaustif initial en sous-jeux de tests, selon un certain critère de sélection relatif à une fonctionnalité ou à une caractéristique du système que l'on veut tester. Une fois cette partition suffisamment fine, il suffit de choisir un cas de test dans chaque sous-jeu de test obtenu en appliquant l'hypothèse d'uniformité (tous les cas de test d'un jeu de test sont équivalents pour faire échouer le système). Le deuxième résultat à établir est que la division du jeu de tests initial n'ajoute pas (correction de la procédure) et ne fait pas perdre (complétude) de cas de test.<br /><br />Dans le cadre des spécifications algébriques, une des méthodes de partition du jeu de tests exhaustif qui a été très étudiée, appelée dépliage des axiomes, consiste à procéder à une analyse par cas de la spécification. Jusqu'à présent, cette méthode s'appuyait sur des spécifications équationnelles dont les axiomes avaient la caractéristique d'être conditionnels positifs (une conjonction d'équations implique une équation).<br /><br />Le travail de ma thèse a eu pour but d'étendre et d'adapter ce cadre de sélection de tests à des systèmes dynamiques spécifiés dans un formalisme axiomatique, la logique modale du premier ordre. La première étape a consisté à généraliser la méthode de sélection définie pour des spécifications équationnelles conditionnelles positives aux spécifications du premier ordre. Ce cadre de test a ensuite été d'adapté à des spécifications modales du premier ordre. Le premier formalisme de spécification considéré est une extension modale de la logique conditionnelle positive pour laquelle le cadre de test a été initialement défini. Une fois le cadre de test adapté aux spécifications modales conditionnelles positives, la généralisation aux spécifications modales du premier ordre a pu être effectuée. <br /><br />Dans chacun de ces formalismes nous avons effectué deux tâches. Nous avons d'une part étudié les conditions nécessaires à imposer à la spécification et au système sous test pour obtenir l'exhaustivité du jeu de tests initial. Nous avons d'autre part adapté et étendu la procédure de sélection par dépliage des axiomes à ces formalismes et montré sa correction et sa complétude. Dans les deux cadres généraux des spécifications du premier ordre et des spécifications modales du premier ordre, nous avons montré que les conditions nécessaires à l'exhausitivité du jeu de test visé étaient mineures car faciles à assurer dans la pratique, ce qui assure une généralisation satisfaisante de la sélection dans ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
19

Finot, Olivier. "Oracles du test de transformations de modèles." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=2069ea58-6610-4161-8bef-5c993ad30652.

Full text
Abstract:
L’Ingénierie Dirigée par les Modèles place les modèles au coeur du cycle de développement logiciel. Ces modèles évoluent par le biais de diverses transformations. Dans cette thèse nous nous sommes intéressés à la validation de ces transformations de modèles par le test, et en particulier à l’oracle de ce test. Nous proposons deux approches pour assister le testeur dans la création de ces oracles. Tout d’abord, nous offrons une assistance passive en fournissant au testeur une nouvelle fonction d’oracle. Cette dernière lui permet de créer des oracles qui ne contrôlent qu’une partie des modèles obtenus. Nous avons défini la notion de verdict partiel, explicité les situations où un verdict partiel est plus avantageux et proposé un protocole global du test de transformations dans ce contexte. Nous avons mis en oeuvre cette première proposition dans un outillage avec lequel nous l’avons expérimentée. Ensuite, nous offrons au testeur une assistance active en étudiant la qualité d’un ensemble d’oracles. Nous considérons la qualité d’un ensemble d’oracles selon sa capacité à détecter des fautes dans la transformation sous test. Nous proposons une méthode qui corrige en partie les insuffisances de l’analyse de mutation, utilisée dans ce contexte ; nous mesurons la couverture du méta-modèle de sortie par l’ensemble d’oracles considéré. Nous montrons que notre approche est indépendante du langage utilisé pour la mise en oeuvre de la transformation sous test, et fournit au testeur des informations pour l’amélioration des oracles. Nous avons défini une démarche pour mesurer la couverture et qualifier des oracles. Nous avons développé un outil pour expérimenter et valider notre proposition<br>With Model Driven Engineering models are the heart of software development. These models evolve through transformations. In this thesis our interest was the validation for these model transformations by testing, and more precisely the test oracles. We propose two approaches to assist the tester to create these oracles. With the first approach this assistance is passive; we provide the tester with a new oracle function. The test oracles created with this new oracle function control only part of the model produced by the transformation under test. We defined the notion of partial verdict, described the situations where having a partial verdict is beneficial for the tester and how to test a transformation in this context. We developed a tool implementing this proposal, and ran experiments with it. With the second approach, we provide a more active assistance about test oracles’ quality. We study the quality of a set of model transformation test oracles. We consider that the quality of a set of oracles is linked to its ability to detect faults in the transformation under test. We show the limits of mutation analysis which is used for this purpose, then we propose a new approach that corrects part of these drawbacks. We measure the coverage of the output meta-model by the set of oracles we consider. Our approach does not depend on the language used for the transformation under test’s implementation. It also provides the tester with hints on how to improve her oracles. We defined a process to evaluate meta-model coverage and qualify test oracles. We developed a tool implementing our approach to validate it through experimentations
APA, Harvard, Vancouver, ISO, and other styles
20

Vinot, Pascal. "Robustesse des modèles et optimisation à partir de modèles condensés ou simplifiés." Besançon, 2001. http://www.theses.fr/2001BESA2050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Sanchez, Marie-Pierre. "Analyse génétique de la composition protéique & des aptitudes fromagères du lait de vache prédites à partir des spectres moyen infrarouge." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLA008/document.

Full text
Abstract:
Les aptitudes du lait à la transformation en fromage sont étroitement liées à sa composition, notamment en protéines. Ces caractères, difficiles à mesurer directement, ont été prédits à partir des spectres moyen infrarouge (MIR) du lait pour la composition en protéines dans les 3 races bovines Montbéliarde, Normande et Holstein (projet PhénoFinlait) et pour 9 aptitudes fromagères et la composition fine du lait en race Montbéliarde (projet From’MIR). La méthode Partial Least Squares (PLS) a fourni des prédictions MIR plus précises que les méthodes bayésiennes testées.Une analyse génétique a été réalisée pour ces caractères prédits à partir de plus de six millions de spectres MIR de plus de 400 000 vaches.Les caractères fromagers et de composition du lait sont modérément à fortement héritables. Les corrélations génétiques entre caractères fromagers (rendements et coagulation) et avec la composition du lait (protéines, acides gras et minéraux) sont élevées et favorables.Les génotypes de 28 000 vaches ont été imputés jusqu’à la séquence complète grâce aux données du projet 1000 génomes bovins.Des analyses d’association (GWAS) révèlent de nombreux gènes et variants avec des effets forts sur la fromageabilité et la composition du lait. Un réseau de 736 gènes, par ailleurs associé à ces caractères, permet d’identifier des voies métaboliques et des gènes régulateurs fonctionnellement liés à ces caractères.Un prototype d’évaluation génomique a été mis en place en race Montbéliarde. Un modèle de type contrôles élémentaires, incluant les variants détectés par les GWAS et présumés causaux, donne les estimations des valeurs génomiques les plus précises. La simulation d’une sélection incluant les caractères fromagers montre qu’il est possible d’améliorer la fromageabilité du lait avec un impact limité sur le gain génétique des autres caractères sélectionnés.Les travaux présentés dans cette thèse ont abouti 1) à la détection de gènes (dont certains jamais décrits auparavant) et de variants candidats pour la composition et la fromageabilité du lait et 2) à la mise en place d’une évaluation génomique de la fromageabilité du lait en race Montbéliarde dans la zone AOP Comté<br>The ability of milk to be processed into cheese is closely linked to its composition, in particular in proteins. These traits, which are difficult to measure directly, were predicted from milk mid-infrared (MIR) spectra for protein composition in 3 cattle breeds Montbéliarde, Normande and Holstein (PhénoFinlait project) and for 9 milk cheese-making properties (CMP) and composition traits in Montbéliarde cows (From’MIR project). The Partial Least Squares method provided more accurate predictions than the Bayesian methods tested.A genetic analysis was performed on these traits, predicted from more than six million MIR spectra of more than 400,000 cows.Milk CMP and composition traits are moderately to highly heritable. Genetic correlations between CMP (cheese yields and coagulation) and with milk composition (proteins, fatty acids and minerals) are high and favorable.The genotypes of 28,000 cows were imputed to whole genome sequences using the 1000 bovine genome reference population.Genome wide association studies (GWAS) reveal many genes and variants in these genes with strong effects on CMP and milk composition. A network of 736 genes, associated with these traits, enable the identification of metabolic pathways and regulatory genes functionally linked to these traits.A pilot genomic evaluation was set up in Montbéliarde cows. A test-day model, including variants detected by GWAS, provides the most accurate genomic value estimates. Simulation of a selection shows that it is possible to improve the cheesability of milk with a limited impact on the genetic gain of the traits that currently make up the breeding objective.The work presented in this thesis led to 1) the detection of genes (some of which have never been described before) and candidate variants for milk CMP and composition traits and 2) the implementation of a genomic evaluation of CMP predicted from MIR spectra in Montbéliarde cows of the Comté PDO area
APA, Harvard, Vancouver, ISO, and other styles
22

Labiche, Yvan. "Contribution au test des logiciels orientés-objets : ordre de test, modèles et critères associés." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT018H.

Full text
Abstract:
L'architecture particulière des logiciels orientés-objet, architecture éclatée d'objets communicants, ainsi que les caractéristiques propres à l'orienté-objet (classe, héritage, polymorphisme) conduisent à se reposer les deux questions fondamentales du test dans le cas des logiciels orientés-objet : quels sont les niveaux de test à envisager ? Quels modèles, et critères de test associés, peuvent être utilisés ? Les travaux présentés dans ce mémoire apportent des éléments de réponses à ces questions. En ce qui concerne le premier point, nous nous sommes attachés à définir un nombre de test des classes d'une application orientée-objet à partir des informations issues du dossier de conception (architecture statique). Le travail théorique a porté sur la formalisation d'un algorithme d'ordonnancement partiel des étapes de test. Cet algorithme est guidé par le souci de minimiser le nombre de "stubs" (bouchons) qu'il sera nécessaire de développer. Il est basé sur l'analyse des dépendances entre les classes (y compris le polymorphisme) et traite le cas particulier des classes abstraites. Il est concrétisé par l'outil logiciel TOONS (Testing levels generator for Object-OrieNted Software) qui fournit le graphe des étapes de test à partir de l'architecture statique des classes. Pour chaque étape de test, nous proposons ensuite des modèles permettant de définir des critères de test. Leur construction cible les relations d'héritage et de client-serveur. Elle est incrémentable de manière à pouvoir, dans une étape de test, réutiliser ce qui a été effectué dans les étapes précédentes. Ces différents travaux utilisent des informations issues des dossiers d'analyse et de conception, et peuvent donc être utilisés au plus tôt dans le processus de développement, pour permettre un retour sur la conception en vue de la testabilité. Ils sont illustrés par leur application au prototype d'un logiciel issu du domaine avionique.
APA, Harvard, Vancouver, ISO, and other styles
23

Filali, Ansary Tarik. "Indexation de modèles 3D à partir de vues 2D." Evry, Institut national des télécommunications, 2006. http://www.theses.fr/2006TELE0006.

Full text
Abstract:
La gestion de grandes bases de données de modèles tridimensionnels ( utilisés dans les applications de CAD/CAO, de visualisation, de jeux , etc. ) est un domaine de grande importance. En effet, pouvoir caractériser les modèles et les retrouver facilement sont des problèmes essentiels pour les concepteurs comme pour les utilisateurs. Dans ce cadre, deux grandes approches existent : la recherche par l'exemple d'un modèle tridimensionnel et la recherche par des vues. C'est ce dernier point que nous abordons dans cette thèse. Nous nous sommes intéressés à la détermination de l'ensemble des vues caractéristiques " optimal" pour réprésenter un modèle tridimensionnel et à l'indexaion de ces modèles, à partir de ces vues. Dans cette thèse, nous avons crée une nouvelle méthode de sélection des vues carctéristiques " optimales" basée sur le critère informationnel BIC ( Bayesian information criteria). Partant du principe que toutes les vues d'un modèle 3D ne contiennent pas la même quantité d'informations, nous avons ensuite présenté un modèle probabiliste bayésien pour l'indexation qui prend en compte la probabilité d'apparition des vues et des modèles 3D. Les expériences effectuées sur la base de données de 5000 modèles 3D fournies par Renault, dans le cadre du projet RNRT SEMANTIC-3D ont démontré les bons résultats de notre méthode sur des objets mécaniques. Nous avons ensuite comparé notre méthode aux méthodes d'indexation 3D le splus récentes et les plus perfomantes sur la base de données standard de "Princeton shape benchmarck". Ces expérimentations ont mis en évidence les trés bons résultats de notre méthode comparée aux autres approches. Nous avons ensuite mis en oeuvre un moteur de recherche 3D ( accessible publiquement sur internet, via un PC ou un PDA) pour la recherche d'objets 3D à partir d'un modèle exemple, d'un dessin ou d'une ou plusieurs photos<br>The management of big databases of three-dimensional models ( used in CAD applications, visualization, games, etc. ) is very important domain. The ability to characterize and easily retrieve 3D models is a key issue for the designers and the final users. In this frame, two main appoaches exist : search by example of a 3D model, and search by a 2D view or photo. In this thesis we focus ont he characterization of a 3D model by a set of views ( called characteristic views), and on the indexing process of the 3D models using theses characteristic views. In this thesis, we propose a new method for the selection of the " optimal" characteristic views set based on an informational criterion ( Bayesian information criteria). Starting from fact that all the views of a model 3D do not contain the same quantity of information about 3D model, we present a new bayesian approach for the indexing of the 3D models using their views. Our approach takes into account the probability of appreance of a 3D model and the importance of each of its view. Experiments carried on a database of 5000 3D models provided by Renault, within the framework of the RNRT SEMANTIC-D, show the good results of our method on mechanical objects. We compared our method with the most recent and relevant 3D models indexing methods using the standard database " Princeton Shape Benchmark". These experiments highlighted the very good results of our method compared with the ither approaches. To access our results and permit the test of our method, we made 3D search engine available online accessible using a PC or a PDA. Our searche engine permit the search for 3D objects using an example 3D model, a drawing or one or more photographs
APA, Harvard, Vancouver, ISO, and other styles
24

Le, Moulec Gwendal. "Synthèse d'applications de réalité virtuelle à partir de modèles." Thesis, Rennes, INSA, 2018. http://www.theses.fr/2018ISAR0010/document.

Full text
Abstract:
Les pratiques de développement des logiciels de Réalité Virtuelle (RV) ne sont pas optimisées. Ainsi, chaque société utilise ses propres méthodes. L'objectif de la thèse est d'automatiser la production et l'évaluation des logiciels de RV en utilisant des techniques issues de ! 'Ingénierie Dirigée par les Modèles (IDM). Les approches existantes en RV ne permettent pas de tirer parti des points communs que partagent ces logiciels. Ces manques de réutilisation et d'abstraction sont des problèmes connus en !DM, qui propose le concept de Ligne de Produits Logiciels (LPL) pour automatiser la production de logiciels de la même famille par réutilisation de composants communs. Cependant cette approche n'est pas adaptée au développement de logiciels reposant sur un scénario, comme en RV. Nous proposons deux frameworks qui comblent respectivement les manques en IDM et en RV : LPLOS (LPL Orientée Scénario) et LPLRV (LPL pour la RV). LPLOS repose sur un modèle de scénarios qui manipule un modèle de variabilité logicielle (Feature model, FM). Chaque étape du scénario correspond à une configuration du FM. LPLRV repose sur LPLOS. Le scénario supervise la manipulation des objets virtuels, générés automatiquement à partir d'un modèle. Nous avons implémenté ces frameworks au sein d'outils qui ont été essayés sur des exemples et évalués par des utilisateurs cibles. Les résultats soutiennent l'utilisation de ces frameworks pour la production de logiciels reposant sur un scénario<br>Development practices in Virtual Reality (VR) are not optimized. for example, each company uses its own methods. The goal of this PhD thesis is to automatize development and evaluation of VR software with the use of Model-Driven Engineering (MDE) technics. The existing approaches in VR do not take advantage of software commonalities. Those lacks of reuse and abstraction are known problems in MDE, which proposes the Soflware Product Line (SPL) concept to automatize the production of software belonging to the same family, by reusing common components. However, this approach is not adapted to software based on a scenario, like inVR.We propose two frameworks that respectively address the lacks in MDE and VR : SOSPL (scenario-oriented software product line) and VRSPL (VR SPL). SOSPL is based on a scenario model that handles a software variability model (feature model , FM). Each scenario step matches a configuration of the FM. VRSPL is based on SOSPL. The scenario manages virtual objects manipulation, the objects being generated automatically from a model. We implemented these frameworks inside tools that have been tried on exemples and evaluated by their target users. The results promote the use of these frameworks for producing scenario-based software
APA, Harvard, Vancouver, ISO, and other styles
25

Edwards, Jonathan. "Construction de modèles stratigraphiques à partir de données éparses." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0367/document.

Full text
Abstract:
Toutes les analyses et les constructions de modèles stratigraphiques s'appuient sur des corrélations stratigraphiques entre unités sédimentaires observées au niveau de forages ou d'affleurements. Cependant, deux problèmes se posent aux géologues au moment de la construction de ces corrélations stratigraphiques. Premièrement, les données disponibles sont éparses et peu nombreuses. Deuxièmement, les processus sédimentaires menant à la mise en place des unités sédimentaires à corréler sont nombreux, interdépendants et partiellement connus. Ainsi la construction d'un modèle de corrélations stratigraphiques peut être vue comme un problème sous-contraint auquel plusieurs solutions peuvent être proposées. L'objectif de cette thèse est de mettre en place un système numérique permettant de générer de manière stochastique des modèles stratigraphiques contraints localement par des données d'observation. Deux éléments sont nécessaires à la mise en place d'un tel système : 1. La mise en place de règles régissant l'organisation spatiale d'unités sédimentaires observées au niveau d'affleurements ou de puits. En ce qui concerne ces règles, deux voies seront explorées : - La mise en équation des règles définies dans le cadre de la stratigraphie séquentielle. Ces règles, exprimées d'un point de vue qualitatif dans la littérature sont traduites en termes quantitatifs afin d'évaluer la probabilité de deux unités sédimentaires observées d'être corrélées. - La déduction de la probabilité de corrélations entre deux unités sédimentaires observées à partir de modèles stratigraphiques construits par approche basée processus (forward stratigraphic models). 2. La mise en place d'un cœur algorithmique permettant de construire de façon stochastique un ensemble de modèles stratigraphiques plausibles à partir des règles précédemment présentées et des données d'observation<br>All stratigraphic models building and analysis are based on stratigraphic correlations of sedimentary units observed on wells or outcrops. However, the geologist building these stratigraphic correlations faces two main problems. First, the data available are few and sparse. Second, the sedimentary processes leading to the deposition of the units are numerous, interdependent and poorly known. So, the construction of a stratigraphic correlation model might be seen as an under-constrained problem with several possible solutions. The aim of this thesis is to create a numeric method to generate stochastic stratigraphic models that are locally constrained by observation data. Two steps are necessary: 1. The establishment of rules describing the spatial organization of sedimentary units observed on outcrops and wells. For these rules, two axis are explored: - The formulation in equations of rules defined in the sequence stratigraphy framework. These rules, presented qualitatively in the literature are translated in quantitative terms to evaluate the probability of two sedimentary units to be correlated. - The deduction of the probability of two sedimentary units to be correlated from stratigraphic models built from forward stratigraphic methods. 2. The development of an algorithm to build possible stochastic stratigraphic models from the rules cited above and observation data
APA, Harvard, Vancouver, ISO, and other styles
26

Nahhal, Tarik. "Test des Systèmes hybrides." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00320984.

Full text
Abstract:
Les systèmes hybrides, systèmes combinant à la fois une dynamique continue et discrète, s'avèrent être un modèle mathématique utile pour différents phénomènes physiques, technologiques, biologiques ou économiques. Beaucoup d'efforts ont été consacrés à l'élaboration de méthodes automatiques d'analyse pour de tels systèmes, basées sur la vérification formelle. Néanmoins, l'applicabilité de ces méthodes est encore limitée aux systèmes de petite taille en raison de la complexité de l'analyse exhaustive. Le test est une autre approche de validation, qui peut être employée pour des systèmes beaucoup plus grands. En dépit de ses limitations comparées à la vérification algorithmique et déductive, le test reste l'outil standard dans l'industrie.<br />Nous proposons dans cette thèse une méthodologie formelle pour le test de conformité des systèmes hybrides, qui est définie selon la norme internationale pour le test formel de conformité (FMCT). Ensuite, nous abordons le problème de la définition de mesures de couverture de test. Pour cela, deux mesures de couverture sont proposées, qui sont non seulement utiles comme critère pour évaluer la qualité de test mais peuvent être aussi employées pour guider la génération de test vers une meilleur couverture. Des algorithmes de génération de test guidés par les mesures de couverture sont proposés. Ces algorithmes sont basés sur une combinaison des algorithmes de planification de trajectoires dans la robotique, de la théorie d'équidistribution, de la géométrie algorithmique et de la simulation numérique. L'outil HTG (Hybrid test generation) pour la génération de cas de test pour les systèmes hybrides implémente ces algorithmes, et a été appliqué avec succès pour traiter plusieurs études de cas provenant de différentes domaines (circuits analogiques et mixtes, systèmes de commande, etc.).
APA, Harvard, Vancouver, ISO, and other styles
27

Mottu, Jean-Marie. "Oracles et qualification du test de transformations de modèles." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00514506.

Full text
Abstract:
Dans l'Ingénierie Dirigée par les Modèles, les modèles sont des éléments productifs pour le développement logiciel. Ils sont exploités par les transformations de modèles qui automatisent les étapes du développement. Dans nos travaux de thèse, nous contribuons au test de transformations de modèles en étudiant cette problématique et en proposant des techniques de test adaptées aux caractéristiques et à l'emploi des transformations. Nous adaptons l'analyse de mutation pour qualifier les modèles de test selon leur pouvoir de détection d'erreurs propres aux transformations. Nous proposons des fonctions d'oracles et évaluons leur adéquation avec la complexité et la réutilisation d'une transformation. Enfin, nous exploitons nos travaux dans l'étude d'une méthode de développement de composants de confiance de transformation et nous proposons des outils permettant la mise en oeuvre et l'expérimentation de nos travaux et d'autres recherches sur le test de transformations de modèles.
APA, Harvard, Vancouver, ISO, and other styles
28

Genet, Franck. "Les sursauts Gamma : rémanence précoce et test des modèles." Paris 6, 2007. http://www.theses.fr/2007PA066208.

Full text
Abstract:
Les sursauts gamma sont de brèves et intenses émissions de photons gamma à distance cosmologique. Ils sont suivis d'une rémanence à plus basse énergie d'intensité décroissante avec le temps. La source éjecte un vent relativiste, dans lequel des chocs internes émettent le sursaut gamma. Le freinage par l'environnement cause deux nouveaux chocs: le choc retour dans l'éjecta et le choc avant dans le milieu extérieur. Dans le modèle standard, la rémanence est émise par le choc avant. Nous avons obtenu les résultats suivants: 1- notre analyse d'un sursaut bien observé favorise les chocs internes; 2- il est impossible de distinguer à partir de rémanences observées le modèle standard d'un modèle électromagnétique; 3- le modèle standard a de grosses difficultés à reproduire la montée de la rémanence de GRB 050820A; 4- nous avons proposé un nouveau modèle où la rémanence est produite par le choc retour. Ce modèle donne des résultats prometteurs mais nécessite encore de nombreuses études
APA, Harvard, Vancouver, ISO, and other styles
29

Parisy, Olivier. "Génération automatique de modèles physiques à partir de modèles géométriques animés par squelette : application aux animats." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12837.

Full text
Abstract:
L'animation de créatures virtuelles est un domaine ayant bénéficié d'un effort de recherche important en informatique graphique. Des techniques telles l'interpolation de clefs ou la capture de mouvement sont très largement utilisées, mais imposent un travail important à l'animateur du fait des possibilités limitées de réutilisation des mouvements produits. En parallèle à ces techniques "en boucle ouverte", des approches basées sur des outils de plus haut niveau ont vu le jour : simulation physique, algorithmes moteurs, systèmes perceptifs, etc. Elles présentent l'intérêt d'abstraire le mouvement en fournissant à l'animateur des outils de contrôle aux paramètres moins nombreux et plus génériques que les techniques traditionnelles. Cette problématique du contrôle d'un système en fonction d'objectifs, ainsi que certains des outils décrits se retrouvent dans le domaine de la vie artificielle. Celle-ci s'intéresse en effet à la synthèse de systèmes se comportant de manière similaire aux êtres vivants. Des implémentations robotiques de ces techniques ont montré les possibilités offertes par la genèse de comportements dans un environnement complexe. Constatant un besoin de généricité des outils d'animation en informatique graphique, et l'intérêt d'un environnement simulé complexe en vie artificielle, nous étudierons le rapprochement des problématiques de ces communautés via une plate-forme commune, articulée autour de la notion de simulation physique et la génération aisée de modèles physiques de créatures articifielles. Nous étudierons un cadre de travail commun tenant compte des besoins et contraintes de ces disciplines, les difficultés posées par l'utilisation d'une simulation physique et en quoi les outils proposés en facilitent l'accès. Nous montrerons enfin les usages envisageables pour cette plate-forme, et les apports attendus dans les domaines de l'informatique graphique et de la vie artificielle<br>The animation and computer simulation of virtual creatures are topics which have benefitted from a strong research impulse from the community of computer graphics. Some techniques, such as keyframing of motion capture, are widely used but impose a great burden on the animator because of the limited re-use possibilities of produced movements in new projects. Parallel to those open loop techniques, other approaches based on higher level tools have been developped : physical simulation, locomotion / prehension algorithms, perceptive systems, etc. They all have the interest of abstracting the movement by bringing the animator control tools with higher-level parameters, and in a smaller number than traditionnal techniques. This problem of system control with respect to some goals, and some described tools have counterparts in the artificial life domain. This discipline addresses the issue of the genesis of biological phenomenom by synthetising systems which behave in a way similar to life beings. Beyond computer simulations, robotic implementations of those techniques have shown their practical interest and possibilities offered by behaviours generation in a complex environment. Basing our work on the observation of a need of genericity for animation tools in computer graphics, and on the interest of a complex environment in which artificial life simulations can take place, we will show the usefulness of bringing together the issues of those communities using a common platform, itself based on a physical simulation and the easy generation of physical models of artificial creatures. We will hence study a framework taking into account needs and constraints of those disciplines, the issues raised by physical simulation use and how the tools we are proposing make it easier to use. We will finally show how this platform can be used, and the expected contributions either from a computer graphics or artificial life point of view
APA, Harvard, Vancouver, ISO, and other styles
30

Mathieu, Bruno. "Modèles de production de parole et reconnaissance à partir d'automates." Nancy 1, 1999. http://www.theses.fr/1999NAN10300.

Full text
Abstract:
L'objet de cette thèse est l'étude de la reconnaissance automatique de parole. Ce document débute avec la description des traitements acoustiques les plus répandus en vue de reconnaître la parole. Nous décrivons ensuite les diverses architectures qui ont été utilisées : comparaison dynamique de formes acoustiques, systèmes experts, réseaux neuro-mimétiques et modèles de Markov. Puis ce document se divise en deux parties. Dans une première expérience, nous nous sommes intéressés à la reconnaissance de mots. Pour cela, nous utilisons des automates qui modélisent le vocabulaire. Celui-ci comporte les dix chiffres anglo-saxons, dont deux prononciations différentes pour le zéro. Le corpus de parole TiDigits a été utilisé par d'autres laboratoires ce qui nous permet de comparer nos résultats. La première étape est consacrée à la reconnaissance de mots isolés. Puis nous présentons une méthode de segmentation de séquences de chiffres. La fin de ce chapitre est consacrée à la reconnaissance de mots enchaînés et à une discussion sur les mérites et les faiblesses de notre approche. La deuxième partie traite de l'utilisation d'un modèle de production qui pourrait être utilisé pour le reconnaissance de la parole. Nous commençons par présenter les équations acoustiques régissant l'écoulement de l'air dans le conduit vocal et divers modèles articulatoires. Ensuite nous justifions le choix du modèle articulatoire de Maeda. Nous décrivons comment nous avons adapté le modèle à un locuteur masculin. Puis nous présentons la méthode variationnelle utilisée pour retrouver les trajectoires des articulateurs en fonction de la parole prononcée. Une dernière section présente les logiciels réalisés. En conclusion, nous résumons les résultats obtenus et donnons quelques perspectives en vue de reconnaître la parole continue quel que soit le locuteur<br>The framework of this thesis is speaker-independent automatic speech recognition. This document begins with a short survey of speech signal processing applied to speech recognition. Then, we describe several common architectures: dynamic time warping of acoustic shapes, artificial intelligence, neural networks and hidden Markov models. This document is made of two main parts. The first part is devoted to the recognition of words. We are using finite state automata for modeling the eleven American spoken digits. As the speech database TiDigits has been used by other teams we can compare our results against thoose obtained with other approaches. The first step is concerned with isolated word recognition. Then, we describe how sentences of the database have been segmented. Last sections of this part describe continuous speech recognition of word sequences, as well as a discussion about strong and weak points of our approach. The second part treats of the use of production models for speech recognition. We begin with a description of the acoustic equations which drive the air flow inside the vocal tract and we present several articulatory models. Then, we justify the choice of Maeda's model. We describe the adaptation of this model to a male speaker. Next, we describe the variational method used for recovering articulatory trajectories from the speech. Finally, the software we built, is described. In the conclusion, we give the results obtained and we exhibit sorne perspectives for future work towards a better speaker indepedent continuous speech recognition system
APA, Harvard, Vancouver, ISO, and other styles
31

Humbert, Louis. "Recalage des modèles éléments finis à partir de mesures vibratoires." Ecully, Ecole centrale de Lyon, 1999. http://bibli.ec-lyon.fr/exl-doc/TH_T1821_lhumbert.pdf.

Full text
Abstract:
Le recalage des modèles éléments finis était jusqu'à présent fortement limité par la pauvreté de l'information expérimentale disponible. Le développement de systèmes de mesure performants en holographie et en vélocimétrie laser autorise désormais la mesure du comportement vibratoire en plusieurs centaines, voire milliers de points. Par ailleurs, l'apparition de méthodes expérimentales novatrices en extensiométrie et en thermoélasticimétrie donne également accès au champ de contrainte en un grand nombre de points. Dans le cadre d'une étude pour la SNECMA, nous nous sommes intéressés à l'utilisation des mesures modales e holographie et en thermoélasticimétrie dans les procédures de recalage des aubes de réacteurs. Dans un premier temps, nous nous sommes focalisés sur la projection de ces mesures - respectivement le déplacement unidirectionnel et la trace du tenseur des contraintes - sur les modèles éléments finis afin de quantifier l'écart entre les réponses mesurées et calculées. La correction des erreurs de modèlisation a ensuite été réalisée par une méthode itérative de localisation et de correction des paramètres erronés, qui présente l'avantage de préserver le sens physique des modèles. Outre l'utilisation de mesures des contraintes, l'originalité de notre travail réside dans la gestion des incertitudes de mesure. Les données expérimentales sont introduites dans les procédures d'expansion et de localisation des erreurs de modèlisation par l'intermédiaire d'une contrainte inégalitaire paramétrée par le niveau d'incertitudes estimé a priori (problème LSQIC). Nous avons exploité les particularités de ce problème de minimisation sous contrainte pour proposer une nouvelle technique de résolution par linéarisation itérative de l'écart calcul-essai. En outre, pour améliorer la précision de la localisation des erreurs de modèlisation nous proposons une corrélation des indicateurs d'erreurs. Les paramètres erronés sont finalement corrigés par l'optimisation d'une fonction coût construite à partir des différentes données expérimentales<br>For the last twenty years, finite element model updating has drawn researcher's attention a lot, especially in the aeronautical and automotive industries. Many techniques have been proposed, but they were strongly limited by the available experimental data. The development of high performance acquisition systems, allowing an accurate and wide investigation of structure behaviour, revives interest in this subject. This study deals with holographic and thermoelastic measurement techniques. - that respectively provide an unidirectionnal mesure of the mode shape and the experimental dilatation field on several hundreds and even thousands points - to update turbine blades for SNECMA. One of the original aspect of this work is the use of thermoelastic data which allows us to improve the model predictivity against stress data. At first, we have developed techniques to project the different kinds of measure on the finite element model. After this projection step, measured data are available as degree of freedom on the model, and the difference with the predicted behaviour can be easily evaluated. The selected updating scheme is based on an iterative selection and correction of erroneous parameters, which has the advantage of preserving the physical meaning of the model. The selection of the parameters is done thanks a modelling error location in which measurement errors are taken into account by an inequality constrain on experimental data. Wehave especially developed a new resolution technique based on an iteractive linearization of the distance between measured and computed data, which simplifies the resolution of this constrained minimization problem. Furthermore to improve the modelling error location we have introduced a correlation between modal error location indicators. Erroneous parameters are finally corrected by the optmization of a cost function involving all experimental data
APA, Harvard, Vancouver, ISO, and other styles
32

Samih, Hamza. "Test basé sur les modèles appliqué aux lignes de produits." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S109/document.

Full text
Abstract:
L'ingénierie des lignes de produits est une approche utilisée pour développer une famille de produits. Ces produits partagent un ensemble de points communs et un ensemble de points de variation. Aujourd'hui, la validation est une activité disjointe du processus de développement des lignes de produits. L'effort et les moyens fournis dans les campagnes de tests de chaque produit peuvent être optimisés dans un contexte plus global au niveau de la ligne de produits. Le model-based testing est une technique de génération automatique des cas de test à partir d'un modèle d'états et de transitions construit à partir des exigences fonctionnelles. Dans cette thèse, nous présentons une approche pour tester une ligne de produits logiciels avec le model-based testing. La première contribution consiste à établir un lien entre le modèle de variabilité et le modèle de test, à l'aide des exigences fonctionnelles. La deuxième contribution est un algorithme qui extrait automatiquement un modèle de test spécifique à un produit membre de la famille de produits sous test. L'approche est illustrée par une famille de produits de tableaux de bord d'automobiles et expérimentée par un industriel du domaine aéronautique dans le cadre du projet Européen MBAT<br>Software product line engineering is an approach that supports developing products in family. These products are described by common and variable features. Currently, the validation activity is disjointed from the product lines development process. The effort and resources provided in the test campaigns for each product can be optimized in the context of product lines. Model-based testing is a technique for automatically generating a suite of test cases from requirements. In this thesis report, we present an approach to test a software product line with model-based testing. This technique is based on an algorithm that establishes the relationship between the variability model released with OVM and the test model, using traceability of functional requirements present in both formalisms. Our contribution is an algorithm that automatically extracts a product test model. It is illustrated with a real industrial case of automotive dashboards and experimented by an industrial of aeronautic domain in the MBAT European project context
APA, Harvard, Vancouver, ISO, and other styles
33

Bordes, Laurent. "Inférence statistique pour des modèles paramétriques et semi-paramétriques : modèles de l'exponentielle multiple, test du Chi-deux, modèles de vie accélérée." Bordeaux 1, 1996. http://www.theses.fr/1996BOR10649.

Full text
Abstract:
Cette these s'articule autour de trois parties. Dans la premiere partie on applique les procedes classiques de l'estimation sans biais avec variance minimale a une loi parametrique exponentielle multidimensionnelle. On s'interesse plus particulierement aux estimateurs des fonctions de repartition dans diverses situations comme par exemple la censure de type ii. Dans la deuxieme partie on aborde la construction de tests d'ajustement du chi-deux. On propose une statistique de test pour le modele exponentiel evoque ci-dessus ; des simulations illustrent le comportement du test suivant que l'on privilegie les estimateurs du maximum de vraisemblance ou les estimateurs sans biais du minimum de variance. On construit une nouvelle statistique de type chi-deux pour des donnees groupees definies comme etant mal observees. Apres avoir obtenu le comportement asymptotique de la statistique dans le cadre d'une hypothese simple, on en donne une illustration par des simulations et on generalise ces resultats au cas d'hypotheses composites. Cette partie s'acheve par une remarque sur la correction de continuite. Dans la derniere partie de cette these, apres avoir decrit plusieurs modeles semi-parametriques de vie acceleree permettant la prise en compte de variables explicatives et generalisant les modeles classiques de l'analyse de survie, on montre comment obtenir des estimateurs des fonctions de survie associees a un modele dit additif ; enfin, par les techniques mathematiques liees aux processus de comptage on obtient des resultats asymptotiques quant aux comportements des estimateurs, dans le cadre de durees de vie censurees a droite et stratifiees
APA, Harvard, Vancouver, ISO, and other styles
34

Mephu-Nguifo, Engelbert. "Concevoir une abstraction à partir de ressemblances." Montpellier 2, 1993. http://www.theses.fr/1993MON20065.

Full text
Abstract:
Notre travail se situe à la confluence de l'apprentissage automatique et de l'acquisition de connaissances. Notre objectif vise à concevoir une abstraction à partir d'exemples d'un concept et d'une interaction avec un usager. Nous proposons un environnement coopératif de modélisation conceptuelle qui s'organise autour de deux agents: le système ou agent rationnel, et l'usager. Nous avons implémenté un agent rationnel - LEGAL - qui s'appuie sur la structure du treillis de Galois, pour produire des connaissances qu'il utilise ensuite pour raisonner de manière empirique ou analogique, et qu'il contrôle au travers de la notion d'objections à partir d'une interaction avec l'usager. L'amélioration de la modélisation est liée à la coopération entre les deux agents. LEGAL a été évalué avec succès sur plusieurs problèmes relatifs à la modélisation des séquences génétiques.
APA, Harvard, Vancouver, ISO, and other styles
35

Oudinet, Johan. "Approches combinatoires pour le test statistique à grande échelle." Paris 11, 2010. http://www.theses.fr/2010PA112347.

Full text
Abstract:
Cette thèse porte sur le développement de méthodes combinatoires pour le test et la vérification formelle. En particulier, sur des approches probabilistes lorsque la vérification exhaustive n'est plus envisageable. Dans le cadre du test (basé sur un modèle), je cherche à guider l'exploration aléatoire du modèle afin de garantir une bonne satisfaction du critère de couverture attendu, quelle que soit la topologie sous-jacente du modèle exploré. Dans le cadre du model-checking, je montre comment générer aléatoirement un nombre fini de chemins pour savoir si une propriété est satisfaite avec une certaine probabilité. Dans une première partie, je compare différents algorithmes pour générer uniformément des chemins dans un automate. Puis je propose un nouvel algorithme qui offre un bon compromis avec une complexité en espace sous-linéaire en la longueur des chemins et une complexité quasi-linéaire en temps. Cet algorithme permet l'exploration d'un modèle de plusieurs dizaines de millions d'états en y générant des chemins de plusieurs centaines de milliers de transitions. Dans une seconde partie, je présente une manière de combiner réduction par ordres partiels et génération à la volée pour explorer des systèmes concurrents sans construire le modèle global, mais en s'appuyant uniquement sur les modèles des composants. Enfin, je montre comment biaiser les algorithmes précédents pour satisfaire d'autres critères de couverture. Lorsque ces critères ne sont pas basés sur des chemins, mais un ensemble d'états ou de transitions, nous utilisons une solution mixte pour assurer à la fois un ensemble varié de moyens d'atteindre ces états ou transitions et la satisfaction du critère avec une bonne probabilité<br>This thesis focuses on the development of combinatorial methods for testing and formal verification. Particularly on probabilistic approaches because exhaustive verification is often not tractable for complex systems. For model-based testing, I guide the random exploration of the model to ensure a satisfaction with desired probability of the expected coverage criterion, regardless of the underlying topology of the explored model. Regarding model-checking, I show how to generate a random number of finite paths to check if a property is satisfied with a certain probability. In the first part, I compare different algorithms for generating uniformly at random paths in an automaton. Then I propose a new algorithm that offers a good compromise with a sub-linear space complexity in the path length and a almost-linear time complexity. This algorithm allows the exploration of large models (tens of millions of states) by generating long paths (hundreds of thousands of transitions). In a second part, I present a way to combine partial order reduction and on-the-fly generation techniques to explore concurrent systems without constructing the global model, but relying on models of the components only. Finally, I show how to bias the previous algorithms to satisfy other coverage criteria. When a criterion is not based on paths, but on a set of states or transitions, we use a mixed solution to ensure both various ways of exploring those states or transitions and the criterion satisfaction with a desired probability
APA, Harvard, Vancouver, ISO, and other styles
36

Ghorbanzadeh, Dariush. "Détection de rupture dans les modèles statistiques." Paris 7, 1992. http://www.theses.fr/1992PA077246.

Full text
Abstract:
Ce travail concerne l'etude d'une classe de tests de detection de rupture dans les modeles statistiques. La classe de tests consideree est basee sur le test du rapport de vraisemblance. Dans le cadre de la contiguite au sens de lecam, sous l'hypothese nulle (non rupture) et sous l'hypothese alternative (rupture), les lois asymptotiques des statistiques de tests sont evaluees, ce qui permet de determiner asymptotiquement les regions critiques des tests. Les expressions analytiques des puissances asymptotiques sont proposees. En utilisant les techniques de l'analyse discriminante, le probleme de la detection du passage en sida avere a ete etudie par application directe sur les donnees concernant 450 patients hiv-positifs
APA, Harvard, Vancouver, ISO, and other styles
37

Destrez, Raphaël. "Recalage automatique de modèles 3D d'arcades dentaires à partir de photographies." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00994596.

Full text
Abstract:
En orthodontie, le diagnostic et la planification d'un traitement reposent sur la connaissance de l'architecture dentaire du patient relevée, entre autre, par un moulage en plâtre. Aujourd'hui, des logiciels permettent de manipuler des modèles numériques des arcades dentaires obtenus après numérisation des moulages. Afin d'observer l'engrènement des dents, il est nécessaire de mettre en occlusion les deux arcades numérisées séparément. Cette étape est actuellement manuelle et l'objet de ces travaux de thèse est de proposer une chaîne robuste de traitements permettant un recalage automatique des deux arcades guidé par plusieurs photos "en bouche" du patient. L'approche proposée consiste à définir trois types de points singuliers et à mettre en place des méthodes robustes de détection automatique à la fois sur les modèles 3D et les images couleur s'appuyant sur la courbure et la texture. Une fois mis en correspondance, ces points homologues 2D/3D permettent d'estimer les matrices de projection puis la transformation rigide (6ddl) pour positionner au mieux la mandibule par rapport au maxillaire en minimisant les erreurs de reprojection dans plusieurs vues. Afin de s'affranchir du bruit de détection, les positions 2D et/ou 3D des points sont améliorées au cours du processus d'optimisation. De nombreux tests sur des données virtuelles et réelles valident l'approche choisie. L'occlusion finale obtenue par recalage automatique est proche de la référence de l'expert. Les résultats sont encourageants pour fournir une alternative automatique à intégrer dans un outil d'aide au diagnostic.
APA, Harvard, Vancouver, ISO, and other styles
38

Plancade, Sandra. "Estimation par sélection de modèles à partir de données partiellement observées." Paris 5, 2010. http://www.theses.fr/2010PA05S008.

Full text
Abstract:
Cette thèse regroupe des procédures d'estimation non paramétrique dans différents contextes mettant enjeu des données partiellement observées. Les estimateurs s'appuient sur la méthode de sélection de modèles initiée par Birgé et Massart pour une étude du risque L2 mais également sur une méthode de sélection de modèles ponctuelle, adaptée au risque en un point donné. La première partie de ce manuscrit est consacré à l'estimation de la densité de l'erreur de régression, et la deuxième partie à l'étude de modèles de survie : estimation du risque instantané en présent de censure à droite, et estimation de la fonction de distribution conditionnelle à partir de données censurées par intervalle, cas 1<br>This manuscript presents several non parametric estimation procedures in frameworks involving partially observed data. The estimators rely on the model selection method adapted to the L2 risk (following Birge and Massart procedure) and also to the risk at a given point. The first part of the manuscript is devoted to the estimation of regression error density, and the second part to survival analysis issues: estimation of the hazard rate in presence of right censoring and estimation of the conditional distribution function from interval censored data
APA, Harvard, Vancouver, ISO, and other styles
39

Siolas, Georges. "Modèles probabilistes et noyaux pour l'extraction d'informations à partir de documents." Paris 6, 2003. http://www.theses.fr/2003PA066487.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Ihaddadene, Nacim. "Extraction de modèles de processus métiers à partir de journaux d'événements." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-143.pdf.

Full text
Abstract:
Les approches actuelles de représentation des processus métiers s'appuient principalement sur les systèmes de workflow qui ordonnent les tâches selon une logique métier déterminée. Les systèmes de workflow, particulièrement nombreux sur le marché, souffrent, en revanche, de limites sérieuses dans l'évolution et la normalisation des processus métiers suite à leurs mises en exploitation. Par ce travail, nous contribuons à l'évolution et à la normalisation des processus métiers, à travers : - l'enrichissement du journal d'événements par des durées minimales et maximales. Notre philosophie est d'analyser le journal des événements avec le moins d'informations possibles (identité de l'instance, instant de fin, durée minimale, durée maximale, etc. ). - l'enrichissement de la description des processus métiers par des motifs de processus (diffusion (AND/XOR- split) et jointure AND/XOR-join)) et par des relations exceptionnelles (de continuité et de fin) entre les tâches, - la prise en compte des procédures de normalisation en cas d'échec de tâches, afm de fiabiliser au maximum les instances de processus. Nous ajoutons ainsi au niveau de représentation des processus, un niveau de représentation des relations exceptionnelles. La prise en compte à la fois de l'extraction des modèles de processus, enrichi des motifs de processus, et de la procédure de normalisation est un point important de notre travail de thèse. Les systèmes de workflow disponibles sur le marché ne supportent pas encore ce type de fonctionnalités. En effet, les méthodes traditionnelles de conception de processus se basent sur les perceptions des concepteurs, certainement expérimentées, mais n'impliquent pas les observations issues des usages réels. De plus, elles souffrent de l'absence de procédure d'évolution permettant d'optimiser la structure du workflow initialement conçue. La conception est globalement statique, alors qu'elle devrait être dynamique. En effet, il n'y a aucun intérêt de garder un modèle de processus qui ne répond pas aux besoins exprimés par les usages. Afin de répondre au besoin d'évolution et de normalisation des processus métiers, suite aux observations des usages ou tout simplement suite à de nouveaux besoins d'usages, nous avons spécifié une nouvelle étape d'évolution et de correction des processus par l'analyse du journal des événements.
APA, Harvard, Vancouver, ISO, and other styles
41

Luc, Pauline. "Apprentissage autosupervisé de modèles prédictifs de segmentation à partir de vidéos." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM024/document.

Full text
Abstract:
Les modèles prédictifs ont le potentiel de permettre le transfert des succès récents en apprentissage par renforcement à de nombreuses tâches du monde réel, en diminuant le nombre d’interactions nécessaires avec l’environnement.La tâche de prédiction vidéo a attiré un intérêt croissant de la part de la communauté ces dernières années, en tant que cas particulier d’apprentissage prédictif dont les applications en robotique et dans les systèmes de navigations sont vastes.Tandis que les trames RGB sont faciles à obtenir et contiennent beaucoup d’information, elles sont extrêmement difficile à prédire, et ne peuvent être interprétées directement par des applications en aval.C’est pourquoi nous introduisons ici une tâche nouvelle, consistant à prédire la segmentation sémantique ou d’instance de trames futures.Les espaces de descripteurs que nous considérons sont mieux adaptés à la prédiction récursive, et nous permettent de développer des modèles de segmentation prédictifs performants jusqu’à une demi-seconde dans le futur.Les prédictions sont interprétables par des applications en aval et demeurent riches en information, détaillées spatialement et faciles à obtenir, en s’appuyant sur des méthodes état de l’art de segmentation.Dans cette thèse, nous nous attachons d’abord à proposer pour la tâche de segmentation sémantique, une approche discriminative se basant sur un entrainement par réseaux antagonistes.Ensuite, nous introduisons la tâche nouvelle de prédiction de segmentation sémantique future, pour laquelle nous développons un modèle convolutionnel autoregressif.Enfin, nous étendons notre méthode à la tâche plus difficile de prédiction de segmentation d’instance future, permettant de distinguer entre différents objets.Du fait du nombre de classes variant selon les images, nous proposons un modèle prédictif dans l’espace des descripteurs d’image convolutionnels haut niveau du réseau de segmentation d’instance Mask R-CNN.Cela nous permet de produire des segmentations visuellement plaisantes en haute résolution, pour des scènes complexes comportant un grand nombre d’objets, et avec une performance satisfaisante jusqu’à une demi seconde dans le futur<br>Predictive models of the environment hold promise for allowing the transfer of recent reinforcement learning successes to many real-world contexts, by decreasing the number of interactions needed with the real world.Video prediction has been studied in recent years as a particular case of such predictive models, with broad applications in robotics and navigation systems.While RGB frames are easy to acquire and hold a lot of information, they are extremely challenging to predict, and cannot be directly interpreted by downstream applications.Here we introduce the novel tasks of predicting semantic and instance segmentation of future frames.The abstract feature spaces we consider are better suited for recursive prediction and allow us to develop models which convincingly predict segmentations up to half a second into the future.Predictions are more easily interpretable by downstream algorithms and remain rich, spatially detailed and easy to obtain, relying on state-of-the-art segmentation methods.We first focus on the task of semantic segmentation, for which we propose a discriminative approach based on adversarial training.Then, we introduce the novel task of predicting future semantic segmentation, and develop an autoregressive convolutional neural network to address it.Finally, we extend our method to the more challenging problem of predicting future instance segmentation, which additionally segments out individual objects.To deal with a varying number of output labels per image, we develop a predictive model in the space of high-level convolutional image features of the Mask R-CNN instance segmentation model.We are able to produce visually pleasing segmentations at a high resolution for complex scenes involving a large number of instances, and with convincing accuracy up to half a second ahead
APA, Harvard, Vancouver, ISO, and other styles
42

Giffard-Roisin, Sophie. "Personnalisation non-invasive de modèles électrophysiologiques cardiaques à partir d'électrogrammes surfaciques." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4092/document.

Full text
Abstract:
L'objectif de cette thèse est d'utiliser des données non-invasives (électrocardiogrammes, ECG) pour personnaliser les principaux paramètres d'un modèle électrophysiologique (EP) cardiaque pour prédire la réponse à la thérapie de resynchronisation cardiaque. La TRC est un traitement utilisé en routine clinique pour certaines insuffisances cardiaques mais reste inefficace chez 30% des patients traités impliquant une morbidité et un coût importants. Une compréhension précise de la fonction cardiaque propre au patient peut aider à prédire la réponse à la thérapie. Les méthodes actuelles se basent sur un examen invasif au moyen d’un cathéter qui peut être dangereux pour le patient. Nous avons développé une personnalisation non-invasive du modèle EP fondée sur une base de données simulée et un apprentissage automatique. Nous avons estimé l'emplacement de l'activation initiale et un paramètre de conduction global. Nous avons étendu cette approche à plusieurs activations initiales et aux ischémies au moyen d'une régression bayésienne parcimonieuse. De plus, nous avons développé une anatomie de référence afin d'effectuer une régression hors ligne unique et nous avons prédit la réponse à différentes stimulations à partir du modèle personnalisé. Dans une seconde partie, nous avons étudié l'adaptation aux données ECG à 12 dérivations et l'intégration dans un modèle électromécanique à usage clinique. L'évaluation de notre travail a été réalisée sur un ensemble de données important (25 patients, 150 cycles cardiaques). En plus d'avoir des résultats comparables avec les dernières méthodes d'imagerie ECG, les signaux ECG prédits présentent une bonne corrélation avec les signaux réels<br>The objective of this thesis is to use non-invasive data (body surface potential mapping, BSPM) to personalise the main parameters of a cardiac electrophysiological (EP) model for predicting the response to cardiac resynchronization therapy (CRT). CRT is a clinically proven treatment option for some heart failures. However, these therapies are ineffective in 30% of the treated patients and involve significant morbidity and substantial cost. The precise understanding of the patient-specific cardiac function can help to predict the response to therapy. Until now, such methods required to measure intra-cardiac electrical potentials through an invasive endovascular procedure which can be at risk for the patient. We developed a non-invasive EP model personalisation based on a patient-specific simulated database and machine learning regressions. First, we estimated the onset activation location and a global conduction parameter. We extended this approach to multiple onsets and to ischemic patients by means of a sparse Bayesian regression. Moreover, we developed a reference ventricle-torso anatomy in order to perform an common offline regression and we predicted the response to different pacing conditions from the personalised model. In a second part, we studied the adaptation of the proposed method to the input of 12-lead electrocardiograms (ECG) and the integration in an electro-mechanical model for a clinical use. The evaluation of our work was performed on an important dataset (more than 25 patients and 150 cardiac cycles). Besides having comparable results with state-of-the-art ECG imaging methods, the predicted BSPMs show good correlation coefficients with the real BSPMs
APA, Harvard, Vancouver, ISO, and other styles
43

Karam, Margot. "Génération de test de circuits intégrés fondée sur des modèles fonctionnels." Phd thesis, Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00339935.

Full text
Abstract:
Cette thèse concerne l'utilisation de modèles fonctionnels dans le test de circuits intégrés complexes. Dans la première partie, des vecteurs de test sont générés pour les automates d'états finis a partir de leurs spécifications de synthèse. Un premier ensemble de vecteurs de test est calcule en parcourant tous les arcs du graphe de contrôle. Les valeurs d'entrées non spécifiées sur les transitions sont fixées afin d'accroitre la couverture. Il est montre que ce test a une excellente couverture par rapport a sa longueur. Les fautes résiduelles sont détectées par une methode de distinction sur les modèles machine juste machine fausse. La deuxième partie est consacrée au test hiérarchisé de circuits complexes. Les vecteurs de test locaux aux blocs sont justifies vers les entrées primaires et propages en avant vers les sorties primaires en utilisant des variables symboliques et des modèles fonctionnels pour les blocs traverses. Des techniques originale de propagation retardée permettent de restreindre le nombre d'échecs des propagations. Un prototype en prolog a été expérimenté
APA, Harvard, Vancouver, ISO, and other styles
44

Pachon, Cyril Alexandre. "Une approche basée sur les modèles pour le test de robustesse." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00011203.

Full text
Abstract:
Les manières de créer et de développer des systèmes informatiques ne cessent d'évoluer. La complexité croissante des logiciels informatiques (répartition du code, utilisation de composants externes, limitation des ressources, etc.) nécessite des méthodes de conception et de validation rigoureuses. Dans ce contexte la phase de test s'avère particulièrement importante car elle contribue à garantir un bon fonctionnement de l'implantation du logiciel, dans son environnement réel d'exécution. Cette thèse définit une méthode automatique de génération de tests destinés à évaluer la robustesse d'une implantation, c'est-à-dire sa capacité à respecter certaines propriétés comportementales malgré un environnement d'exécution dégradé (susceptible de fournir des entrées incorrectes, ou d'inclure des composants externes incapables de rendre le service attendu). L'approche que nous proposons est inspirée des techniques de génération de test utilisées en test de conformité des protocoles de communications dans lesquelles les suites de test sont générées à partir d'un modèle comportementale d'une spécification du logiciel. L'originalité de ce travail consiste à étendre cette technique pour prendre en compte un modèle de fautes (exprimant le comportement dégradé de l'environnement sous forme de mutations syntaxiques de la spécification) et un observateur (exprimant l'ensemble des comportements incorrects du point de vue de la robustesse). Les séquences de test produites sont alors correctes dans le sens où elles ne rejettent que des implantations non robustes vis-à-vis de cet observateur. Un prototype a été réalisé dans le cadre de la boîte à outils IF et évaluée sur des exemples d'implantation Java.
APA, Harvard, Vancouver, ISO, and other styles
45

Alvarez, Alexander. "Modélisation de séries financières, estimation, ajustement de modèles et test d'hypothèses." Toulouse 3, 2007. http://www.theses.fr/2007TOU30018.

Full text
Abstract:
De nombreux modèles ont été proposés pour expliquer la dynamique complexe des marchés financiers. La plupart des problèmes en finance comme la valorisation d'options, la couverture d'options, l'optimisation de porte-feuille, etc. Ont été étudiés dans le cadre de ces nouveaux modèles. Mais pour les applications il est nécessaire de disposer de méthodes précises pour ajuster ces modèles aux données réelles. Dans cette thèse nous étudions plusieurs problèmes inférentiels relatifs aux modèles communément utilisés en finance. Le premier chapitre de cette thèse est une révision commentée de la majorité des méthodes existantes pour estimer les paramètres des lois stables. Entre autres, la méthode appelée de L-moments est de notre crû. Les propriétés de ces méthodes ont été testés sur des données simulées. Finalement nous présentons une application à l'estimation de la VaR (Value at Risk) sur des données financières réelles. Dans le deuxième chapitre nous étudions le problème de l'estimation d'un modèle de diffusion avec sauts observé à temps discret. Nous proposons deux méthodes différentes pour résoudre ce problème inférentiel, et nous prouvons que après une détection préalable des sauts, nous pouvons estimer les paramètres d'une diffusion avec sauts en utilisant des méthodes similaires a celles utilisées dans le cas des diffusions ordinaires. Un étude de simulation vient confirmer les résultats théoriques obtenus. Dans le troisième chapitre nous considérons le problème de la détection des sauts de la volatilité dans un modèle à volatilité stochastique. Nous proposons des estimateurs pour le nombre des sauts de la volatilité, des instants de saut et de la volatilité entre les sauts. Nous démontrons enfin un résultat asymptotique sur ces estimateurs lorsque le pas de discrétisation décroît vers 0.
APA, Harvard, Vancouver, ISO, and other styles
46

Cogranne, Rémi. "Détection statistique d'informations cachées dans une image naturelle à partir d'un modèle physique." Phd thesis, Université de Technologie de Troyes, 2012. http://tel.archives-ouvertes.fr/tel-00706171.

Full text
Abstract:
Avec l'avènement de l'informatique grand public, du réseau Internet et de la photographie numérique, de nombreuses images naturelles (acquises par un appareil photographique) circulent un peu partout dans le monde. Les images sont parfois modi- fiées de façon légitime ou illicite pour transmettre une information confidentielle ou secrète. Dans ce contexte, la sténographie constitue une méthode de choix pour trans- mettre et dissimuler de l'information. Par conséquent, il est nécessaire de détecter la présence d'informations cachées dans des images naturelles. L'objectif de cette thèse est de développer une nouvelle approche statistique pour effectuer cette détection avec la meilleure fiabilité possible. Dans le cadre de ces travaux, le principal enjeu est la maîtrise des probabilités d'erreur de détection. Pour cela, un modèle paramétrique localement non-linéaire d'une image naturelle est développé. Ce modèle est construit à partir de la physique du système optique d'acquisition et de la scène imagée. Quand les paramètres de ce modèle sont connus, un test statistique théorique est proposé et ses propriétés d'optimalité sont établies. La difficulté principale de la construction de ce test repose sur le fait que les pixels de l'image sont toujours quantifiés. Lorsqu'aucune information sur l'image n'est disponible, il est proposé de linéariser le modèle tout en respectant la contrainte sur la probabilité de fausse alarme et en garantissant une perte d'optimalité bornée. De nombreuses expérimentations sur des images réelles ont confirmé la pertinence de cette nouvelle approche.
APA, Harvard, Vancouver, ISO, and other styles
47

Arnst, Maarten. "Inversion de modèles probabilistes de structures à partir de fonctionsde transfert expérimentales." Phd thesis, Ecole Centrale Paris, 2007. http://tel.archives-ouvertes.fr/tel-00238573.

Full text
Abstract:
L'objectif de la thèse est de développer une méthodologie d'identification expérimentale de modèles probabilistes qui prédisent le comportement dynamique de structures. Nous focalisons en particulier sur l'inversion de modèles probabilistes à paramétrage minimal, introduits par Soize, à partir de fonctions de transfert expérimentales. Nous montrons d'abord que les méthodes classiques d'estimation de la théorie des statistiques mathématiques, telle que la méthode du maximum de vraisemblance, ne sont pas bien adaptées pour aborder ce problème. En particulier, nous montrons que des difficultés numériques, ainsi que des problèmes conceptuels dus au risque d'une mauvaise spécification des modèles, peuvent entraver l'application des méthodes classiques. Ces difficultés nous motivent à formuler l'inversion de modèles probabilistes alternativement comme la minimisation, par rapport aux paramètres recherchés, d'une fonction objectif, mesurant une distance entre les données expérimentales et le modèle probabiliste. Nous proposons deux principes de construction pour la définition de telles distances, basé soit sur la fonction de logvraisemblance, soit l'entropie relative. Nous montrons comment la limitation de ces distances aux lois marginales d'ordre bas permet de surmonter les difficultés mentionnées plus haut. La méthodologie est appliquée à des exemples avec des données simulées et à un problème en ingénierie civile et environnementale avec des mesures réelles.
APA, Harvard, Vancouver, ISO, and other styles
48

Léon, Vincent. "Description sémantique de modèles 3D : application à la modélisation à partir d’exemples." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10116/document.

Full text
Abstract:
Bien que les applications utilisant les modèles 3D soient de plus en plus nombreuses, la création des modèles 3D en elle-même reste une tâche fastidieuse. La modélisation à partir d’exemples rend cette étape plus efficace en permettant à l'utilisateur d’exploiter des modèles existants pour les assembler afin d’obtenir un nouveau modèle. Les méthodes les plus récentes de l’état de l’art se concentrent sur des mécanismes d’assemblages de segments : les modèles de la base sont préalablement segmentés et labellisés. Cette considération permet d’éviter à l’utilisateur plusieurs segmentations manuelles, mais elle limite le processus de création à une suite d’ajout ou d’échange de parties prédéterminées. Dans cette thèse, la modélisation se fait par échange de parties depuis un modèle de base, mais ces parties ne sont pas directement segmentées. Nous présentons un descripteur sémantique continue calculé sur l’ensemble du maillage 3D, qui nous permet de retrouver parmi les modèles de la base les parties de modèles correspondant à une sélection de l’utilisateur sur le modèle de référence : si l’utilisateur sélectionne le coude d’un modèle humanoïde, il se verra proposé tous les coudes des modèles de la base même si ce label n'est pas explicitement utilisé pour labellisé la base. Cette description sémantique continue et ce mécanisme de correspondance de patchs nous permettent d’obtenir l’ensemble de parties nécessaire à la création du nouveau modèle. Ces différentes parties sont alors assemblées par une méthode de recalage semi-rigide et un remaillage<br>Even though there are more and more applications using 3D models, creating 3D models themselves is a time-consuming process. Example-based modeling makes this process more efficient by enabling the user to use existing model and assemble them, in order to obtain a new model. To use these models, it is necessary to find them easily in a collection using partial mesh retrieval techniques. The geometry of each part must then be adapted, before assembly. State-of-the-art methods focus on segments assembly mechanisms: database models are previously segmented and labeled. This hypothesis prevents several manual segmentations, but it also limits the creative process as a series of additions and replacements of pre-determined parts. In this thesis, modeling is done as replacement of parts from a original model, but these parts are not already segmented. We present a new continuous semantic descriptor computed on the whole 3D mesh, to find among the database models the parts corresponding to a user’s selection on the reference model : if the user selects the elbow of a humanoid character, all the elbows of the database will be returned, even though the label is not explicitly used for labeling the database. Thanks to this continuous semantic description and this patch correspondance mechanism, we can get all the necessary parts to create a new model. These different parts are then assembled using a soft registration technique and remeshing
APA, Harvard, Vancouver, ISO, and other styles
49

Kasdi, Abdellah. "Détermination des paramètres des modèles élasto-plastiques à partir de l'essai pressiométrique." Lille 1, 1994. http://www.theses.fr/1994LIL10143.

Full text
Abstract:
Compte tenu des difficultes rencontrees dans la determination des parametres constitutifs des sols a partir des essais de laboratoire (remaniement, faible representativite du sol, conditions initiales, etc. ), il parait interessant voire indispensable de proceder a cette determination a partir des essais in-situ. C'est dans ce cadre que se situe le present travail qui constitue une contribution a la determination des parametres de modeles de comportement des sols a partir de l'essai pressiometrique. Il est presente en deux parties. Dans la premiere partie, un programme de resolution numerique du probleme aux limites regissant l'essai pressiometrique a ete mis au point. Une analyse numerique de cet essai est presentee pour montrer l'influence des parametres relatifs a la modelisation par la methode des elements finis sur les performances de la simulation. Cette etude est conclue par des recommandations qui permettent d'avoir une bonne simulation de l'essai pressiometrique. Compte tenu du niveau de deformation atteint lors du chargement, l'hypothese des grandes deformations a ete prise en compte. La deuxieme partie consiste en l'application de l'algorithme d'optimisation de newton a la determination des parametres du modele de mohr-coulomb non associe. Cette procedure necessite l'utilisation des techniques de la methode inverse et un programme de resolution direct du probleme d'expansion pressiometrique. Cette etude a montre la difficulte de determiner plusieurs parametres et particulierement ceux qui sont couples. Dans ce cas, il se pose le probleme d'existence de plusieurs solutions. Pour resoudre ce probleme, une methodologie a ete mise au point. Celle ci est basee sur l'integration, dans le processus d'optimisation, d'une correlation reliant les parametres de resistance et de dilatance. La methodologie a ete validee sur le sable d'hostun et sur le sable de wash. La meme demarche a ete appliquee pour determiner les parametres du modele de cam-clay a partir de l'essais pressiometrique dans des sols argileux.
APA, Harvard, Vancouver, ISO, and other styles
50

Guénard, Jérôme. "Synthèse de modèles de plantes et reconstructions de baies à partir d’images." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0101/document.

Full text
Abstract:
Les plantes sont des éléments essentiels du monde qui nous entoure. Ainsi, si l’on veut créer des environnements virtuels qui soient à la fois agréables et réalistes, un effort doit être fait pour modéliser les plantes. Malgré les immenses progrès en vision par ordinateur pour reconstruire des objets de plus en plus compliqués, les plantes restent difficiles à reconstruire à cause de la complexité de leur topologie. Cette thèse se divise en deux grandes parties. La première partie s’intéresse à la modélisation de plantes, biologiquement réalistes, à partir d’une seule image. Nous générons un modèle de plante respectant les contraintes biologiques de son espèce et tel que sa projection soit la plus fidèle possible à l’image. La première étape consiste à extraire de l’image le squelette de la plante. Dans la plupart de nos images, aucune branche n’est visible et les images peuvent être de qualité moyenne. Notre première contribution consiste en une méthode de squelettisation basée sur les champs de vecteurs. Le squelette est extrait suite à un partitionnement non déterministe du feuillage de l’image assurant son réalisme. Dans un deuxième temps, la plante est modélisée en 3D. Notre deuxième contribution est la création de modèles pour différents types de plantes, basée sur les L-systèmes. Puis, un processus d’analyse-par-synthèse permet de choisir le modèle 3D final : plusieurs propositions de squelette sont générées et un processus bayésien permet d’extraire le modèle maximisant le critère a posteriori. Le terme d’attache aux données (vraisemblance) mesure la similarité entre l’image et la reprojection du modèle, la probabilité a priori mesure le réalisme du modèle. Après avoir généré des modèles de plantes, des modèles de fruits doivent être créés. Ayant travaillé principalement sur les pieds de vigne, nous avons développé une méthode pour reconstruire une grappe de raisin à partir d’au moins deux vues. Chaque baie est assimilée à un ellipsoïde de révolution. La méthode obtenue peut être plus généralement adaptée à tout type de fruits assimilables à une quadrique de révolution. La seconde partie de cette thèse s’intéresse à la reconstruction de quadriques de révolution à partir d’une ou plusieurs vues. La reconstruction de quadriques et, en général, la reconstruction de surfaces 3D est un problème très ancien en vision par ordinateur qui a donné lieu à de nombreux travaux. Nous rappelons les notions nécessaires de géométrie projective des quadriques, et de vision par ordinateur puis, nous présentons un état de l’art sur les méthodes existantes sur la reconstruction de surfaces quadratiques. Nous détaillons un premier algorithme permettant de retrouver les images des foyers principaux d’une quadrique de révolution à partir d’une vue « calibrée », c’est-à-dire pour laquelle les paramètres intrinsèques de la caméra sont connus. Puis, nous détaillons comment utiliser ce résultat pour reconstruire, à partir d’un schéma de triangulation linéaire, tout type de quadriques de révolution à partir d’au moins deux vues. Enfin, nous montrons comment il est possible de retrouver la pose 3D d’une quadrique de révolution dont on connaît les paramètres à partir d’un seul contour occultant. Nous évaluons les performances de nos méthodes et montrons quelques applications possibles<br>Plants are essential elements of our world. Thus, 3D plant models are necessary to create realistic virtual environments. Mature computer vision techniques allow the reconstruction of 3D objects from images. However, due to the complexity of the topology of plants, dedicated methods for generating 3D plant models must be devised. This thesis is divided into two parts. The first part focuses on the modeling of biologically realistic plants from a single image. We propose to generate a 3D model of a plant, using an analysis-by-synthesis method considering both a priori information of the plant species and a single image. First, a dedicated 2D skeletonisation algorithm generates possible branching structures from the foliage segmentation. Then, we built a 3D generative model based on a parametric model of branching systems taking into account botanical knowledge. The resulting skeleton follows the hierarchical organisation of natural branching structures. Varying parameter values of the generative model (main branching structure of the plant and foliage), we produce a series of candidate models. A Bayesian model optimizes a posterior criterion which is composed of a likelihood function which measures the similarity between the image and the reprojected 3D model and a prior probability measuring the realism of the model. After modeling plant models branching systems and foliage, we propose to model the fruits. As we mainly worked on vines, we propose a method for reconstructing a vine grape from at least two views. Each bay is considered to be an ellipsoid of revolution. The resulting method can be adapted to any type of fruits with a shape similar to a quadric of revolution. The second part of this thesis focuses on the reconstruction of quadrics of revolution from one or several views. Reconstruction of quadrics, and in general, 3D surface reconstruction is a very classical problem in computer vision. First, we recall the necessary background in projective geometry quadrics and computer vision and present existing methods for the reconstruction of quadrics or more generally quadratic surfaces. A first algorithm identifies the images of the principal foci of a quadric of revolution from a "calibrated" view (that is, the intrinsic parameters of the camera are given). Then we show how to use this result to reconstruct, from a linear triangulation scheme, any type of quadrics of revolution from at least two views. Finally, we show that we can derive the 3D pose of a given quadric of revolution from a single occluding contour. We evaluate the performance of our methods and show some possible applications
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!