Дисертації з теми "Méthodes basées sur les données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Méthodes basées sur les données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Méthodes basées sur les données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Hassani, Bertrand Kian. "Quantification des risques opérationnels : méthodes efficientes de calcul de capital basées sur des données internes." Paris 1, 2011. http://www.theses.fr/2011PA010009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les risques opérationnels sont les risques de pertes résultant d'une inadéquation ou d'une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet. Procédure non sécurisée), de son personnel (erreur, malveillance et fraude) des systèmes internes (panne informatique,. . . ) ou à des risques externes (inondation, incendie,. . . ). Elles ont attiré l'attention des autorités, suites aux pertes et banqueroutes qu'elles ont engendrées. Pour les modéliser, le régulateur impose aux institutions l'utilisation de données internes, de données externes, de scénarios et certains critères qualitatifs. Utilisant des données internes, dans le cadre de la Loss Distribution Approach, nous proposons plusieurs méthodes innovantes pour estimer les provisions inhérentes à ces risques. La première innovation traitant des méthodes de convolutions suggère de mélanger les simulations de Monte Carlo, l'estimation de la densité par noyaux et l'algorithme de Panjer pour construire la distribution de perte. La seconde solution se concentre sur la modélisation de la queue droite des distributions de sévérité utilisant plusieurs résultats de la théorie des valeurs extrêmes et les méthodes d'estimation de paramètres de distributions tronquées. La troisième méthode que nous présentons s'intéresse aux calculs de VaR multivariés. Mettant en oeuvre des grappes de copules pour capter certains comportements particuliers tels que la dépendance de queue, nous fournissons un nouveau type d'architectures permettant de calculer la VaR globale.
2

Bernard, Francis. "Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6571.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
3

Leboucher, Julien. "Développement et évaluation de méthodes d'estimation des masses segmentaires basées sur des données géométriques et sur les forces externes : comparaison de modèles anthropométriques et géométriques." Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/e2504d99-e61b-4455-8bb3-2c47771ac853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation de paramètres inertiels segmentaires proches de la réalité est primordiale à l’obtention de données cinétiques fiables lors de l’analyse du mouvement humain. Le corps humain est modélisé en un nombre variable de solides, considérés indéformables, dans la grande majorité des études du mouvement. Ce travail de recherche a pour but de mettre en œuvre et de tester deux méthodes d’estimation des masses de ces solides appelés segments. Ces deux méthodes sont basées sur le principe d’équilibre statique d’un ensemble de solides rigides. La première a pour objectif la prédiction des masses des membres en se servant des distances parcourues par le centre de masse du membre et le centre de pression, projection horizontale du centre de gravité du sujet, entre deux positions considérées statiques. Le rapport de ces distances étant le même que celui des masses du membre considéré et du corps entier, la connaissance de cette dernière nous permet d’estimer la masse du membre. La seconde méthode a pour but d’estimer simultanément les masses relatives de tous les segments du modèle par résolution de l’équation d’équilibre statique en faisant l’hypothèse que le centre de pression est le barycentre de l’ensemble et d’après l’estimation des positions des centres de masse segmentaires. La démarche expérimentale innovante présentée dans cette thèse consiste en le transfert des centres de masse segmentaires issus d’une méthode anthropométrique géométrique et en leur utilisation en conjonction avec des méthodes usuelles en analyse du mouvement humain afin d’obtenir les masses segmentaires du sujet. La méthode d’estimation des masses des membres donne de bons résultats en comparaison de ceux obtenus grâce aux modèles issus de la littérature en ce qui concerne la prédiction de la position du centre de pression a posteriori. Une partie des causes de l’échec de la seconde sont évaluées à travers l’étude de l’effet de l’incertitude sur la position du centre de pression
Use of body segment parameters close to reality is of the utmost importance in order to obtain reliable kinetics during human motion analysis. Human body is modeled as a various number of solids in the majority of human movement studies. This research aims at developing and testing two methods for the estimation of these solid masses, also known as segment masses. Both methods are based on the static equilibrium principle for several solids. The first method’s goal is to provide with limb masses using total limb centre of mass and centre of pressure, projection on the horizontal plane of the total subject’s body centre of gravity, displacements. Ratio between these displacement being the same as the ratio of limb and total body masses, the knowledge of the latter allows for the calculation of the former. The second method aims at estimation all segment masses simultaneously by resolving series of static equilibrium equations, making the same assumption that centre of pressure is total body centre of mass projection and using segment centre of mass estimations. Interest of the new methods used in this research is due to the use of individual segment centre of mass estimations using a geometrical model together with material routinely utilized in human motion analysis in order to obtain estimates of body segment masses. Limb mass estimations method performs better predicting a posteriori center of mass displacement when compared to other methods. Some of the potential causes of the second method’s failure have been investigated through the study of centre of pressure location uncertainty
4

Irain, Malik. "Plateforme d'analyse de performances des méthodes de localisation des données dans le cloud basées sur l'apprentissage automatique exploitant des délais de messages." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30195.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation du cloud est une nécessité aujourd'hui, les données produites et utilisées par tous les types d'utilisateurs (individus particuliers, entreprises, structures administratives) ayant atteint une masse trop importante pour être stockées autrement. L'utilisation du cloud nécessite la signature, explicite ou non, d'un contrat avec un fournisseur de service de stockage. Ce contrat mentionne les niveaux de qualité de service requis selon différents critères. Parmi ces critères se trouve la localisation des données. Cependant, ce critère n'est pas facilement vérifiable par un utilisateur. C'est pour cela que la recherche dans le domaine de la vérification de localisation de données a suscité plusieurs travaux depuis quelques années, mais les solutions proposées restent encore perfectibles. Le travail proposé dans le cadre de cette thèse consiste à étudier les solutions de vérification de localisation par les clients, c'est-à-dire les solutions estimant la localisation des données et fonctionnant à l'aide de points de repère. L'approche à investiguer peut être résumée comme suit : en exploitant les délais de communication et en utilisant des modèles de temps de traversée du réseau, estimer, avec une certaine erreur de distance, la localisation des données. Pour cela, le travail réalisé est le suivant : • Une revue de l'état de l'art des différentes méthodes permettant aux utilisateurs de connaitre la localisation de leurs données. • La conception d'une notation unifiée pour les méthodes étudiées dans la revue de l'état de l'art, avec une proposition de deux scores pour évaluer et comparer les méthodes. • La mise en place d'une plateforme de collecte de mesures réseau. Grâce à cette plateforme, deux jeux de données ont été récoltés, un au niveau national et l'autre un niveau mondial. Ces deux jeux de données permettent d'évaluer les différentes méthodes présentées dans la revue de l'état de l'art. • La mise en place d'une architecture d'évaluation à partir des deux jeux de données et des scores définis, afin d'établir la qualité des méthodes (taux de succès) et la qualité des résultats (précision du résultat) grâce aux scores proposés
Cloud usage is a necessity today, as data produced and used by all types of users (individuals, companies, administrative structures) has become too large to be stored otherwise. It requires to sign, explicitly or not, a contract with a cloud storage provider. This contract specifies the levels of quality of service required for various criteria. Among these criteria is the location of the data. However, this criterion is not easily verifiable by a user. This is why research in the field of data localization verification has led to several studies in recent years, but the proposed solutions can still be improved. The work proposed in this thesis consists in studying solutions of location verification by a user, i.e. solutions that estimate data location and operate using landmarks. The implemented approach can be summarized as follows: exploiting communication delays and using network time models to estimate, with some distance error, data location. To this end, the work carried out is as follows: • A survey of the state of the art on the different methods used to provide users with location information. • The design of a unified notation for the methods studied in the survey, with a proposal of two scores to assess methods. • Implementation of a network measurements collecting platform. Thanks to this platform, two datasets were collected, at both national level and international level. These two data sets are used to evaluate the different methods presented in the state of the art survey. • Implementation of an evaluation architecture based on the two data sets and the defined scores. This allows us to establish the quality of the methods (success rate) and the quality of the results (accuracy of the result) thanks to the proposed scores
5

Cerra, Daniele. "Contribution à la théorie algorithmique de la complexité : méthodes pour la reconnaissance de formes et la recherche d'information basées sur la compression des données." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00562101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'assimilation du contenu informatif à la complexité de calcul a plus de 50 ans, mais une manière d'exploiter pratiquement cette idée est venue plus récemment, avec la définition de mesures de similarité basées sur la compression des données, qui permettent d'estimer la quantité d'information partagée entre deux objets. Ces techniques sont effectivement utilisées dans des applications sur divers types de données avec une approche universelle et pratiquement sans paramètres. Toutefois, les difficultés de les appliquer à des grands ensembles de données ont été rarement abordées. Cette thèse propose une nouvelle mesure de similarité basée sur la compression des dictionnaires qui est plus rapide comparativement aux solutions connues, sans perte de performance. Cela augmente l'applicabilité de ces notions, ce qui permet de les tester sur des ensembles de données de taille jusqu'à 100 fois plus grande que ceux précédemment analysés dans la littérature. Ces résultats ont été obtenus par l'étude des relations entre la théorie du codage classique, la compression des données et la notion de complexité par Kolmogorov. Les objets sont décomposés dans un dictionnaire, qui est considéré comme un ensemble de règles pour générer un code ayant une signification sémantique de la structure de l'image: les dictionnaires extraits décrivent les régularités des données, et sont comparés pour estimer l'information partagée entre deux objets. Cela permet de définir un système de recherche des images qui nécessite une supervision minimale par l'utilisateur, car il saute les étapes d'extraction de caractéristiques typiques, souvent dépendantes de paramètres. Ainsi, les hypothèses subjectives qui peuvent fausser l'analyse sont enlevées, et a leur place une approche guidée par les données est adoptée. Diverses applications sont présentées, et ces méthodes sont employées sans aucun changement des paramètres à différents types de données: photographies numériques, images radar, textes, génomes d'ADN, et signaux sismiques.
6

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes (composition, taille du génome) en lien avec leur écosystème spécifique : le sol pour les S. coelicolor et le milieu lait pour S. thermophilus
Second-order Hidden Markov Models (HMM2) are stochastic processes with a high efficiency in exploring bacterial genome sequences. Different types of HMM2 (M1M2, M2M2, M2M0) combined to combinatorial methods were developed in a new approach to discriminate genomic regions without a priori knowledge on their genetic content. This approach was applied on two bacterial models in order to validate its achievements: Streptomyces coelicolor and Streptococcus thermophilus. These bacterial species exhibit distinct genomic traits (base composition, global genome size) in relation with their ecological niche: soil for S. coelicolor and dairy products for S. thermophilus. In S. coelicolor, a first HMM2 architecture allowed the detection of short discrete DNA heterogeneities (5-16 nucleotides in size), mostly localized in intergenic regions. The application of the method on a biologically known gene set, the SigR regulon (involved in oxidative stress response), proved the efficiency in identifying bacterial promoters. S. coelicolor shows a complex regulatory network (up to 12% of the genes may be involved in gene regulation) with more than 60 sigma factors, involved in initiation of transcription. A classification method coupled to a searching algorithm (i.e. R’MES) was developed to automatically extract the box1-spacer-box2 composite DNA motifs, structure corresponding to the typical bacterial promoter -35/-10 boxes. Among the 814 DNA motifs described for the whole S. coelicolor genome, those of sigma factors (B, WhiG) could be retrieved from the crude data. We could show that this method could be generalized by applying it successfully in a preliminary attempt to the genome of Bacillus subtilis
7

Boudoin, Pierre. "L'interaction 3D adaptative : une approche basée sur les méthodes de traitement de données multi-capteurs." Phd thesis, Université d'Evry-Val d'Essonne, 2010. http://tel.archives-ouvertes.fr/tel-00553369.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La réalité virtuelle est un domaine touchant à plusieurs disciplines. Par le biais de l'interaction 3D l'Homme peut accomplir des tâches dans un environnement virtuel en utilisant des techniques d'interaction 3D. Ces techniques sont souvent mono-tâches et s'appuient sur l'utilisation de matériel de réalité virtuelle bien spécifique. Le passage d'une tâche de l'interaction 3D à une autre est le plus souvent à la charge de l'utilisateur, ou bien du programmeur. Cependant de nombreux problèmes sont présents dans ces systèmes, dits de réalité virtuelle. En effet, des problèmes matériels le plus souvent dû aux technologies utilisées sont présents et peuvent induire un comportement erratique du système. De plus, il peut arriver que les techniques d'interaction 3D ne soient pas adaptées à l'application de réalité virtuelle, ou que celles-ci soient trop complexes à utiliser pour le novice. Tous ces problèmes nuisent à l'immersion de l'être humain dans l'environnement virtuel ainsi qu'aux performances de l'interaction 3D et donc à l'accomplissement de la tâche dans l'application de réalité virtuelle. L'objectif de ce travail est de proposer un système d'interaction 3D adaptative. Par interaction 3D adaptative, on cherche à définir une interaction 3D qui soit continue tant au niveau des données qu'au basculement d'une tâche à l'autre. Nous avons donc modélisé et conçu un ensemble de composants pour accomplir cet objectif. Nous avons modélisé une technique d'interaction 3D pouvant être utilisé de manière continue même lors du basculement d'une tâche. Nous avons également conçu un système qui permet d'automatiser le basculement d'une tâche de l'interaction 3D vers une autre en estimant la tâche que souhaite accomplir l'utilisateur. Enfin, un dernier composant a pour rôle d'améliorer la précision et de garantir la continuité du tracking.
8

Ta, Minh Thuy. "Techniques d'optimisation non convexe basée sur la programmation DC et DCA et méthodes évolutives pour la classification non supervisée." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0099/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons particulièrement, dans cette thèse, à quatre problèmes en apprentissage et fouille de données : clustering pour les données évolutives, clustering pour les données massives, clustering avec pondération de variables et enfin le clustering sans connaissance a priori du nombre de clusters avec initialisation optimale des centres de clusters. Les méthodes que nous décrivons se basent sur des approches d’optimisation déterministe, à savoir la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution de problèmes de clustering cités précédemment, ainsi que des approches évolutionnaires élitistes. Nous adaptons l’algorithme de clustering DCA–MSSC pour le traitement de données évolutives par fenêtres, en appréhendant les données évolutives avec deux modèles : fenêtres fixes et fenêtres glissantes. Pour le problème du clustering de données massives, nous utilisons l’algorithme DCA en deux phases. Dans la première phase, les données massives sont divisées en plusieurs sous-ensembles, sur lesquelles nous appliquons l’algorithme DCA–MSSC pour effectuer un clustering. Dans la deuxième phase, nous proposons un algorithme DCA-Weight pour effectuer un clustering pondéré sur l’ensemble des centres obtenues à la première phase. Concernant le clustering avec pondération de variables, nous proposons également deux approches: clustering dur avec pondération de variables et clustering floue avec pondération de variables. Nous testons notre approche sur un problème de segmentation d’image. Le dernier problème abordé dans cette thèse est le clustering sans connaissance a priori du nombre des clusters. Nous proposons pour cela une approche évolutionnaire élitiste. Le principe consiste à utiliser plusieurs algorithmes évolutionnaires (EAs) en même temps, de les faire concourir afin d’obtenir la meilleure combinaison de centres initiaux pour le clustering et par la même occasion le nombre optimal de clusters. Les différents tests réalisés sur plusieurs ensembles de données de grande taille sont très prometteurs et montrent l’efficacité des approches proposées
This thesis focus on four problems in data mining and machine learning: clustering data streams, clustering massive data sets, weighted hard and fuzzy clustering and finally the clustering without a prior knowledge of the clusters number. Our methods are based on deterministic optimization approaches, namely the DC (Difference of Convex functions) programming and DCA (Difference of Convex Algorithm) for solving some classes of clustering problems cited before. Our methods are also, based on elitist evolutionary approaches. We adapt the clustering algorithm DCA–MSSC to deal with data streams using two windows models: sub–windows and sliding windows. For the problem of clustering massive data sets, we propose to use the DCA algorithm with two phases. In the first phase, massive data is divided into several subsets, on which the algorithm DCA–MSSC performs clustering. In the second phase, we propose a DCA–Weight algorithm to perform a weighted clustering on the obtained centers in the first phase. For the weighted clustering, we also propose two approaches: weighted hard clustering and weighted fuzzy clustering. We test our approach on image segmentation application. The final issue addressed in this thesis is the clustering without a prior knowledge of the clusters number. We propose an elitist evolutionary approach, where we apply several evolutionary algorithms (EAs) at the same time, to find the optimal combination of initial clusters seed and in the same time the optimal clusters number. The various tests performed on several sets of large data are very promising and demonstrate the effectiveness of the proposed approaches
9

Heritier-Pingeon, Christine. "Une aide à la conception de systèmes de production basée sur la simulation et l'analyse de données." Lyon, INSA, 1991. http://tel.archives-ouvertes.fr/docs/00/84/01/51/PDF/1991_Heritier-Pingeon_Christine.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les formes nouvelles de la concurrence imposent aux systèmes de production une flexibilité de plus en plus grande. Dans le cas de systèmes automatisés, les décisions prises lors de la conception vont fortement conditionner les possibilités du futur système ainsi que ses capacités d'adaptation aux changements, donc son degré de flexibilité. Le travail contenu dans ce mémoire s'attache précisément à l'étude de méthodes et d'outils d'aide à la décision pour la conception de systèmes de production. Le lecteur est d'abord introduit au domaine puis aux outils et méthodes utilisés. Le modèle d'atelier qui sert de support à la démarche est alors présenté : il est suivi d'une réflexion sur la construction des campagnes de simulations conduites à partir de ce modèle, réflexion concrétisée par la définition d'un module de génération automatique de plans de simulations associés au modèle d'atelier choisi. L'analyse des données utilisées comme méthode d'acquisition des connaissances sur le comportement des systèmes de production est ensuite envisagée : une méthode d'analyse est proposée et expérimentée. Ce travail a été développé avec le souci constant d'explorer les possibilités de l'analyse de données dans le domaine et d'évaluer ces possibilités sur la base de nombreuses expériences
New forms of competition are leading manufacturing systems to more and more flexibility. In the case of highly automated systems, decisions taken in the design phase will have a great influence on the possibilities of the future system and also on its ease of adaptation to changes, and thus on its degree of flexibility. This work is a study of methods and tools for decision support in the design of manufacturing systems. The reader is first introduced to the scope and then to the tools and methods employed. The workshop 's model which is used as a support for the approach is then presented and the construction of a simulation plan considered These considerations are then put into a concrete form by defining an automated generation module for simulation plans which are associated to the chosen workshop model. Data analysis which is used as a knowledge acquisition method is considered a method of analysis is proposed and tested. This work was developed to explore data analysis possibilities in this field and to evaluate these possibilities on the base of numerous experiments
10

Costache, Mihai. "Support vector machines et méthodes bayésiennes pour l'apprentissage sémantique fondé sur des catégories : recherche dans les bases de données d'imagerie satellitaire." Paris, ENST, 2008. http://www.theses.fr/2008ENST0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De grands volumes de données multimédias sont disponibles avec la source représentée par l'activité humaine dans différents domaines comme la photographie et les applications de la télédétection, etc. Pour l'ensemble de ces données, il est absolument nécessaire d'avoir des outils et des méthodes permettant une organisation et une utilisation optimales des données, afin que l'accès au contenu puisse être fait d'une manière rapide et efficace. Le nombre de satellites opérationnels augmente chaque année et génère une explosion du volume de données acquises. Par exemple, entre 10 à 100 Gigaoctets de données d'image sont en moyenne enregistrées chaque jour par des capteurs optiques et radar embarques. Le satellite ESA de l'environnement, Envisat, lance 2002 recueille environ 18 Téraoctets de données par année. Les données générées sont traitées manuellement par des experts spécialisés dans chaque domaine d'application en télédétection. Toutefois, ce type d'analyse est coûteux et prend du temps. De plus, il permet le traitement d' une petite fraction de données disponibles, à un rythme beaucoup plus faible que celui dans lequel les images enregistrées sont envoyées au sol. Pour faire face à ces deux principaux aspects de la télédétection, il est clair qu'il faut des outils très efficaces pour la recherche par contenu dans des archives satellitaires. Ils doivent être en mesure d'identifier et de reconnaître des structures dans les images. Ces systèmes doivent être rapides et fonctionner avec une grande précision. Un tel système a pour objectif d'automatiquement effectuer la classification des images numériques disponibles, sur la base d'une formation préalable, qui est supervisisée par un expert. Ainsi, la base de données est mieux organisée et des images d'intérêt peuvent être identifiées plus facilement plutôt que par l'emploi d'une interprétation manuelle d'experts. La tâche consiste à déduire des connaissances par le biais de l'interaction homme-machine. L'interaction entre un système automatique et un expert humain permet le transfert de l'expertise humaine à la machine par le biais d'algorithmes d'inférence de connaissances capable d'interpréter la décision humaine et de le traduire en conceptuel. De cette manière, le processus d'extraction d'information dans des données satellitaires est automatisé, ce qui permet une réponse rapide aux requêtes de l'utilisateur. Dans le domaine de la recherche par contenu il y a beaucoup de travaux mais peu dans le domaine satellitaire. Dans cette thèse nous proposons un système complet d'annotations d'images satellitaires par le contenu et par mots clés. Du point de vue des techniques d'apprentissage, une combinaison entre les SVM et les formalismes de Bayes peut être établie pour la génération de classe sémantique et catégorique en fonction de la représentation de données. L'apprentissage se fait sur la base d'un dialogue homme-machine qui est essentiel dans le processus de transfert de connaissances entre l'expert et le système. La combinaison des formalismes SVM et Bayésienne est une contribution originale de la thèse
Nowadays large volumes of multimedia data are available with the source being represented by different human activity domains such as photography, television channels, remote sensing applications, etc. For all these data there is a clear need for tools and methods which can allow an optimal data organisation so that the access to the content can be done in a fast and efficient manner. The number of operational EO satellites increases every year and generates an explosion of the acquired data volume. Nowadays, for instance, on average somewhere between 10 to 100 Gigabytes of image data are recorded daily on regular basis by the available optical and Synthetic Aperture Radar (SAR) sensors on board of the EO satellites. ESA's Environmental Satellite, Envisat, deployed in 2002 collects per year around 18 Terabytes of multisensor data. This leads to a total of about 10 Terabytes of annually recorded data volume which is representing a huge volume of data to be processed and interpreted. The generated data volume in classical remote sensing applications, are treated manually by specialised experts for each domain of application. However, this type of analysis is costly and time consuming. Moreover, it allows the processing of only a small fraction of the available data as the user-based image interpretation is done at a greatly lower pace that the one in which the recorded images are sent to the ground stations. In order to cope with these two major aspects in remote sensing, there is a clear need for highly efficient search tools for EO image archives and for search mechanisms able to identify and recognise structures within EO images; moreover these systems should be fast and work with high precision. Such a system should automatically perform classification of the available digital image collection, based on a previous training, which was supervised by an expert. In this way, the image database is better organized and images of interest can be identifed more easily than just by employing a manual expert image interpretation. The task is to infer knowledge, by means of human-machine interaction, from EO image archives. The human-machine interaction enables the transfer of human expertise to the machine by means of knowledge inference algorithms which interpret the human decision and to translate it into conceptual levels. In this way, the EO image information search and extraction process is automated, allowing a fast reponse adapted to human queries
11

Carles, Olivier. "Système de génération automatique de bases de données pour la simulation de situations de conduite fondée sur l'interaction de ses différents acteurs." Toulouse 3, 2001. http://www.theses.fr/2001TOU30160.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Mahmoudysepehr, Mehdi. "Modélisation du comportement du tunnelier et impact sur son environnement." Thesis, Centrale Lille Institut, 2020. http://www.theses.fr/2020CLIL0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche de thèse de doctorat consiste à comprendre le comportement du tunnelier en fonction de l’environnement rencontré afin de proposer des solutions sûres, durables et de quqlité pour le creusement du tunnel.Le principal objectif de ce travail de thèse de doctorat est de mieux comprendre le comportement du tunnelier en fonction de son environnement. Ainsi, on explorera comment le tunnelier réagit en fonction des différents types de terrain et comment il agit sur les différents éléments de structure du tunnel (voussoirs). Cela permettra de proposer un dimensionnement intelligent et optimal des voussoirs et des consignes de pilotages adaptées
This PhD thesis research work consists in understanding the behavior of the TBM according to the environment encountered in order to propose safe, durable and quality solutions for the digging of the tunnel.The main objective of this doctoral thesis work is to better understand the behavior of the TBM according to its environment. Thus, we will explore how the TBM reacts according to the different types of terrain and how it acts on the various elements of tunnel structure (voussoirs). This will make it possible to propose an intelligent and optimal dimensioning of the voussoirs and instructions of adapted piloting
13

Codaccioni, Marc. "Évaluation de l’exposition fœtale aux substances chimiques grâce à la modélisation pharmacocinétique basée sur la physiologie (PBPK) et son application aux données d’imprégnation des populations." Thesis, Paris, Institut agronomique, vétérinaire et forestier de France, 2020. http://www.theses.fr/2020IAVF0019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des études de biosurveillance ont montré l’exposition des femmes enceintes à des substances de synthèse. Parallèlement, plusieurs études épidémiologiques ont mis en évidence des associations entre des concentrations mesurées dans le sang des femmes enceintes ou dans le sang de cordon et des effets néfastes sur le nouveau-né comme sur sa santé plus tard dans la vie. Néanmoins, ce type de mesures n’offre pas la certitude d’être représentatif des expositions intra-utérines tout au long de la grossesse, et il n’est pas envisageable de mesurer longitudinalement les concentrations fœtales pour des raisons éthiques évidentes. Les modèles pharmacocinétiques basés sur la physiologie pour la femme enceinte et son fœtus (pPBPK) permettent de simuler les expositions internes d’un xénobiotique dans différents organes au cours de la grossesse. Ils fournissent donc l’opportunité de parfaire les estimations de la relation entre dose et risque de survenue d’effets toxiques par une amélioration de la dosimétrie au niveau des tissus. Toutefois, même si les modèles pPBPK peuvent intégrer les changements physiologiques liés à la grossesse, la connaissance de certains processus reste parfois limitée. C’est notamment le cas du passage transplacentaire (PT). L’objectif de la thèse consiste à améliorer la prise en compte du PT dans la modélisation pPBPK en vue de prédire des expositions internes fœtales à partir de données de biosurveillance.Une revue de la littérature sur la modélisation du PT dans les modèles pPBPK a été menée. Ce travail a permis d’identifier 12 structures parmi 50 modèles originaux qui correspondent à 4 types de profils cinétiques liés au nombre de constantes de passage. Les données animales représentaient leur principale source de paramétrisation, même si celles-ci ne sont pas directement extrapolables à l’homme et impliquent le sacrifice de nombreux animaux. A partir de notre revue, nous avons développé un modèle pPBPK intégrant quatre modèles de PT non basés sur des données animales afin d’évaluer leurs performances prédictives de la dosimétrie fœtale sur 10 composés. Nos résultats montrent que ces performances variaient suivant les modèles et les substances, empêchant d’identifier un modèle prédictif de référence. Des simulations Monte-Carlo ont permis de montrer qu’un des modèles différait des trois autres concernant les variations de profils d’exposition fœtale au cours des trimestres de grossesse. Enfin, une analyse de sensibilité globale a souligné l’influence majeure des constantes de passage et dans une moindre mesure de la clairance métabolique comme de la fraction libre sur l’exposition fœtale simulée. La dernière partie de la thèse a consisté à utiliser le modèle pPBPK développé pour estimer les concentrations internes fœtales des enfants de la cohorte française ELFE pour deux PCB et deux PBDE à partir de concentrations plasmatiques maternelles. Pour ce faire, nous avons sélectionné un modèle de PT spécifique à chaque composé sur la base de la qualité de prédiction de ratios de concentrations fœtale sur maternelle à terme. Le classement des substances basé sur des indicateurs d’exposition simulés s’est révélé être variable entre la mère et le fœtus à terme, comme entre le premier et les deux autres trimestres dans le plasma fœtal.En conclusion, ce travail souligne le potentiel de la modélisation pPBPK pour l’évaluation des expositions prénatales. Il démontre la capacité d’un modèle à simuler des indicateurs d’exposition interne adéquats d’un point de vue mécanistique et temporel, notamment à partir de données de biosurveillance. Aussi, dans un contexte de fortes contraintes éthique et réglementaire, ce travail éclaire sur l’apport des méthodes alternatives dans la paramétrisation de processus clé de la dose interne fœtale tel que le passage transplacentaire. L’apport de cette thèse pourra être mis œuvre dans l’étude de l’exposome prénatal comme dans l’évaluation du risque de toxicité développementale d’une substance
Numerous biomonitoring studies have shown the exposure of pregnant women to synthetic substances. In parallel, several epidemiological studies have highlighted associations between maternal blood concentrations measured during pregnancy or cord blood concentrations measured at birth and adverse effects in the offspring at birth or later in life. However, this type of measurements does not guarantee being representative of in utero exposures throughout pregnancy. Furthermore, it is not possible to measure longitudinally fetal concentrations due to obvious ethical reasons. Pregnancy physiologically-based pharmacokinetic (pPBPK) models allow the simulation of xenobiotic internal exposures in different maternal and fetal organs during gestation. Therefore, they offer an opportunity to better estimate the relationship between the dose and the risk of a toxic effect by considering tissue dosimetry. Although pPBPK models often incorporate physiological changes associated with pregnancy, some processes are still poorly known such as placental transfer (PT). The aim of the thesis is to improve the integration of PT in pPBPK modelling in order to predict fetal internal exposures from biomonitoring data.First, a scientific literature review of the published pPBPK models was conducted with a focus on the various model structures used to describe PT. It allowed the identification of 12 structures among 50 original models which corresponded to 4 types of kinetic profiles according to the number of transfer constants. Animal in vivo data were identified as the main source to support their parameterization although they cannot be directly extrapolated to humans and imply the killing of numerous animals. From this basis, we developed a pPBPK model which integrated four transfer models calibrated using non-animal methods so as to assess their performance to predict the fetal dosimetry on a set of ten substances. Our results show that the performance varied among models and substances, preventing the identification of a reference predictive model. Monte-Carlo simulations showed that one of the transfer models differed from the others in terms of fetal exposure variation across trimesters. Finally, a global sensitivity analysis shed light on a great extent of influence of the transfer constants as well as the metabolic clearance and fraction unbound, to a lesser extent, on simulated fetal exposure. The last part of the thesis consisted in applying the developed pPBPK model to estimate the internal fetal concentrations of two PCB and two PBDE substances from observed maternal plasma concentrations taken from the French ELFE cohort. To that end, we selected a specific PT model for each compound based on the prediction of fetal to maternal concentrations ratio at term. The ranking of chemicals based on the simulated exposure indicators varied between mother and fetus at term, as between the first and the other two trimesters in fetal plasma.In conclusion, this work highlights the potential of pPBPK modelling in the prenatal exposures assessment. It demonstrates the ability of a model to simulate adequate internal exposure indicators from a mechanistic and temporal points of view, notably from biomonitoring data. Furthermore, in light of strong ethical and regulatory constraints, this work indicates the role of alternative methods in the parameterization of key processes of the internal fetal dose such as the transplacental passage. This work could be used for the assessment of the prenatal exposome as well as in the developmental toxicity risk assessment of a substance
14

Ars, Sébastien. "Caractérisation des émissions de méthane à l'échelle locale à l'aide d'une méthode d'inversion statistique basée sur un modèle gaussien paramétré avec les données d'un gaz traceur." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV030/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'augmentation des concentrations de méthane dans l'atmosphère, directement imputable aux activités anthropiques, induit une accentuation de l'effet de serre et une dégradation de la qualité de l'air. Il existe encore à l'heure actuelle de grandes incertitudes concernant les estimations des émissions des dfférentes sources de méthane à l'échellelocale. Une meilleure caractérisation de ces sources permettrait de mettre en place des politiques d'adaptation et d'att énuation efficaces afin de réduire ces émissions. Nous avons développé une nouvelle méthode de quantificationdes émissions de méthane à l'échelle locale basée sur la combinaison de mesures atmosphériques mobiles et d'un modèle gaussien dans le cadre d'une inversion statistique. Les concentrations atmosphériques du méthane sont mesuréesainsi que celles d'un gaz traceur émis à un flux connu. Ces concentrations en gaz traceur sont utilisées pour sélectionnerla classe de stabilité représentant le mieux les conditions atmosphériques dans le modèle gaussien ainsi qu'à paramétrerl'erreur associée aux mesures et au modèle dans l'inversion statistique. Dans un premier temps, cette nouvelle méthoded'estimation des émissions de méthane a été testée grâce à des émissions contrôlées de traceur et de méthane dontles sources ont été positionnées suivant différentes configurations. J'ai ensuite appliqué cette méthode à deux sites réels connus pour leurs émissions de méthane, une exploitation agricole et une installation de distribution de gaz, afin de tester son applicabilité et sa robustesse dans des conditions plus complexes de répartition des sources de méthane. Cette méthode a permis d'obtenir des estimations des émissions totales des sites robustes prenant en compte la localisation du traceur par rapport aux sources de méthane. L'estimation séparéedes émissions des différentes sources d'un site s'est révélée fortement dépendante des conditions météorologiques durant les mesures. Je me suis ensuite focalisé sur les émissions de méthane associées au secteur des déchets en réalisant un certain nombre de campagnes de mesures au sein d'installations de stockagedes déchets non dangereux et de stations d'épuration. Les résultats obtenus pour ces différents sites montrent la grandevariabilité des émissions de méthane dans le secteur des déchets
The increase of atmospheric methane concentrations since the beginning of the industrial era is directly linked to anthropogenic activities. This increase is partly responsible for the enhancement of the greenhouse effect leading to a rise of Earth's surface temperatures and a degradation of air quality. There are still considerable uncertainties regarding methane emissions estimates from many sources at local scale. A better characterization of these sources would help the implementation of effective adaptation and mitigation policies to reduce these emissions.To do so, we have developed a new method to quantify methane emissions from local sites based on the combination of mobile atmospheric measurements, a Gaussian model and a statistical inversion. These atmospheric measurements are carried out within the framework of the tracer method, which consists in emitting a gas co-located with the methane source at a known flow. An estimate of methane emissions can be given by measuring the tracer and methane concentrations through the emission plume coming from the site. This method presents some limitations especially when several sources and/or extended sources can be found on the studied site. In these conditions, the colocation of the tracer and methane sources is difficult. The Gaussian model enables to take into account this bad collocation. It also gives a separate estimate of each source of a site when the classical tracer release method only gives an estimate of its total emissions. The statistical inversion enables to take into account the uncertainties associated with the model and the measurements.The method is based on the use of the measured tracer gas concentrations to choose the stability class of the Gaussian model that best represents the atmospheric conditions during the measurements. These tracer data are also used to parameterize the error associated with the measurements and the model in the statistical inversion. We first tested this new method with controlled emissions of tracer and methane. The tracer and methane sources were positioned in different configurations in order to better understand the contributions of this method compared to the traditional tracer method. These tests have demonstrated that the statistical inversion parameterized by the tracer gas data gives better estimates of methane emissions when the tracer and methane sources are not perfectly collocated or when there are several sources of methane.In a second time, I applied this method to two sites known for their methane emissions, namely a farm and a gas distribution facility. These measurements enabled us to test the applicability and robustness of the method under more complex methane source distribution conditions and gave us better estimates of the total methane emissions of these sites that take into account the location of the tracer regarding methane sources. Separate estimates of every source within the site are highly dependent on the meteorological conditions during the measurements. The analysis of the correlations on the posterior uncertainties between the different sources gives a diagnostic of the separability of the sources.Finally I focused on methane emissions associated with the waste sector. To do so, I carried out several measurement campaigns in landfills and wastewater treatment plants and I also used data collected on this type of sites during other projects. I selected the most suitable method to estimate methane emissions of each site and the obtained estimates for each one of these sites show the variability of methane emissions in the waste sector
15

Bernard, Anne. "Développement de méthodes statistiques nécessaires à l'analyse de données génomiques : application à l'influence du polymorphisme génétique sur les caractéristiques cutanées individuelles et l'expression du vieillissement cutané." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00925074.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les nouvelles technologies développées ces dernières années dans le domaine de la génétique ont permis de générer des bases de données de très grande dimension, en particulier de Single Nucleotide Polymorphisms (SNPs), ces bases étant souvent caractérisées par un nombre de variables largement supérieur au nombre d'individus. L'objectif de ce travail a été de développer des méthodes statistiques adaptées à ces jeux de données de grande dimension et permettant de sélectionner les variables les plus pertinentes au regard du problème biologique considéré. Dans la première partie de ce travail, un état de l'art présente différentes méthodes de sélection de variables non supervisées et supervisées pour 2 blocs de variables et plus. Dans la deuxième partie, deux nouvelles méthodes de sélection de variables non supervisées de type "sparse" sont proposées : la Group Sparse Principal Component Analysis (GSPCA) et l'Analyse des Correspondances Multiples sparse (ACM sparse). Vues comme des problèmes de régression avec une pénalisation group LASSO elles conduisent à la sélection de blocs de variables quantitatives et qualitatives, respectivement. La troisième partie est consacrée aux interactions entre SNPs et dans ce cadre, une méthode spécifique de détection d'interactions, la régression logique, est présentée. Enfin, la quatrième partie présente une application de ces méthodes sur un jeu de données réelles de SNPs afin d'étudier l'influence possible du polymorphisme génétique sur l'expression du vieillissement cutané au niveau du visage chez des femmes adultes. Les méthodes développées ont donné des résultats prometteurs répondant aux attentes des biologistes, et qui offrent de nouvelles perspectives de recherches intéressantes
16

Georgescu, Vera. "Classification de données multivariées multitypes basée sur des modèles de mélange : application à l'étude d'assemblages d'espèces en écologie." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00624382.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En écologie des populations, les distributions spatiales d'espèces sont étudiées afin d'inférer l'existence de processus sous-jacents, tels que les interactions intra- et interspécifiques et les réponses des espèces à l'hétérogénéité de l'environnement. Nous proposons d'analyser les données spatiales multi-spécifiques sous l'angle des assemblages d'espèces, que nous considérons en termes d'abondances absolues et non de diversité des espèces. Les assemblages d'espèces sont une des signatures des interactions spatiales locales des espèces entre elles et avec leur environnement. L'étude des assemblages d'espèces peut permettre de détecter plusieurs types d'équilibres spatialisés et de les associer à l'effet de variables environnementales. Les assemblages d'espèces sont définis ici par classification non spatiale des observations multivariées d'abondances d'espèces. Les méthodes de classification basées sur les modèles de mélange ont été choisies afin d'avoir une mesure de l'incertitude de la classification et de modéliser un assemblage par une loi de probabilité multivariée. Dans ce cadre, nous proposons : 1. une méthode d'analyse exploratoire de données spatiales multivariées d'abondances d'espèces, qui permet de détecter des assemblages d'espèces par classification, de les cartographier et d'analyser leur structure spatiale. Des lois usuelles, telle que la Gaussienne multivariée, sont utilisées pour modéliser les assemblages, 2. un modèle hiérarchique pour les assemblages d'abondances lorsque les lois usuelles ne suffisent pas. Ce modèle peut facilement s'adapter à des données contenant des variables de types différents, qui sont fréquemment rencontrées en écologie, 3. une méthode de classification de données contenant des variables de types différents basée sur des mélanges de lois à structure hiérarchique (définies en 2.). Deux applications en écologie ont guidé et illustré ce travail : l'étude à petite échelle des assemblages de deux espèces de pucerons sur des feuilles de clémentinier et l'étude à large échelle des assemblages d'une plante hôte, le plantain lancéolé, et de son pathogène, l'oïdium, sur les îles Aland en Finlande
17

Bas, Patrick. "Méthodes de tatouage d'images basées sur le contenu." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0089.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le tatouage de document permet d'inserer une signature numerique dans un document de maniere imperceptible et indelebile. Nous presentons dans ce memoire differentes methodes de tatouage d'images numeriques basees sur le contenu. Apres avoir souligne les divers enjeux qu'offre ce domaine, nous rappelons son cadre theorique et les contraintes qui lui sont liees. Nous procedons ensuite a une classification des differents schemas rencontres dans la litterature. Nous distinguons les categories des schemas additifs, des schemas substitutifs et detaillons d'autres mecanismes utilises pour le tatouage des images couleur, des flux audio ou video. Les trois chapitres suivants constituent les apports majeurs developpes lors de cette these. L'idee developpee est d'utiliser le contenu de l'image, represente par les points d'interets, pour permettre une synchronisation de la signature lorsque l'image subit une transformation geometrique. Le cinquieme chapitre de cet ouvrage analyse differents detecteurs, il precise notamment les differents moyens d'augmenter leurs performances. Dans le chapitre suivant nous presentons un schema de tatouage par morphing de triangles predefinis. Cette methode utilise les points d'interets de l'image pour porter la signature. Le schema presente permet notamment de pouvoir retrouver la signature apres de nombreuses transformations ou attaques geometriques. Nous presentons dans le chapitre suivant un deuxieme schema de tatouage fonde sur l'insertion de similarites dans l'image. Ce schema permet egalement d'etre robuste a divers traitements d'images. Notre derniere contribution est presentee dans le huitieme chapitre ou nous analysons differents schemas de tatouage additifs dans le domaine spatial et presentons un procede d'insertion multi-couche qui permet d'inserer une signature composee d'un message au sein de l'image. Enfin, dans le dernier chapitre, nous concluons en soulignant les perceptives offertes par le tatouage de documents.
18

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
19

Bui, Huyen Chi. "Méthodes d'accès basées sur le codage réseau couche physique." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le domaine des réseaux satellitaires, l'apparition de terminaux interactifs à bas-prix nécessite le développement et la mise en œuvre de protocoles d'accès multiple capables de supporter différents profils d'utilisateurs. En particulier, l'Agence Spatiale Européenne (ESA) et le centre d'étude spatial allemand (DLR) ont récemment proposé des protocoles d'accès aléatoires basés sur le codage réseau couche physique et l'élimination itérative des interférences pour résoudre en partie le problème de collisions sur une voie de retour du type Slotted ALOHA. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une amélioration dans des méthodes d'accès aléatoires existantes. Nous introduisons Multi-Slot Coded Aloha (MuSCA) comme une nouvelle généralisation of CRDSA. Au lieu de transmettre des copies du même paquet, l'émetteur envoie plusieurs parties d'un mot de code d'un code correcteur d'erreurs ; chaque partie étant précédée d'un entête permettant de localiser les autres parties du mot de code. Au niveau du récepteur, toutes les parties envoyées par le même utilisateur, y compris celles qui sont interférées par d'autres signaux, participent au décodage. Le signal décodé est ensuite soustrait du signal total. Ainsi, l'interférence globale est réduite et les signaux restant ont plus de chances d'être décodés. Plusieurs méthodes d'analyse de performance basées sur des concepts théoriques (calcul de capacité, évolution des densités) et sur des simulations sont proposées. Les résultats obtenus montrent un gain très significatif de débit global comparé aux méthodes d'accès existantes. Ce gain peut encore être augmenté en variant le taux de découpe des mots de code. En modifiant certains de ces concepts, nous proposons également une application du codage réseau couche physique basée sur la superposition de modulations pour l'accès déterministe à la voie retour des communications par satellite. Une amélioration du débit est aussi obtenue par rapport à des stratégies plus classiques de multiplexage temporal
In the domain of satellite networks, the emergence of low-cost interactive terminals motivates the need to develop and implement multiple access protocols able to support different user profiles. In particular, the European Space Agency (ESA) and the German Aerospace Center (DLR) have recently proposed random access protocols such as Contention Resolution Diversity Coded ALOHA (CRDSA) and Irregular Repetition Slotted ALOHA (IRSA). These methods are based on physical-layer network coding and successive interference cancellation in order to attempt to solve the collisions problem on a return channel of type Slotted ALOHA.This thesis aims to provide improvements of existing random access methods. We introduce Multi-Slot Coded Aloha (MuSCA) as a new generalization of CRDSA. Instead of transmitting copies of the same packet, the transmitter sends several parts of a codeword of an error-correcting code ; each part is preceded by a header allowing to locate the other parts of the codeword. At the receiver side, all parts transmitted by the same user, including those are interfered by other signals, are involved in the decoding. The decoded signal is then subtracted from the total signal. Thus, the overall interference is reduced and the remaining signals are more likely to be decoded. Several methods of performance analysis based on theoretical concepts (capacity computation, density evolution) and simulations are proposed. The results obtained show a significant gain in terms of throughput compared to existing access methods. This gain can be even more increased by varying the codewords stamping rate. Following these concepts, we also propose an application of physical-layer network coding based on the superposition modulation for a deterministic access on a return channel of satellite communications. We observe a gain in terms of throughput compared to more conventional strategies such as the time division multiplexing
20

Abat, Cédric. "Développement de nouveaux outils informatiques de surveillance en temps réel des phénomènes anormaux basés sur les données de microbiologie clinique du laboratoire de la Timone." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Bien que considérées comme étant sous contrôle durant la seconde partie du 20ième siècle avec la découverte des antimicrobiens, les maladies infectieuses demeurent une menace bien réelle pour l’humanité. Quelque soit l’état de connaissance que nous avons sur ces maladies, toutes demeurent imprédictibles. Afin de lutter contre ce phénomène, de nombreuses stratégies de surveillance ont été développées amenant à la mise en place de divers outils informatiques de surveillance épidémiologique visant à détecter et identifier, le plus précocement possible, des événements anormaux. L’objectif initial de notre travail a consisté à mettre en place, au sein de l’Institut Hospitalo-Universitaire Méditerranée Infection et à partir du logiciel Microsoft Excel, deux nouveaux outils informatiques de surveillance épidémiologique visant à identifier, de façon hebdomadaire et automatisée, des événements anormaux sur la base des données de microbiologie clinique issues du laboratoire du Centre Hospitalo-Universitaire Timone à l’Assistance Publique- Hôpitaux de Marseille (AP-HM). Une fois cette étape achevée, nous avons par la suite travaillé au développement d’une structure de surveillance complète intégrant l’investigation et la validation des alarmes émises par les systèmes de surveillance créés, l’émission d’alertes à l’Agence Régionale de Santé (ARS) de la région Provence-Alpes Côte d’Azur (PACA), la valorisation des cas d’événements anormaux confirmés par des publications scientifiques, ainsi que la mise en place de rétro-informations et de bulletins épidémiologiques hebdomadaires visant à informer les acteurs locaux de la surveillance épidémiologique des maladies infectieuses
Although considered under control in the second half of the 20th century with the discovery of antimicrobials, infectious diseases remain a serious threat to humanity. Regardless of the state of knowledge we possess on these diseases, all remained unpredictable. To fight this phenomenon, many monitoring strategies have been developed leading to the implementation of various epidemiological surveillance computer programs to detect and identify, as soon as possible, abnormal events including epidemic phenomena. The initial objective of our work was to implement, within the Hospitalo-Universitaire Méditerranée Infection and based on the Microsoft Excel software, two new automated computer-based programs for the weekly automated epidemiological surveillance of abnormal epidemic events using clinical microbiological data from the Timone teaching hospital of of Assistance Publique- Hôpitaux de Marseille (AP-HM). Once completed, we then worked to develop a comprehensive monitoring structure incorporating the investigation and the validation of alarms emitted by the established surveillance systems, the transmission of alerts to the Regional Health Agency (ARS) of the Provence-Alpes Côte d'Azur (PACA), the public dissemination of confirmed abnormal events by publishing scientific articles, and the implementation of feedback and weekly epidemiological bulletins to inform local infectious diseases epidemiological surveillance actors
21

Larab, Ounissa. "Intégration de schémas de bases de données : méthode de raffinement des relations de correspondance basée sur les logiques de description." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0123.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre travail s'inscrit dans le cadre de l'élaboration d'une méthode de conception et de réalisation D’un Système multibases fédéré. Il consiste à proposer une démarche semt-automatique d’intégration de schémas de bases de données hétérogènes (relationnels, orientée objets, réseaux…), pour engendrer un schéma global fédéré. Le succès d'une telle opération dépend en majeure partie de l'identification correcte et complète des relations de correspondance qui pourraient exister entre les éléments de données des différents schémas. Pour ce faire, ces derniers doivent être sémantiquement riches et précis. Dans cette optique, nous avons choisi les logiques de description (logiques terminologiques) comme modèle homogénéisant les différents schémas à intégrer. La traduction des schémas en logiques de description ne rentre pas dans le cadre de cette thèse. En, effet: nous supposons qu’ils sont déjà traduits en des terminologies; lesquelles seront le point d’entrée de notre méthode de raffinement des relations de correspondance et d’intégration. Pour pouvoir raffiner les correspondances entre les différentes terminologies, nous commençons phase d’enrichissement sémantique dans laquelle nous renforçons la sémantique des termes des différentes terminologies par l'ajout de propriétés sémantiques. Elles sont des connaissances supplémentaires liées soit au contexte local des terminologies soit au contexte global de la fédération. La conjonction du raisonnement taxinomique que procure le système de représentation de connaissances terminologiques BACK (système implantant les logiques de description) et des propriétés sémantiques nous a permis de raffiner tes correspondances entre les terminologies et d'identifier parmi leurs éléments ceux représentant une même sémantique, puis résoudre les différences schématiques (structurelles) qui peuvent exister entre eux avant leur intégration
The work we present in this thesis is a part of project dealing with the elaboration of federated multi database system designing method. It consists on proposing a semi-automatic method to integrate heterogeneous database schemes (relational, abject oriented, network…). The success of the scheme integration in multi database systems relies heavily on the determination of complete and refined correspondence relationships between them. So, the candidate schemes to be integrated must be rich and precise semantically, i. E. , each of their data elements must be sufficiently defined in order to be distinguished from others or identified to some of them. To reach this goal, we have used the terminological logics (description logics) as a common data model to make uniform the schemes to be integrated. We suppose that the translation of the schemes in terminological logics is already clone. Terminologies are then the entry point of our correspondence refinement process and integration method. To. Refine correspondences between terminologies, we start by a semantic enrichment phase in which we extend the term descriptions by semantic properties. They are additional knowledge related to the local context of the terms or to the global context of the federation. The conjunction of the terminological reasoning of the BACK system (implementing terminological logics) and the semantic properties allowed us to refine correspondences between terminologies, to identify the data elements representing the same semantics and then to solve their schematic differences before integrating them
22

Cruz, Rodriguez Lidice. "Méthodes de dynamique quantique ultrarapide basées sur la propagation de trajectoires." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30254/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, différentes méthodes de dynamique quantique basées sur la propagation de trajectoires sont développées. La première approche consiste en une développer global des champs hydrodynamiques sur une base de polynômes de Chebyshev. Ce schéma est utilisé pour étudier la dynamique vibrationnelle unidimensionnelle de paquets d'ondes dans des potentiels harmoniques et anharmoniques. Par la suite, une méthodologie différente est développée, qui, à partir d'un paramétrage précédemment proposé pour la densité quantique, permet de construire des potentiels d'interaction effectifs entre les pseudo-particules représentant la densité. Dans le cadre de cette approche, plusieurs problèmes de modélisation sont étudiés et des effets quantiques importants sont décrits, tels que l'énergie de point zéro, l'effet tunnel, la diffusion et la réflexion sur une barrière. La même approximation est utilisée pour l'étude de l'ionisation des atomes par laser. Dans une troisième approche, un potentiel quantique approximatif à plusieurs corps est dérivé pour décrire des matrices d'argon et de krypton contenant une impureté de sodium. Il est obtenu en proposant un ansatz approprié pour la fonction d'onde de l'état fondamental du solide. Le potentiel est utilisé dans les simulations de dynamique moléculaire pour obtenir les spectres d'absorption de l'atome de Na isolé dans les matrices cryogéniques
In this thesis different trajectory-based methods for the study of quantum mechanical phenomena are developed. The first approach is based on a global expansion of the hydrodynamic fields in Chebyshev polynomials. The scheme is used for the study of one-dimensional vibrational dynamics of bound wave packets in harmonic and anharmonic potentials. Furthermore, a different methodology is developed, which, starting from a parametrization previously proposed for the density, allows the construction of effective interaction potentials between the pseudo-particles representing the density. Within this approach several model problems are studied and important quantum mechanical effects such as, zero point energy, tunneling, barrier scattering and over barrier reflection are founded to be correctly described by the ensemble of interacting trajectories. The same approximation is used for study the laser-driven atom ionization. A third approach considered in this work consists in the derivation of an approximate many-body quantum potential for cryogenic Ar and Kr matrices with an embedded Na impurity. To this end, a suitable ansatz for the ground state wave function of the solid is proposed. This allows to construct an approximate quantum potential which is employed in molecular dynamics simulations to obtain the absorption spectra of the Na impurity isolated in the rare gas matrix
23

Verney, Philippe. "Interprétation géologique de données sismiques par une méthode supervisée basée sur la vision cognitive." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005861.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de ce travail est de réaliser une nouvelle plateforme d'interprétation sismique 3D semi-automatique basée sur la connaissance géologique employée aujourd'hui par les experts du domaine. A l'heure actuelle, la majeure partie des solutions sont basées sur les traitements d'image et l'utilisation de quantités d'attributs sismiques. Elles fournissent un résultat interprétable par un expert qui réalise alors une correspondance informelle entre la nouvelle image obtenue et des objets géologiques. Nous désirons explorer une nouvelle méthodologie mettant en avant la formalisation de la connaissance utilisée dans l'interprétation sismique comme la vision cognitive le permet et le conseille. Ainsi, nous caractérisons le résultat des traitements d'images opérés sur le bloc sismique grâce à des concepts et à relations visuelles provenant d'une ontologie dédiée. Ces caractéristiques nous permettent alors de formaliser l'interprétation d'objets géologiques à partir de ces instances et ainsi de proposer de manière automatique des solutions d'interprétation d'un bloc sismique, que l'expert pourra choisir de valider. Dans ce travail, nous avons à coeur de nous concentrer sur l'identification de deux premiers objets géologiques à identifier dans une image sismique : les horizons et les failles. Une ontologie de ce domaine d'étude est proposée afin de servir de base pour la création de la plateforme.
24

Do, Van Huyen. "Les méthodes d'interpolation pour données sur zones." Thesis, Toulouse 1, 2015. http://www.theses.fr/2015TOU10019/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le résumé en français n'a pas été communiqué par l'auteur
The combination of several socio-economic data bases originating from different administrative sources collected on several different partitions of a geographic zone of interest into administrative units induces the so called areal interpolation problem. This problem is that of allocating the data from a set of source spatial units to a set of target spatial units. At the European level for example, the EU directive ’INSPIRE’, or INfrastructure for Spatial InfoRmation, encourages the states to provide socio-economic data on a common grid to facilitate economic studies across states. In the literature, there are three main types of such techniques: proportional weighting schemes, smoothing techniques and regression based interpolation. We propose a theoretical evaluation of these statistical techniques for the case of count related data. We find extensions of some of these methods to new cases : for example, we extend the ordinary dasymetric weightingmethod to the case of an intensive target variable Y and an extensive auxiliary quantitative variable X and we introduce a scaled version of the Poisson regression method which satisfies the pycnophylactic property. We present an empirical study on an American database as well as an R-package for implementing these methods
25

Paindavoine, Marie. "Méthodes de calculs sur les données chiffrées." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1009/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'annonce de l'essor du chiffrement des données se heurte à celle de l'avènement du "big data". Il n'est maintenant plus suffisant d'envoyer et de recevoir des données, il faut pouvoir les analyser, les exploiter ou encore les partager à grande échelle. Or, les données à protéger sont de plus en plus nombreuses, notamment avec la prise de conscience de l'impact qu'ont les nouvelles technologies (smartphones, internet of things, cloud,...) sur la vie privée des utilisateurs. En rendant ces données inaccessibles, le chiffrement bloque a priori les fonctionnalités auxquelles les utilisateurs et les fournisseurs de service sont habitués. Pour rétablir ces fonctionnalités, il est nécessaire de savoir calculer des fonctions de données chiffrées, et cette thèse explore plusieurs pistes dans ce sens. Dans une première partie, nous nous intéressons au chiffrement totalement homomorphe qui permet de réaliser des calculs arbitraires sur les données chiffrées. Ce type de chiffrement est cependant particulièrement coûteux, notamment à cause de l'appel souvent nécessaire à une procédure très coûteuse : le réamorçage. Nous prouvons ici que minimiser le nombre de réamorçages est un problème NP-complet et donnons une méthode pratique pour approximer ce minimum. Dans une seconde partie, nous étudions des schémas dédiés à une fonctionnalité donnée. Le premier cas d'usage considéré est celui de la déduplication vérifiable de données chiffrées. Il s'agit pour un serveur de stockage externe d'être assuré qu'il ne conserve qu'un seul exemplaire de chaque fichier, même si ceux-ci sont chiffrés, ce qui lui permet d'optimiser l'usage de ses ressources mémoires. Ensuite, nous proposons un schéma de chiffrement cherchable permettant de détecter des intrusions dans un réseau de télécommunications chiffrés. En effet, le travail d'inspection du réseau par des moteurs d'analyse est actuellement entravé par la croissance du trafic chiffré. Les résultats obtenus permettent ainsi d'assurer la confidentialité des échanges tout en garantissant l'absence d'intrusions malveillantes dans le trafic
Nowadays, encryption and services issued of ``big data" are at odds. Indeed, encryption is about protecting users privacy, while big data is about analyzing users data. Being increasingly concerned about security, users tend to encrypt their sensitive data that are subject to be accessed by other parties, including service providers. This hinders the execution of services requiring some kind of computation on users data, which makes users under obligation to choose between these services or their private life. We address this challenge in this thesis by following two directions.In the first part of this thesis, we study fully homomorphic encryption that makes possible to perform arbitrary computation on encrypted data. However, this kind of encryption is still inefficient, and this is due in part to the frequent execution of a costly procedure throughout evaluation, namely the bootstrapping. Thus, efficiency is inversely proportional to the number of bootstrappings needed to evaluate functions on encrypted data. In this thesis, we prove that finding such a minimum is NP-complete. In addition, we design a new method that efficiently finds a good approximation of it. In the second part, we design schemes that allow a precise functionality. The first one is verifiable deduplication on encrypted data, which allows a server to be sure that it keeps only one copy of each file uploaded, even if the files are encrypted, resulting in an optimization of the storage resources. The second one is intrusion detection over encrypted traffic. Current encryption techniques blinds intrusion detection services, putting the final user at risks. Our results permit to reconcile users' right to privacy and their need of keeping their network clear of all intrusion
26

Silveira, Filho Geraldo. "Contributions aux méthodes directes d'estimation et de commande basées sur la vision." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005340.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
27

Moalla, Koubaa Ikram. "Caractérisation des écritures médiévales par des méthodes statistiques basées sur la cooccurrences." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0128/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a pour objet l'élaboration de méthodologies d'analyse permettant de décrire et de comparer les écritures manuscrites anciennes, méthodologies d'analyse globale ne nécessitant pas segmentation. Elle propose de nouveaux descripteurs robustes basés sur des statistiques d'ordre 2, la contribution essentielle reposant sur la notion de cooccurrence généralisée qui mesure la loi de probabilité conjointe d'informations extraites des images ; c'est une extension de la cooccurrence des niveaux de gris, utilisée jusqu'à présent pour caractériser les textures qui nous a permis d'élaborer diverses cooccurrences, spatiales relatives aux orientations et aux courbures locales des formes, paramétriques qui mesurent l'évolution d'une image subissant des transformations successives. Le nombre de descripteurs obtenu étant très (trop) élevé, nous proposons des méthodes conçues à partir des plus récentes méthodes d'analyse statistique multidimensionnelle de réduction de ce nombre. Ces démarches nous ont conduit à introduire la notion de matrices de cooccurrences propres qui contiennent l'information essentielle permettant de décrire finement les images avec un nombre réduit de descripteurs. Dans la partie applicative nous proposons des méthodes de classification non supervisées d'écritures médiévales. Le nombre de groupes et leurs contenus dépendent des paramètres utilisés et des méthodes appliquées. Nous avons aussi développé un moteur de recherche d'écritures similaires. Dans le cadre du projet ANR-MCD Graphem, nous avons élaboré des méthodes permettant d'analyser et de suivre l'évolution des écritures du Moyen Age
[The purpose of this work consists to elaborate methodologies to describe and to compare a ancient handwritten writings. The developed image feature are global and do not require any segmentation. It proposes new robust features based on second order statistics. We introduce the generalized co-occurrence matrix concept which measures the joint probability of any information from the images. This new statistical measure in an extension of the grey level co-occurrence matrix used until now to characterize the textures. We propose spatial co-occurrence matrix relative to the orientations and to the local curvatures of the forms, and parametric matrices which measure the evolution of an image under successive transformations. Because the obtained number of descriptors is very high, we suggest designed methods using eigen co-occurrence matrices in order to reduce this number. In this application part, we propose some clustering methods of medieval writings to test our propositions. The number of groups and their contents depend on used parameters and on applied methods. We also developed a Content Based Image Retrieval system to search for similar writings. Within the framework of the project ANR-MCD Graphem, we elaborate methods to analyse and to observe the evolution of the writings of the Middle Ages. ]
28

Le, Cornec Kergann. "Apprentissage Few Shot et méthode d'élagage pour la détection d'émotions sur bases de données restreintes." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La détection d'émotions joue un rôle majeur dans les relations humaines: une bonne compréhension de l'état émotionnel de l'interlocuteur mène à une bonne compréhension de son discours.De fait, elle est aussi très importante dans les relations humain-machine.Dans le domaine de la détection des émotions par ordinateur,l'apprentissage profond s'est imposé comme l'état de l'art. Cependant,les techniques classiques d'apprentissage profond ne fonctionnent plus lorsque la base d'apprentissage est petite.Cette thèse explore deux pistes de réponse: l'élagage et quelques méthodes d'apprentissage few shot. De nombreuses techniques d'élagage existent, mais se concentrent souvent sur un équilibre entre le pourcentage des poids supprimés et la précision. Nous proposons une nouvelle méthode d'élagage, améliorant le choix des poids à supprimer. Cette technique est basée sur la mise en compétition de deux réseaux : le réseau original et un réseau que nous nommons rival. L'idée est de partager les poids entre ces deux réseaux dans le but de maximiser la précision du modèle. Pendant l'apprentissage, les poids ayant un impact négatif sur la précision vont être supprimés, optimisant ainsi le modèle, tout en améliorant la précision. Cette technique est testée sur différents réseaux et différentes bases de données et atteint l'état de l'art en améliorant la précision tout en supprimant un pourcentage de poids non négligeable. La seconde contribution concerne l'utilisation de réseaux correspondants (réseaux siamois et triple), comme réponse à l'apprentissage sur bases multimodales restreintes. Les deux modalités son et image sont combinées afin d'apprendre leurs caractéristiques principales, pour la détection d'émotions. Nous montrons qu'en se limitant à 200 instances d'entrainement par classe, le réseau triple atteint l'état de l'art (appris sur des centaines de milliers d'instances) sur certaines bases de données.Nous montrons aussi que, pour la classification d'émotions, les réseaux triples offrent une meilleure représentation des émotions, et par conséquent présentent de meilleurs résultats que les réseaux siamois. Une nouvelle fonction de perte basée sur le triplet loss est introduite facilitant l'apprentissage de ces réseaux. Différentes méthodes sont aussi appliquées, offrant des éléments de comparaisons du modèle et plus précisément de la représentation vectorielle. A terme, ces deux méthodes pourront être combinées pour proposer des modèles légers et performants. Comme le nombre de paramètres à apprendre sera plus faible, un réseau triple élagué donnera possiblement de meilleurs résultats
Emotion detection plays a major part in human interactions, a goodunderstanding of the speaker's emotional state leading to a betterunderstanding of his speech. It is de facto the same in human-machineinteractions.In the area of emotion detection using computers, deep learning hasemerged as the state of the art. However, classical deep learningtechnics perform poorly when training sets are small. This thesis explores two possible ways for tackling this issue, pruning and fewshot learning.Many pruning methods exist but focus on maximising pruning withoutlosing too much accuracy.We propose a new pruning method, improving the choice of the weightsto remove. This method is based on the rivalry of two networks, theoriginal network and a network we name rival.The idea is to share weights between both models in order to maximisethe accuracy. During training, weights impacting negatively the accuracy will be removed, thus optimising the architecture while improving accuracy. This technic is tested on different networks as well asdifferent databases and achieves state of the art results, improvingaccuracy while pruning a significant percentage of weights.The second area of this thesis is the exploration of matching networks(both siamese and triple), as an answer to learning on small datasets.Sounds and Images were merged to learn their main features, in orderto detect emotions.We show that, while restricting ourselves to 200 training instancesfor each class, triplet network achieves state of the art (trained on hundreds of thousands instances) on some databases.We also show that, in the area of emotion detection, triplet networksprovide a better vectorial embedding of the emotions thansiamese networks, and thusdeliver better results.A new loss function based on triplet loss is also introduced, facilitatingthe training process of the triplet and siamese networks. To allow abetter comparison of our model, different methods are used to provideelements of validation, especially on the vectorial embedding.In the long term, both methods can be combined to propose lighter and optimised networks. As thenumber of parameters is lowered by pruning, the triplet network shouldlearn more easily and could achieve better performances
29

Marteau, Hubert. "Une méthode d'analyse de données textuelles pour les sciences sociales basée sur l'évolution des textes." Tours, 2005. http://www.theses.fr/2005TOUR4028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but est d'apporter aux sociologues un outil informatique permettant l'analyse d'entretiens ouverts semi-directifs. Le traitement est en deux étapes : une indexation des entretiens suivi d'une classification. Les méthodes d'indexation habituelles reposent sur une analyse statistiques plus adaptées à des textes de contenu et de structure (textes littéraires, scientifiques,. . . ) marqués qu'à des entretiens limités à l'usage de peu de mots (1000 mots pour des textes de discussion). Partant de l'hypothèse que l'appartenance sociologique induit fortement la forme du discours, nous évaluons la structure et l'évolution des textes en proposant de nouvelles représentations des textes (image, signal) qui conduisent à l'extraction de valeurs indexant le texte, mesures statiques ou liées à l'évolution du texte. La classification choisie est arborée (NJ). Elle repose sur ces caractéristiques par sa faible complexité et son respects des distances, elle fournit une aide à la classification
This PhD Thesis aims at bringing to sociologists a data-processing tool wich allows them to analyse of semi-directing open talks. The proposed tool performs in two steps : an indexation of the talks followed by a classification. Usually, indexing methods rely on a general stastistical analysis. Such methods are suited for texts having contents and structure ( literary texts, scientific texts,. . . ). These texts have more vocabulary and structure than talks (limitation to 1000 words for suche texts). On the basis of the assumption that the sociological membership strongly induces the form of the speech, we propose various methods to evaluate the structure and the evolution of the texts. The methods attempt to find new representations of texts (image, signal) and to extract values from these new representations. Selected classification is a classification by trees (NJ). It has a low complexity and it respects distances, then this method is a good solution to provide a help to classification
30

Ahmed, Mohamed Salem. "Contribution à la statistique spatiale et l'analyse de données fonctionnelles." Thesis, Lille 3, 2017. http://www.theses.fr/2017LIL30047/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution
This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country
31

Gayraud, Nathalie. "Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4231/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG
Non-invasive Brain Computer Interfaces (BCIs) allow a user to control a machine using only their brain activity. The BCI system acquires electroencephalographic (EEG) signals, characterized by a low signal-to-noise ratio and an important variability both across sessions and across users. Typically, the BCI system is calibrated before each use, in a process during which the user has to perform a predefined task. This thesis studies of the sources of this variability, with the aim of exploring, designing, and implementing zero-calibration methods. We review the variability of the event related potentials (ERP), focusing mostly on a late component known as the P300. This allows us to quantify the sources of EEG signal variability. Our solution to tackle this variability is to focus on adaptive machine learning methods. We focus on three transfer learning methods: Riemannian Geometry, Optimal Transport, and Ensemble Learning. We propose a model of the EEG takes variability into account. The parameters resulting from our analyses allow us to calibrate this model in a set of simulations, which we use to evaluate the performance of the aforementioned transfer learning methods. These methods are combined and applied to experimental data. We first propose a classification method based on Optimal Transport. Then, we introduce a separability marker which we use to combine Riemannian Geometry, Optimal Transport and Ensemble Learning. Our results demonstrate that the combination of several transfer learning methods produces a classifier that efficiently handles multiple sources of EEG signal variability
32

Gueguen, Juliette. "Evaluation des médecines complémentaires : quels compléments aux essais contrôlés randomisés et aux méta-analyses ?" Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS072/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les médecines complémentaires sont nombreuses et variées, leur recours est largement répandu et en hausse. Selon les pratiques, les données d’évaluation sont plus ou moins riches, mais il y a peu de conclusions consensuelles quant à leur efficacité, même en cas de littérature abondante. Nous commencerons par un état des lieux de l’adéquation des méthodes conventionnelles utilisées pour l’évaluation du médicament, à savoir de l’essai contrôlé randomisé (ECR) et des méta-analyses, pour l’évaluation des médecines complémentaires.A travers trois applications pratiques, nous réfléchirons ensuite à l’apport d’autres méthodes, moins reconnues à ce jour dans le champ de l’evidence based medecine mais pouvant apporter d’autres éclairages. En particulier, nous discuterons de l’intérêt des méthodes mixtes, des études qualitatives et de l’exploitation des grandes bases de données médico-administratives. Nous réaliserons une revue mixte sur l’évaluation de l’hypnose pour le travail et l’accouchement, une étude qualitative sur l’expérience du qi gong par des patientes hospitalisées pour anorexie mentale sévère, et nous étudierons le potentiel d’exploitation du Système National d'Information Inter Régimes de l'Assurance Maladie (SNIIRAM) pour évaluer les médecines complémentaires. Les deux premiers axes nous amèneront à questionner le choix des critères de jugement et des instruments de mesure utilisés dans les ECR et nous inciteront à accorder davantage de place et de légitimité à la perspective du patient. Plus largement, cela nous invitera à remettre en cause la suprématie traditionnellement accordée aux études quantitatives pour la remplacer par une vision non hiérarchique mais synergique des approches qualitatives et quantitatives. Le troisième axe nous permettra d’identifier les limites actuelles à l’exploitation du SNIIRAM pour l’évaluation des médecines complémentaires, à la fois sur le plan technique et sur le plan de la représentativité. Nous proposerons des mesures concrètes pour rendre possible et pertinente son exploitation dans le champ de l'évaluation des médecines complémentaires.Enfin, dans la discussion générale, nous tiendrons compte du fait que l’évaluation des médecines complémentaires n’a pas pour but d’autoriser ou non une mise sur le marché. Ainsi, contrairement à l'évaluation des médicaments, l'évaluation des médecines complémentaires ne s'inscrit pas toujours dans une visée de prise de décision. Nous soulignerons l’importance de tenir compte de la visée (visée de connaissance ou visée de décision) dans l’élaboration d’une stratégie de recherche et nous proposerons deux stratégies différentes en nous appuyant sur la littérature et les résultats issus de nos trois exemples d'application. Concernant la stratégie de recherche à visée de prise de décision, nous montrerons l’importance des étapes de définition de l’intervention, d’identification des critères de jugement pertinents, et d’optimisation de l’intervention, avant la réalisation d’essais pragmatiques visant à évaluer l’efficacité en vie réelle. Nous verrons comment la volonté d’évaluer ces pratiques nous renvoie à des défis en terme de réglementation et nous soulignerons par ailleurs la nécessité d’évaluer la sécurité de ces pratiques en développant des systèmes de surveillance adaptés
Complementary medicines are numerous and varied, their use is widespread and increasing.Quality and quantity of evaluation data depend on the type of complementary medicines, but there are few consensual conclusions about their effectiveness, even in the case of abundant literature. We will start with an inventory of the adequacy of the conventional methods used for drug evaluation, namely randomized controlled trials (RCT) and meta-analyzes, for the evaluation of complementary medicines. Through three practical applications, we will then consider the contribution of other methods, less recognized to date in the field of evidence-based medicine but potentially contributive to shed light on other perspectives. In particular, we will discuss the advantages of mixed methods, qualitative studies and the exploitation of large health administrative databases. We will conduct a mixed-method review of the assessment of hypnosis for labor and childbirth, a qualitative study on the experience of qi gong by patients hospitalized for severe anorexia nervosa and we will study the potential of the French national health insurance database (SNIIRAM) to evaluate complementary medicines. The first two axis will lead us to question the choice of outcomes and measurement tools used in RCTs and to value and legitimate the patient's perspective. More broadly, it will invite us to question the hierarchical vision of qualitative and quantitative research that traditionally attributes supremacy to quantitative studies. It will encourage us to replace it with a synergistic vision of qualitative and quantitative approaches. The third axis will enable us to identify the current limits to the use of SNIIRAM for the evaluation of complementary medicines, both technically and in terms of representativeness. We will propose concrete measures to make its exploitation possible and relevant in the field of evaluation of complementary medicines.Finally, in the general discussion, we shall take account of the fact that the evaluation of complementary medicines is not part of a marketing authorization process. Thus, contrary to drug evaluation, complementary medicines evaluation does not always imply decision making. We will emphasize the importance of considering the aim (aim of knowledge or aim of decision) in the development of a research strategy. We will propose two different strategies based on the literature and the results from our three examples. Concerning the research strategy aimed at decision-making, we will show the importance of defining the intervention, identifying the relevant outcomes, and optimizing the intervention first, before carrying out pragmatic clinical trials to evaluate its effectiveness. We will discuss the regulatory challenges complementary medicine evaluation confronts us to, and stress the need to assess the safety of these practices by developing appropriate monitoring systems
33

Cuevas, Vicenttin Victor. "Evaluation des requêtes hybrides basées sur la coordination des services." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00630601.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les récents progrès réalisés en matière de communication (réseaux hauts débits, normalisation des protocoles et des architectures à objets répartis, explosion de l'internet) conduisent à l'apparition de systèmes de gestion de données et services largement répartis. Les données sont produites à la demande ou de manière continue au travers de divers dispositifs statiques ou mobiles. Cette thèse présente une approche pour l'évaluation de requêtes dites hybrides car intégrant différents aspects des données mobiles, continues, cachées rencontrées dans des environnements dynamiques. Notre approche consiste à représenter une telle requête comme une coordination de services comprenant des services de données et de calcul. Une telle coordination est définie par le flux de la requête et ceux d'opérateurs sur les données (e.g. join, select, union). Un flux de requête représente une expression construite avec les opérateurs de notre modèle de données. Ce flux est construit par un algorithme de ré-écriture à partir de la requête spécifiée dans notre langage de requête HSQL Les flux dit opérateurs composent des services de calcul afin de permettre l'évaluation d'un opérateur particulier. Le processeur de requêtes basées sur les services hybrides que nous avons développé met en mise en œuvre et valide nos propositions.
34

Aboa, Yapo Jean-Pascal. "Méthodes de segmentation sur un tableau de variables aléatoires." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Ben, Othman Amroussi Leila. "Conception et validation d’une méthode de complétion des valeurs manquantes fondée sur leurs modèles d’apparition." Caen, 2011. http://www.theses.fr/2011CAEN2067.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'extraction de connaissances à partir de données incomplètes constitue un axe de recherche en plein essor. Dans cette thèse, nous y contribuons par la proposition d'une méthode de complétion des valeurs manquantes. Nous commençons par aborder cette problématique par la définition de modèles d'apparition des valeurs manquantes. Nous en proposons une nouvelle typologie en fonction des données connues et nous les caractérisons de façon non redondante grâce à la base d'implications propres. Un algorithme de calcul de cette base de règles, formalisé à partir de la théorie des hypergraphes, est également proposé dans cette thèse. Ensuite, nous exploitons les informations fournies lors de l'étape de caractérisation afin de proposer une méthode de complétion contextualisée, qui complète les valeurs manquantes selon le type aléatoire/non-aléatoire et selon le contexte. La complétion des valeurs manquantes non aléatoires est effectuée par des valeurs spéciales, renfermant intrinsèquement les origines des valeurs manquantes et déterminées grâce à des schémas de caractérisation. Finalement, nous nous intéressons aux techniques d'évaluation des méthodes de complétion et nous proposons une nouvelle technique fondée sur la stabilité d'un clustering entre les données de référence et les données complétées
Knowledge Discovery from incomplete databases is a thriving research area. In this thesis, the main focus is put on the proposal of a missing values completion method. We start approaching this issue by defining the appearing models of the missing values. We thus propose a new typology according to the given data and we characterize these missing values in a non-redundant manner defined by means of the basis of proper implications. An algorithm computing this basis of rules, heavily relying on the hypergraph theory battery of results, is also introduced in this thesis. We then explore the information provided during the characterization stage in order to propose a new contextual completion method. The latter completes the missing values with respect to their type as well as to their appearance context. The non-random missing values are completed with special values intrinsically containing the explanation defined by the characterization schemes. Finally, we investigate the evaluation techniques of the missing values completion methods and we introduce a new technique based on the stability of a clustering, when applied on reference data and completed ones
36

Tang, Ahanda Barnabé. "Extension des méthodes d'analyse factorielle sur des données symboliques." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de ce travail est d'étendre les méthodes classiques d'analyse factorielle (ACP, AFC, AFM) a un tableau de données symboliques (TDS). Dans ce tableau, l'élément numérique habituel du modèle tabulaire classique est remplacé par une application mesurable. Ce modèle introduit une définition naturelle d'un individu par un objet assertion Diday, 95. Dans une première partie, nous améliorons l'algorithme d'ACP sur un tableau de données intervalles dans trois directions. D'une part, on propose une ACP duale en introduisant la notion d'assertion de variable par une lecture en colonne du TDS. Ensuite nous présentons plusieurs aides à l'interprétation que nécessitent cette nouvelle approche. Enfin, nous généralisons l'algorithme au cas de l'AFM, si l'on suppose les données structurées en groupes. La deuxième partie de cette thèse est consacrée à l'extension de l'analyse des correspondances. Dans le cas où on ne considère que la variation, on présente une correspondance entre deux variables dans le cas où la base de données comporte deux descripteurs, puis dans un cas plus général. Cette correspondance tient compte de la mesure associée à l'espace de description. Les divers thèmes de cette thèse sont illustrés par des applications sur des données réelles ou simulées.
37

Ban, Tian. "Méthodes et architectures basées sur la redondance modulaire pour circuits combinatoires tolérants aux fautes." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00933194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la recherche d'architectures fiables pour les circuits logiques. Par "fiable", nous entendons des architectures permettant le masquage des fautes et les rendant de ce fait "tolérantes" à ces fautes. Les solutions pour la tolérance aux fautes sont basées sur la redondance, d'où le surcoût qui y est associé. La redondance peut être mise en oeuvre de différentes manières : statique ou dynamique, spatiale ou temporelle. Nous menons cette recherche en essayant de minimiser tant que possible le surcoût matériel engendré par le mécanisme de tolérance aux fautes. Le travail porte principalement sur les solutions de redondance modulaire, mais certaines études développées sont beaucoup plus générales.
38

Messine, Frédéric. "Méthodes d'optimisation globale basées sur l'analyse d'intervalle pour la résolution de problèmes avec contraintes." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT082H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le retour au premier plan de l'optimisation globale correspond à un besoin industriel. De nombreuses applications, que ce soit au niveau de la conception ou de l'exploitation se ramènent à la recherche d'optima n'entrant pas dans le cadre des hypothèses simplificatrices (convéxite et donc unicité, différentiabilité, existence de points stationnaires,. . . ). C'est en partie le cas des exemples concrets étudiés : la conception de procédés chimiques et d'actionneurs électromécaniques. Les méthodes d'optimisation globale que nous avons étudiées, sont basées sur l'analyse d'intervalle, ce qui leur donne leur caractère déterministe. Elles permettent donc de trouver avec certitude l'optimum global ainsi que tous ses optimiseurs, quelle que soit la nature du problème : continu, mixte, avec ou sans contraintes,. . . Certes, de telles performances se payent en temps de calcul et en utilisation mémoire. Les algorithmes développés dans cette thèse ont pour but de réduire de facon considérable ces temps CPU et le flot de données stocké. Afin d'améliorer ces algorithmes de type branch and bound, de nouvelles méthodes d'encadrement de l'optimum global concernant les fonctions différentiables de plusieurs variables ont été proposées. Le procédé mis en oeuvre consiste à construire des hyperplans dont l'intersection fournit tout simplement une minoration de la fonction ; cette construction utilise les propriétés d'inclusion de l'analyse d'intervalle. L'intégration de ces méthodes au sein d'algorithmes de type branch and bound, permet d'améliorer de facon considérable leur convergence et de limiter l'effet de clusters. La découverte des optima globaux des deux problèmes semi-industriels traités ont démontré l'efficacité de tels algorithmes par rapport aux méthodes classiques (gain de 10% sur les optima). Dès lors, l'utilisation des nouvelles méthodes d'encadrement dans un tel cadre (problèmes mixtes avec contraintes) semble très prometteuse.
39

Sossa, Hasna El. "Quelques méthodes d'éléments finis mixtes raffinées basées sur l'utilisation des champs de Raviart-Thomas." Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/6f5acb08-fa86-418a-bee2-65cc41f30556.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, nous étudions le raffinement de maillage pour des méthodes d’éléments finis mixtes et ce pour deux types de problèmes : le premier concerne le problème de Laplace et le second le problème de Stokes. Pour ces deux types de problèmes et dans des domaines non réguliers, les méthodes analysées jusqu’à présent, sont celles qui concernent des formulations mixtes « classiques » par exemple en vitesse pression pour le système de Stokes. Ici, nous analysons, pour le problème de Laplace, la formulation mixte duale en (p := grad u, u) et pour le système de Stokes, la formulation mixte duale en ((o := grad u,p), u). Pour le problème de Laplace, on approxime sur chaque triangle K de la triangulation, p par un champ de vecteurs de Raviart-Thomas de degré 0 (resp de degré 1) et u par une constante (resp par polynôme de degré 1). Pour obtenir une estimation d’erreur de l’ordre de h (resp de l’ordre de h²), nous utilisons un raffinement de maillage à la Raugel. Ensuite nous traitons le cas des éléments finis quadrilatéraux et nous proposons une famille régulière de quadrangulations permettant d’obtenir des majorations d’erreurs optimales. Nous nous intéressons ensuite au système de Stokes. Nous approximons sur chaque triangle K de la triangulation, chacune des deux lignes du tenseur o= u par un champ de vecteurs de Raviart-Thomas de degré 0 (resp. De degré 1), la pression p par une constante (resp. Par un champ de vecteurs dont chaque composante est un polynôme de degré de 1). En utilisant, un raffinement de maillage à la Raugel, nous obtenons une estimation de l’erreur de l’ordre de h (resp. De l’ordre de h²), semblables à celles du cas régulier. Finalement nous traitons le cas d’élément finis quadrilatèraux. Nous utilisons le même type de familles raffinées de quadrangulations proposées que celles pour le problème de Laplace, pour obtenir des majorations d’erreurs optimales
In this work, we study the refinement of mesh for the mixed finite elements methods and this for two types of problems: the first concerns the problem of Laplace and the second the problem of Strokes. For these two types of problems and in nonregular domains, the methods analysed until now, are those which relate to “traditional” mixed formulations such as the velocity-pressure formulation for the Strokes problem. Here, we analyse, for the Laplace equation, the dual mixed formulation in (p : = grad u, u) and for the system of Strokes, the dual mixed formulation in ((o := grad u,p) , u). For the problem of Laplace, we approximate on each triangle K of the triangulation p by a Raviart-Thomas vectorfield of degree 0 (resp. Of degree 1) and u by a constant on each triangle K (resp. By a polynomial of degree 1). To recapture convergence of order 1, we must use a refinement of the meshes according to Raugel method. Then we treat the case of finite elements of quadrilateral type and we propose appropriate regular family of quadrangulations, in order to obtain the optimal order of convergence. We investigate next the system of Strokes. We approximate on each triangle K each of the two lines of the tensor o by a Raviart-Thomas vectorfields of degree 0 (resp. 1), the pressure p by a constant (resp. By a polynomial of degree 1) and u by constant vectorfields (resp. By fieldvectors whose each component is a polynomial of degree of 1). Using, an appropriate refinement mesh of Raugel’s type, we obtain an error estimate of order h (resp. Of order h²), similar to those in the regular case. Finally we treat finite elements of the quadrilateral type. We use analogous refined family of quadrangulations as proposed for the problem of Laplace, to obtain optimal order of convergence
40

Camelin, Nathalie. "Stratégies robustes de compréhension de la parole basées sur des méthodes de classification automatique." Avignon, 2007. http://www.theses.fr/2007AVIG0149.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne le problème de la compréhension automatique de la parole dans des applications acceptant de la parole téléphonique spontanée multilocuteurs. L'étude consiste en l'intégration de méthodes de classification automatique dans les processus de décodage et de compréhension de la parole. Nos travaux portent sur l'adaptation de ces méthodes, ayant obtenu d'excellents résultats sur le langage écrit, aux particularités des sorties d'un système de reconnaissance automatique de parole. La principale difficulté de traitement de ce type de données réside dans le caractère incertain des paramètres d'entrée des classifieurs. Parmi toutes les méthodes de classification existantes, nous avons choisi d'en utiliser trois. La première est à base d'arbres de décisions sémantiques, les deux autres, considérées par la communauté scientifique de l'apprentissage automatique parmi les plus performantes, sont des méthodes de classification à large marge : le boosting et les machines à support vectoriel. Une méthode d'étiquetage de séquences, les champs conditionnels aléatoires, est également étudiée et utilisée. Deux cadres applicatifs sont abordés : -PlanResto, application touristique de dialogue oral homme-machine, permet aux utilisateurs de formuler en langage naturel une demande concernant un restaurant sur Paris. La compréhension effectuée en temps réel consiste en la construction d'une requête à une base de données. L'accord consensuel des différents classifieurs est utilisé en tant que mesure de confiance ; -SCOrange, corpus de sondage téléphonique, vise à collecter les messages des utilisateurs de mobile exprimant leur satisfaction vis à vis du service client. La compréhension effectuée off-line consiste à évaluer les proportions des différentes opinions exprimées selon un thème et une polarité. Les classifieurs permettent d'extraire les avis des utilisateurs dans une stratégie visant à évaluer de manière fiable les proportions des opinions ainsi que leur évolution
The work presented in this PhD thesis deals with the automatic Spoken Language Understanding (SLU) problem in multiple speaker applications which accept spontaneous speech. The study consists in integrating automatic classification methods in the speech decoding and understanding processes. My work consists in adapting methods, wich have already shown good performance in text domain, to the particularities of an Automatic Speech Recognition system outputs. The main difficulty of the process of this type of data is due to the uncertainty in the input parameters for the classifiers. Among all existing automatic classification methods, we choose to use three of them. The first is based on Semantic Classification Trees, the two others classification methods, considered among the most performant in the scientific community of machine learning, are large margin ones based on boosting and support vector machines. A sequence labelling method, Conditional Random Fields (CRF), is also studied and used. Two applicative frameworks are investigated : -PlanResto is a tourism application of human-computer dialogue. It enables users to ask information about a restaurant in Paris in natural language. The real-time speech understanding process consists in building a request for a database. Within this framework, the consensual agreement of the different classifiers, considered as semantic experts, is used as a confidence measure ; -SCOrange is a spoken telephone survey corpus. The purpose is to collect messages of mobile users expressing their opinion about the customer service. The off-line speech understanding process consists in evaluating proportions of opinions about a topic and a polarity. Classifiers enable the extraction of user's opinions in a strategy that can reliably evalute the distribution of opinions and their temporal evolution
41

Truc, Loïc. "Développement et application d'une méthode de reconstitution paléoclimatique quantitative basée sur des données polliniques fossiles en Afrique australe." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20200/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Idéalement située à la confluence entre climat tropical et climat tempéré, l'Afrique australe est une zone très sensible aux variations des conditions climatiques. Cette région fait cependant preuve d'un manque de données paléoclimatiques important, et les méthodes de reconstruction traditionnelles trouvent rapidement leurs limites face aux conditions particulières qui y sévissent. Les méthodes de reconstruction quantitatives communément employées se révèlent inutilisables face aux conditions d'aridité extrêmes qui ne permettent que très rarement l'accumulation et la préservation de pollen moderne et fossile et se confrontent également aux particularités de la végétation abritée par cette région. L'objectif de ces travaux de thèse vise à développer une méthode de reconstruction quantitative basée sur des données polliniques fossiles, à partir de la relation entre la distribution actuelle des taxons polliniques et le climat en Afrique australe. Nous avons développé une fonction de transfert utilisant les propriétés des fonctions de densité de probabilité (pdfs), permettant de transformer l'information contenue dans un assemblage pollinique en estimation quantitative du climat. En parallèle, cette étude a permis de développer une méthode permettant de sélectionner les espèces les plus probables à inclure dans chaque type pollinique qui compose un assemblage. Cette méthode de sélection des espèces (SSM) a permis de pallier la faible résolution taxonomique des données polliniques de cette région caractérisée par une biodiversité élevée et d'affiner la méthode des espèces indicatrices, afin de la rendre utilisable en Afrique australe. Cette méthodologie a été appliquée aux données polliniques du site de Wonderkrater (Afrique du Sud). Les résultats observés et leur comparaison avec ceux provenant de sites régionaux ont permis de déterminer que les températures estivales et hivernales étaient 6±2°C inférieure au cours du LGM et du Younger Dryas et que les précipitations au cours de la saison humide étaient 50% moins importantes qu'actuellement. Ces résultats montrent que les SST enregistrées dans le canal du Mozambique régissent les conditions hydrologiques du continent adjacent, en opposition avec la possible implication de l'ITCZ sous ces latitudes. Les résultats indiquent également que les deux tropiques montrent des tendances climatiques similaires au cours des derniers 20 000 ans. La méthode a ensuite été appliquée à un enregistrement pollinique provenant de la région du fynbos (Afrique du Sud). Les résultats ont montré les limites de la méthode au vu de la faible amplitude de reconstruction obtenue pour les températures entre le LGM et l'Holocène (~2°C). Les résultats ont néanmoins permis de mettre en évidence que les températures montraient un pattern similaire à celui observé en Antarctique. Nous avons également pu montrer que les périodes glaciaires coïncidaient avec les périodes les plus humides, en accord avec le modèle de Cockroft (1987). Ce modèle dérive du mécanisme de migration des « westerlies » vers l'équateur au cours des périodes glaciaires, en réponse au déplacement du vortex circcum polaire. Les travaux issus de cette thèse ont montré qu'il était possible d'utiliser la distribution actuelle des plantes pour estimer les variations quantitatives des changements climatiques passés, dans la plupart des configurations botaniques et climatiques rencontrées en Afrique australe. La méthode de sélection des espèces se révèle être un outil indispensable dans cette région de haute biodiversité. Ces travaux offrent des perspectives intéressantes dans cette zone actuellement dépourvue de reconstructions climatiques quantitatives. Cependant, les résultats émanant des deux cas d'études ont mis en évidence des faiblesses et des limites méthodologiques qui devront faire l'objet d'études supplémentaires afin d'en améliorer les performances
Located at the interface between tropical and temperate climate systems, southern Africa is a particularly sensitive region in terms of long-term climate change. However, few reliable paleoclimatic records exist from the region – largely as a result of the arid climate with precludes the preservation of wetland sequences - , and virtually no quantitative reconstructions are available.The aim of this thesis is to develop quantitative palaeoclimate reconstruction method based the relation between modern plant distributions and climate in southern Africa. We develop botanical-climatological transfer functions derived from probability density functions (pdfs), allowing for quantitative estimates of the palaeoclimatic variables to be calculated from fossil pollen assemblages. In addition, a species-selection method (SSM) based on Bayesian statistics is outlined, which provides a parsimonious choice of most likely plant species from what are otherwise taxonomically broad pollen-types. This method addresses limitations imposed by the low taxonomic resolution of pollen identification, which is particularly problematic in areas of high biodiversity such as many regions of southern Africa.This methodology has been applied to pollen record from Wonderkrater (South Africa). Results indicate that temperatures during both the warm and cold season were 6±2°C colder during the Last Glacial Maximum and Younger Dryas, and that rainy season precipitation during the Last Glacial Maximum was ~50% of that during the mid-Holocene. Our results also imply that changes in precipitation at Wonderkrater generally track changes in Mozambique Channel sea-surface temperatures, with a steady increase following the Younger Dryas to a period of maximum water availability at Wonderkrater ~3-7 ka. These findings indicate that the northern and southern tropics experienced similar climatic trends during the last 20 kyr, and highlight the role of variations in sea-surface temperatures over the more popularly perceived role of a shifting Intertropical Convergence Zone in determining long-term environmental trends.This method has also been applied to a pollen record from Pakhuis Pass, in the Fynbos Biome (South Africa). Results show the limitations of quantitative methods, with only unrealistically low amplitude being reconstructed between the Last Glacial Maximum and Holocene (~2°C). However, results indicate that the reconstructed temperature trends, if not amplitudes, are similar to trends observed in Antarctic ice core records. Further, in reconstructing past humidity, we show that over the last 18 kyr, cooler conditions appear to be generally wetter at the site. These results are consistent with Cockcroft model (1987), derived from equatorward shift of the westerlies resulting from expansions of the circum-polar vortex.This study shows the potential of using modern plant distributions to estimates past climate parameters in southern Africa, and the species selection method proves to be a useful tool in region with high biodiversity. This work provides a novel perspective in the region, where no quantitative paleoclimatic reconstructions have been available. However, results from Pakhuis Pass highlight some of the limitations of this methodology, which will be subject of future work in this promising field of inquiry
42

Coq, Guilhelm. "Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Coq-Guilhelm/2008-Coq-Guilhelm-These.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l’image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d’une quantité réelle à minimiser appelée critère d’information ou critère entropique pénalisé. La principale motivation de ce travail de thèse est de justifier l’utilisation d’un tel critère face à un problème de sélection de modèles typiquement issu d’un contexte de traitement du signal. La justification attendue se doit, elle, d’avoir un solide fondement mathématique. Nous abordons aussi le problème classique de la détermination de l’ordre d’une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d’un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l’utilisation est justifiée par la minimisation du coût résultant de l’estimation obtenue. Les chaînes de Markov multiples modèlisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d’une image. Nous nous intéressons au problème de la détermination de l’ordre d’une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l’estimation d’ une densité par un histogramme. Dans ces deux domaines, nous justifions l’ utilisation d’ un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de « Minimum description Length ». Nous nous efforçons également, à travers ces différents domaines d’application, de présenter des méthodes alternatives d’ utilisation des critères d’ information. Ces méthodes, dites comparatives, présentent une complexité d’ utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle
Model selection problems appear frequently in a wide array of applicative domains such as data compression and signal or image processing. One of the most used tools to solve those problems is a real quantity to be minimized called information criterion or penalized likehood criterion. The principal purpose of this thesis is to justify the use of such a criterion responding to a given model selection problem, typically set in a signal processing context. The sought justification must have a strong mathematical background. To this end, we study the classical problem of the determination of the order of an autoregression. . We also work on Gaussian regression allowing to extract principal harmonics out of a noised signal. In those two settings we give a criterion the use of which is justified by the minimization of the cost resulting from the estimation. Multiple Markov chains modelize most of discrete signals such as letter sequences or grey scale images. We consider the determination of the order of such a chain. In the continuity we study the problem, a priori distant, of the estimation of an unknown density by an histogram. For those two domains, we justify the use of a criterion by coding notions to which we apply a simple form of the “Minimum Description Length” principle. Throughout those application domains, we present alternative methods of use of information criteria. Those methods, called comparative, present a smaller complexity of use than usual methods but allow nevertheless a precise description of the model
43

Giraldi, Loïc. "Contributions aux méthodes de calcul basées sur l'approximation de tenseurs et applications en mécanique numérique." Phd thesis, Ecole centrale de nantes - ECN, 2012. http://tel.archives-ouvertes.fr/tel-00861986.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse apporte différentes contributions à la résolution de problèmes de grande dimension dans le domaine du calcul scientifique, en particulier pour la quantification d'incertitudes. On considère ici des problèmes variationnels formulés dans des espaces produit tensoriel. On propose tout d'abord une stratégie de préconditionnement efficace pour la résolution de systèmes linéaires par des méthodes itératives utilisant des approximations de tenseurs de faible rang. Le préconditionneur est recherché comme une approximation de faible rang de l'inverse. Un algorithme glouton permet le calcul de cette approximation en imposant éventuellement des propriétés de symétrie ou un caractère creux. Ce préconditionneur est validé sur des problèmes linéaires symétriques ou non symétriques. Des contributions sont également apportées dans le cadre des méthodes d'approximation directes de tenseurs qui consistent à rechercher la meilleure approximation de la solution d'une équation dans un ensemble de tenseurs de faibles rangs. Ces méthodes, parfois appelées "Proper Generalized Decomposition" (PGD), définissent l'optimalité au sens de normes adaptées permettant le calcul a priori de cette approximation. On propose en particulier une extension des algorithmes gloutons classiquement utilisés pour la construction d'approximations dans les ensembles de tenseurs de Tucker ou hiérarchiques de Tucker. Ceci passe par la construction de corrections successives de rang un et de stratégies de mise à jour dans ces ensembles de tenseurs. L'algorithme proposé peut être interprété comme une méthode de construction d'une suite croissante d'espaces réduits dans lesquels on recherche une projection, éventuellement approchée, de la solution. L'application à des problèmes symétriques et non symétriques montre l'efficacité de cet algorithme. Le préconditionneur proposé est appliqué également dans ce contexte et permet de définir une meilleure norme pour l'approximation de la solution. On propose finalement une application de ces méthodes dans le cadre de l'homogénéisation numérique de matériaux hétérogènes dont la géométrie est extraite d'images. On présente tout d'abord des traitements particuliers de la géométrie ainsi que des conditions aux limites pour mettre le problème sous une forme adaptée à l'utilisation des méthodes d'approximation de tenseurs. Une démarche d'approximation adaptative basée sur un estimateur d'erreur a posteriori est utilisée afin de garantir une précision donnée sur les quantités d'intérêt que sont les propriétés effectives. La méthodologie est en premier lieu développée pour l'estimation de propriétés thermiques du matériau, puis est étendue à l'élasticité linéaire.
44

Asse, Abdallah. "Aide au diagnostic industriel par des méthodes basées sur la théorie des sous-ensembles flous." Valenciennes, 1985. https://ged.uphf.fr/nuxeo/site/esupversions/c72e776b-0420-445e-bc8f-063e67804dad.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Legendre, Sylvie. "Méthodes d'inspection non destructive par ultrasons de réservoirs d'hydrogène basées sur la transformée en ondelettes." Thèse, Université du Québec à Trois-Rivières, 2000. http://depot-e.uqtr.ca/6648/1/000671506.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Nguyen, Van Quang. "Méthodes d'éclatement basées sur les distances de Bregman pour les inclusions monotones composites et l'optimisation." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066183/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est d'élaborer des méthodes d'éclatement basées sur les distances de Bregman pour la résolution d'inclusions monotones composites dans les espaces de Banach réels réflexifs. Ces résultats nous permettent d'étendre de nombreuses techniques, jusqu'alors limitées aux espaces hilbertiens. De plus, même dans le cadre restreint d'espaces euclidiens, ils donnent lieu à de nouvelles méthodes de décomposition qui peuvent s'avérer plus avantageuses numériquement que les méthodes classiques basées sur la distance euclidienne. Des applications numériques en traitement de l'image sont proposées
The goal of this thesis is to design splitting methods based on Bregman distances for solving composite monotone inclusions in reflexive real Banach spaces. These results allow us to extend many techniques that were so far limited to Hilbert spaces. Furthermore, even when restricted to Euclidean spaces, they provide new splitting methods that may be more avantageous numerically than the classical methods based on the Euclidean distance. Numerical applications in image processing are proposed
47

Sy, Kombossé. "Étude et développement de méthodes de caractérisation de défauts basées sur les reconstructions ultrasonores TFM." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS040/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En contrôle non destructif, dans la perspective de l’amélioration des images de défauts mais également dans le but de rendre leur interprétation plus simple par des opérateurs non spécialisés,de nouvelles méthodes d’imagerie ultra-sonore telle que l’imagerie TFM (Total Focusing Method)sont apparues depuis quelques années comme une alternative aux méthodes d’imageries conventionnelles.Elles offrent des images réalistes des défauts et permettent à partir d’une même acquisition d’avoir un nombre important d’images chacune pouvant porter des informations différentes et complémentaires sur les caractéristiques d’un même défaut.Lorsqu’elles sont correctement sélectionnées,ces images sont plus faciles à analyser, elles présentent moins de risques de mauvaise interprétation et permettent d’envisager des caractérisations de défauts plus rapides par des opérateurs moins spécialisés.Pour une exploitation industrielle, il reste cependant nécessaire de renforcer la robustesse et la facilité de mise en oeuvre de ces techniques d’imagerie.L’ensemble des travaux réalisés durant la thèse a permis de développer de nouveaux outils capables d’améliorer la caractérisation des défauts par les techniques d’imagerie TFM en termes de position,d’orientation et de dimensionnement
In non-destructive testing, with a view to improving defect images but also to simplify their interpretation by non-specialized operators,new ultrasonic imaging methods such as TFM imaging (Total Focusing Method ) have appeared for some years as an alternative to conventional imaging methods. They offer realistic images of defects and allow from the same acquisition to have a large number of images each that can carry different and complementary information on the characteristics of the same defect. When properly selected, these images are easier to analyze, they present less risk of misinterpretation and allow to consider faster fault characterizations by less specialized operators.However, for an industrial operation, it remains necessary to strengthen the robustness and ease of implementation of these imaging techniques. All the work carried out during the thesis allowed to develop new tools to improve the characterization of defects by TFM imaging techniques in terms of position,orientation and sizing
48

Horstmann, Tobias. "Méthodes numériques hybrides basées sur une approche Boltzmann sur réseau en vue de l'application aux maillages non-uniformes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC027/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Malgré l'efficacité informatique et la faible dissipation numérique de la méthode de Boltzmann sur réseau (LBM) classique reposant sur un algorithme de propagation-collision, cette méthode est limitée aux maillages cartésiens uniformes. L'adaptation de l'étape de discrétisation à différentes échelles de la mécanique des fluides est généralement réalisée par des schémas LBM à échelles multiples, dans lesquels le domaine de calcul est décomposé en plusieurs sous-domaines uniformes avec différentes résolutions spatiales et temporelles. Pour des raisons de connectivité, le facteur de résolution des sous-domaines adjacents doit être un multiple de deux, introduisant un changement abrupt des échelles spatio-temporelles aux interfaces. Cette spécificité peut déclencher des instabilités numériques et produire des sources de bruit parasite rendant l'exploitation de simulations à finalités aéroacoustiques impossible. Dans la présente thèse, nous avons d'abord élucidé le sujet du raffinement de maillage dans la LBM classique en soulignant les défis et les sources potentielles d'erreur. Par la suite, une méthode de Boltzmann sur réseau hybride (HLBM) est proposée, combinant l'algorithme de propagation-collision avec un algorithme de flux au sens eulérien obtenu à partir d'une discrétisation en volumes finis des équations de Boltzmann à vitesse discrète. La HLBM combine à la fois les avantages de la LBM classique et une flexibilité géométrique accrue. La HLBM permet d'utiliser des maillages cartésiens non-uniformes. La validation de la méthode hybride sur des cas tests 2D à finalité aéroacoustique montre qu'une telle approche constitue une alternative viable aux schémas Boltzmann sur réseau à échelles multiples, permettant de réaliser des raffinements locaux en H. Enfin, un couplage original, basé sur l'algorithme de propagation-collision et une formulation isotherme des équations de Navier-Stokes en volumes finis, est proposé. Une telle tentative présente l'avantage de réduire le nombre d'équations du solveur volumes finis tout en augmentant la stabilité numérique de celui-ci, en raison d'une condition CFL plus favorable. Les deux solveurs sont couplés dans l'espace des moments, où la solution macroscopique du solveur Navier-Stokes est injectée dans l'algorithme de propagation-collision à l'aide de la collision des moments centrés. La faisabilité d'un tel couplage est démontrée sur des cas tests 2D, et les résultas obtenus sont comparés avec la HLBM
Despite the inherent efficiency and low dissipative behaviour of the standard lattice Boltzmann method (LBM) relying on a two step stream and collide algorithm, a major drawback of this approach is the restriction to uniform Cartesian grids. The adaptation of the discretization step to varying fluid dynamic scales is usually achieved by multi-scale lattice Boltzmann schemes, in which the computational domain is decomposed into multiple uniform subdomains with different spatial resolutions. For the sake of connectivity, the resolution factor of adjacent subdomains has to be a multiple of two, introducing an abrupt change of the space-time discretization step at the interface that is prone to trigger instabilites and generate spurious noise sources that contaminate the expected physical pressure signal. In the present PhD thesis, we first elucidate the subject of mesh refinement in the standard lattice Boltzmann method and point out challenges and potential sources of error. Subsequently, we propose a novel hybrid lattice Boltzmann method (HLBM) that combines the stream and collide algorithm with an Eulerian flux-balance algorithm that is obtained from a finite-volume discretization of the discrete velocity Boltzmann equations. The interest of a hybrid lattice Boltzmann method is the pairing of efficiency and low numerical dissipation with an increase in geometrical flexibility. The HLBM allows for non-uniform grids. In the scope of 2D periodic test cases, it is shown that such an approach constitutes a valuable alternative to multi-scale lattice Boltzmann schemes by allowing local mesh refinement of type H. The HLBM properly resolves aerodynamics and aeroacoustics in the interface regions. A further part of the presented work examines the coupling of the stream and collide algorithm with a finite-volume formulation of the isothermal Navier-Stokes equations. Such an attempt bears the advantages that the number of equations of the finite-volume solver is reduced. In addition, the stability is increased due to a more favorable CFL condition. A major difference to the pairing of two kinetic schemes is the coupling in moment space. Here, a novel technique is presented to inject the macroscopic solution of the Navier-Stokes solver into the stream and collide algorithm using a central moment collision. First results on 2D tests cases show that such an algorithm is stable and feasible. Numerical results are compared with those of the previous HLBM
49

Charles, Christophe. "SearchXQ : une méthode d'aide à la navigation fondée sur Ω-means, algorithme de classification non-supervisée. Application sur un corpus juridique français". Paris, ENMP, 2004. http://www.theses.fr/2004ENMP1281.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Fauquette, Séverine. "Le climat du pliocène : nouvelle méthode de quantification basée sur les données polliniques et application à la Méditerranée occidentale." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour reconstituer le climat du pliocene (5,32 a 1,77 millions d'annees), une nouvelle methode, basee sur les donnees polliniques, a ete mise au point. Elle comporte deux etapes, la premiere correspond a la definition des amplitudes climatiques tolerees par quelques taxons-cles du pliocene mediterraneen (subtropicaux ou sahariens), en se basant sur la litterature, et la deuxieme correspond a la determination des amplitudes climatiques de divers taxons, a partir de plusieurs milliers de spectres polliniques actuels. Cette methode a ete testee sur des spectres polliniques sub-actuels mais aussi du quaternaire recent, puis plusieurs sequences polliniques pliocenes de la region ouest-mediterraneenne ont fait l'objet d'une reconstitution climatique. Les resultats obtenus montrent qu'un gradient climatique latitudinal, pour les temperatures et les precipitations, existait deja a cette epoque et que le climat etait chaud et humide dans la region nord-ouest mediterraneenne (1 a 4c et 400 a 700 mm de plus qu'aujourd'hui), mais chaud et sec dans la region sud-ouest mediterraneenne (0 a 5c de plus et aussi sec ou plus sec qu'actuellement). Un tel climat pourrait correspondre au futur climat a venir, compte tenu de l'intensification de l'effet de serre. Les estimations climatiques obtenues sont utilisees ensuite dans le cadre d'une nouvelle methode de reconstitution des paleoaltitudes permettant de savoir que l'altitude du massif du mercantour etait deja d'au moins 2000 metres au pliocene basal. Tous ces renseignements - vegetation, climat, paleoaltitudes - ont permis d'etablir un rapprochement entre la structure actuelle de vegetation de la californie et celle du pliocene mediterraneen.

До бібліографії