To see the other types of publications on this topic, follow the link: Détection de mots clés.

Dissertations / Theses on the topic 'Détection de mots clés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Détection de mots clés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ben, Ayed Yassine. "Détection de mots clés dans un flux de parole." Phd thesis, Télécom ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00005753.

Full text
Abstract:
La reconnaissance automatique de la parole suscite actuellement un grand intérêt. En particulier, la détection de mots clés qui constitue une branche importante de l'interaction homme-machine vu le besoin de communiquer avec nos machines d'une façon naturelle et directe en utilisant la parole spontanée. Cette technique consiste à détecter dans une phrase prononcée, les mots clés caractérisant l'application et de rejeter les mots hors-vocabulaire ainsi que les hésitations, les faux départs etc.
Le travail que nous présentons dans ce manuscrit s'inscrit dans le cadre de la détection de mots clés dans un flux de parole. Tout d'abord, nous proposons de nouveaux modèles ``poubelles'' fondés sur la modélisation des mots hors-vocabulaire. Puis nous introduisons la reconnaissance à base de boucle de phonèmes, dans laquelle nous appliquons différentes fonctions de récompense favorisant la reconnaissance des mots clés.
Ensuite nous proposons l'utilisation des mesures de confiance afin de pouvoir prendre la décision de rejeter ou d'accepter un mot clé hypothèse. Les différentes mesures de confiance proposées sont basées sur la probabilité d'observation acoustique locale. En premier lieu, nous utilisons les moyennes arithmétique, géométrique et harmonique comme mesures de confiance pour chaque mot clé. En second lieu, nous proposons de calculer la mesure de confiance en se basant sur la méthode à base de boucle de phonèmes.
Enfin nous présentons le problème de détection comme un problème de classification où chaque mot clé peut appartenir à deux classes différentes, à savoir ``correct'' et ``incorrect''. Cette classification est réalisée en utilisant des Support Vector Machines (SVM) qui constituent une nouvelle technique d'apprentissage statistique. Chaque mot clé reconnu est représenté par un vecteur caractéristique qui constitue l'entrée du classifieur SVM. Pour déterminer ce vecteur, nous utilisons la probabilité d'observation acoustique locale et nous introduisons ensuite la durée de chaque état. Afin d'améliorer les performances, nous proposons des approches hybrides combinant les modèles poubelles avec mesure de confiance et mesure de confiance avec SVM.
Pour tester les performances de l'ensemble de ces modèles nous utilisons la base de données française SPEECHDAT. L'évaluation de tous les résultats a été réalisée en se basant sur les courbes ROC et les courbes rappel/précision. Les meilleurs résultats ont été obtenus par les méthodes basées sur l'utilisation des SVM. Les méthodes hybrides nous ont permis aussi de réaliser de bonnes performances.
APA, Harvard, Vancouver, ISO, and other styles
2

Razik, Joseph. "Mesures de confiance trame-synchrones et locales en reconnaissance automatique de la parole." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10072/document.

Full text
Abstract:
En reconnaissance automatique de la parole, les mesures de confiance tentent d'estimer la confiance qu'on peut accorder au résultat (phonème, mot, phrase) fourni par le moteur de reconnaissance. Dans cette thèse nous proposons des mesures de confiance capables de faire cette estimation dans le cas d'applications nécessitant une reconnaissance grand vocabulaire en flux continu. Nous avons défini deux types de mesure de confiance. Les premières, fondées sur des rapports de vraisemblance, sont des mesures trame-synchrones qui peuvent être calculées au fur et à mesure de la progression du moteur de reconnaissance au sein de la phrase à reconnaître. Les secondes, fondées sur une estimation de la probabilité a posteriori limitée à un voisinage local du mot considéré, nécessitent seulement un court délai avant de pouvoir être calculées. Ces mesures ont été évaluées et comparées à une mesure de l'état de l'art également fondée sur la probabilité a posteriori mais nécessitant la reconnaissance de toute la phrase. Cette évaluation a été faite d'une part dans une tâche de transcription automatique d'un corpus réel d'émissions radiophoniques et en utilisant le critère d'évaluation EER (Equal Error Rate) ; d'autre part dans une tâche de détection de mots clés sur le même corpus. Des performances très proches de celles de la mesure de l'état de l'art ont été obtenues par nos mesures locales avec un délai de moins d'une seconde. Nous avons également intégré l'une de nos mesures trame-synchrones dans le processus de décodage du moteur de reconnaissance afin d'améliorer la solution proposée par le système et ainsi diminuer le taux d'erreur en mots d'environ 6% en relatif
In automatic speech recognition, confidence measures aim at estimating the confidence we can give to a result (phone, word, sentence) provided by the speech recognition engine. In this thesis, we propose several confidence measures which are able to provide this estimation for applications using large vocabulary and on-the-fly recognition, as keyword indexation, broadcast news transcription, and live teaching class transcription for hard of hearing childs. We have defined two types of confidence measures. The first, based on likelihood ratio, are frame-synchronous measures which can be computed simultaneously with the recognition process of the sentence. The second ones are based on an estimation of the posterior probability limited to a local neighborhood of the considered word, and need only a short delay before being computed on the sub word graph extracted from the recognition process. These measures were assessed and compared to a state-of-the-art one, which is also based on posterior probability but which requires the recognition of the whole sentence. Two evaluations were performed on a real broadcast news corpus. The first one used the Equal Error Rate criterion in an automatic transcription task. The second evaluation was performed in a keyword spotting task. We achieved performance close to our reference measure with our local measures and a delay of less than one second. We also integrated one of our frame-synchronous measures in the decoding process of the recognition engine in order to improve the solution provided by the system and then to decrease the word error rate. We achieved to decrease the word error rate of around 1%
APA, Harvard, Vancouver, ISO, and other styles
3

Ramiandrisoa, Iarivony. "Extraction et fouille de données textuelles : application à la détection de la dépression, de l'anorexie et de l'agressivité dans les réseaux sociaux." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30191.

Full text
Abstract:
Notre recherche porte essentiellement sur des tâches ayant une finalité applicative : détection de la dépression et de l'anorexie d'une part et détection de l'agressivité d'autre part ; cela à partir de messages postés par des utilisateurs de plates-formes de type réseaux sociaux. Nous avons également proposé une méthode non supervisée d'extraction de termes-clés. Notre première contribution porte sur l'extraction automatique de termes-clés dans des documents scientifiques ou articles de presse. Plus précisément, nous améliorons une méthode non supervisée à base de graphes. Nous avons évalué notre approche sur onze collections de données dont cinq contenant des documents longs, quatre contenants des documents courts et enfin deux contenant des documents de type article de presse. Nous avons montré que notre proposition permet d'améliorer les résultats dans certains contextes. La deuxième contribution de cette thèse est une solution pour la détection au plus tôt de la dépression et de l'anorexie. Nous avons proposé des modèles utilisant des classifieurs, s'appuyant sur la régression logistique ou les forêts d'arbres de décision, basés sur (a) des caractéristiques et (b) le plongement de phrases. Nous avons évalué nos modèles sur les collections de données de la tâche eRisk. Nous avons observé que les modèles basés sur les caractéristiques sont très performants lorsque la mesure de précision est considérée, soit pour la détection de la dépression, soit pour la détection de l'anorexie. Le modèle utilisant le plongement de phrases, quant à lui, est plus performant lorsque l'on mesure la détection au plus tôt (ERDE_50) et le rappel. Nous avons aussi obtenu de bons résultats par rapport à l'état de l'art : meilleurs résultats sur la précision et ERDE_50 pour la détection de la dépression, et sur la précision et le rappel pour la détection de l'anorexie. Notre dernière contribution concerne la détection de l'agression dans les messages postés par des utilisateurs sur les réseaux sociaux. Nous avons réutilisé les mêmes modèles que ceux utilisés pour la détection de la dépression ou de l'anorexie. À cela, nous avons ajouté d'autres modèles basés sur l'apprentissage profond. Nous avons évalué nos modèles sur les collections de données de la tâche internationale TRAC. Nous avons observé que nos modèles, utilisant l'apprentissage profond, fournissent de meilleurs résultats que nos modèles utilisant des classifieurs classiques. Nos résultats dans cette partie de la thèse sont comparables à l'état de l'art du domaine. Nous avons toutefois obtenu le meilleur résultat sur une des collections de données
Our research mainly focuses on tasks with an application purpose: depression and anorexia detection on the one hand and aggression detection on the other; this from messages posted by users on a social media platform. We have also proposed an unsupervised method of keyphrases extraction. These three pieces of work were initiated at different times during this thesis work. Our first contribution concerns the automatic keyphrases extraction from scientific documents or news articles. More precisely, we improve an unsupervised graph-based method to solve the weaknesses of graph-based methods by combining existing solutions. We evaluated our approach on eleven data collections including five containing long documents, four containing short documents and finally two containing news articles. We have shown that our proposal improves the results in certain contexts. The second contribution of this thesis is to provide a solution for early depression and anorexia detection. We proposed models that use classical classifiers, namely logistic regression and random forest, based on : (a) features and (b) sentence embedding. We evaluated our models on the eRisk data collections. We have observed that feature-based models perform very well on precision-oriented measures both for depression or anorexia detection. The model based on sentence embedding is more efficient on ERDE_50 and recall-oriented measures. We also obtained better results compared to the state-of-the-art on precision and ERDE_50 for depression detection, and on precision and recall for anorexia detection. Our last contribution is to provide an approach for aggression detection in messages posted by users on social networks. We reused the same models used for depression or anorexia detection to create models. We added other models based on deep learning approach. We evaluated our models on the data collections of TRAC shared task. We observed that our models using deep learning provide better results than our models using classical classifiers. Our results in this part of the thesis are in the middle (fifth or ninth results) compared to the competitors. We still got the best result on one of the data collections
APA, Harvard, Vancouver, ISO, and other styles
4

Razik, Joseph. "Mesure de confiance trame-synchrones et locales en reconnaissance automatique de la parole." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00185747.

Full text
Abstract:
En reconnaissance automatique de la parole, les mesures de confiance tentent d'estimer la confiance qu'on peut accorder au résultat (phonème, mot, phrase) fourni par le moteur de reconnaissance ; l'apport de la mesure de confiance permettant par exemple de mettre en évidence les mots mal reconnus ou hors vocabulaire.
Dans cette thèse nous proposons des mesures de confiance capables de faire cette estimation dans le cas d'applications nécessitant une reconnaissance "grand vocabulaire" en flux continu comme l'indexation en mots clés ou la transcription en ligne d'émissions radiophoniques et télévisuelles, ou bien encore la transcription du cours d'un enseignant dans une salle de classe pour des élèves malentendants.
Dans ce cadre, nous avons défini deux types de mesure de confiance. Les premières, fondées sur des rapports de vraisemblance, sont des mesures trame-synchrones qui peuvent être calculées au fur et à mesure de la progression du moteur de reconnaissance au sein de la phrase à reconnaître. Les secondes, fondées sur une estimation de la probabilité a posteriori limitée à un voisinage local du mot considéré, nécessitent seulement un court délai avant de pouvoir être calculées.
Ces mesures ont été évaluées et comparées à une mesure de l'état de l'art également fondée sur la probabilité a posteriori mais nécessitant la reconnaissance de toute la phrase. Cette évaluation a été faite d'une part dans une tâche de transcription automatique d'un corpus réel d'émissions radiophoniques issu de la campagne ESTER et en utilisant le critère d'évaluation EER (Equal Error Rate) ; d'autre part dans une tâche de détection de mots clés sur le même corpus. Des performances très proches de celles de la mesure de l'état de l'art ont été obtenues par nos mesures locales avec un délai de moins d'une seconde.
Nous avons également intégré l'une de nos mesures trame-synchrones dans le processus de décodage du moteur de reconnaissance afin d'améliorer la solution proposée par le système et ainsi diminuer le taux d'erreur en mots d'environ 6% en relatif.
Enfin, une de nos mesures de confiance a permis par la mise en valeur de mots de faible confiance d'améliorer la compréhension de malentendants.
APA, Harvard, Vancouver, ISO, and other styles
5

Le, Blouch Olivier. "Décodage acoustico-phonétique et applications à l'indexation audio automatique." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/657/.

Full text
Abstract:
Aujourd'hui, la quantité de documents audio numériques disponibles ne cesse de croître et le traitement automatique de ces données potentiellement très hétérogènes devient primordial. Dans cette thèse, nous étudions la faisabilité d'applications d'indexation automatique robustes des documents parlés basée sur un moteur de décodage acoustico-phonétique de la parole (DAP). Le DAP permet de transcrire automatiquement un signal de parole en phonèmes, unités plus petites que les mots mais permettant potentiellement de conserver l'intelligibilité du discours. Nous mettons en évidence, dans un premier temps, l'intérêt d'intégrer l'information syllabique dans un système de DAP. Ce moteur, basé sur une modélisation originale des syllabes, est évalué sur le corpus de test de la campagne ESTER. La seconde partie de notre étude s'articule autour d'un moteur de détection de mots-clés basé sur le flux phonétique issu de notre DAP. Nous proposons un système simple, rapide, et robuste aux fausses alarmes, s'affranchissant d'un calcul classique du critère de maximum de vraisemblance. Nous introduisons pour cela des méthodes adaptées de gestion des erreurs de phonétisation, des phénomènes de coarticulation et de filtrage des fausses alarmes. Nous proposons en particulier des techniques d'expansion phonétique par utilisation de grammaires. Le système est évalué tout au long de cette étude par la détection de noms de pays dans le corpus de test ESTER. Nous présentons pour terminer le système complet actuellement implémenté et intégré dans la plateforme de démonstration de Orange Labs dédiée à la recherche et à la navigation dans les contenus
Today, the amount of available digital audio is growing and automatic processing of data becomes essential. A limiting factor of this treatment is the heterogeneity of these documents. They can be professionals like news or generated and shared online by users, with various recording conditions and languages. In this thesis, we study the feasibility of applications of robust automatic indexing of documents based on an acoustico-phonetic decoding of speech, called DAP. The DAP allows an automatic transcription of a speech signal into phonemes, units smaller than words that can potentially maintain the intelligibility of speech. First, we propose a DAP system guided by syllabic information and we highlight the value of integrating this information into the decoding. We also introduce a new modelization of syllables. This engine is evaluated on the test campaign ESTER. The second part of our study is built around a keyword spotting engine based on the flow from our phonetic decoding. We suggest a simple and fast method, which is robust to false alarms and avoids the classical computation of the criterion of maximum likelihood. For this, we introduce an appropriate management for errors of phonetization : coarticulation phenomena and false alarms. In particular, we propose techniques for phonetic expansion using phonetic grammars. The system is evaluated throughout the study by the detection of country names in the test corpus ESTER. We present to complete the system currently implemented and integrated in the platform demonstration of Orange Labs dedicated to searching and browsing content
APA, Harvard, Vancouver, ISO, and other styles
6

Firoozeh, Nazanin. "Semantic-oriented Recommandation for Content Enrichment." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD033.

Full text
Abstract:
Cette thèse présente une méthode originale permettant d’enrichir le contenu d'un document non structuré par rapport à un domaine d'intérêt à l’aide de techniques de traitement du langage naturel et de recherche d'information. Il s'agit de minimiser l'écart sémantique existant entre le document et le domaine considérés. La méthode s'appuie sur une collection d’enrichissement constituée automatiquement en lien avec le domaine d'intérêt et procède par extraction de mots-clés et détection de thèmes (topics). L’enrichissement est assuré par l'utilisateur à partir des thèmes désambiguïsés qui lui sont proposés, ceux-ci étant représentés par des ensembles discriminants de mots-clés sémantiquement pertinents et étiquetés avec des mots-clés représentatifs. La méthode d’enrichissement proposé a été appliquée à des pages web. Elle est robuste au bruit indépendant du domaine considéré et facile transporter dans différentes langues. Elle est pauvre en connaissances mais elle exploite les résultats de moteurs de recherche de manière optimisée. L'approche a été testée sur différentes langues. L'évaluation a été conduite sur le français et sur 10 domaines différents. Les résultats ont été évalués par des utilisateurs dans un contexte applicatif réel et par comparaison avec des approches de références. On observe une bonne précision des résultats et une bonne cohérence sémantique au sein de chaque thème, avec une amélioration significative par rapport aux méthodes d'extraction des mots-clé et de détection de thèmes de l'état de l'art
In this thesis, we aim at enriching the content of an unstructured document with respect to a domain of interest. The goal is to minimize the vocabulary and informational gap between the document and the domain. Such an enrichment which is based on Natural Language Processing and Information Retrieval technologies has several applications. As an example, flling in the gap between a scientifc paper and a collection of highly cited papers in a domain helps the paper to be better acknowledged by the community that refers to that collection. Another example is to fll in the gap between a web page and the usual keywords of visitors that are interested in a given domain so as it is better indexed and referred to in that domain, i.e. more accessible for those visitors. We propose a method to fll that gap. We first generate an enrichment collection, which consists of the important documents related to the domain of interest. The main information of the enrichment collection is then extracted, disambiguated and proposed to a user,who performs the enrichment. This is achieved by decomposing the problem into two main components of keyword extraction and topic detection. We present a comprehensive study over different approaches of each component. Using our findings, we propose approaches for extracting keywords from web pages, detecting their under lying topics, disambiguating them and returning the ones related to the domain of interest. The enrichment is performed by recommending discriminative sets of semantically relevant keywords, i.e. topics, to a user. The topics are labeled with representative keywords and have a level of granularity that is easily interpretable. Topic keywords are ranked by importance. This helps to control the length of the document, which needs to be enriched, by targeting the most important keywords of each topic. Our approach is robust to the noise in web pages. It is also knowledge-poor and domain-independent. It, however, exploits search engines for generating the required data but is optimized in the number of requests sent to them. In addition, the approach is easily tunable to different languages. We have implemented the keyword extraction approach in 12 languages and four of them have been tested over various domains. The topic detection approach has been implemented and tested on English and French. However, it is on French language that the approaches have been tested on a large scale : the keyword extraction on roughly 400 domains and the topic detection on 80 domains.To evaluate the performance of our enrichment approach, we focused on French and we performed different experiments on the proposed keyword extraction and topic detection methods. To evaluate their robustness, we studied them on 10 topically diverse domains.Results were evaluated through both user-based evaluations on a real application context and by comparing with baseline approaches. Our results on the keyword extraction approach showed that the statistical features are not adequate for capturing words importance within a web page. In addition, we found our proposed approach of keyword extraction to be effective when applied on real applications. The evaluations on the topic detection approach also showed that it can electively filter out the keywords which are not related to a target domain and that it labels the topics with representative and discriminative keywords. In addition, the approach achieved a high precision in preserving the semantic consistency of the keywords within each topic. We showed that our approach out performs a baseline approach, since the widely-used co-occurrence feature between keywords is notivenough for capturing their semantic similarity and consequently for detecting semantically consistent topics
APA, Harvard, Vancouver, ISO, and other styles
7

Tarbague, Hakim. "Étude et mise au point d’une plateforme de biodétection de micro-organismes couplant immunocapteur a ondes de love et dispositfs pdms microfluidiques." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14290/document.

Full text
Abstract:
Depuis plusieurs décennies, les biocapteurs connaissent un développement croissant de par leurs champsd'applications. Dans ce contexte, au travers d'une approche pluridisciplinaire, nous avons conçu une cellule de mesure etdes puces microfluidiques en polymère PDMS, qui, couplées à des immunocapteurs à ondes de Love, constituent uneplateforme pour la détection rapide de bio-organismes. Cette nouvelle plateforme a permis la détection directe etspécifique d'anticorps et de bactéries Escherichia Coli entières vivantes. Elle a également permis de diminuersignificativement le temps de détection (de plusieurs heures à quelques minutes), de simplifier les protocoles de test, etd'introduire la "composante dynamique" proche des phénomènes biologiques. La spécificité de la détection résidant dansla fonctionnalisation de surface du capteur, cette plateforme peut s'adapter à la détection d'un spectre très large de bioorganismesou de composés en milieu liquide
Abstract
APA, Harvard, Vancouver, ISO, and other styles
8

Rocher, Thomas. "Analyse et modélisation des informations tonales dans la musique occidentale." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14406/document.

Full text
Abstract:
Les travau x d e cette thèse ont p ou r objet la m od élisation et l'an alyse d e l'harm onie d ans la m u siqu e occid entale. Cin q typ es d 'inform ation s ton ales sont d istingu és, d es n otes d e m u siqu e à la ton alité d 'u n m orceau . Les d ifférentes interaction s entre les informations tonales sont ensuite présentées et un modèle de l’harmonie est proposé, mettant en jeu ces interactions. Les méthodes d’analyse sont ensuite étudiées, en distinguant les différents types de rep résentation d e la m u siqu e : rep résentation sym boliqu e ou signal audio. Une nouvelle méthode d’estimation conjointe d’accords et de tonalités locales est ensuite proposée, et met en évidence les apports d’une approche temporelle multi-résolutions, ainsi que les bénéfices mutuelle de l’estimation conjointe. Une application de l’estimation d’accords à la recherche de similarité musicale est finalement proposée, et souligne l’apport du nouveau modèle de l’harmonie p rop os
Abstract
APA, Harvard, Vancouver, ISO, and other styles
9

Karanasou, Panagiota. "Phonemic variability and confusability in pronunciation modeling for automatic speech recognition." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00843589.

Full text
Abstract:
This thesis addresses the problems of phonemic variability and confusability from the pronunciation modeling perspective for an automatic speech recognition (ASR) system. In particular, several research directions are investigated. First, automatic grapheme-to- phoneme (g2p) and phoneme-to-phoneme (p2p) converters are developed that generate alternative pronunciations for in-vocabulary as well as out-of-vocabulary (OOV) terms. Since the addition of alternative pronunciation may introduce homophones (or close homophones), there is an increase of the confusability of the system. A novel measure of this confusability is proposed to analyze it and study its relation with the ASR performance. This pronunciation confusability is higher if pronunciation probabilities are not provided and can potentially severely degrade the ASR performance. It should, thus, be taken into account during pronunciation generation. Discriminative training approaches are, then, investigated to train the weights of a phoneme confusion model that allows alternative ways of pronouncing a term counterbalancing the phonemic confusability problem. The objective function to optimize is chosen to correspond to the performance measure of the particular task. In this thesis, two tasks are investigated, the ASR task and the KeywordSpotting (KWS) task. For ASR, an objective that minimizes the phoneme error rate is adopted. For experiments conducted on KWS, the Figure of Merit (FOM), a KWS performance measure, is directly maximized.
APA, Harvard, Vancouver, ISO, and other styles
10

Leyssenne, Laurent. "Design of reconfigurable radiofrequency power amplifiers for wireless applications." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13901.

Full text
Abstract:
The continuously growing throughput in wireless applications severely impacts the architecture and design of modern transceivers. One of the most challenging aspects is the design of the power amplifier (PA). Indeed, this block dominantly determines the overall transceiver power efficiency and therefore battery life-time. On the other hand, PA linearity is a key feature that limits the maximum allowed data rate. The goal of this thesis is to investigate and design novel smart architectures circumventing the stringent linearity/efficiency trade-off for third generation cellular and data transmission standards. A demonstrator has been developed on silicon (0.25µm BiCMOS ST Microelectronics technology), and has allowed validating the efficiency/linearity improvement principle
Abstract
APA, Harvard, Vancouver, ISO, and other styles
11

Redinciuc, Nicoleta. "La stylistique et la poétique de la traduction du teste littéraire (Roumain-Français)." Angers, 2011. http://www.theses.fr/2011ANGE0051.

Full text
Abstract:
"Notre thèse comporte deux démarches complémentaires : interroger la traduction et l'auto-traduction d'une part ; et analyser l'aouto-traduction de ses textes par Panait Istrati. Nous avions sélectionné trois textes fondamentaux de cet auteur roumain qui a écrit son oeuvre en français et l'a ensuite traduite dans sa langue maternelle. Si l'auto-traduction de Kyra Kyralina offre aux traducteurs roumains qui l'ont mal traduit un exemple de "bonne traduction"et de traduction istratienne de Oncle Aughel est un exemple de réecriture du texte initial. Quant à la troisième traduction,de Tsatsa Irenka elle répond à une nécessité alimentaire. Nous suivrons le processus de traduction dans les deux sens : du roumain originel au français écrit et du français écrit au roumain écrit. Le rôle et les interventions du traducteur-auteur qu'est Istrati répondent aussi à plusieurs questions. "
This thesis is structured upon two complementary aspects : first the art of translation approached in its general focus, and of self-translation particularly, secondly, analysis of the translations of Parait Istrati. We will discuss three fundamental creations of Istrati ; the romanian author who wrote in french and then translated his works into Romanian narudy ; Kyra Kyralina, Oncle Aughel and Tsatsa Irenka. In this way, the interventions operated by the translator-author Istrati vary with the motivations for which he decided to resort to a translation version of his own ext. Under such circonstances the process of translation will be followed in its two directions : from mental romanian into written French and frome written French into written Romanian. The above mentionned textx of Istrati have been also translated by others, among there by Eugen Barbu who actually made a re-translation parallel to the self-translations of the autor
APA, Harvard, Vancouver, ISO, and other styles
12

Montreuil, Florent. "Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits." Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00652301.

Full text
Abstract:
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la reconnaissance des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs, ...) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes, ...) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique, ...) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures.
APA, Harvard, Vancouver, ISO, and other styles
13

Montreuil, Florent. "Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits." Phd thesis, Rouen, 2011. http://www.theses.fr/2011ROUES047.

Full text
Abstract:
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la variabilité de structure des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs,. . . ) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes,. . . ) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique,. . . ) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures
The automatic processing of written documents is a very active field in the industry. Indeed, due to the mass of written documents to process, the automatic analysis becomes a necessity, but the performance of current systems is highly variable according to the types of documents processed. For example, treatment of unconstrained handwritten documents remains an unsolved issue because two technological obstacles that hinder the development of reliable automatic processing of handwritten documents : - the first is the recognition of handwritten in those documents - the second is related to the existence of widely variability in the document structures. This thesis focuses on solving the second bolt in the case of unconstrained handwritten documents. For this, we have developed reliable and robust methods to analyze document structures based on the use of Conditional Random Fields. The choice of Conditional Random Fields is motivated by the ability of these graphical models to take into account the relationships between the various entities of the document (words, phrases, blocks,. . . ) and integrate contextual knowledge. In addition, the use of probabilistic modeling gifted learning overcomes the inherent variability of the documents to be processed. The originality of the thesis also addresses the proposal of a hierarchical approach for extracting joint physical (segmentation of the document into blocks, lines, ldots) and logical (functional interpretation of the physical structure) structures by combining low-level physical features (position, graphic,. . . ) and high-level logical (keyword spotting). The experiments carried out on handwritten letters show that the proposed model represents an interesting solution because of its discriminatory character and his natural ability to integrate and contextualize the characteristics of different kinds
APA, Harvard, Vancouver, ISO, and other styles
14

Toussay, Xavier. "Expression et fonction des présénilines vasculaires et exploration de l’hypothèse vasculaire de la Maladie d’Alzheimer." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13949/document.

Full text
Abstract:
Les présénilines PS1 et PS2 sont impliquées dans plusieurs fonctions cellulaires par l’intermédiaire de leur activité protéolytique ?-sécrétase qui clive de nombreux substrats y compris la protéine précurseur amyloïde (APP). Les mutations des présénilines, à l’origine des formes familiales de la maladie d’Alzheimer (MA), augmentent la production de peptides ß-amyloïde (Aß) qui s’accumulent dans le parenchyme cérébral et dans la paroi vasculaire, et affectent les signaux calciques de plusieurs types cellulaires. Le réseau vasculaire des patients atteints de la MA est affecté structurellement et fonctionnellement bien avant que ne se déclarent les troubles cognitifs. De plus, les pathologies cardiovasculaires sont des facteurs de risque majeurs pour les formes sporadiques de la MA. Comme les bases moléculaires de la vasculopathie liée à la MA ne sont pas établies, nous avons choisi les présénilines comme molécule cible dans le système vasculaire. Nous avons montré l’expression des présénilines et des protéines partenaires du complexe ?-sécrétase, Nicastrine, Aph-1 et Pen-2 dans les vaisseaux cérébraux et périphériques. L’ensemble génère une activité ?-sécrétase et la production de peptides Aß pathogènes dans les cellules musculaires lisses, soutenant l’hypothèse de l’origine vasculaire d’Aß dans la pathologie amyloïde. De plus, les mutations de PS1 dérégulent la signalisation calcique intracellulaire des artères cérébrales, en augmentant l’activité des canaux de libération du Ca2+ activés par l’IP3 (IP3R) et la recapture du Ca2+ par les pompes du réticulum sarco-endoplasmique Ca2+-ATPase (SERCA). La dérégulation de l’homéostasie calcique par les présénilines mutées pourrait avoir des conséquences sur la réactivité vasculaire des vaisseaux cérébraux. En conclusion, nous avons mis en évidence l’importance physiologique des présénilines dans le réseau vasculaire et l’ensemble de nos travaux permet de mieux comprendre comment les vaisseaux participent à l’apparition des symptômes cliniques de la MA que sont la surproduction d’Aß et l’hypoperfusion cérébrale
Presenilins PS1 and PS2 are involved in several cellular functions through their ?- secretase proteolytic activity, which cleaves many substrates including the amyloid precursor protein (APP). Mutations in presenilins genes are responsible for the majority of familial forms of Alzheimer's disease (AD). Presenilins mutations increased production of ß-amyloid peptide (Aß) that accumulates in the brain parenchyma and the vascular wall, and affect calcium signals in several cell types. The vasculature of patients with AD is structurally and functionally affected before cognitive impairment appearance. In addition, cardiovascular diseases are major risk factors for sporadic forms of AD. As the molecular basis of the vasculopathy associated with AD is not established, we chose presenilins as target molecule in the vascular system. We showed the expression of presenilin and protein partners of ?-secretase complex, nicastrin, Aph-1 and Pen-2 in cerebral and peripheral blood vessels. Vascular wall generate a ?-secretase activity and production of pathogenic Aß peptides supporting the hypothesis of vascular origin of Aß in amyloid pathology. Furthermore, PS1 mutations disturb intracellular calcium signalling in cerebral arteries by first increasing channel activity of Ca2+ release activated by IP3 (IP3R) and second increasing reuptake of Ca2+ by Sarco/Endoplasmic Reticulum Ca2+-ATPase pump (SERCA). Dysregulation of calcium homeostasis by the mutant presenilins might affect vascular reactivity of cerebral vessels. In conclusion, we demonstrated the physiological importance of presenilins in the vascular network and our studies provide new insight on how cerebral blood vessels are involved in the onset of clinical symptoms of AD such as the overproduction of Aß and cerebral hypoperfusion
APA, Harvard, Vancouver, ISO, and other styles
15

Raucent, Benoit. "Identification des paramètres dynamiques des robots manipulateurs." Université catholique de Louvain, 1990. http://edoc.bib.ucl.ac.be:81/ETD-db/collection/available/BelnUcetd-07182006-153745/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Marselli, Catherine. "Data processing of a navigation microsystem." Université de Franche-Comté. UFR des sciences et techniques, 1998. http://www.theses.fr/1998BESA2078.

Full text
Abstract:
Ce travail de recherche s'inscrit dans un projet académique franco-suisse visant à déterminer les limites des microtechnologies et des microsystèmes à travers l'exemple d'un système de navigation inertiel basé sur des microaccéléromètres et des microcapteurs de vitesse angulaire (gyros). Il comprend quatre volets allant de la conception des composants au développement du système de traitement. La présente thèse réalisée à l'Institut de Microtechnique (Université de Neuchâtel, Suisse) concerne le traitement de l'information du microsystème de navigation. Les microcapteurs actuels sont moins chers mais moins précis que les capteurs mécaniques ou optiques classiques. Dans un système de navigation, le signal de sortie des accéléromètres et des gyroscopes est intégré conduisant à l'accumulation des erreurs dans le temps. Ainsi, en l'absence de correction, la trajectoire mesurée devient rapidement fausse. Le rôle du système de traitement est donc de calculer les paramètres de navigation (position, vitesse et orientation) et de limiter l'erreur de trajectoire suivant deux moyens : réduire les imperfections des capteurs et recaler régulièrement la trajectoire en utilisant un autre moyen de navigation. Ces différents objectifs sont réalisés par des filtres de Kalman. Le filtre de Kalman est un estimateur optimal de l'état d'un système. Il se présente sous la forme d'un ensemble d'équations récurrentes et nécessite une description d'état du système et des mesures
This research is part of a Swiss French academic project whose goal was the determination of some limits in the design and use of microtechnologies and microsystems, using as a common thread example a navigation system based on microaccelerometers and angular rate microsensors (gyros). The entire project was divided into four parts, including design at the component level as well as at the system level. This PhD report describes the data processing of the navigation microsystem realised at the Electronics and Signal Processing Laboratory of the Institute of Microtechnology, University of Neuchâtel. Current low-cost microsensors are less expensive but less accurate that mechanical or optical sensors. In a navigation system, the accelerometer and gyro outputs are integrated, leading to the accumulation of the errors. Thus, the measured trajectory becomes quickly wrong and a corrective system has to be designed. Hence, the goals of the data processing system is to compute the navigation parameters (position, velocity, orientation) while preventing the trajectory from diverging, following two approaches: reducing the sensor errors,updating regularly the trajectory using an aiding navigation system
APA, Harvard, Vancouver, ISO, and other styles
17

Lavielle, Sébastien. "Synthèse de molécules fluorées pour le développement d'un nouvel outil de nano-imagerie : application à l'imagerie de l'angiogénèse pathologique." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13934/document.

Full text
Abstract:
: La TEP (Tomographie par Emission de Positons) est actuellement la technique d’imagerie la plus performante. Cependant sa résolution spatiale millimétrique interdit de déterminer avec certitude si les traceurs radiomarqués atteignent sélectivement leur cible moléculaire. Nous avons donc proposé d’utiliser un nouvel outil d’imagerie ex vivo pour apporter de nouvelles informations moléculaires grâce à la haute résolution des analyses par faisceaux d’ions. Les analyses PIGE (Particle Induced Gamma-ray Emission) et RBS (Rutherford Backscattering Spectrometry) permettent ainsi de quantifier les éléments chimiques d’un échantillon avec une résolution spatiale micrométrique. Nos travaux ont donc été fondés sur l’optimisation de ces techniques pour la détection de molécules marquées au 19F stable (FDG et peptide polyfluoré ciblant spécifiquement l’angiogenèse tumorale) au sein d’échantillons biologiques tels que des coupes tumorales ou des membranes vascularisées
Abstract
APA, Harvard, Vancouver, ISO, and other styles
18

Assy, Youssef. "Les mots-clés de la linguistique dans les oeuvres de ses pionniers." Nancy 2, 1995. http://www.theses.fr/1995NAN21011.

Full text
Abstract:
Cette thèse constitue une étude comparative et evolutive des "mots-clés" de la linguistique dans les oeuvres des pionniers. À partir de quarante termes très fréquents en linguistique, il a été sélectionné les 23 mots les plus représentatifs du fait de leur présence à la fois chez un nombre de linguistes. Ce sont linguistique, langage, langue, parole, système, signe, expression, communications, énoncé, phrase, discours, structure, paradigme, syntagme, phonétique, phonologie, phonème, morphologie, syntaxe, sémantique, lexique, vocabulaire et grammaire. L'étude a été faite sur un corpus de plus de trente mille phrases puisées dans les écrits de dix linguistiques reconnus mondialement comme des pionniers. Ce son t: Saussure, Sapir, Bloomfield, Martinet, Jakobson, Hjelmslev, Guillaume, Benveniste, Pottier et Chomsky. La sélection a été effectuée, généralement, dans l'ouvrage le plus représentatif de l'auteur, celui qui aborde les problèmes les plus généraux en linguistique. Aussi toutes les oeuvres sélectionnées contiennent-elles dans leur titre le terme "langage" ou l'expression "linguistique générale"
This thesis constitutes a comparative evolutionary survey of "key words" underscored in the works of the ploneering linguists. From a list of forty very frequent terms in linguistics, the 23 most representative words were selected on account of their occurrence at the same time in the works of a number of linguists. They are linguistics, language, parole, system, sign, communication, expression, phonology, morphology, syntaxe. . . The survey was made on a corpus of more than thirty thousand sentences in the writings of ten linguists acknowledged pioneers. They are: Saussure, Sapir, Bloomfield, Martinet, Jakobson, Hjelmslev, Guillaume, Benveniste, Pottier and Chomsky. The screening was done, generally, in the work most representative of the author, that is in the work which addresses the most general problems in linguistics. Also all the selected works contain, in their title, the term "language" or the expression "general linguistics"
APA, Harvard, Vancouver, ISO, and other styles
19

Zhou, Zhyiong. "Recherche d'images par le contenu application à la proposition de mots clés." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2254.

Full text
Abstract:
La recherche d'information dans des masses de données multimédia et l'indexation de ces grandes bases d'images par le contenu sont des problématiques très actuelles. Elles s'inscrivent dans un type de gestion de données qu'on appelle le Digital Asset Management (ou DAM) ; Le DAM fait appel à des techniques de segmentation d'images et de classification de données. Nos principales contributions dans cette thèse peuvent se résumer en trois points :- Analyse des utilisations possibles des différentes méthodes d'extraction des caractéristiques locales en exploitant la technique de VLAD.- Proposition d'une nouvelle méthode d'extraction de l'information relative à la couleur dominante dans une image.- Comparaison des Machine à Supports de Vecteur (SVM - Support Vector Machine) à différents classifieurs pour la proposition de mots clés d'indexation. Ces contributions ont été testées et validées sur des données de synthèse et sur des données réelles. Nos méthodes ont alors été largement utilisées dans le système DAM ePhoto développé par la société EINDEN, qui a financé la thèse CIFRE dans le cadre de laquelle ce travail a été effectué. Les résultats sont encourageants et ouvrent de nouvelles perspectives de recherche
The search for information in masses of multimedia data and the indexing of these large databases by the content are very current problems. They are part of a type of data management called Digital Asset Management (or DAM) ; The DAM uses image segmentation and data classification techniques.Our main contributions in this thesis can be summarized in three points : - Analysis of the possible uses of different methods of extraction of local characteristics using the VLAD technique.- Proposed a new method for extracting dominant color information in an image.- Comparison of Support Vector Machines (SVM) to different classifiers for the proposed indexing keywords. These contributions have been tested and validated on summary data and on actual data. Our methods were then widely used in the DAM ePhoto system developed by the company EINDEN, which financed the CIFRE thesis in which this work was carried out. The results are encouraging and open new perspectives for research
APA, Harvard, Vancouver, ISO, and other styles
20

Fischer, Viktoria. "Les bronzes en contexte palafittique sur les rives du Léman et des Trois-Lacs (Suisse occidentale)." Thesis, Dijon, 2010. http://www.theses.fr/2010DIJOL018.

Full text
Abstract:
La découverte des villages littoraux suisses, dès 1854, a mené à la constitution de très riches collections d’objets archéologiques, réparties entre les différents musées suisses et étrangers et des collections privées. Parmi les mobiliers de l’âge du Bronze, ce sont les pièces métalliques qui sont les plus emblématiques du « Sonderfall » suisse. En effet, les milliers d’objets en bronze appartenant à la fin du Bronze final (Hallstatt B), entre la deuxième moitié du XIe siècle et le IXe siècle av. J.-C., ont interpellé les premiers chercheurs et ont donné lieu à des interprétations diverses. La reprise des fouilles archéologiques dans la frange littorale du lac de Neuchâtel dans la deuxième moitié du XXe siècle a remis en lumière ces anciennes collections et a relancé l’intérêt de leur étude, malgré la pauvreté des données contextuelles qui les caractérisent. Les interprétations du XIXe siècle comme pertes, oublis ou déchets liés à l’habitat ne sont plus satisfaisantes et la recherche moderne tend à expliquer la présence des bronzes des palafittes par des immersions volontaires d’objets. Le présent travail s’inscrit dans la lignée de cette réinterprétation des bronzes des palafittes.Notre recherche se fond sur l’étude d’un échantillon représentatif d’objets en bronze, constitué de dix collections archéologiques réparties sur les rives du Léman et des Trois-Lacs (Neuchâtel, Bienne, Morat), qui totalise plus de 17000 objets. Trois ensembles proviennent de fouilles modernes (Auvernier NE Nord, Cortaillod NE Est et Hauterive NE Champréveyres), ce qui a permis de définir un cadre pour l’étude des sept autres collections, constituées au XIXe siècle par des ramassages (Auvernier NE, Chens-sur-Léman (Haute-Savoie) Tougues, Genève GE Eaux-Vives, Grandson VD Corcelettes-Les Violes, Mörigen BE Bronzestation, Morges VD Grande-Cité, Muntelier FR Steinberg). Les objectifs étaient, d’une part, de caractériser les collections dans le temps et l’espace et, d’autre part, de proposer une interprétation de ce phénomène, en élargissant les investigations à d’autres catégories de découvertes archéologiques, comme les dépôts terrestres et les trouvailles fluviales. L’hétérogénéité du corpus a nécessité la mise en place d’une méthode d’étude spécifique, comprenant différents niveaux d’analyse. Les collections ont ainsi été traitées globalement, en opposant la région lémanique à celle des Trois-Lacs, puis individuellement. De même, les groupements d’objets identifiés à la fouille ou d’après la documentation ancienne ont été étudiés séparément, ce qui a permis d’atteindre un niveau d’analyse plus fin. Les collections ont aussi été scindées dans le temps, puisque les quelques centaines d’objets du Bronze ancien, du Bronze moyen et du début du Bronze final, qui sont régulièrement présents dans nos collections de la fin du Bronze final, ont été étudiés séparément des ensembles du Hallstatt B. L’analyse des collections s’est fondée, d’une part, sur les effectifs et, d’autre part, sur les masses, ce qui a nécessité la mise en place d’une méthode d’estimation des masses, afin de gagner du temps sur la pesée directe des
Since 1854, the discoveries of pile dwellings in Switzerland have generated very rich collections of archaeological artifacts, currently distributed across various Swiss and European museums and in a few private collections. Among the objects from the Bronze Age, the metal artifacts are emblematic of the Swiss “Sonderfall”. Indeed, thousands of bronze objects dating between the second half of the 11th and 9th century B.C. (end of the Late Bronze Age, or Hallstatt B), challenged the first archaeologists and gave birth to various interpretations. The resuming of the archaeological excavations on the shores of Lake Neuchâtel in the second half of the 20th century renewed an interest in the study of older collections, in spite of the scarcity of relevant contextual data. Interpretations from the 19th century, portraying palafittic bronze artifacts as uniquely consisting of lost objects or domestic litter, can no longer be accepted. Later schools of thought, including our own research, explain the immersion of palafittic bronze objects as a result of voluntary acts.Our research is based on the study of a representative sample of bronze objects, consisting of ten archaeological collections coming from Lake Geneva and the Three-Lakes (Neuchâtel, Bienne, Morat). This sample contains more than 17000 objects. Three collections come from recent excavations (Auvernier NE Nord, Cortaillod NE Est, Hauterive NE Champréveyres), and have constituted a framework for the study of the older collections, which were assembled during the 19th century (Auvernier NE, Chens-sur-Léman (Haute-Savoie) Tougues, Genève GE Eaux-Vives, Grandson VD Corcelettes-Les Violes, Mörigen BE Bronzestation, Morges VD Grande-Cité, Muntelier FR Steinberg).Our objectives were, firstly, to describe the collections within time and space and, secondly, to propose an interpretation of the object immersion phenomenon, by extending the investigations to other categories of archaeological sites, such as deposits and river finds. The heterogeneity of our sample required the implementation of a specific methodology, based on various levels of analysis. The methodology contrasts the collections of Lake Geneva to those of the Three-Lakes area, followed by the study of each collection separately. In order to reach an even more accurate level of analysis, large concentrations of objects (discovered during recent excavations or mentioned in documents from the 19th century) found in these sites were also examined. The collections were also segregated based on their dating. A few hundred objects from the Early, Middle and beginning of the Late Bronze Age are recurrently present in our collections, and were studied separately from those dating from Hallstatt B. On one hand, the analysis of the collections was based on the amount of artifacts, and on the other, their weight. In order to streamline our data, we defined a method of weight estimation.Our research of these sample objects has produced a set of time- and space-related patterns. These observations have led us to the conclusion that the majority of the studied palafittic bronzes were immersed intentionally, and did not consist uniquely of lost or forgotten domestic
APA, Harvard, Vancouver, ISO, and other styles
21

Ali, Amjad. "Higher education in asian countries and the role of international organizations in its development : a comparative study." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00665905.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Gaucher, Séverine. "Organisation de filière et politiques d'approvisionnement : analyse appliquée au cas des filières agroalimentaires." Paris, ENMP, 2002. http://www.theses.fr/2002ENMP1287.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Wervaecke, Christelle. "Simulation d' écoulements turbulents compressibles par une méthode d' éléments finis stabilisée." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14121/document.

Full text
Abstract:
Cette thèse a pour objectif la simulation numérique d'écoulements turbulents à l'aide d'un schéma d'éléments finis stabilisés. La méthode SUPG (Streamline Upwind Petrov Galerkin) est mise en place pour résoudre les équations de Navier-Stokes compressibles couplées au modèle turbulent de Spalart-Allmaras
Abstract
APA, Harvard, Vancouver, ISO, and other styles
24

Vautrin, Denis. "Régulation et optimisation pour l'imagerie sismique des fondations de pylônes." Ecole centrale de Nantes, 2011. https://tel.archives-ouvertes.fr/tel-00692589.

Full text
Abstract:
Cette thèse porte sur l'ausultationde fondations de pylônes életriques par controle non destrutif. Une procédure d'imagerie par ondes sismiques est utilisée, ce qui consiste à générer une onde sismique au voisinage de la fondation avec une source vibratoire et à mesurer la vitesse de l'onde résultante à l'aide d'un réseau de géophones. Le travail présenté s'intéresse spécfiiquement à la résolution du problème inverse. L'objetif est de concevoir un algorithme permettant de déterminer la géométrie de la fondation auscultée à partir des données enregistrées par les capteurs. Il s'agit d'un problème de tomographie de diffraction. Son caractère mal posé ainsi que la forte non-linéarité du modèle direct rendent sa résolution particulièrement di ffile. Deux méthodes d'inversion ont été développées. Elles consistent toutes deux à reconstruire plusieurs cartes du sous-sol, chaque carte étant associée à une caractéristique physique du sous-sol. Dans les deux cas, un critère des moindres carrés régularisé est minimisé de façon itérative. Pour la première approche, peu d'apriori sont pris en compte. Elle se base sur une régularisation markovienne et la différence entre pixels voisins est pénalisée de manière à favoriser la recconstruction de régions lisses séparées par des contours francs. La seconde approche tient compte d'informations a priori plus nombreuses et plus précises. Elles sont liées à la structure particulière des fondations et aux caractéristiques de la terre et du béton. La méthode se base sur une segmentation du milieu à imager en deux régions. Des tests ont été réalisés sur des données simulées afin d'évaluer et de comparer les performan ces de ces deux méthodes
This thesis deals with the nondestructive testing of transmission overhead line structure foundations. A seismic imaging technique is used. The experimental procedure consists of the generation of a seismic wave near the foundation by means of a vibrating source and the measurement of the resulting wave velocity with a set of geophones. The specific goal of the presented work is to provide an inversion scheme in order to determine the shape of foundations from the measured data. This problem corresponds to an inverse scattering problem. Its resolution is particularly di fficult because of its ill-posedness and the strong nonlinearity of the direct model. Two inversion methods have been developed. Their common aim is to map the spatial distribution of several physical characteristic of the probed medium. In both cases, a regularized least squares criterion is minimized iteratively. For the first approach, little a priori information is considered. It is based on a Markovian regularization scheme. The differences between neighboring pixels are penalized so that the algorithm converges towards smooth areas separated by sharp boundaries. The second approach takes more relevant priors into consideration. They are related to the particular shape of foundations and to the physical characteristics of earth and concrete. The method is based on a segmentation of the probed area into two regions. Tests were performed on simulated data to evaluate and compare the performance of these two methods
APA, Harvard, Vancouver, ISO, and other styles
25

Gadek, Guillaume. "Détection d'opinions, d'acteurs-clés et de communautés thématiques dans les médias sociaux." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR18/document.

Full text
Abstract:
Les réseaux sociaux numériques ont pris une place prépondérante dans l'espace informationnel, et sont souvent utilisés pour la publicité, le suivi de réputation, la propagande et même la manipulation, que ce soit par des individus, des entreprises ou des états. Alors que la quantité d'information rend difficile son exploitation par des humains, le besoin reste entier d'analyser un réseau social numérique : il faut dégager des tendances à partir des messages postés dont notamment les opinions échangées, qualifier les comportements des utilisateurs, et identifier les structures sociales émergentes.Pour résoudre ce problème, nous proposons un système d'analyse en trois niveaux. Tout d'abord, l'analyse du message vise à en déterminer l'opinion. Ensuite, la caractérisation et l'évaluation des comptes utilisateurs est réalisée grâce à une étape de profilage comportemental et à l'étude de leur importance et de leur position dans des graphes sociaux, dans lesquels nous combinons les mesures topologiques d'importance des noeuds dans un graphe avec les statistiques d'engagement, par exemple en nombre d'abonnés. Enfin, le système procède à la détection et à l'évaluation de communautés d'utilisateurs, pour lesquelles nous introduisons des scores de cohésion thématique qui complètent les mesures topologiques classiques de qualité structurelle des communautés détectées. Nous appliquons ce système d'analyse sur deux corpus provenant de deux médias sociaux différents : le premier est constitué de messages publiés sur Twitter, représentant toutes les activités réalisées par 5 000 comptes liés entre eux sur une longue période. Le second provient d'un réseau social basé sur TOR, nommé Galaxy2. Nous évaluons la pertinence de notre système sur ces deux jeux de données, montrant la complémentarité des outils de caractérisation des comptes utilisateurs (influence, comportement, rôle) et des communautés de comptes (force d'interaction, cohésion thématique), qui enrichissent l'exploitation du graphe social par les éléments issus des contenus textuels échangés
Online Social Networks have taken a huge place in the informational space and are often used for advertising, e-reputation, propaganda, or even manipulation, either by individuals, companies or states. The amount of information makes difficult the human exploitation, while the need for social network analysis remains unsatisfied: trends must be extracted from the posted messages, the user behaviours must be characterised, and the social structure must be identified. To tackle this problem, we propose a system providing analysis tools on three levels. First, the message analysis aims to determine the opinions they bear. Then, the characterisation and evaluation of user accounts is performed thanks to the union of a behavioural profiling method, the study of node importance and position in social graphs and engagement and influence measures. Finally the step of user community detection and evaluation is accomplished. For this last challenge, we introduce thematic cohesion scores, completing the topological, graph-based measures for group quality. This system is then applied on two corpora, extracted from two different online social media. The first is constituted of messages published on Twitter, gathering every activity performed by a set of 5,000 accounts on a long period. The second stems from a ToR-based social network, named Galaxy2, and includes every public action performed on the platform during its uptime. We evaluate the relevance of our system on these two datasets, showing the complementarity of user account characterisation tools (influence, behaviour and role), and user account communities (interaction strength, thematic cohesion), enriching the social graph exploitation with textual content elements
APA, Harvard, Vancouver, ISO, and other styles
26

Dupoux, Emmanuel. "Identification des mots parlés : détection de phonèmes et unité prélexicale." Paris, EHESS, 1989. http://www.theses.fr/1989EHES0327.

Full text
Abstract:
Cette these a pour but d'examiner experimentalement trois hypotheses dans l' identification des mots parles. L'hypothese acoustique ou non-segmentale selon laquelle il n'y a pas de segmentation prealable du signal avant la reconnaissance des mots s'oppose aux deux autres hypotheses dites segmentales, hypotheses phonetiques ou syllabiques, pour lesquelles la reconnaissance des mots repose sur une segmentation prealable du signal en unites specifiquement linguistiques. Une serie d'experiences utilisant la detection du phoneme initial dans des listes de mots tente de determiner si la duree pertinente pour l'acces au lexique est definie en fonction de la duree, ou de la structure des mots. On utilise la technique de compression de la parole, qui permet de modifier la duree des stimuli en gardant invariante leur structure. Les resultats obtenus suggerent que les premieres etapes de l'acces au lexique dependent plus de variables structurelles que des variables durationnelles. De plus, on montre que les variables structurelles dependent du nombre de syllabes plus que du nombre de phonemes. Neanmoins, les donnees obtenues soulignent egalement l'importance des facteurs attentionnels et temporels dans l'identification des segments phonetiques. En conclusion, l'ensemble des resultats obtenus est presente en rapport aux modeles existants, dans la perspective du traitement et de l'acquisition de la parole.
APA, Harvard, Vancouver, ISO, and other styles
27

Nguyen, ThiMongNgoc. "Estimation récursive pour des modèles semi-paramétriques." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14107/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Planchon, Mariane. "Interactions en eau de rivière entre nanoparticules de TiO2 et micro-organismes bactériens." Paris, Institut de physique du globe, 2012. http://www.theses.fr/2012GLOB0011.

Full text
Abstract:
Grâce à leurs propriétés particulières dues à leur petite taille, les nanomatériaux sont utilisés dans de nombreuses applications grand public. Cependant leur impact potentiel sur les humains et l’environnement reste mal connu. Cette étude est consacrée à une compréhension approfondie des interactions physicochimiques et biologiques entre deux microorganismes présents dans l’environnement : Synechocystis (cyanobactérie contribuant au maintien de la biosphère) et Escherichia coli (présente dans les sites impactés par l’activité anthropique) avec des nanoparticules de dioxyde de titane TiO2 dans un milieu naturel, l’eau du fleuve français la Seine. La complexité de l’étude des nanoparticules nécessite une approche différente (multidisciplinaire) de celle des tests de toxicité utilisés pour les composés classiques. En effet, nous montrons que les paramètres physicochimiques (stabilité, agrégation et état de surface) des nanoparticules sont dépendants du milieu de contact et influencent fortement la toxicité observée sur les cellules. De plus, les interactions physicochimiques (floculation, adsorption) sont également liées à la nature et la structure du microorganisme, et en particulier à la présence d’exopolysaccharides (chez Synechocystis) comme barrière naturelle entre la paroi cellulaire et les nanoparticules. La toxicité des nanoparticules de TiO2 s’avère limitée en conditions naturelles, ce qui pourrait s’expliquer par une exposition hétérogène de la population bactérienne entraînant la préservation de ce stress d’une partie de cette population
Due to their particular properties inherent to their very little size, the nanomaterials are widely used in many industrial applications. However, their impact on humans and environment is still uncertain. This study is dedicated to a deep understanding of the physicochemical and biological interactions between environmental microorganisms: Synechocystis (cyanobacteria essential for the biosphere) and Escherichia coli with titanium dioxide TiO2 nanoparticles. The complexity of the study of nanoparticles requires a different approach (multidisciplinary) from those of toxicity tests of classic compounds. Indeed, we showed that the physicochemical parameters (stability, aggregation and surface chemistry) of nanoparticles is dependant of the contact medium and strongly influence the toxicity. Furthermore, the physicochemical interactions (flocculation, adsorption) are linked to the microorganism nature and structure, and especially the presence of exopolysaccharides (for Synechocystis) as natural barrier between the cell wall and the nanoparticles. The toxicity of TiO2 NPs turns out to be limited under natural conditions, which can be explained by an heterogeneous exposition of the bacterial population leading to a preservation from this stress of a major part of this population
APA, Harvard, Vancouver, ISO, and other styles
29

Hutin, Emilie. "Caractérisation de la coordination motrice des membres inférieurs lors de la marche des patients hémiparétiques." Valenciennes, 2011. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/d342048b-9b1d-437d-84b8-a37f2bcbd2e0.

Full text
Abstract:
La parésie, l’hyperactivité musculaire et la rétraction des tissus mous sont les principaux mécanismes physiopathologiques responsables de la dégradation de la marche dans l’hémiparésie. Lors de la prise en charge du patient hémiparétique, le questionnement du clinicien s’articule autour de la part de responsabilité de chaque mécanisme, et de l’impact des traitements sur l’organisation globale du mouvement et la qualité de la marche. L’analyse de la coordination inter-segmentaire, utilisant la mesure de la phase relative continue dans le plan sagittal, apporte des éléments de réponse à cette problématique clinique. La quantité et les variations du déphasage entre les segments des membres inférieurs dans les phases du cycle de marche décrivent les stratégies de coordination motrice. Des paramètres issus de la phase relative continue inter-segmentaire, apportent des informations spécifiques quant à l’origine physiopathologique des déficits cinématiques pour aider au choix du traitement, à l’incidence des conditions de réentraînement de la marche, et aux bénéfices d’un traitement. Cette analyse, complémentaire aux évaluations cliniques réalisées dans la pratique courante, met en évidence la restriction de possibilités de modulation par les mécanismes physiopathologiques dans le membre inférieur parétique, et des mécanismes de compensation dans le membre inférieur non-parétique. Les résultats de ce travail pourraient inciter les cliniciens à déterminer les stratégies de coordination motrice, pour définir les traitements permettant au mieux de réduire les anomalies de la marche des patients présentant une lésion motrice du système nerveux central
Paresis, muscle hyperactivity and soft tissue retraction are the main mechanisms responsible for the gait disturbance in hemiparesis. In the rehabilitation management of hemiparetic patients, clinicians try to determine the responsibility of each mechanism, and to quantify the impact of treatments on movement organization and gait efficiency. Inter-segmental coordination analysis, using measurement of the continuous relative phase in the sagittal plan, can assist in reaching these objectives. The amount of dephasing between lower limb segments, in each phase of the gait cycle, sheds light on the coordination pattern. Relevant parameters of the inter-segmental continuous relative phase may reveal specific information such as the predominance of neurological and orthopedic factors implied in the kinematic deficits, the impact of various gait rehabilitation conditions, or treatment-related benefits. This analysis, complementary to routine clinical examination, may also disclose specific motor deficits in the paretic lower limb, and compensatory strategies at work in the non-paretic lower limb. The findings reported in this thesis may encourage rehabilitation clinicians to carefully study coordination patterns, which may help define optimized treatments to lessen gait impairment in spastic paresis
APA, Harvard, Vancouver, ISO, and other styles
30

Ben, Rejeb Slim. "Étude théorique et numérique de quelques problèmes cinétiques." Palaiseau, École polytechnique, 2000. http://www.theses.fr/2000EPXX0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Ouisse, Vincent. "Production primaire et respiration des communautés d’herbiers à zostères : rôle dans le cycle du carbone en milieu côtier." Paris 6, 2010. http://hal.upmc.fr/tel-01110521.

Full text
Abstract:
Les communautés de phanérogames marines, communément appelées herbiers abritent une diversité végétale et animale importante et sont considérés comme très productifs. Cependant les flux de carbone au sein de ces communautés sont encore mal connus, en particulier pour les herbiers intertidaux qui subissent de fortes contraintes environnementales. L’objectif de ce travail est d’étudier le fonctionnement d’herbiers intertidaux afin d’appréhender leur rôle dans le cycle du carbone en milieu côtier. Les variations du métabolisme et de la structure du réseau trophique de la communauté benthique ont été étudiées sur deux herbiers, l’un dominé par Zostera marina situé entre le haut de la zone infralittorale et le bas de la zone médiolittorale et l’autre par Zostera noltii situé uniquement dans la zone médiolittorale. Une augmentation des flux de carbone à l’immersion par rapport à l’émersion a été mis en évidence sur les deux herbiers. Un développement asynchrone de Zostera noltii et de ses épiphytes a été observé. Celui-ci pemettrait de maintenir une production primaire quasi constante au cours de l’année pendant l’émersion. Deux producteurs primaires dominants ont été identifiés dans l’herbier à Zostera marina (Zostera marina et des algues éphémères). Leur développement synchrone entraine une augmentation importante des flux de carbone pendant le printemps et l’été. Un bilan annuel de carbone spatialisé de chaque herbier est proposé, il intégre les variations temporelles de la biomasse des producteurs primaires et du métabolisme de la communauté. Cette étude souligne le rôle majeur de la voie détritique dans le transfert de la matière au sein du réseau trophique des herbiers.
APA, Harvard, Vancouver, ISO, and other styles
32

Eymard, Gilbert. "Traitement documentaire des sommaires : des mots-clés à l'extraction de connaissances : application à une documantation technique." Grenoble 2, 1992. http://www.theses.fr/1992GRE21038.

Full text
Abstract:
Apres avoir, dans une premiere partie, precise la distinction entre recherche documentaire et recherche d'informations, l'auteur justifie le choix des sommaires des documents en tant que support privilegie de traitements documentaires. Dans une deuxieme partie, s'appuyant essentiellement sur le sommaire de documentations techniques relatives au minitel, l'auteur verifie que la prise en consideration des sommaires ameliore notablement l'efficacite et la fiabilite de la technique d'indexation automatique par mots-cles. Au niveau de l'indexation puis de la recherche documentaire, il est possible d'extraire puis d'utiliser des "pluritermes-cles" pour representer les concepts ou notions complexes des corpus consideres. Au niveau de la recherche d'informations dans un document structure, la recherche initiale est canalisee au sein des unites structurelles autonomes et coherentes constituees par l'enchainement hierarchico-logique des titres au lieu de s'effectuer d'emblee sur l'etendue indifferenciee de tout un texte. Dans une troisieme partie, l'auteur indique quels sont les apports des traitements linguistiques, notamment en ce qui concerne la lemmatisation des formes, la segmentation correcte des constituants d'une proposition et la determination des "objets" dont "un texte nous cause". Considerant que les apports de ces traitements demeurent modestes dans le cadre d'applications documentaires, l'auteur propose quelques pistes pour leur utilisation lors de l'extraction automatique de connaissances a partir de textes en la
After having made clear, in the first part, the distinction between searching for documents and searching for elements of information in a document, the author justifies the choice of table of contents as a very adequate basis for information processing. In the second part, in leaning mainly on the contents of technical literature about the minitel, the author verifies that the study of the contents notably improves the efficiency and the reliability of the technics of automatic key-word indexing. At the stage of indexation then that of document searching, it is possible to sport and then to use "key-pluriterms" that suitably represent concepts or complex notions of a corpus. At the stage of searching for elements of information in a structured document, the search is first limited within autonomous and coherent structural units consisting of the hierarchical and logical lay out of titles instead of being immediatly carried out on the non-structured length of a text. In the third part, the author deals with the improvements brought about by the linguistical treatment of headings, particularly as regards "lemmatisation" of words, correct segmentation of the constituents of a clause and finding out the "objects" of a text. Lastly considering that the linguistical improvements remain rectricted when applied to information processing, the author suggests that it be used chiefly for automatic knowledge
APA, Harvard, Vancouver, ISO, and other styles
33

Nasseri, Arezou. "Les difficultés d'apprentissage de l'écrit en français d'apprenants iraniens : le cas des étudiants des niveaux intermédiaire et avancé des instituts de langues de Téhéran." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENL048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Gomes, Barbara. "Le droit du travail à l’épreuve des plateformes numériques." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100122.

Full text
Abstract:
Les plateformes numériques de travail construisent leur modèle économique à l’écart des règlementations traditionnellement applicables aux secteurs d’activités dans lesquelles elles évoluent (par exemple, le transport privé de personnes), au premier rang desquelles figure le droit du travail. Au motif qu’elles ne seraient que des intermédiaires entre une offre et une demande, la qualification de travailleur salarié (parfois même, de travailleur tout court) est niée. On lui préfère l’indépendance supposée par le recours aux contrats civils et commerciaux. Les travailleurs des plateformes ne peuvent alors pas leur opposer le respect du droit social (ex : droit du licenciement, droit de négociation collective, congé maternité, assurance chômage, etc.). Pourtant, dès lors qu’une organisation développe une activité économique et commerciale qui suppose le recourt à des contrats portant sur la force de travail pour en permettre le développement, il est difficile d’affirmer l’absence de travail comme l’indépendance. Les plateformes de travail ne sont pas de simples plateformes d’intermédiation, mais des organisations productives s’inspirant bien plus que les entreprises des logiques de concurrence qui gouvernent le marché. La remise en cause de la législation sociale qu’elles provoquent s’inscrit dans une vision déterministe du droit du travail qui prétend que le droit doit nécessairement s’adapter aux exigences formulées par l’économie. En aucun cas cependant, le droit du travail se trouve dépourvu de réponse face à ces nouveaux modèles. Au contraire, les perturbations qu’ils provoquent font écho à l’histoire même de sa construction, invitant au-delà du droit français, le droit social européen et international, à affirmer ses exigences et ses ambitions
Digital employment platforms build their business model away from the scope of regulations that would traditionally apply to their line of business (for example, private passenger transport companies), the first of which is labour law. It is argued they serve as mere intermediaries between demand and supply, and as such, the status of employee (and sometimes of a worker altogether) is denied. Instead, preference is given to presumed independence via civil and commercial contracts. As a consequence, individuals working for these platforms are not protected by labour law (ex: termination of employment regulation, collective negotiation rights, maternity leave, unemployment benefits, etc.).Yet, when an organisation develops a commercial and economic activity entailing the use of contracts depending on labour power as its very basis for existence, it is difficult to affirm absence of labour or independence. Employment platforms are not mere intermediation platforms; rather, they are productive entities which draw their dynamics from competitive patterns on the market, far more than traditional firms would.The calling into question of social law they spark is part and parcel of a determinist vision of labour law, which claims that law must necessarily adapt to economy’s requirements. This in no way means that law is helpless in the face of these new models. Quite the contrary, the disrupt they bring forward reflects the history of law’s very construction, for French but also European and international law, and calls for it to reassert its demands and ambitions
APA, Harvard, Vancouver, ISO, and other styles
35

Coulin, Chad Raymond. "Une Approche Situationnelle et un outil intelligent pour l'élicitation collaborative des exigences." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00195833.

Full text
Abstract:
L'elicitation des exigences est une partie fondamentale du processus de développement de logiciel, et est considérée souvent comme une des activités les plus difficiles à réaliser. Beaucoup des techniques, d'approches, et des outils courants sont inconnus ou trop complexes pour les novices, créant ainsi un écart significatif entre la théorie et la pratique de l'elicitation des exigences. Il y aussi l'écart important entre les novices et les experts analystes, qui peuvent être attribués à la compétence étendue réglée et à la gamme des expériences qui est souvent exigée pour conduire avec succès cette activité essentielle. En conséquence, dans cette recherche nous avons examiné l'état de l'art et l'état de pratique afin de développer et évaluer une approche et un outil pour soutenir les novices pendant l'elicitation des exigences. La première étape de la recherche était une étude critique de la littérature, qui a impliqué une révision vaste et une analyse critique de théorie existante sur et autour du secteur de l'elicitation des exigences. Ceci a été suivi par un aperçu de la pratique, qui s'est composé des entrevues détaillées avec les experts, et d'un questionnaire en ligne pour les novices, utilisés pour obtenir des directives d'approche et des caractéristiques d'outil. L'approche OUTSET a été alors conçue, et l'outil MUSTER a été construit. L'étape finale de la recherche a impliqué l'évaluation de l'approche et de l'outil par une étude de cas, une expérience d'étude de cas, et une expérience formelle. Les évaluations empiriques accomplies ont montré que l'utilisation de l'outil MUSTER a amélioré l'efficacité générale les processus de l'elicitation des exigences, pendant que l'approche fondamentale OUTSET a amélioré l'efficacité générale. Il a été aussi montré que la combinaison de l'approche et de l'outil a fourni un système coopératif qui était utile et utilisable. Dans l'expérience accomplie, l'outil MUSTER a reçu plus de trois fois le score de l'outil manuel p our l'efficacité et plus que double pour l'utilité. En plus, la combinaison de méthodes de recherche utilisée, et l'application réussie d'Ingénierie de Méthode Situationnelle et le Système de Soutien de Groupe pour l'approche et l'outil respectivement, était les deux bases d'un autre précédent travail sur l'elicitation des exigences.
APA, Harvard, Vancouver, ISO, and other styles
36

Henrion, Didier. "Polynômes et optimisation convexe en commande robuste." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00246118.

Full text
Abstract:
A l'aide de quelques exemples illustratifs, des pistes sont évoquées pour combiner les méthodes polynomiales (algèbre, géométrie algébrique) et l'optimisation convexe (inégalités matricielles linéaires, LMI) dans le but de développer des outils numériques de résolution de problèmes basiques en automatique, et en particulier pour la commande robuste des systèmes linéaires. Dans le chapitre 2, nous évoquons les liens étroits entre ensembles semi-algébriques convexes et LMI,ainsi que la notion sous-jacente de convexité cachée remettant en question la traditionnelle dichomotime entre convexité et non-convexité. Dans le chapitre 3, nous décrivons les méthodes classiques permettant d'approcher les problèmes de commande linéaire robuste à l'aide des polynômes, en insistant sur l'interaction entre algèbre et géométrie. Le chapitre 4 mentionne les différents outils logiciels développés dans ce cadre. Finalement le chapitre 5 contient quelques suggestions d'axes de recherche cohérents avec ces développements.
APA, Harvard, Vancouver, ISO, and other styles
37

Ganzhorn, Anne-Céline. "L'impact rhéologique de la fusion partielle de la croûte continentale : l'exemple de la Région des Gneiss de l'Ouest, Norvège." Paris 6, 2013. http://www.theses.fr/2013PA066808.

Full text
Abstract:
La présence de migmatites dans les zones internes des orogènes de collisions indiqueque leur racine crustale a subi la fusion partielle lors de l’enfouissement et/ou lors del’exhumation. Si l’anatexie est couramment considérée comme un phénomène adoucissant pour la croûte continentale, les relations entre fusion partielle, déformation et paramètres rhéologiques des migmatites sont encore faiblement contraintes. Il est donc important d’étudier de façon précise les conditions pressions, températures et temporelles de l’initiation de la fusion ainsi que de déterminer la gamme de pressions et températures sur laquelle du liquide silicaté était présent. La Région des Gneiss de l’Ouest en Norvège présente des domaines métamorphiques d’ultra-haute pression, dont l’histoire pression-température-temps est bien contrainte. Bien que des migmatites y soient connues, elles sont encore peu intégrées au sein de leur histoire. La Région des Gneiss de l’Ouest un donc un bon candidat pour l’étude des relations entre fusion partielle, métamorphisme, déformation et leurs implications géodynamiques. Ce travail propose une étude intégrée des relations entre fusion partielle, métamorphisme et déformation du terrain aux modèles numériques en passant par l’expérimentation. Il a consisté en une étude structurale, pétrologique et géochimique détaillée des indices de fusion partielle présents au sein de la Région des Gneiss de l’Ouest montrant que les gneiss mais aussi les lentilles éclogitiques ont subi la fusion partielle dont une partie correspond à de la fusion hydratée. La production de liquide silicaté a démarré dès les conditions métamorphiques des éclogites et a perduré jusqu’aux pressions du facies des amphibolites. Du liquide silicaté a donc été présent au sein de la croûte continentale de l’orogène sur une vaste gamme de pressions (>2GPa à ≈1 GPa). L’étude de terrain a été associée à une étude expérimentale du comportement mécanique des migmatites, étude réalisée à basse pression en presse Paterson sur un gneiss naturel faiblement anisotrope et homogène. Des expériences sous conditions statiques ont révélées que le gneiss choisi fondait à 750°C uniquement en présence d’eau libre. La chute majeure de résistance de la roche partiellement fondue à lieu dès 4% de liquide silicaté présent, ce qui correspond aux estimations basses du seuil rheologique des migmatites. Ce volet expérimental a été couplé à une étude numérique du comportement mécanique des migmatites à l’aide de la plateforme de simulation ELLE. Le couplage entre la migration des joints de grains et la déformation visqueuse révèle le développement de microstructures différentes selon les angles de mouillage et les vitesses de déformation utilisés. A des angles de mouillage faibles et à fortes vitesses de déformation, les poches de liquide sont cisaillées et se connectent les unes aux autres le long des bandes de cisaillements produites. A fortes vitesses de déformation, les poches se connectent les unes aux autres à ≈90° de la direction de cisaillement. La quantité de joints de grains mouillés par du liquide silicaté est maximale dans les simulations à forte vitesse de déformation. C’est aussi à forte vitesse de déformation que la résistance de l’agrégat est la plus faible. Ces simulations ont des implications fortes pour la rhéologie des roches partiellement fondues mais aussi pour d'autres assemblages bi-phasés tels que le système glace d'eau-bulles d'air ou le système péridotiteliquides métalliques à la transition noyau manteau
Occurrence of migmatites within internal core of collision orogens reveals that partial melting of their crustal root occurred during their prograde and/or retrograde pressure-temperature path. If partial melting of the continental crust is generally considered as a weakening process, relationships between partial melting, deformation and mechanical behaviour of migmatites are poorly constrained. This work corresponds to an integrated study from the field to numerical simulations through laboratory experiments. The field approach led to conclude that both gneiss and eclogite facies lenses underwent first water-present and then dehydration partial melting. Field study was coupled with an experimental study of natural migmatite mechanical behaviour performed at realistic temperatures on slightly anisotropic and homogeneous partially molten gneiss. Static experiments revealed that at 750¡C and 300MPa, partial melting reaction of the natural protolith is a water-present reaction. In the presented deformation experiments, the strength drop occurs as soon as 4% of melt proportion, which belongs to the lowest estimates of rheological threshold. The last part of this work deals with numerical modelling using the simulation software ELLE. Coupling between grain-size processes such as boundary migration and viscous deformation reveals that development of microstructures depends on wetting angle and strain rate
APA, Harvard, Vancouver, ISO, and other styles
38

Duquesnes, Vincent. "De l'hydruration du titane et ses alliages : impact des paramètres de mise en forme du matériau et conséquences sur sa durabilité en milieu corrosif." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS054/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Mamy, Nina. "La condition des femmes originaires d'Afrique de l'Ouest en France entre enfermement et émancipation : éléments de réflexions sociopolitique et juridique." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOD004.

Full text
Abstract:
L’immigration des femmes originaires d’Afrique subsaharienne en direction de la France est fonction de la situation sociale, politique et économique du Continent africain. Depuis les années 80, elles sont de plus en plus nombreuses à émigrer alors même que la France remet progressivement en cause les conventions bilatérales qui dérogeaient à l’ordonnance n°45- 2685 du 2 novembre 1945 régissant en principe, l’entrée et le séjour des étrangers. Cela même en dehors du cadre du regroupement familial comme ce fut fréquemment le cas antérieurement. Les nombreuses modifications du régime général posé par l’ordonnance de 1945 résultent de la nécessaire adaptation de la législation française à des impératifs communautaires notamment depuis l’adoption du Traité de Maastricht en 1992. L’octroi de l’asile est une question qui intéresse les femmes notamment celles menacées d’excision, motif qui n’est admis que de manière restreinte par les autorités françaises contrairement à d’autres pays. Les candidates malheureuses à l’immigration sont contraintes de séjourner en France de manière illégale. Ces immigrées clandestines ne sont pas pour autant privées de tout droit. Cependant leur situation est parfois en contradiction avec les conventions relatives à la protection des droits de l’Homme. Ces femmes immigrées sont le plus souvent victimes de discrimination bien que leur niveau de compétence d’une génération à l’autre, soit en nette progression. En réaction aux problèmes d’intégration et désireuses de préserver leur culture, les communautés africaines perpétuent certaines coutumes qui sont en violation des conventions internationales portant sur les droits de l’Homme et de celles portant spécifiquement sur les droits de la Femme.Corrélativement ce repli communautaire rend plus difficile l’assimilation des immigrées qui souvent ne sont pas informées de leurs droits
No abstract
APA, Harvard, Vancouver, ISO, and other styles
40

Traoré, Makhroufi Ousmane. "Marge de manoeuvre, négociations et pouvoir de décision : les souverains de la Sénégambie dans le système des relations internationales transatlantiques et dans l'évolution du capitalisme moderne du XVe au XVIIIe siècle." Paris 4, 2009. http://www.theses.fr/2009PA040093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Rosa, Eric. "Quantification et traçage géochimique des exports fluviaux : exemples de bassins hydrographiques du Canada." Paris, Institut de physique du globe, 2011. http://www.theses.fr/2011GLOB0011.

Full text
Abstract:
La prévisibilité des changements dans la qualité et la quantité des ressources hydriques renouvelables repose sur une étude quantitative des mécanismes qui contrôlent ces paramètres. En lien avec cette problématique, la présente étude privilégie une approche fondée sur le monitoring géochimique des exports fluviaux dissous (2H-18O, cations majeurs, carbone organique dissous (COD), Nd, Sr, 87Sr/86Sr, U, (234U/238U)). L’étude a pour objectif (i) de tracer le cycle de l’eau et (ii) de documenter les taux d’altération chimique des roches au sein bassins hydrographiques des baies d’Hudson, de James et d’Ungava (HJUB) ainsi que du fleuve Saint-Laurent. La région d’étude couvre plus de 2,8x106 km2 sur 15 degrés de latitude. Les rivières Koksoak, Great Whale, La Grande et des Outaouais et les fleuves Nelson et Saint-Laurent ont fait l’objet d’un suivi temporel alors que dix autres rivières de la région ont été échantillonnées ponctuellement (durant la fonte des neiges et l’étiage estival) afin de fournir des informations complémentaires. Les teneurs en 2H-18O des rivières étudiées présentent des variations saisonnières systématiques dont l’amplitude atteint 1 à 5‰ (18O). L’appauvrissement en isotopes lourds marquant la fonte des neiges constitue le trait caractéristique des profils isotopiques saisonniers. Lors de la période libre de glace, des enrichissements graduels en isotopes lourds sont observés en réponse à l’évaporation. La rivière La Grande est une exception à cette règle en raison de l’effet tampon causé par les réservoirs hydroélectriques qui la ponctuent. Lorsque rapportées dans un graphique 2H vs 18O, les rivières définissent des droites évaporatoires situées sous la droite des eaux météoriques et ayant une pente plus faible que cette dernière. À partir de bilans de masses isotopiques, il a été estimé que 10% de l’eau atteignant le bassin de la rivière des Outaouais est évaporée avant de rejoindre l’exutoire de cette dernière dans le fleuve Saint-Laurent. De façon similaire, on estime à 5-15% les taux d’évaporation dans les bassins hydrographiques du nord-est du Canada. Les rivières drainant les bassins hydrographiques contigus du nord-est du Canada définissent un gradient isotopique latitudinal (18O(‰ vs VSMOW) = -0. 36*Latitude+4. 4‰) parallèle à celui rapporté pour les précipitations au niveau de la même région. Cette observation tend à indiquer que le gradient isotopique hérité des précipitations est conservé dans les rivières, malgré les processus subséquents à la recharge des bassins. Au sein des bassins de l’HJUB, les taux d’altération des roches ont été étudiés à partir des exports fluviaux dissous. Les rivières du bouclier présentent des concentrations en cations majeurs variant entre 62 et 360 M, des teneurs en néodyme ([Nd]) allant de 0. 57 à 4. 72 nM et des teneurs en COD variant entre 241 et 1777 M. En comparaison, le fleuve Nelson présente des concentrations en cations majeurs plus élevées (1200-2276 M), des [Nd] plus faibles (0. 14-0. 45 nM) et des [COD] intermédiaires (753-928 M). Au sein des rivières Koksoak, Great Whale et Nelson, les concentrations en cations dissous (Na-KMg- Ca-Sr) présentent des variations saisonnières qui transcrivent l’effet des conditions hydro-climatiques. Comme pour les teneurs en 2H-18O, la dilution causée par la fonte des neiges constitue le trait caractéristique des chroniques saisonnières. Les rivières étudiées exportent vers l’HJUB un flux cationique dissout (Na-K-Mg-Ca-Sr) de 8x106 tonnes*an-1. Au sein des bassins hydrographiques, les taux d’altération chimique (cationique) des roches varient entre 1. 0 et 5. 6 tonnes*km-2*an-1. Le contrôle lithologique est proéminent, tel que suggéré par la relation établie entre l’abondance de roches volcaniques et sédimentaires (V+S%) dans les bassins et les taux d’altération cationiques des roches (ACR): ACR=0. 8*(V+S%)+0. 9. Les flux de Nd sont découplés des taux d’altération des roches mais corrélés aux flux de COD (r2=0. 95). Ces derniers diminuent vers le nord et semblent tributaires des conditions hydro-climatiques. Les exports fluviaux d’uranium ont été étudiés afin de fournir des précisions sur les processus d’altération des roches. Les rivières drainant le Bouclier canadien et la Plate-Forme Intérieure présentent des signatures [U] vs (234U/238U) distinctes. Dans le fleuve Nelson (Plate-Forme Intérieure) les [U] varient entre 1. 05 et 2. 45 nM et les déséquilibres (234U/238U) atteignent 1. 21 à 1. 25. Les [U] sont plus faibles au sein des du Bouclier canadien (0. 04 – 1. 24 nM) alors que les déséquilibres (234U/238U) sont plus variables (1. 11 – 1. 99). Dans l’ensemble, les rivières étudiées exportent 3. 4x105 moles*an-1 d’uranium vers l’HJUB, avec un ratio (234U/238U) moyen de 1. 27. Les flux d’U sont découplés des taux d’altération des roches et l’accumulation d’uranium au sein de dépôts organiques semble intervenir sur les budgets à l’échelle des bassins. Les signatures (234U/238U) distinctes des rivières étudiées pourraient offrir la possibilité de tracer les exports fluviaux dissous au sein du domaine océanique de l’HJUB
The predictability of changes in the quality and quantity of renewable water resources relies on a quantitative study of the mechanisms that control these parameters. In connection with this problem, this study favors an approach based on the geochemical monitoring of dissolved riverine exports (δ2H-18O, major cations, dissolved organic carbon (DOC), [Nd], [Sr], 87Sr/86Sr, [U], (234U/238U)). The study aims at (i) tracing the water cycle and at (ii) quantifying rock chemical weathering rates in major river basins in central and eastern Canada. The study area covers more than 2. 8 x106 km2 over 15 degrees of latitude and encompasses the major basins of Hudson Bay, James and Ungava (HJUB) as well as the St. Lawrence River. The Koksoak, Great Whale, La Grande, Nelson, Ottawa and St. Lawrence rivers were monitored in time whereas ten other rivers flowing within the same region were sampled during spring snowmelt and summer baseflow, providing complementary data. The studied rivers present systematic seasonal 18O-2H patterns with amplitudes reaching 1 to 5 ‰ (18O). Heavy-isotope depletions mark the snowmelt event and gradual heavy-isotope enrichments occur in response to evaporation during the ice-off season. The La Grande River constitutes an exception due to the buffering effect of hydroelectric reservoirs that smooth out the temporal isotopic fluctuations. When reported in a 2H vs 18O chart, the studied rivers define Local Evaporation Lines (LEL) extending below the Meteoric Water Line (MWL). Isotopic mass balance calculations suggest that approximately 10% of the total inflow to the Ottawa River Basin is lost through evaporation before reaching its outlet in the St. Lawrence River. The rivers draining contiguous basins of Northeastern Canada define a River Water Line (RWL) arising from imbricate Local Evaporation Lines (LEL). A method using the distance between the RWL and the MWL is proposed for estimating the average evaporation over inflow ratio (5 to 15%) at the scale of the study area. These rivers also define a latitudinal isotopic gradient (18O (‰ vs. VSMOW) = -0. 36 * Latitude +4. 4 ‰) that is parallel to that reported for precipitation over the same region. This observation suggests that the isotopic gradient inherited rainfall is preserved in rivers, despite the subsequent hydrological processes occurring within the basins. Landscape chemical denudation rates were addressed based on the dissolved chemistry of rivers flowing into the HJUB. The rivers of the Canadian Shield depict major cation concentrations ranging between 62 and 360 μM, neodymium concentrations ([Nd]) of 0. 57 to 4. 72 nM and variable dissolved organic carbon concentrations ([DOC]) (241 – 1777 μM). In comparison, the Nelson River (Interior Platform) shows higher major cation concentrations (1200 – 2276 μM), lower [Nd] (0. 14 to 0. 45 nM) and intermediate [DOC] (753 – 928 M). Within the HJUB basins, the dissolved cation concentrations (Na-K-Mg-Ca-Sr) show seasonal variations that transcribe the effect of hydro-climatic conditions. As for 2H-18O patterns, the dilution caused by snowmelt constitutes the main feature of the seasonal patterns. Altogether, the studied rivers export 8x106 tons*yr-1 of dissolved major cations and 50 tons*yr-1 of dissolved Nd towards the HJUB. Basin scale total rock cationic denudation rates (TRCDR) range from 1. 0 to 5. 3 tons*yr-1*km2 and are essentially controlled by lithology, as illustrated by the relationship established between rock denudation rates and the proportion of sedimentary and volcanic rocks (%S+V) within the basins: TRCDR=0. 08(%S+V)+0. 9. Contrastingly, dissolved Nd exports are decoupled from rock weathering rates and seem to be strongly dependent upon organic matter cycling, as illustrated by the tight coupling between Nd and DOC fluxes. These fluxes decrease northwards, likely in response to the hydro-climatic gradient. Riverine dissolved U contents were studied in order to provide further information regarding weathering sources and processesin the HJUB region. The rivers draining the Canadian Shield vs. That draining the Interior Platform depict distinct [U] vs. (234U/238U) clusters. In the Nelson River (draining the Interior Sedimentary Platform), U-concentrations are highest (1. 05 - 2. 45 nM) whereas (234U/238U) show little variability (1. 21 – 1. 25). U concentrations are comparatively lower in the rivers of the Canadian Shield (0. 04 – 1. 24 nM) whereas (234U/238U) span from 1. 11 to 1. 99. Altogether, the studied rivers export 3. 4x105 moles. Yr-1 of U towards the HJUB, with an amount-weighted average (234U/238U) of 1. 27. At the scale of the study area, U and major cations exports are decoupled, suggesting that rock weathering processes do not solely control U budgets. First-order calculations reveal that U accumulation in peatlands could significantly impact basin-scale U budgets. The distinct [U] vs (234U/238U) clusters defined by the monitored rivers of the HJUB region (Koksoak, Great Whale, La Grande and Nelson) should allow tracing the source of dissolved U in the nearby oceanic domain
APA, Harvard, Vancouver, ISO, and other styles
42

Braghtha, Aymen. "Les zéros des intégrales pseudo-abéliennes : un cas non générique." Thesis, Dijon, 2013. http://www.theses.fr/2013DIJOS042/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Henon, Ericka. "Le choix d'un circuit de revente : recherche de contrôle sur la transaction et processus de décision du revendeur." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOE008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Andrieu, H. "Interprétation de mesures du radar Rodin de Trappes pour la connaissance en temps réel des précipitations en Seine-Saint-Denis et Val-de-Marne : intérêt pour la gestion automatisée d'un réseau d'assainissement." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00462327.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Gisbrant-Boinon, Cindy. "La sécurité juridique en droit de la commande publique." Thesis, Dijon, 2014. http://www.theses.fr/2014DIJOD004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Touiti, Bouebdellah Lamia. "Détermination des caractéristiques physiques et mécaniques de l'argile molle de Tunis." Phd thesis, Ecole Nationale d'Ingénieurs de Tunis, 2009. http://tel.archives-ouvertes.fr/tel-00614630.

Full text
Abstract:
L'objectif de ce travail consiste à étudier le comportement des argiles molles de Tunis et la détermination des caractéristiques physiques et mécaniques relevantes. En effet, l'identification des paramètres physiques, minéralogiques, sédimentologiques et mécaniques, d'une part, et l'étude du comportement des argiles molles de Tunis, d'autre part, nous a permis dans un premier volet d'estimer le degré de sensibilité de divers argiles molles de Tunis et de suggérer le processus qui a conféré à ces argiles leur métastabilité. Un modèle physique de développement de la sensibilité dans les argiles molles de Tunis a été élaboré. Les classifications (selon la sensibilité) suggérées par plusieurs auteurs, montrent une divergence des résultats. La proposition d'une classification propre aux argiles molles de Tunis a été élaborée. Dans un deuxième volet l'étude du comportement des argiles molles de Tunis a permis d'abord de confirmer le caractère métastable de ces argiles ; ensuite de trouver l'impact de la sensibilité sur le comportement (triaxial et oedométrique) des argiles molles de Tunis. Enfin une étude du domaine de validité de l'essai pressiométrique dans ces argiles molles de Tunis a montré une importante sous‐estimation du module de cisaillement initial par cette méthode.
APA, Harvard, Vancouver, ISO, and other styles
47

Duret, Florian. "Étude des anomalies de propagation sismique dans la croûte européenne." Paris, Institut de physique du globe, 2012. http://www.theses.fr/2012GLOB0003.

Full text
Abstract:
Nous avons confirmé la présence d'une forte anisotropie radiale au milieu de la croûte tibétaine, grâce à l'analyse des enregistrements de répliques du séisme de Sichuan ayant échantillonné exclusivement le plateau tibétain. En mesurant des courbes de dispersion moyennes d'ondes de surface sur ces répliques, puis en les inversant par méthode de Monte-Carlo, il a été montré que l'introduction d'une forte anisotropie radiale en milieu de croûte améliore significativement la qualité de la modélisation par rapport à un modèle isotrope. Puis nous avons établi une procédure d'analyse du bruit microsismique permettant, à partir d'enregistrements continus large-bande, d'extraire la fonction de Green du milieu étudié et d'y mesurer des courbes de dispersion en vitesse de groupe des ondes de surface. Cette procédure a été appliquée en Europe, sur un jeu de données composé d'une année d'enregistrements sismiques provenant d'une cinquantaine de stations 3 composantes. L'analyse des mesures obtenues a permis de confirmer leur validité, notamment via une régionalisation, et une comparaison des résultats avec des tomographies déjà publiées. Enfin un modèle 3D en vitesse d'onde S de la croûte européenne a été proposé. Celui-ci a été obtenu en appliquant une méthode de Monte-Carlo pour inverser simultanément les courbes de dispersion d'onde de Rayleigh et de Love obtenues en chaque point de la grille utilisée pour la régionalisation. Le modèle proposé offre un bon accord avec des études précédentes. De plus, l'introduction d'une couche anisotrope dans la croûte sous les Alpes permet d'améliorer la modélisation des courbes de dispersion d'onde de Rayleigh et de Love de la région
First of all, presence of strong radial anisotropy in the middle of the Tibetan crust has been confirmed using records of 2008 Sichuan earthquake's aftershocks that exclusively sampled the Tibetan plateau. Measurements of surface waves' average group velocity dispersion curves and their inversion using Monte-Carlo method showed that introduction of strong mid-crustal radial anisotropy dramatically improves the modeling with respect to isotropic parametrization. We then developed a microseismic noise analysis procedure aimed at extracting the Green's function of the medium from continuous ambient noise records and measuring surface waves group velocity dispersion curves. This procedure has been applied in Europe on a data set composed of a year of broad-band continuous seismic records from about fifty three-components stations. Analysis of the measured dispersion curves via regionalization, and comparison with published work confirmed their validity. We last proposed a 3D S-wave velocity model of the European crust. This model has been obtained by inverting simultaneously reconstructed Rayleigh and Love wave group velocity dispersion curves on each point of the regionalization grid using Monte-Carlo method. We introduced crustal radial anisotropy in the Alps in order to further improve the modeling of both Rayleigh and Love wave dispersion curves
APA, Harvard, Vancouver, ISO, and other styles
48

Mata, Miquel Christian. "Web-based application for medical imaging management." Doctoral thesis, Universitat de Girona, 2015. http://hdl.handle.net/10803/323093.

Full text
Abstract:
Prostate and breast cancer are the most common cause of cancers in men and women, respectively. Medical imaging plays an important role in breast and prostate cancer detection and evaluation. Then to prove that our web-based medical application could be applied in different medical disciplines, the main part of this thesis is the implementation of two frameworks as a Java applet interface designed as a web-based tool in the domains of mammography from X-rays in radiology, and of prostate imaging from an Magnetic Resonance Imaging (MRI). This aims to facilitate the diagnosis of new mammographic and prostate cases by providing a set of image processing tools that allow a better visualization of the images, and a set of drawing tools used to annotate the suspicious regions (overlays). Each annotation allows including the attributes considered by the experts when issuing the final diagnosis. The overall set of overlays is stored in a database as eXtensible Markup Language (XML) files associated with the original images. Finally, an exhaustive evaluation of the results is also discussed in this thesis. For the application on mammography, the experimental study is performed in order to evaluate the scalability, complexity and response speed at the proposed tool. For the application on MRI of prostate cancer, the evaluation focused on the decrease of the variability of the expert assessments when collaborative work is performed. To conclude, a new architecture with the main goal of managing patient databases with potentially multi-modal imaging is presented such as for an MRI of the prostate cancer and evaluation from potentially several experts.
En aquesta tesi es realitza una revisió bibliogràfica de les principals publicacions recents en els últims anys en aplicacions mèdiques basades en web. Aquest estudi analitza els avantatges i inconvenients dels treballs d’investigació en el camp de la imatge mèdica, així com les arquitectures de base de dades per a la gestió d’imatges digitals. La part principal d’aquesta tesi és la implementació d’una eina basada en la web amb la finalitat de demostrar la integritat i aplicació en diferents disciplines mediques. En aquest sentit, l’aplicació proposada en aquest projecte de tesis ha sigut implementada com a eina d’ajuda al diagnòstic de càncer de mama i pròstata. L’objectiu és facilitar el diagnòstic proporcionant un conjunt d’eines de processat d’imatge que permetin una millor visualització de les imatges, i un conjunt d’eines d’anotació de regions sospitoses o malignes (superposicions). Cada anotació permet incloure tots els atributs i especificacions considerades pels experts a l’emetre el diagnòstic final. S’han dissenyat diferents arquitectures per a la gestió de base de dades (per exemple PACS per emmagatzemar imatges monogràfiques). Per altra banda, el conjunt global d’anotacions s’emmagatzemen en una base de dades d’arxius XML associats a les imatges originals. Conseqüentment, aquesta nova arquitectura es presenta amb l’objectiu d’obtenir una base de dades de casos diagnosticats i validats per radiòlegs experts per a la formació de radiòlegs novells. Finalment, conclusions i noves línies d’investigació associades al projecte com a treball futur són presentades en aquesta tesi.
APA, Harvard, Vancouver, ISO, and other styles
49

Angeli, Adrien. "Détection visuelle de fermeture de boucle et applications à la localisation et catographie simultanées." Paris 6, 2008. http://www.theses.fr/2008PA066388.

Full text
Abstract:
La détection de fermeture de boucle est cruciale pour améliorer la robustesse des algorithmes de SLAM. Par exemple, après un long parcours dans des zones inconnues de l’environnement, détecter que le robot est revenu sur une position passée offre la possibilité d’accroître la précision et la cohérence de l’estimation. Reconnaître des lieux déjà cartographiés peut également être pertinent pour apporter une solution au problème de la localisation globale, ou encore pour rétablir une estimation correcte suite à un “enlèvement” (i. E. Lorsque le robot a été déplacé sans être informé du déplacement effectué). Ainsi, résoudre le problème de la détection de fermeture de boucle permet d’améliorer les performances des algorithmes de SLAM, mais cela apporte également des capacités additionnelles aux robots mobiles. Le but des recherches présentées dans ce mémoire de thèse peut être scindé en deux points. Tout d’abord, nous présentons un algorithme de détection de fermeture de boucle basé vision. Notre méthode repose sur du filtrage Bayésien pour le calcul de la probabilité de détection de fermeture de boucle, en encodant les images sous la forme d’ensembles de primitives locales selon le paradigme des sacs de mots visuels. Lorsqu’une hypothèse de fermeture de boucle reçoit une probabilité élevée, un algorithme de géométrie multi-vues est employé pour écarter les “données aberrantes”, en imposant l’existence d’une structure cohérente entre l’image courante et le lieu de fermeture de boucle. La solution proposée est complètement incrémentielle, avec une complexité linéaire en le nombre de lieux visités, ce qui permet de détecter les fermetures de boucles en temps réel. Deuxièmement, pour démontrer l’intérêt de la détection de fermeture de boucle pour la robotique mobile, nous proposons deux applications différentes de notre solution aux contextes métrique et topologique du SLAM. Dans la première application, nous montrons de quelle manière la détection de fermeture de boucle peut être employée pour la reconnaissance de lieux, afin de construire des cartes topologiques cohérentes de l’environnement : lorsqu’une nouvelle image est acquise, la détection de fermeture de boucle permet de déterminer si elle provient d’un nouveau lieu, ou bien si elle appartient à un lieu existant, mettant à jour la carte en conséquence. Dans la seconde application, la détection de fermeture de boucle sert à localiser lacaméra dans un algorithme de SLAM métrique suite à un enlèvement : dès qu’une partie déjà cartographiée de l’environnement est reconnue, l’information fournie par l’algorithme de géométrie multi-vues est utilisée pour calculer une nouvelle position et une nouvelle orientation pour la caméra. Nous démontrons la qualité de nos travaux sur des séquences vidéos acquises dans des environnements d’intérieur, d’extérieur et mixtes (i. E. Intérieur / extérieur), sur la base d’une simple caméra monoculaire déplacée à la main, et en présence d’un aliasing perceptuel important (i. E. Lorsque plusieurs lieux distincts se ressemblent).
APA, Harvard, Vancouver, ISO, and other styles
50

Peillon, Stéphane. "Indexation vocale à vocabulaire illimité à base de décodage phonétique : application à la détection de clés vocales dans un flux de paroles." Avignon, 2002. http://www.theses.fr/2002AVIG0128.

Full text
Abstract:
Le stockage de données multimédia est aujourd'hui confronté au manque d'outils efficaces d'extraction et de tri de documents. Dans le cadre particulier de données vocales, nous proposons une technique d'indexation permettant de retrouver des documents sonores à partir de leur seul contenu. La pose d'index appropriés sur le médium permet de réduire considérablement l'information nécessaire a posteriori pour la phase de recherche d'une clé. Nous comparons deux modes d'indexation à base d'index phonétiques: l'un repose sur la meilleure séquence possible de phonèmes, l'autre sur des échelles d'hypothèses phonétiques produites sur une segmentation automatique a priori du corpus. Ce deuxième mode, désigné "treillis synchrone de phonèmes", offre de meilleures performances avec un faible surcoût de calcul, et conduit à un apprentissage réduit des paramètres du moteur de recherche. La technique présentée permet en outre la détection de clés vocales aussi bien dans un corpus vocal que textuel
Multimedia data storage is currently confronted with a lack of effective document extraction and sorting tools. In the specific context of voice data, we suggest an indexing technique which will enable speech documents to be retrieved by content only. Positioning relevant indexes on the medium enables the amount of information needed later for the key search phase to be greatly reduced. We compare two phonetic index-based indexing methods: one is based on the best possible sequence of phonemes, the other on scales of phonetic hypotheses produced on an automatic a priori segmentation of the corpus. This second mode, called "phoneme synchronized lattice" offers better performance with low additional computation cost, and requires less training for the search engine parameters. In addition, the technique presented in this document enables the detection of voice keywords in both speech and text corpora
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography