Дисертації з теми "Classement des documents texte"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Classement des documents texte.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Classement des documents texte".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Poulain, d'Andecy Vincent. "Système à connaissance incrémentale pour la compréhension de document et la détection de fraude." Thesis, La Rochelle, 2021. http://www.theses.fr/2021LAROS025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Document Understanding est la discipline de l’Intelligence Artificielle qui dote les machines du pouvoir de Lecture. Cette capacité sous-entend de comprendre dans une vision globale l’objet du document, sa classe, et dans une vision locale, des informations précises, des entités. Un double défi est de réussir ces opérations dans plus de 90% des cas tout en éduquant la machine avec le moins d’effort humain possible. Cette thèse défend la possibilité de relever ces défis avec des méthodes à apprentissage incrémental. Nos propositions permettent d’éduquer efficacement et itérativement une machine avec quelques exemples de document. Pour la classification, nous démontrons (1) la possibilité de découvrir itérativement des descripteurs textuels, (2) l’intérêt de tenir compte de l’ordre du discours et (3) l’intérêt d’intégrer dans le modèle de donnée incrémental une mémoire épisodique de quelques Souvenirs d’échantillon. Pour l’extraction d’entité, nous démontrons un modèle structurel itératif à partir d’un graphe en étoile dont la robustesse est améliorée avec quelques connaissances a priori d’ordre général. Conscient de l’importance économique et sociétale de la fraude dans les flux documentaires, cette thèse fait également le point sur cette problématique. Notre contribution est modeste en étudiant les catégories de fraude pour ouvrir des perspectives de recherche. Cette thèse a été conduite dans un cadre atypique en conjonction avec une activité industrielle à Yooz et des projets collaboratifs, en particulier, les projets FEDER SECURDOC soutenu par la région Nouvelle Aquitaine et Labcom IDEAS soutenu par l’ANR
The Document Understanding is the Artificial Intelligence ability for machines to Read documents. In a global vision, it aims the understanding of the document function, the document class, and in a more local vision, it aims the understanding of some specific details like entities. The scientific challenge is to recognize more than 90% of the data. While the industrial challenge requires this performance with the least human effort to train the machine. This thesis defends that Incremental Learning methods can cope with both challenges. The proposals enable an efficient iterative training with very few document samples. For the classification task, we demonstrate (1) the continue learning of textual descriptors, (2) the benefit of the discourse sequence, (3) the benefit of integrating a Souvenir of few samples in the knowledge model. For the data extraction task, we demonstrate an iterative structural model, based on a star-graph representation, which is enhanced by the embedding of few a priori knowledges. Aware about economic and societal impacts because the document fraud, this thesis deals with this issue too. Our modest contribution is only to study the different fraud categories to open further research. This research work has been done in a non-classic framework, in conjunction of industrial activities for Yooz and collaborative research projects like the FEDER Securdoc project supported by la région Nouvelle Aquitaine, and the Labcom IDEAS supported by the ANR
2

Sayadi, Karim. "Classification du texte numérique et numérisé. Approche fondée sur les algorithmes d'apprentissage automatique." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066079/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Différentes disciplines des sciences humaines telles la philologie ou la paléographie font face à des tâches complexes et fastidieuses pour l'examen des sources de données. La proposition d'approches computationnelles en humanités permet d'adresser les problématiques rencontrées telles que la lecture, l'analyse et l'archivage de façon systématique. Les modèles conceptuels élaborés reposent sur des algorithmes et ces derniers donnent lieu à des implémentations informatiques qui automatisent ces tâches fastidieuses. La première partie de la thèse vise, d'une part, à établir la structuration thématique d'un corpus, en construisant des espaces sémantiques de grande dimension. D'autre part, elle vise au suivi dynamique des thématiques qui constitue un réel défi scientifique, notamment en raison du passage à l'échelle. La seconde partie de la thèse traite de manière holistique la page d'un document numérisé sans aucune intervention préalable. Le but est d'apprendre automatiquement des représentations du trait de l'écriture ou du tracé d'un certain script par rapport au tracé d'un autre script. Il faut dans ce cadre tenir compte de l'environnement où se trouve le tracé : image, artefact, bruits dus à la détérioration de la qualité du papier, etc. Notre approche propose un empilement de réseaux de neurones auto-encodeurs afin de fournir une représentation alternative des données reçues en entrée
Different disciplines in the humanities, such as philology or palaeography, face complex and time-consuming tasks whenever it comes to examining the data sources. The introduction of computational approaches in humanities makes it possible to address issues such as semantic analysis and systematic archiving. The conceptual models developed are based on algorithms that are later hard coded in order to automate these tedious tasks. In the first part of the thesis we propose a novel method to build a semantic space based on topics modeling. In the second part and in order to classify historical documents according to their script. We propose a novel representation learning method based on stacking convolutional auto-encoder. The goal is to automatically learn plot representations of the script or the written language
3

Limame, Mohamed. "Un Modèle généralisé pour le classement de documents multimédia." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376153269.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Limame, Mohamed. "Un modele generalise pour le classement de documents multimedia." Paris 7, 1988. http://www.theses.fr/1988PA077192.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these debat du probleme du classement de l'information bureautique. Celle-ci se trouve sous forme de documents multimedia, c'est-a-dire que son contenu peut renfermer differents types de donnees; on y trouve du texte, du graphique, de l'image, des sequences sonores, etc. Un modele semantique a ete propose pour classer et/ou rechercher cette information. Il est base sur des mecanismes d'abstraction utilisant les notions de generalisation, de specialisation de regroupement, etc. L'approche orientee objet a ete utilisee pour definir les objets et les actions de classement. Le modele a ete valide par une realisation effectuee dans le cadre d'un systeme de gestion de documents multimedia au sein d'un systeme bureautique integre. Le modele relationnel a ete utilise comme noyau pour batir le systeme de classement
5

Denoyer, Ludovic. "Apprentissage et inférence statistique dans les bases de documents structurés : application aux corpus de documents textuels." Paris 6, 2004. http://www.theses.fr/2004PA066087.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
7

Belkhiter, Nadir. "Transducteur d'affichage de documents techniques décrits en LRDM(texte, graphique, fac-similé)." Lyon 1, 1985. http://www.theses.fr/1985LYO19006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce projet réalisé en collaboration avec le CNET a eu pour objet la description et l'archivage de documents techniques. En effet, devant les problèmes sans cesse accrus que pose la maintenance des produits industriels et publics, le CNET nous a chargé de définir et concevoir un langage qui permettrait la représentation unifiée d'une documentation technique. Celle-ci est caractérisée par un volume important et un contenu informationnel de nature composite (rapports issus de systèmes de traitement de texte, plans et schémas électroniques provenant de systèmes de C. A. O, textes manuscrits numérisés par la technique du fac-similé,. . . ). Cette unification dans la représentation devait être ensuite démontrée à travers une réalisation logicielle expérimentale. Une première version du langage LRDM permettant une représentation homogène de texte, graphique et fac-similé est totalement spécifiée et un prototype (Transducteur d'Affichage) expérimental et opérationnel en démontre la faisabilité. Celui-ci est composé de deux modules complémentaires : - un analyseur/codeur écrit en LET (Langage d’Écriture des Transducteurs) et permettant l'analyse (syntaxique et sémantique) ainsi que le codage en vue de l'archivage de descriptions sources L. R. D. H, - un Interprète d'Affichage écrit en PASCAL qui permet la consultation de documents préalablement analysés et codés par le premier module. Dans sa version actuelle le prototype autorise une consultation séquentielle ou directe sur deux types de terminaux (écran graphique couleur Tektronix 4105 d'une part, et table traçante couleur Tektronix 4662 d'autre part).
8

Wehbe, Hassan. "Synchronisation automatique d'un contenu audiovisuel avec un texte qui le décrit." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30104/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous abordons le problème de la synchronisation automatique d'un contenu audiovisuel avec une procédure textuelle qui le décrit. La stratégie consiste à extraire des informations sur la structure des deux contenus puis à les mettre en correspondance. Nous proposons deux outils d'analyse vidéo qui extraient respectivement : * les limites des évènements d'intérêt à l'aide d'une méthode de quantification de type dictionnaire * les segments dans lesquels une action se répète en exploitant une méthode d'analyse fréquentielle : le YIN. Ensuite, nous proposons un système de synchronisation qui fusionne les informations fournies par ces outils pour établir des associations entre les instructions textuelles et les segments vidéo correspondants. Une "Matrice de confiance" est construite et exploitée de manière récursive pour établir ces associations en regard de leur fiabilité
We address the problem of automatic synchronization of an audiovisual content with a procedural text that describes it. The strategy consists in extracting pieces of information about the structure from both contents, and in matching them depending on their types. We propose two video analysis tools that respectively extract: * Limits of events of interest using an approach inspired by dictionary quantization. * Segments that enclose a repeated action based on the YIN frequency analysis method. We then propose a synchronization system that merges results coming from these tools in order to establish links between textual instructions and the corresponding video segments. To do so, a "Confidence Matrix" is built and recursively processed in order to identify these links in respect with their reliability
9

Raliarivony, Fara Lancha Catherine. "Elaboration d'un plan de cotation des collections en libre accès de la bibliothèque universitaire centrale de Lille 3 (Lettres, arts et sciences humaines)." [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/ppp/pppraliarivony.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Rousseau, Emilie. "Etude d'une chaîne de publication Web de texte intégral au format XML." [S.l.] : [s.n.], 2001. http://www.enssib.fr/bibliotheque/documents/dessid/rsrousseau.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Salah, Soraya Ollès Christian. "Mise en ligne en texte intégral des thèses de l'Université Paul-Sabatier." [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/ppp/pppsalah.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Clavier, Annie. "La sémiologie de l’image et du texte dans les documents utilisés en pédagogie espagnole." Paris 10, 2010. http://www.theses.fr/2010PA100225.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'image occupe une place considérable dans la civilisation actuelle. L'iconique est une des dimensions fondamentales d'une nouvelle culture, où l'image prolifère au quotidien (livres, journaux, affiches publicitaires, écrans d'ordinateurs, télévision, cinéma) et où elle tient une place importante aux côtés des textes, même dans les manuels scolaires de tous niveaux (primaire et secondaire), et dans les livres de fiction pour enfants et adolescents. Image et écriture ont la même origine : elles se confondaient sur les parois paléolithiques. Puis, elles ont évolué séparément et parallèlement. Grâce aux moyens actuels de diffusion et production des images et des textes, et grâce aux découvertes du XXe siècle en sciences cognitives, images et textes se retrouvent à l'heure actuelle de nouveau confondus, tous les deux considérés comme outil de communication. Les recherches en sémiologie ont démontré que l'image, comme la langue, est un système de signes exprimant des idées, produisant du sens, dont nous nous servons pour communiquer, l'image présente donc de nombreuses analogies avec le texte en ce qui concerne la production, le fonctionnement et la réception. Mais certaines différences entre image et texte ne permettent pas à l'image de se substituer au texte, de prendre sa place en tant que véhicule privilégié de la communication et de l'information, car elle a besoin du texte pour pallier à certaines de ses carences expressives. Actuellement en Espagne, comme en France, les nouvelles orientations pédagogiques mettent l'accent sur la maîtrise de la langue orale et écrite, en primaire comme en secondaire, mais comptent également sur la présence et le pouvoir que s'est acquis l'image dans l'écriture contemporaine. Malgré ses caractéristiques reconnues d'attraction, de persuasion et, selon certains, d'influence négative, l'image est cependant considérablement utilisée en pédagogie espagnole, aussi bien auprès des textes d'ouvrages didactiques que dans les activités de classe. Certaines spécificités étant reconnues à l'image et d'autres au texte, l'image peut être utilisée aux côtés des textes à des fins très utiles dans le domaine éducatif. La didactique et la pédagogie reconnaissent à l'image une grande efficacité auprès des textes : utilisant les puissances et les impuissances propres à chaque code (verbal et iconique), textes et images interagissent, s'éclairent mutuellement, se renforcent, pour mieux diffuser les connaissances auprès des élèves. L’Espagne actuelle, en tant qu'État démocratique, accorde une grande importance à l'éducation que doivent recevoir les jeunes, pour en faire de futurs citoyens. Tenant compte du milieu culturel ambiant, les enseignants espagnols, en primaire et en secondaire, utilisent aussi avec les élèves les documents que l'on trouve hors de l'école et qui comprennent tous les types de textes et d'images (journaux, revues, affiches, sites d’Internet) afin d'enseigner aux élèves une attitude responsable et un esprit critique face à ces informations, outils, supports qui sont dans leur environnement quotidien. Dans ce système pédagogique actuel en Espagne, l'attention des enseignants espagnols se porte sur le côté « défense et protection », contre la « manipulation », contre la mise en sommeil de l'esprit critique, ce qui n'était pas le cas pendant la période franquiste
Images play a very significant part in today’s civilization. The iconic dimension is one of the fundamental aspects of a new culture in which pictures proliferate in everyday life – whether in books, papers, posters or on screens – and where they hold an important role along with texts, even in primary and secondary school handbooks and in children’s and teenagers’ fiction works. Pictures and writing share the same origin : they were merged on Paleolithic walls. Then, they have evolved separately and in parallel. Thanks to the current means of production and circulation of texts and images, and to 20th century discoveries in cognitive sciences, they are now merged again; they are both considered as means of communication. The studies in semiology have proved that pictures, just like language, are a system of signs which express ideas, produce meaning and which we use in order to communicate. Images therefore show numerous analogies with texts regarding their production, functioning and reception. But some differences between texts and images do not enable the pictures to replace the texts as the primary vehicles of communication and information because they need the texts to compensate some of their expressive lacks. Nowadays in Spain, as in France, the new pedagogical directions stress the command of oral and written languages in primary and secondary education. But they also acknowledge the pervasiveness and power of images in contemporary writing. Although their attractive, persuasive and, according to some people, negative characters are recognized, images are widely used in Spanish education along with the texts, in didactic works and in class activities alike. In education, images can be usefully employed along with the texts since they both have some specificities. Education sciences perceive the great efficiency of images used along with texts: by using the qualities and the lacks of each code – verbal and iconic – the two interact, they clarify and reinforce each other so as to better transmit knowledge to the pupils. As a democratic state, today’s Spain gives great importance to the education received by the young to become citizens. Spanish teachers take into account the surrounding culture and also use documents from outside the school which include all types of texts and images – such as newspapers, magazines, posters, websites – to teach the pupils how to act responsibly and have a critical mind regarding the contents, tools and media of their everyday environment. In the current Spanish pedagogical system, the teachers emphasize the “defense and protection” against the “manipulation” and apathy of the critical mind. But it has not always been so in Spain, as during the Franco era
13

Delacroix, Quentin. "Un système pour la recherche plein texte et la consultation hypertexte de documents techniques." Clermont-Ferrand 2, 1999. http://www.theses.fr/1999CLF2A001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est motivé par les difficultés que rencontrent les utilisateurs et producteurs d'informations dans leurs activités au sein de l'entreprise. Une étude réalisée au sein du groupe des labo d'électricité de France a permis de préciser les contraintes liées au traitement des informations et des documents. L'analyse des techniques et outils les plus utilisés pour rechercher et consulter informations et documents montre que les solutions actuelles ne sont pas complètement adaptées aux exigences industrielles. Un modèle des données/informations de l'entreprise qui considère leurs caractéristiques matérielles, organisationnelles et temporelles est présenté. Les fonctionnalités du système que nous proposons pour faciliter l'accès aux informations sont exposées. Le système RECITAL tient compte aussi bien des attentes et besoins des utilisateurs et producteurs d'informations que des préoccupations des administrateurs de systèmes informatiques. RECITAL est basé sur une architecture trois-tiers utilisant les techniques et standards de l'internet/intranet. Le 1er tiers est composé de clients universels (butineurs Web) utilisés par les acteurs de l'entreprise. Le 2d tiers est le système RECITAL lui-même. Il assure la localisation des informations, la conversion éventuelle des documents vers les formats universels (par ex HTML) et l'association des documents en générant automatiquement des liens hypertextes. Le 3e tiers regroupe les systèmes de stockage de l'entreprise. Les composants de cette architecture peuvent être répartis sur les différents sites de l'entreprise. Les principaux processus de RECITAL que sont l'indexation, la recherche plein texte et l'hypertextualisation de documents sont détaillés. Ils s'appuient sur la reconnaissance de chaînes de caractères (pattern matching). Les fonctionnalités essentielles et innovantes du système proposé sont illustées en utilisant une maquette de RECITAL. Ainsi, l'association automatique (linkage) des versions successives d'un même document et le respect des permissions d'accès aux documents lors de la recherche interactive d'informations et de la génération dynamique de liens hypertextes sont montrées
14

Thomas, Corinne. "Accès par le contenu à des documents numérisés contenant du texte et de l'image." Paris 7, 2001. http://www.theses.fr/2001PA077150.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Ayache, Stéphane. "Indexation de documents vidéos par concepts par fusion de caractéristiques audio, vidéo et texte." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0071.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre de la Recherche d'Information et vise à une indexation sémantique des documents multimédias. Les recherches dans ce domaine sont confrontées au « fossé sémantique» qui sépare les descriptions brutes de différentes modalités des descriptions conceptuelles compréhensibles par les utilisateurs. Nous proposons un modèle d'indexation basé sur des réseaux d'opérateurs dans lesquels les flots de données, appelés numcepts, unifient des informations provenant des différentes modalités et extraites à différents niveaux d'abstractions. Nous présentons une instance de ce modèle où nous décrivons une typologie des opérateurs et des numcepts mis en œuvre. Nous avons mené des expérimentations sur les corpus TREC VIDEO afin d'évaluer l'impact de l'agencement et de l' implémentation des opérateurs sur la qualité de l'indexation des documents vidéos. Nous montrons qu'un réseau doit être décliné relativement à un concept afin d'optimiser la qualité de l'indexation
Work deals with information retrieval and aims to reach semantic indexing of multimediaIments. The state of the art approach tackle this problem by bridging of the semantic gap between level features, from each modality, and high-Ievel features (concepts), which are useful for humans. We propose an indexing model based on networks of operators into which data flows, called numcepts, unify informations from the various modalities and extracted at several level of abstraction. We present an instance of this model where we describe a topology of the operators and the numcepts we have deveIoped. We have conducted experiments on TREC VIDEO corpora in order to evaluate various organizations of the networks and the choice of the operators. We have studied those effects on performance of concept detection. We show that a network have to be designed with respect to the concepts in order to optimize the indexing performance
16

Kowarski, Irène Bolliet Louis. "Les bases de données textuelles étude du concept de document et application à deux réalisations /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00308638.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Ouji, Asma. "Segmentation et classification dans les images de documents numérisés." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00749933.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de cette thèse ont été effectués dans le cadre de l'analyse et du traitement d'images de documents imprimés afin d'automatiser la création de revues de presse. Les images en sortie du scanner sont traitées sans aucune information a priori ou intervention humaine. Ainsi, pour les caractériser, nous présentons un système d'analyse de documents composites couleur qui réalise une segmentation en zones colorimétriquement homogènes et qui adapte les algorithmes d'extraction de textes aux caractéristiques locales de chaque zone. Les informations colorimétriques et textuelles fournies par ce système alimentent une méthode de segmentation physique des pages de presse numérisée. Les blocs issus de cette décomposition font l'objet d'une classification permettant, entre autres, de détecter les zones publicitaires. Dans la continuité et l'expansion des travaux de classification effectués dans la première partie, nous présentons un nouveau moteur de classification et de classement générique, rapide et facile à utiliser. Cette approche se distingue de la grande majorité des méthodes existantes qui reposent sur des connaissances a priori sur les données et dépendent de paramètres abstraits et difficiles à déterminer par l'utilisateur. De la caractérisation colorimétrique au suivi des articles en passant par la détection des publicités, l'ensemble des approches présentées ont été combinées afin de mettre au point une application permettant la classification des documents de presse numérisée par le contenu.
18

Phan, Huy-Khanh. "Contribution à l'informatique multilingue : extension d'un éditeur de documents structurés." Lille 1, 1991. http://www.theses.fr/1991LIL10044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement informatique de documents multilingues concerne quatre aspects essentiels : le codage d'un texte multilingue en mémoire, la saisie sur un dispositif d'entrée, la restitution sur un dispositif et le dialogue. De nombreux problèmes posés par le multilinguisme sont encore ouverts. Les outils disponibles actuellement ne donnent que des solutions partielles et peu satisfaisantes. Cette thèse présente des solutions possibles pour la conception et la réalisation d'un système de traitement de texte multilingue (STTM) à partir de Grif, un système interactif de production de documents structurés. Dans la première étape de travail, en utilisant les codes ascii étendus et la méthode de composition des touches pour la saisie des caractères portant des signes diacritiques, une extension de Grif au vietnamien permet de traiter des systèmes d'écriture utilisant un ensemble de moins de 256 signes typographiques. Dans une seconde étape, des solutions beaucoup plus générales ont été proposées pour arriver à une solution plus générique par le développement d'un langage de transcription d'entrée, appelé langage E, analogue aux autres langages de Grif. L'intérêt théorique de l'implémentation du langage E a permis de compléter le modèle de document de Grif par les descriptions linguistiques. La thèse a realisé une version véritable multilingue de Grif, dans laquelle un même document peut contenir à la fois du chinois, des langues utilisant les caractères latins (y compris le vietnamien) et des langues utilisant les alphabets grec et cyrillique
19

ROBERT, Laurent. "Annotation et visualisation interactives de documents hypermédias." Phd thesis, Télécom ParisTech, 2001. http://tel.archives-ouvertes.fr/tel-00005631.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement du multimédia, des capacités de stockage et du matériel de numérisation permet de mettre à disposition sous une forme électronique un nombre toujours croissant de documents " matériels " (journaux, cartes, photographies, peintures, cahiers d'expérimentations, originaux d'œuvres littéraires, rapports, etc.). La numérisation, le stockage et la diffusion de ces matériaux sources ne posent aujourd'hui plus réellement problème. Néanmoins, il s'avère que les utilisateurs ont souvent des difficultés à exploiter ces documents en milieu informatique. Cet état de fait est la conséquence de plusieurs problèmes. Tout d'abord, peu d'outils logiciels permettent aux utilisateurs de réaliser les tâches qu'ils ont l'habitude d‘effectuer avec des documents papiers (annoter, comparer, associer des idées, etc.). Ensuite, l'accès à l'information dans un espace informationnel de vaste envergure s'avère être un problème non trivial. Les utilisateurs éprouvent des difficultés à trouver les données recherchées, à comprendre leur organisation et leurs relations, ainsi qu'à collecter et organiser celles jugées intéressantes afin de pouvoir les retrouver plus rapidement par la suite.
A cette problématique de l'utilisation des documents en milieu informatique, nous proposons deux approches complémentaires issues des domaines de l'interaction homme-machine et de la visualisation d'information.
La première approche repose sur le concept de lecture active qui vise à transformer le " lecteur " en " acteur " en lui permettant d'enrichir interactivement les documents qu'il est en train de lire par un ensemble de signes graphiques (surlignages, cerclages, etc.) et d'informations textuelles (notes, commentaires, etc.). L'idée consiste à permettre aux utilisateurs de construire leur propre système de repérage afin de faciliter la compréhension et la réutilisation des documents. Une attention particulière est portée à la manière d'associer ces méta-données " ajoutées " (que nous nommons, d'une manière générique, " annotations ") aux documents sources au moyen de liens hypertextes, ainsi qu'à leur codage informatique dans un format normalisé (dérivé de XML).
La seconde approche consiste à faciliter l'exploration d'espaces documentaires en exploitant les capacités perceptives et mémorielles humaines au moyen de techniques interactives de visualisation. Nous proposons tout d'abord un système de navigation qui repose sur un fort couplage entre vues globales et vues locales pour aider à trouver les documents. Les vues globales montrent l'organisation de l'espace d'information et en permettent un survol rapide. Elles sont utilisées pour atteindre des zones d'intérêts. Les vues locales présentent le contenu de plusieurs documents en contexte afin d'aider l'utilisateur à les comparer et à choisir celui qu'il va consulter. Nous proposons ensuite un environnement visuel de gestion de bookmarks dans le but de pouvoir retrouver le plus simplement possible les documents préalablement consultés. Les utilisateurs organisent leurs bookmarks de la même manière qu'ils le feraient avec un ensemble de documents papiers sur un bureau. Ils définissent interactivement leur propre organisation conceptuelle de l'espace documentaire en se basant sur des propriétés visuelles et spatiales. Ces propriétés aideront les utilisateurs à retrouver plus efficacement les documents sauvegardés par une stimulation de leurs capacités mémorielles.
20

Llored, Yannick. "Etude herméneutique du texte goytisolien : au cours de la période 1980-1993." Lyon 2, 2002. http://theses.univ-lyon2.fr/documents/lyon2/2002/llored_y.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche s'attache à analyser la pratique d'écriture de Juan Goytisolo (Barcelone, 1931). L'étude est centrée sur la dimension critique du projet intellectuel et littéraire de l'écrivain, et donc sur la manière dont s'opère la construction du sens de ses textes en rapport étroit avec la tradition littéraire espagnole. Il s'agit également de présenter une reconsidération des approches dont a fait l'objet cette oeuvre, afin d'examiner, en suivant une perspective herméneutique, le travail sur le langage et les procédés de signification élaborés par l'auteur, selon des objectifs précis. Les concepts d'interprétation, de réflexivité et de réfection seront ainsi au centre de la démonstration, qui a pour but de proposer une nouvelle lecture de cette création littéraire axée sur le renouvellement des formes esthétiques ainsi que sur une poétique ouverte au dialogue entre les cultures et les traditions. La signification du mouvement continu des reprises, qui articulent la pratique d'écriture de J. Goytisolo, est rapprochée de la pensée de l'auteur ainsi que de sa prise de position quant aux enjeux qu'implique le retour sur l'histoire collective et l'héritage culturel, en vue de questionner les discours et leurs représentations
The purpose of this study is an analysis of the writing of Juan Goytisolo (Barcelona, 1931). It centres on the critical aspect of the writer's intellectual and literary project, and therefore on the way in which the sense of his texts is constructed in close relation to the Spanish literary tradition. It also presents a reconsideration of previous approaches to this writer's work, in order to examine, from a hermeneutic perspective, the work on language and the signification procedures developed by the author in accordance with precise objectives. The concepts of interpretation, reflexivity and reworking are thus at the centre of the demonstration, the purpose of which is to propose a new reading of this literary creation based on the renewal of aesthetic forms and on poetic expression which is open to the dialogue between cultures and traditions. The signification of the continuous movement of the repetitions which articulate Juan Goytisolo's writing technique, is compared to the thinking of the author and his view of the implications of the return to collective history and to cultural heritage, in order to question ideological discourses and the representations
21

Popovici, Eugen. "Recherche et filtrage d'information multimédia (texte, structure et séquence) dans des collections de documents XML hétérogènes." Phd thesis, Université de Bretagne Sud, 2008. http://tel.archives-ouvertes.fr/tel-00511981.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les documents numériques sont aujourd'hui des données complexes qui intègrent d'une manière hétérogène des informations textuelles, structurelles, multimédia ainsi que des méta-données. Le langage de balisage générique XML s'est progressivement imposé comme support privilégié non seulement pour l'échange des données mais aussi pour leur stockage. La gestion des documents stockés sous les formats XML nécessite le développement de méthodes et d'outils spécifiques pour l'indexation, la recherche, le filtrage et la fouille des données. En particulier, les fonctions de recherche et de filtrage doivent prendre en compte des requêtes disposant de connaissances incomplètes, imprécises, parfois même erronées sur la structure ou le contenu des documents XML. Ces fonctions doivent par ailleurs maintenir une complexité algorithmique compatible avec la complexité des données et surtout avec leur volume toujours en forte croissance, ceci pour assurer le passage à l'échelle des solutions informatiques. Dans cette thèse, nous étudions des méthodes et développons des outils pour indexer et rechercher des informations multimédia hétérogènes stockées dans des banques de documents XML. Plus précisément, nous abordons la question de la recherche par similarité sur des données composites décrites par des éléments structurels, textuels et séquentiels. En s'appuyant sur la partie structurelle des documents XML, nous avons défini un modèle de représentation, d'indexation et d'interrogation flexible pour des types hétérogènes de données séquentielles. Les principes que nous développons mettent en oeuvre des mécanismes de recherche qui exploitent simultanément les éléments des structures documentaires indexées et les contenus documentaires non structurés. Nous évaluons également l'impact sur la pertinence des résultats retournés par l'introduction de mécanismes d'alignement approximatif des éléments structurels. Nous proposons des algorithmes capables de détecter et de suggérer les « meilleurs points d'entrée » pour accéder directement à l'information recherchée dans un document XML. Finalement, nous étudions l'exploitation d'une architecture matérielle dédiée pour accélérer les traitements les plus coûteux du point de vue de la complexité de notre application de recherche d'information structurée. v
22

Elagouni, Khaoula. "Combinaison d'approches neuronales et de connaissances linguistiques pour la reconnaissance de texte dans les documents multimédias." Phd thesis, INSA de Rennes, 2013. http://tel.archives-ouvertes.fr/tel-00864923.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de cette thèse portent sur la reconnaissance des indices textuels dans les images et les vidéos. Dans ce cadre, nous avons conçu des prototypes d'OCR (optical character recognition) capables de reconnaître tant des textes incrustés que des textes de scène acquis n'importe où au sein d'images ou de vidéos. Nous nous sommes intéressée à la définition d'approches robustes à la variabilité des textes et aux conditions d'acquisition. Plus précisément, nous avons proposé deux types de méthodes dédiées à la reconnaissance de texte : - une approche fondée sur une segmentation en caractères qui recherche des séparations non linéaires entre les caractères adaptées à la morphologie de ces derniers ; - deux approches se passant de la segmentation en intégrant un processus de scanning multi-échelles ; la première utilise un modèle de graphe pour reconnaître les textes tandis que la seconde intègre un modèle connexionniste récurrent spécifiquement développé pour gérer les contraintes spatiales entre les caractères.Outre les originalités de chacune des approches, deux contributions supplémentaires de ce travail résident dans la définition d'une reconnaissance de caractères fondée sur un modèle de classification neuronale et l'intégration de certaines connaissances linguistiques permettant de tirer profit du contexte lexical. Les différentes méthodes conçues ont été évaluées sur deux bases de documents : une base de textes incrustés dans des vidéos et une base publique de textes de scène. Les expérimentations ont permis de montrer la robustesse des approches et de comparer leurs performances à celles de l'état de l'art, mettant en évidence leurs avantages et leurs limites.
23

Martin, Thomas. "Vers une reconnaissance multimodale du texte et de la parole pour l'analyse de documents vidéos pédagogiques." La Rochelle, 2009. http://www.theses.fr/2009LAROS264.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse à la mise en œuvre de méthodes de reconnaissance multimodale du texte et de la parole dans des contenus audiovisuels. Elle se focalise en particulier sur les enregistrements de cours présentiels, dans lesquels est fait un usage intensif de l'écrit et de la parole. Avec l'augmentation massive de la production de données multimédias, l'accès à ces dernières devient problématique et doit passer par une indexation efficace des contenus. En particulier, il est nécessaire de tenir compte de la nature hétérogène de l'information présente. C'est à cet objectif que tentent de répondre le paradigme de l'analyse multimodale et les méthodes d'analyse qui s'y rapportent. Il convient cependant de constater qu'en raison de l'émergence récente de l'analyse multimodale, il n'y a eu que peu de tentatives de définition de ce domaine. Par ailleurs, peu de travaux se sont intéressés à l'interaction entre texte et parole dans les flux multimédias et à la prise en compte de cette interaction pour leur extraction. Notre contribution s'axe donc sur deux points. En premier lieu, nous souhaitons combler le manque de définition en proposant un modèle de l'analyse multimodale. Son objectif est de disposer d'un cadre permettant une meilleure description des applications recourant à l'analyse multimodale, notamment en définissant précisément les concepts de modalité et de multimodalité. Le second point de notre contribution est axé sur la reconnaissance multimodale du texte et de la parole. Nous procédons pour cela à une comparaison des processus de reconnaissance du texte et de la parole pour ensuite étudier deux cas de collaboration texte-parole. Le premier n'implique pas un processus de reconnaissance du texte mais repose sur la constitution d'un modèle de langage thématisé à partir des ressources textuelles du cours pour améliorer la reconnaissance de la parole. Malgré la petite taille de ce corpus, nous montrons une amélioration significative des résultats de reconnaissance. Nous expérimentons enfin une méthode de reconnaissance croisée du texte et de la parole basée sur la complémentarité des représentations écrite et phonétique du langage. Nous montrons que cela permet d'améliorer les résultats de reconnaissance du texte, voire même, à terme, de faire ressortir le vocabulaire spécialisé du cours
This work focuses on the implementation of methods for multimodal recognition of text and speech in audiovisual content. It focuses in particular on lecture records, in which text and speech are extensively used. As the production of multimedia data is massively increasing, the access to these data becomes problematic and requires an efficient content indexing. It is necessary to take into account the heterogeneous nature of this information which is the aim of the paradigm of multimodal analysis. It should however be noted that due to the recent emergence of multimodal analysis, there have been only few attempts to define this field. In addition, only few studies have focused on the interaction between text and speech in multimedia stream and the use of this interaction for their extraction. Our contribution focuses on two points. First, we wish to address the lack of definition by proposing a model of the multimodal analysis. Its goal is to propose a framework for a better description of applications using multimodal analysis, including clearly defining the concepts of modality and multimodality. The second point of our contribution is focused on the multimodal recognition of text and speech. We compare text and speech recognition processes then consider two cases of text-speech collaboration. The first one doesn't involve text recognition. It aims to improve speech recognition by using a thematized language model based on textual resources of the course. Despite the small size of this corpus, we show a significant improvement in recognition results. We are experiencing also a text and speech cross-recognition method based on the complementarity phonetic and written representations of language. We show that this approach improves the text recognition results and could be used to emphasize the specialized vocabulary of the course
24

Beneus-Frechard, Céline. "La médiation esthétique du texte : la modernité de la pensée du texte par l'introduction d'une problématique de la communication dans la réflexion sur l'expérience poétique, conçue comme expérience de la communication." Lyon 2, 2004. http://theses.univ-lyon2.fr/documents/lyon2/2004/beneus_c.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Penser une esthétique de la médiation, consiste à rendre pensable l'articulation entre la spécificité de la singularité mise en oeuvre, à la fois lors de la conception des oeuvres et lors de leur lecture et de leur interprétation, et la spécificité de la dimension collective mise en oeuvre lors de la diffusion des oeuvres dans l'espace public, c'est-à-dire leur dimension proprement politique (symbolique) ou idéologique (imaginaire). Ces travaux doivent permettre de rendre compte de l'instance esthétique des médias et par là-même, la confrontation des médias et de la littérature doit permettre de redéfinir le concept même d'information. Il faut s'interroger sur le statut de la fiction dans la réflexion sur la dimension esthétique de la communication, en particulier pour montrer ce qu'apporte la fiction à la réflexion sur la communication et sur la construction d'une rationalité et d'une intelligibilité des faits de communication
To think about an esthetic mediation consists in thinking the dialectic between the specificity of singularity, done at once, at the time of the creation of literature and at the time of the reading and the interpretation, and the specificity of the collectiv part, done at the time of the diffusion in the public space or the politic part (symbolic) or ideological (imaginary). These research work should account of the esthetic part of the media and therefore, confronting media and literature should explain the concept of information. We have to question the statute of the fiction in the thinking about the esthetic of communication, especially to show what the fiction brings about the communication thinking and the intelligibility of the facts of communication
25

Ghanmi, Nabil. "Segmentation d'images de documents manuscrits composites : application aux documents de chimie." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0109/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de la segmentation structurelle de documents issus de cahiers de chimie. Ce travail est utile pour les chimistes en vue de prendre connaissance des conditions des expériences réalisées. Les documents traités sont manuscrits, hétérogènes et multi-scripteurs. Bien que leur structure physique soit relativement simple, une succession de trois régions représentant : la formule chimique de l’expérience, le tableau des produits utilisés et un ou plusieurs paragraphes textuels décrivant le déroulement de l’expérience, les lignes limitrophes des régions portent souvent à confusion, ajouté à cela des irrégularités dans la disposition des cellules du tableau, rendant le travail de séparation un vrai défi. La méthodologie proposée tient compte de ces difficultés en opérant une segmentation à plusieurs niveaux de granularité, et en traitant la segmentation comme un problème de classification. D’abord, l’image du document est segmentée en structures linéaires à l’aide d’un lissage horizontal approprié. Le seuil horizontal combiné avec une tolérance verticale avantage le regroupement des éléments fragmentés de la formule sans trop fusionner le texte. Ces structures linéaires sont classées en Texte ou Graphique en s’appuyant sur des descripteurs structurels spécifiques, caractéristiques des deux classes. Ensuite, la segmentation est poursuivie sur les lignes textuelles pour séparer les lignes du tableau de celles de la description. Nous avons proposé pour cette classification un modèle CAC qui permet de déterminer la séquence optimale d’étiquettes associées à la séquence des lignes d’un document. Le choix de ce type de modèle a été motivé par sa capacité à absorber la variabilité des lignes et à exploiter les informations contextuelles. Enfin, pour le problème de la segmentation de tableaux en cellules, nous avons proposé une méthode hybride qui fait coopérer deux niveaux d’analyse : structurel et syntaxique. Le premier s’appuie sur la présence des lignes graphiques et de l’alignement de texte et d’espaces ; et le deuxième tend à exploiter la cohérence de la syntaxe très réglementée du contenu des cellules. Nous avons proposé, dans ce cadre, une approche contextuelle pour localiser les champs numériques dans le tableau, avec reconnaissance des chiffres isolés et connectés. La thèse étant effectuée dans le cadre d’une convention CIFRE, en collaboration avec la société eNovalys, nous avons implémenté et testé les différentes étapes du système sur une base conséquente de documents de chimie
This thesis deals with chemistry document segmentation and structure analysis. This work aims to help chemists by providing the information on the experiments which have already been carried out. The documents are handwritten, heterogeneous and multi-writers. Although their physical structure is relatively simple, since it consists of a succession of three regions representing: the chemical formula of the experiment, a table of the used products and one or more text blocks describing the experimental procedure, several difficulties are encountered. In fact, the lines located at the region boundaries and the imperfections of the table layout make the separation task a real challenge. The proposed methodology takes into account these difficulties by performing segmentation at several levels and treating the region separation as a classification problem. First, the document image is segmented into linear structures using an appropriate horizontal smoothing. The horizontal threshold combined with a vertical overlapping tolerance favor the consolidation of fragmented elements of the formula without too merge the text. These linear structures are classified in text or graphic based on discriminant structural features. Then, the segmentation is continued on text lines to separate the rows of the table from the lines of the raw text locks. We proposed for this classification, a CRF model for determining the optimal labelling of the line sequence. The choice of this kind of model has been motivated by its ability to absorb the variability of lines and to exploit contextual information. For the segmentation of table into cells, we proposed a hybrid method that includes two levels of analysis: structural and syntactic. The first relies on the presence of graphic lines and the alignment of both text and spaces. The second tends to exploit the coherence of the cell content syntax. We proposed, in this context, a Recognition-based approach using contextual knowledge to detect the numeric fields present in the table. The thesis was carried out in the framework of CIFRE, in collaboration with the eNovalys campany.We have implemented and tested all the steps of the proposed system on a consequent dataset of chemistry documents
26

Moulin, Christophe. "Modélisation de documents combinant texte et image : application à la catégorisation et à la recherche d'information multimédia." Phd thesis, Université Jean Monnet - Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00630438.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'exploitation des documents multimédias pose des problèmes de représentation des informations textuelles et visuelles contenues dans ces documents. Notre but est de proposer un modèle permettant de représenter chacune de ces informations et de les combiner en vue de deux tâches : la catégorisation et la recherche d'information. Ce modèle représente les documents sous forme de sacs de mots nécessitant la création de vocabulaires spécifiques. Le vocabulaire textuel, généralement de très grande taille, est constitué des mots apparaissant dans les documents. Le vocabulaire visuel est quant à lui construit en extrayant des caractéristiques de bas niveau des images. Nous étudions les différentes étapes de sa création et la pondération tfidf des mots visuels dans les images, inspirée des approches classiquement utilisées pour les mots textuels. Dans le contexte de la catégorisation de documents textuels, nous introduisons un critère qui sélectionne les mots les plus discriminants pour les catégories afin de réduire la taille du vocabulaire sans dégrader les résultats du classement. Nous présentons aussi dans le cadre multilabel, une méthode permettant de sélectionner les différentes catégories à associer à un document. En recherche d'information, nous proposons une approche analytique par apprentissage pour combiner linéairement les résultats issus des informations textuelles et visuelles, permettant d'améliorer significativement la recherche. Notre modèle est validé pour ces différentes tâches en participant à des compétitions internationales telles que XML Mining et ImageCLEF et sur des collections de taille conséquente
27

Moysset, Bastien. "Détection, localisation et typage de texte dans des images de documents hétérogènes par Réseaux de Neurones Profonds." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI044/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Lire automatiquement le texte présent dans les documents permet de rendre accessible les informations qu'ils contiennent. Pour réaliser la transcription de pages complètes, la localisation des lignes de texte est une étape cruciale. Les méthodes traditionnelles de détection de lignes, basées sur des approches de traitement d'images, peinent à généraliser à des jeux de données hétérogènes. Pour cela, nous proposons dans cette thèse une approche par réseaux de neurones profonds. Nous avons d'abord proposé une approche de segmentation mono-dimensionnelle des paragraphes de texte en lignes à l'aide d'une technique inspirée des modèles de reconnaissance, où une classification temporelle connexionniste (CTC) est utilisée pour aligner implicitement les séquences. Ensuite, nous proposons un réseau qui prédit directement les coordonnées des boîtes englobant les lignes de texte. L'ajout d'un terme de confiance à ces boîtes hypothèses permet de localiser un nombre variable d'objets. Nous proposons une prédiction locale des objets afin de partager les paramètres entre les localisations et, ainsi, de multiplier les exemples d'objets vus par chaque prédicteur de boîte lors de l'entraînement. Cela permet de compenser la taille restreinte des jeux de données utilisés. Pour récupérer les informations contextuelles permettant de prendre en compte la structure du document, nous ajoutons, entre les couches convolutionnelles, des couches récurrentes LSTM multi-dimensionnelles. Nous proposons trois stratégies de reconnaissance pleine page qui permettent de tenir compte du besoin important de précision au niveau des positions et nous montrons, sur la base hétérogène Maurdor, la performance de notre approche pour des documents multilingues pouvant être manuscrits et imprimés. Nous nous comparons favorablement à des méthodes issues de l'état de l'art. La visualisation des concepts appris par nos neurones permet de souligner la capacité des couches récurrentes à apporter l'information contextuelle
Being able to automatically read the texts written in documents, both printed and handwritten, makes it possible to access the information they convey. In order to realize full page text transcription, the detection and localization of the text lines is a crucial step. Traditional methods tend to use image processing based approaches, but they hardly generalize to very heterogeneous datasets. In this thesis, we propose to use a deep neural network based approach. We first propose a mono-dimensional segmentation of text paragraphs into lines that uses a technique inspired by the text recognition models. The connexionist temporal classification (CTC) method is used to implicitly align the sequences. Then, we propose a neural network that directly predicts the coordinates of the boxes bounding the text lines. Adding a confidence prediction to these hypothesis boxes enables to locate a varying number of objects. We propose to predict the objects locally in order to share the network parameters between the locations and to increase the number of different objects that each single box predictor sees during training. This compensates the rather small size of the available datasets. In order to recover the contextual information that carries knowledge on the document layout, we add multi-dimensional LSTM recurrent layers between the convolutional layers of our networks. We propose three full page text recognition strategies that tackle the need of high preciseness of the text line position predictions. We show on the heterogeneous Maurdor dataset how our methods perform on documents that can be printed or handwritten, in French, English or Arabic and we favourably compare to other state of the art methods. Visualizing the concepts learned by our neurons enables to underline the ability of the recurrent layers to convey the contextual information
28

Paganelli, Céline. "La recherche d'information dans des bases de documents techniques en texte integral. Etude de l'activite des utilisateurs." Grenoble 3, 1997. http://www.theses.fr/1997GRE39019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail presente est consacre a la recherche d'information en texte integral, et s'interesse plus particulierement a la recherche d'information menee par des utilisateurs experts dans des documents techniques volumineux. Ce travail propose une reflexion sur la conception d'un systeme automatise de recherche d'information dans un document technique, et utilise une demarche qui se fonde sur une etude des besoins et des attentes des utilisateurs. Apres avoir presente un etat de l'art sur la recherche d'information textuelle automatisee, l'auteur montre les specificites de la recherche d'information en texte integral, et notamment le fait que ce type de recherche d'information pose une problematique nouvelle par rapport a la recherche documentaire classique. Des travaux experimentaux de psychologie cognitive permettent d'apprehender les besoins et attentes des utilisateurs en matiere de recherche d'information dans les documents techniques. Parallelement, il est etabli que les systemes existants ne repondent pas completement aux besoins des utilisateurs. L'auteur suggere alors que la prise en compte des caracteristiques linguistiques du texte technique peut permettre d'ameliorer ce type de recherche d'information. Une etude combinant les approches cognitives et linguistiques montre que le texte technique se compose de deux types d'unites textuelles: les unes decrivant ou definissant des objets (type objet) et les autres decrivant des procedures permettant la realisation d'actions (type action), qui, en plus d'etre validees par une experimentation cognitive, presentent des indices linguistiques reperables automatiquement. A partir de l'etude des besoins des utilisateurs et de l'etude des specificites linguistiques du texte technique, l'auteur etablit des propositions pour la conception d'un systeme de recherche d'information dans les documents techniques volumineux
This thesis is about information retrieval (ir) in full-text databases, and it particularly deals with information retrieval by expert users in technical documents. We suggest that the design of an ir system in technical document, should be approached by studying users' needs and expectations. We first present a state of art about ir and about the particularities of information retrieval in full-text. Then, experimental studies are led to approach the expert users' needs and expectations in case of information retrieval in technical documents, and a study of ir systems in full-text technical documents shows that these systems do not completely meet the users'needs. We so suggest that we should take the linguistic particularities of technical texts into account in order to improve ir in full technical documents. A psychological and linguistical study shows that a technical text is composed of two types of textual units. The first one describes and defines objects (object type) and the second one describes how to do an action (action type). These two types are validated by a cognitive study and present linguistical marks which can be automatically recognised. Both the study of users' needs and the study of linguistical characteristics of technical text, allow us to make propositions for the conception of a ir system in technical documents
29

Caro, Dambreville Stéphane. "Rôle des organisateurs paralinguistiques dans la consultation des documents électroniques." Grenoble 3, 1995. https://tel.archives-ouvertes.fr/tel-00451634.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these porte sur le role des organisateurs para-linguistiques dans la conception de textes techniques sur ecran. Les organisateurs plus particulierement etudes sont les parentheses, les notes de bas de page, les typages explicites (tel que <> precedant un passage) ainsi que les <> (pop-up windows). Des methodes de psychologie experimentale ont ete utilisees pour analyser, d'une part, des productions des redacteurs, et d'autre part, l'influence des organisateurs para-linguistiques sur l'activite de lecture (memorisation et recherche d'information). L'idee initiale est qu'il est possible de decouper les textes en unites d'intentions de communication du redacteur (souligner ou minimiser l'importance relative d'une unite par ex. ). Ainsi le texte devient un ensemble d'unites textuelles (ut) qui relevent d'intentions differentes du redacteur. Les intentions peuvent etre codees par differents moyens de mise en forme materielle. Une typologie d'unites textuelles selon les intentions du redacteur est proposee. On montre experimentalement qu'elle a une realite psychologique et qu'une mise en forme materielle du texte basee sur cette typologie a une influence sur la lecture et la consultation.
30

Métayer, Natacha. "Compréhension et stratégies d’exploration des documents pédagogiques illustrés." Thesis, Rennes 2, 2016. http://www.theses.fr/2016REN20001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est aujourd’hui plus aisé de proposer dans un même document d’apprentissage de nombreuses sources d’information présentées sous des formats différents. Si présenter plusieurs médias peut apporter des bénéfices en termes de performances d’apprentissage, traiter efficacement ces différentes sources d’information est une activité complexe. C’est pourquoi, proposer des documents guidant l’apprenant lors de sa consultation peut s’avérer nécessaire afin de favoriser la construction d’un modèle mental de qualité. Les études empiriques menées au cours de cette thèse se sont attachées à déterminer quels formats étaient les plus efficaces tout en augmentant progressivement le guidage au sein du document. Ainsi, ont été testés : la position de l’illustration par rapport au texte, l’effet de la consigne, la segmentation du texte et l’introduction d’un guidage via un contraste figure/fond. De plus, afin d’apporter de nouveaux éléments de réflexion quant à la manière dont les individus explorent un document d’apprentissage et l’impact de ces stratégies sur les performances, les mouvements oculaires des apprenants ont été enregistrés. Les résultats obtenus ont mis en évidence que les modifications du format de présentation des informations avaient un impact sur les stratégies de consultation du document notamment sur l’augmentation des transitions oculaires effectuées entre les textes et les illustrations. Cependant, seule la segmentation du texte sous forme de paragraphes sémantiques a permis d’obtenir des bénéfices en termes de compréhension
It is easier today to offer in one informative document many sources of information presented in different formats. Presenting various media can bring benefits in terms of learning performance, but dealing effectively with these different sources of information is complex. Therefore, offering documents guiding the learner when he is reading may be necessary to promote the construction of a qualitative mental model. Empirical studies that are conducted during this thesis endeavour to determine which formats are most effective while gradually increasing guidance within the document. Thus, four items are tested: the position of the picture relative to the text, the effect of the instructions, the text segmentation and the introduction of a guidance through a figure-ground contrast. Moreover, in order to bring new elements of reflection about how people explore an informative document and the impact of these strategies on performance, the eye movements of the learners were recorded. The results showed that changes in the format of information have an impact on the strategies of consultation of the document, including the increasing eye transitions between texts and illustrations. However, only the segmentation of the text in the form of semantic paragraphs brought benefits in terms of understanding
31

Quint, Vincent. "Une approche de l'édition structurée des documents." Phd thesis, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00010612.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'édition d'un document peut être vue comme la manipulation d'une structure abstraite qui représente
l'organisation logique des composants du document. A partir de ce principe, on propose un méta-modèle
qui permet la description des structures logiques de toutes sortes de documents et de différents types
d'objets fréquents dans les documents : formules mathématiques, tableaux, schémas, etc... on associe aux
structures logiques des règles de présentation qui déterminent l'aspect graphique de leurs composants.
On montre l'intérêt de cette approche en présentant deux systèmes interactifs construits sur ce modèle :
l'éditeur de formules mathématiques Edimath et l'éditeur de documents Grif. La présentation de ces systèmes
s'appuie sur un état de l'art de la typographie informatique.
32

Soua, Mahmoud. "Extraction hybride et description structurelle de caractères pour une reconnaissance efficace de texte dans les documents hétérogènes scannés : Méthodes et Algorithmes parallèles." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1069/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Reconnaissance Optique de Caractères (OCR) est un processus qui convertit les images textuelles en documents textes éditables. De nos jours, ces systèmes sont largement utilisés dans les applications de dématérialisation tels que le tri de courriers, la gestion de factures, etc. Dans ce cadre, l'objectif de cette thèse est de proposer un système OCR qui assure un meilleur compromis entre le taux de reconnaissance et la vitesse de traitement ce qui permet de faire une dématérialisation de documents fiable et temps réel. Pour assurer sa reconnaissance, le texte est d'abord extrait à partir de l'arrière-plan. Ensuite, il est segmenté en caractères disjoints qui seront décrits ultérieurement en se basant sur leurs caractéristiques structurelles. Finalement, les caractères sont reconnus suite à la mise en correspondance de leurs descripteurs avec ceux d'une base prédéfinie. L'extraction du texte, reste difficile dans les documents hétérogènes scannés avec un arrière-plan complexe et bruité où le texte risque d'être confondu avec un fond texturé/varié en couleurs ou distordu à cause du bruit de la numérisation. D'autre part, la description des caractères, extraits et segmentés, se montre souvent complexe (calcul de transformations géométriques, utilisation d'un grand nombre de caractéristiques) ou peu discriminante si les caractéristiques des caractères choisies sont sensibles à la variation de l'échelle, de la fonte, de style, etc. Pour ceci, nous adaptons la binarisation au type de documents hétérogènes scannés. Nous assurons également une description hautement discriminante entre les caractères se basant sur l'étude de la structure des caractères selon leurs projections horizontale et verticale dans l'espace. Pour assurer un traitement temps réel, nous parallélisons les algorithmes développés sur la plateforme du processeur graphique (GPU). Nos principales contributions dans notre système OCR proposé sont comme suit :Une nouvelle méthode d'extraction de texte à partir des documents hétérogènes scannés incluant des régions de texte avec un fond complexe ou homogène. Dans cette méthode, un processus d'analyse d’image est employé suivi d’une classification des régions du document en régions d’images (texte avec un fond complexe) et de textes (texte avec un fond homogène). Pour les régions de texte on extrait l'information textuelle en utilisant une méthode de classification hybride basée sur l'algorithme Kmeans (CHK) que nous avons développé. Les régions d'images sont améliorées avec une Correction Gamma (CG) avant d'appliquer CHK. Les résultats obtenus d'expérimentations, montrent que notre méthode d'extraction de texte permet d'attendre un taux de reconnaissance de caractères de 98,5% sur des documents hétérogènes scannés.Un Descripteur de Caractère Unifié basé sur l'étude de la structure des caractères. Il emploie un nombre suffisant de caractéristiques issues de l'unification des descripteurs de la projection horizontale et verticale des caractères réalisantune discrimination plus efficace. L'avantage de ce descripteur est à la fois sa haute performance et sa simplicité en termes de calcul. Il supporte la reconnaissance des reconnaissance de caractère de 100% pour une fonte et une taille données.Une parallélisation du système de reconnaissance de caractères. Le processeur graphique GPU a été employé comme une plateforme de parallélisation. Flexible et puissante, cette architecture offre une solution efficace pour l'accélération des algorithmesde traitement intensif d'images. Notre mise en oeuvre, combine les stratégies de parallélisation à fins et gros grains pour accélérer les étapes de la chaine OCR. En outre, les coûts de communication CPU-GPU sont évités et une bonne gestion mémoire est assurée. L'efficacité de notre mise en oeuvre est validée par une expérimentation approfondie
The Optical Character Recognition (OCR) is a process that converts text images into editable text documents. Today, these systems are widely used in the dematerialization applications such as mail sorting, bill management, etc. In this context, the aim of this thesis is to propose an OCR system that provides a better compromise between recognition rate and processing speed which allows to give a reliable and a real time documents dematerialization. To ensure its recognition, the text is firstly extracted from the background. Then, it is segmented into disjoint characters that are described based on their structural characteristics. Finally, the characters are recognized when comparing their descriptors with a predefined ones.The text extraction, based on binarization methods remains difficult in heterogeneous and scanned documents with a complex and noisy background where the text may be confused with a textured background or because of the noise. On the other hand, the description of characters, and the extraction of segments, are often complex using calculation of geometricaltransformations, polygon, including a large number of characteristics or gives low discrimination if the characteristics of the selected type are sensitive to variation of scale, style, etc. For this, we adapt our algorithms to the type of heterogeneous and scanned documents. We also provide a high discriminatiobn between characters that descriptionis based on the study of the structure of the characters according to their horizontal and vertical projections. To ensure real-time processing, we parallelise algorithms developed on the graphics processor (GPU). Our main contributions in our proposed OCR system are as follows:A new binarisation method for heterogeneous and scanned documents including text regions with complex or homogeneous background. In this method, an image analysis process is used followed by a classification of the document areas into images (text with a complex background) and text (text with a homogeneous background). For text regions is performed text extraction using a hybrid method based on classification algorithm Kmeans (CHK) that we have developed for this aim. This method combines local and global approaches. It improves the quality of separation text/background, while minimizing the amount of distortion for text extraction from the scanned document and noisy because of the process of digitization. The image areas are improved with Gamma Correction (CG) before applying HBK. According to our experiment, our text extraction method gives 98% of character recognition rate on heterogeneous scanned documents.A Unified Character Descriptor based on the study of the character structure. It employs a sufficient number of characteristics resulting from the unification of the descriptors of the horizontal and vertical projection of the characters for efficient discrimination. The advantage of this descriptor is both on its high performance and its simple computation. It supports the recognition of alphanumeric and multiscale characters. The proposed descriptor provides a character recognition 100% for a given Face-type and Font-size.Parallelization of the proposed character recognition system. The GPU graphics processor has been used as a platform of parallelization. Flexible and powerful, this architecture provides an effective solution for accelerating intensive image processing algorithms. Our implementation, combines coarse/fine-grained parallelization strategies to speed up the steps of the OCR chain. In addition, the CPU-GPU communication overheads are avoided and a good memory management is assured. The effectiveness of our implementation is validated through extensive experiments
33

Pekdağ, Bülent. "Influence des relations entre le texte et l'image d'un film de chimie sur l'activité cognitive d'un apprenant." Lyon 2, 2005. http://theses.univ-lyon2.fr/documents/lyon2/2005/pekdag_b.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail s'intéresse à la construction de films de chimie à visée didactique, et à leur utilisation par les élèves dans le cadre de l'enseignement des acides et de bases en classe de Première S. Le cadre théorique de l'analyse de l'activité cognitive de l'élève est celui de la théorie de l'action, et celui de la construction des films adapte à la chimie les notions de registres sémiotiques utilisés pour représenter des connaissances. Ces dernières, quand elles sont spécifiques à la chimie, ont été catégorisées en perceptibles ou reconstruites. La collecte des données de recherche a requis le développement d'un hypermédia pour articuler une banque de films créés pour l'occasion. Elle s'est déroulée en demandant à des élèves d'utiliser les films pour répondre à une série de questions préparées à l'avance. L'influence de la relation entre le texte et l'image des films sur l'activité des élèves a ainsi pu être déterminée. Plusieurs facteurs responsables du choix d'un film par les élèves ont été identifiés : les traits de surface, la reformulation d'une question posée, la production d'une nouvelle question pour comprendre une information donnée dans un film, la non-mémorisation de certaines informations vues dans les films. Cette dernière semble liée à la catégorie des connaissances mises en jeu dans le film, et aux effets de charge cognitive et de double codage. Les informations présentes dans le texte du film, mais non montrées à l'écran, étaient par exemple plus difficilement mémorisées, ce qui montre l'importance de la combinaison texte-image. Lors de la mémorisation la supériorité de l'image sur le texte a été observée. Les connaissances présentées avec les représentations iconiques et celles présentées avec les niveaux perceptibles étaient mieux réutilisées par les élèves. L'impact de la relation entre l'image et le texte d'un film sur l'activité cognitive d'un apprenant a également été analysé d'un point de vue didactique. Deux types de films ont été comparés, les films P pour lesquels le texte décrit surtout les aspects perceptibles de l'image, et les films R pour lesquels le texte se place à un niveau d'interprétation de l'image. Les films R sont généralement plus et mieux utilisés que les films P correspondant. Il apparaît que ces derniers conduisent à une plus grande utilisation des images et que les films R conduisent à une plus grande utilisation du vocabulaire spécifique de la chimie. Copier et coller des informations des films P et R, que ce soit au niveau de l'image ou du texte, s'est révélé être le mode d'utilisation le plus abondant
This work deals with the construction of chemical movies and their use by students. The movies are related to acids and bases at the upper secondary school level. The theoretical framework of this research involves the action theory for the analysis of students' cognitive activity. As movies are concerned, the framework is adapted from a semiotic point of view. Chemical knowledge is categorised with the two world model involving perceptible and reconstructed levels. Research data were collected while students were using movies imbedded in a hypermedia. Movies had been created for the purpose of this work. The influence of the relation between text and picture over the activity of students has therefore been determined. Several factors have been found responsible for the choice of a movie by students: surface features, reformulations of a question, productions of new questions to understand information provided by a movie, non-remembering of specific information seen in movies. The latter seems in relation to the category of knowledge that is involved in the movie but not visible on the screen. We have also found the influence of cognitive load and double coding. Memorisation of information imbedded in the text of the film, but not displayed on the screen, is low. Information is best remembered when it comes from pictures than from text. Iconic representation helps students to reuse the knowledge. The effect of the text - picture relation over a learner's cognitive activity has also been analysed from a didactic point of view. Two kinds of movies have been compared, the P's, the text of which mainly describes the perceptible aspect of the picture and the R's, where the text interprets and reconstructs the picture. The R's are generally more and better used than the corresponding P's. The pictures of the latter are more used and the R's lead to a larger use of the specific vocabulary of chemistry. The copy - paste process is the most occurring way of using the P's and the R's text and picture
34

Max, Aurélien. "De la création de documents normalisés à la normalisation de documents en domaine contraint." Grenoble 1, 2003. http://www.theses.fr/2003GRE10227.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les documents en domaine contraint doivent répondre à de nombreuses conditions de bonne formation qui sont souvent difficiles à appliquer. Un courant de recherche actif s’intéresse à la création de documents normalisés par spécification du contenu sémantique, facilitant ainsi de nombreuses applications de ces documents, dont la production multilingue. Néanmoins, les systèmes actuels ne permettent pas l’analyse d’un document existant afin de le normaliser. Dans ce contexte, nous proposons une approche réutilisant les ressources de tels systèmes pour recréer le contenu sémantique d’un document, à partir duquel sa forme textuelle normalisée est ensuite générée. Cette approche s’articule autour de deux paradigmes centraux : la génération inversée floue, qui permet de trouver heuristiquement des représentations sémantiques candidates, et la négociation interactive, qui permet à un expert du domaine de valider progressivement la représentation sémantique correspondant au document originel
Well-formedness conditions on documents in constrained domains are often hard to apply. An active research trend approaches the authoring of normalized documents through semantic specification, thereby facilitating such applications as multilingual production. However, the current systems are not able to analyse an existing document in order to normalize it. We therefore propose an approach that reuses the resources of such systems to recreate the semantic content of a document, from which a normalized textual version can be generated. This approach is based on two main paradigms : fuzzy inverted generation, which heuristically finds candidate semantic representations, and interactive negotiation, which allows an expert of the domain to progressively validate the semantic representation that corresponds to the original document
35

Goffin, Pascal. "An Exploration of Word-Scale Visualizations for Text Documents." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS256/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ma dissertation explore comment l'intégration de petites visualisations contextuelles basées sur des données peut complémenter des documents écrits. Plus spécifiquement, j'identifie et je définis des aspects importants et des directions de recherches pertinentes pour l'intégration de petites visualisations contextuelles basées sur des données textuelles. Cette intégration devra finalement devenir aussi fluide qu'écrire et aussi utile que lire un texte. Je définis les visualisations-mots (Word-Scale Visualizations) comme étant de petites visualisations contextuelles basées sur des données intégrées au texte de documents. Ces visualisations peuvent utiliser de multiples codages visuels incluant les cartes géographiques, les heatmaps, les graphes circulaires, et des visualisations plus complexes. Les visualisations-mots offrent une grande variété de dimensions toujours proches de l’échelle d’un mot, parfois plus grandes, mais toujours plus petites qu’une phrase ou un paragraphe. Les visualisations-mots peuvent venir en aide et être utilisées dans plusieurs formes de discours écrits tels les manuels, les notes, les billets de blogs, les rapports, les histoires, ou même les poèmes. En tant que complément visuel de textes, les visualisations-mots peuvent être utilisées pour accentuer certains éléments d'un document (comme un mot ou une phrase), ou pour apporter de l'information additionnelle. Par exemple, un petit diagramme de l'évolution du cours de l’action d’une entreprise peut être intégré à côté du nom de celle-ci pour apporter de l'information additionnelle sur la tendance passée du cours de l'action. Dans un autre exemple, des statistiques de jeux peuvent être incluses à côté du nom d'équipe de football ou de joueur dans les articles concernant le championnat d'Europe de football. Ces visualisations-mots peuvent notamment aider le lecteur à faire des comparaisons entre le nombre de passes des équipes et des joueurs. Le bénéfice majeur des visualisations-mots réside dans le fait que le lecteur peut rester concentré sur le texte, vu que les visualisations sont dans le texte et non à côté.Dans ma thèse j’apporte les contributions suivantes : j'explore pourquoi les visualisation-mots peuvent être utiles et comment promouvoir leur création. J’étudie différentes options de placement pour les visualisations-mots et je quantifie leurs effets sur la disposition du texte et sa mise en forme. Comme les visualisations-mots ont aussi des implications sur le comportement de lecture du lecteur, je propose une première étude qui étudie les différents placements de visualisations-mots sur le comportement de lecture. J'examine aussi comment combiner les visualisations-mots et l'interaction pour soutenir une lecture plus active en proposant des méthodes de collection, d’arrangement et de comparaison de visualisations-mots. Finalement, je propose des considérations de design pour la conception et la création de visualisations-mots et je conclus avec des exemples d'application.En résumé cette dissertation contribue à la compréhension de petites visualisations contextuelles basées sur des données intégrées dans le texte et à leur utilité pour la visualisation d'informations
This dissertation explores how embedding small data-driven contextual visualizations can complement text documents. More specifically, I identify and define important aspects and relevant research directions for the integration of small data-driven contextual visualizations into text. This integration should eventually become as fluid as writing and as usable as reading a text. I define word-scale visualisations as small data-driven contextual visualizations embedded in text documents. These visualizations can use various visual encodings including geographical maps, heat maps, pie charts, and more complex visualizations. They can appear at a range of word scales, including sizes larger than a letter, but smaller than a sentence or paragraph. Word-scale visualisations can help support and be used in many forms of written discourse such as text books, notes, blog posts, reports, stories, or poems. As graphical supplements to text, word-scale visualisations can be used to emphasize certain elements of a document (e.g. a word or a sentence), or to provide additional information. For example, a small stock chart can be embedded next to the name of a company to provide additional information about the past trends of its stocks. In another example, game statistics can be embedded next to the names of soccer teams or players in daily reports from the UEFA European Championship. These word-scale visualisations can then for example allow readers to make comparison between number of passes of teams and players. The main benefit of word-scale visualisations is that the reader can remain focused on the text as the visualization are within the text rather than alongside it.In the thesis, I make the following main contributions: I explore why word-scale visualisations can be useful and how to support their creation. I investigate placement options to embed word-scale visualisations and quantify their effects on the layout and flow of the text. As word-scale visualisations also have implications on the reader's reading behavior I propose a first study that investigates different word-scale visualisation positions on the reading behavior. I also explore how word-scale visualisations can be combined with interaction to support a more active reading by proposing interaction methods to collect, arrange and compare word-scale visualisations. Finally, I propose design considerations for the authoring of word-scale visualisations and conclude with application examples.In summary, this dissertation contributes to the understanding of small data-driven contextual visualizations embedded into text and their value for Information Visualization
36

Bossard, Aurélien. "Contribution au résumé automatique multi-documents." Phd thesis, Université Paris-Nord - Paris XIII, 2010. http://tel.archives-ouvertes.fr/tel-00573567.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Que ce soit pour des professionnels qui doivent prendre connaissance du contenu de documents en un temps limité ou pour un particulier désireux de se renseigner sur un sujet donné sans disposer du temps nécessaire pour lire l'intégralité des textes qui en traitent, le résumé est une aide contextuelle importante. Avec l'augmentation de la masse documentaire disponible électroniquement, résumer des textes automatiquement est devenu un axe de recherche important dans le domaine du traitement automatique de la langue. La présente thèse propose une méthode de résumé automatique multi-documents fondée sur une classification des phrases à résumer en classes sémantiques. Cette classification nous permet d'identifier les phrases qui présentent des éléments d'informations similaires, et ainsi de supprimer efficacement toute redondance du résumé généré. Cette méthode a été évaluée sur la tâche "résumé d'opinions issues de blogs" de la campagne d'évaluation TAC 2008 et la tâche "résumé incrémental de dépêches" des campagnes TAC 2008 et TAC 2009. Les résultats obtenus sont satisfaisants, classant notre méthode dans le premier quart des participants. Nous avons également proposé d'intégrer la structure des dépêches à notre système de résumé automatique afin d'améliorer la qualité des résumés qu'il génère. Pour finir, notre méthode de résumé a fait l'objet d'une intégration à un système applicatif visant à aider un possesseur de corpus à visualiser les axes essentiels et à en retirer automatiquement les informations importantes.
37

Keskes, Iskandar. "Discourse analysis of arabic documents and application to automatic summarization." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30023/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un discours, les textes et les conversations ne sont pas seulement une juxtaposition de mots et de phrases. Ils sont plutôt organisés en une structure dans laquelle des unités de discours sont liées les unes aux autres de manière à assurer à la fois la cohérence et la cohésion du discours. La structure du discours a montré son utilité dans de nombreuses applications TALN, y compris la traduction automatique, la génération de texte et le résumé automatique. L'utilité du discours dans les applications TALN dépend principalement de la disponibilité d'un analyseur de discours performant. Pour aider à construire ces analyseurs et à améliorer leurs performances, plusieurs ressources ont été annotées manuellement par des informations de discours dans des différents cadres théoriques. La plupart des ressources disponibles sont en anglais. Récemment, plusieurs efforts ont été entrepris pour développer des ressources discursives pour d'autres langues telles que le chinois, l'allemand, le turc, l'espagnol et le hindi. Néanmoins, l'analyse de discours en arabe standard moderne (MSA) a reçu moins d'attention malgré le fait que MSA est une langue de plus de 422 millions de locuteurs dans 22 pays. Le sujet de thèse s'intègre dans le cadre du traitement automatique de la langue arabe, plus particulièrement, l'analyse de discours de textes arabes. Cette thèse a pour but d'étudier l'apport de l'analyse sémantique et discursive pour la génération de résumé automatique de documents en langue arabe. Pour atteindre cet objectif, nous proposons d'étudier la théorie de la représentation discursive segmentée (SDRT) qui propose un cadre logique pour la représentation sémantique de phrases ainsi qu'une représentation graphique de la structure du texte où les relations de discours sont de nature sémantique plutôt qu'intentionnelle. Cette théorie a été étudiée pour l'anglais, le français et l'allemand mais jamais pour la langue arabe. Notre objectif est alors d'adapter la SDRT à la spécificité de la langue arabe afin d'analyser sémantiquement un texte pour générer un résumé automatique. Nos principales contributions sont les suivantes : Une étude de la faisabilité de la construction d'une structure de discours récursive et complète de textes arabes. En particulier, nous proposons : Un schéma d'annotation qui couvre la totalité d'un texte arabe, dans lequel chaque constituant est lié à d'autres constituants. Un document est alors représenté par un graphe acyclique orienté qui capture les relations explicites et les relations implicites ainsi que des phénomènes de discours complexes, tels que l'attachement, la longue distance du discours pop-ups et les dépendances croisées. Une nouvelle hiérarchie des relations de discours. Nous étudions les relations rhétoriques d'un point de vue sémantique en se concentrant sur leurs effets sémantiques et non pas sur la façon dont elles sont déclenchées par des connecteurs de discours, qui sont souvent ambigües en arabe. o une analyse quantitative (en termes de connecteurs de discours, de fréquences de relations, de proportion de relations implicites, etc.) et une analyse qualitative (accord inter-annotateurs et analyse des erreurs) de la campagne d'annotation. Un outil d'analyse de discours où nous étudions à la fois la segmentation automatique de textes arabes en unités de discours minimales et l'identification automatique des relations explicites et implicites du discours. L'utilisation de notre outil pour résumer des textes arabes. Nous comparons la représentation de discours en graphes et en arbres pour la production de résumés
Within a discourse, texts and conversations are not just a juxtaposition of words and sentences. They are rather organized in a structure in which discourse units are related to each other so as to ensure both discourse coherence and cohesion. Discourse structure has shown to be useful in many NLP applications including machine translation, natural language generation and language technology in general. The usefulness of discourse in NLP applications mainly depends on the availability of powerful discourse parsers. To build such parsers and improve their performances, several resources have been manually annotated with discourse information within different theoretical frameworks. Most available resources are in English. Recently, several efforts have been undertaken to develop manually annotated discourse information for other languages such as Chinese, German, Turkish, Spanish and Hindi. Surprisingly, discourse processing in Modern Standard Arabic (MSA) has received less attention despite the fact that MSA is a language with more than 422 million speakers in 22 countries. Computational processing of Arabic language has received a great attention in the literature for over twenty years. Several resources and tools have been built to deal with Arabic non concatenative morphology and Arabic syntax going from shallow to deep parsing. However, the field is still very vacant at the layer of discourse. As far as we know, the sole effort towards Arabic discourse processing was done in the Leeds Arabic Discourse Treebank that extends the Penn Discourse TreeBank model to MSA. In this thesis, we propose to go beyond the annotation of explicit relations that link adjacent units, by completely specifying the semantic scope of each discourse relation, making transparent an interpretation of the text that takes into account the semantic effects of discourse relations. In particular, we propose the first effort towards a semantically driven approach of Arabic texts following the Segmented Discourse Representation Theory (SDRT). Our main contributions are: A study of the feasibility of building a recursive and complete discourse structures of Arabic texts. In particular, we propose: An annotation scheme for the full discourse coverage of Arabic texts, in which each constituent is linked to other constituents. A document is then represented by an oriented acyclic graph, which captures explicit and implicit relations as well as complex discourse phenomena, such as long-distance attachments, long-distance discourse pop-ups and crossed dependencies. A novel discourse relation hierarchy. We study the rhetorical relations from a semantic point of view by focusing on their effect on meaning and not on how they are lexically triggered by discourse connectives that are often ambiguous, especially in Arabic. A thorough quantitative analysis (in terms of discourse connectives, relation frequencies, proportion of implicit relations, etc.) and qualitative analysis (inter-annotator agreements and error analysis) of the annotation campaign. An automatic discourse parser where we investigate both automatic segmentation of Arabic texts into elementary discourse units and automatic identification of explicit and implicit Arabic discourse relations. An application of our discourse parser to Arabic text summarization. We compare tree-based vs. graph-based discourse representations for producing indicative summaries and show that the full discourse coverage of a document is definitively a plus
38

Galani, Maria Elefthéria. "Entre l'analyse psychologique et l'analyse littéraire, la recherche du "noyau dur" du texte théâtral : un exemple : la dramaturgie de Jean Giraudoux." Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/galani_me.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a l'intention de proposer une nouvelle analyse d'un texte dramatique et de prévoir sa représentation éventuelle. Notre but est la recherche du "noyau dur" du texte, entre l'analyse littéraire et l'analyse psychologique. Cela signifie que nous essayons de découvrir l'axe principal de l'oeuvre, "l'ossature du spectacle". Bien entendu, nous n'avons pas l'intention de limiter l'ouverture et la polysémie de l'oeuvre. En outre, les stimulants du metteur en scène ne sont pas rejetés ; tout au contraire, nous nous efforcerons de l'aider à démarrer d'une base plus solide, d'avoir un point de repère qui servira comme piste de réflexion. Pour cette tâche difficile, nous avons choisi d'utiliser comme modèle l'oeuvre dramatique de Jean Giraudoux. La lecture que nous proposons combine deux méthodes d'approche différentes. D'abord, on réalise la lecture tabulaire selon les indications scéniques du texte : les pièces se définissent par la présence scénique des héros, la quantité de leur texte ainsi que les rapports dramatiques, les rapports des personnages en conflit. Après, on passe à une analyse stylistique en construisant un corpus des métaphores les plus significatives des pièces giralduciennes, organisées par thème, par personnage et par domaine. Enfin, on tente de donner pour chaque personnage des pièces l'image qui le définit et ensuite, on dégage le personnage-clé de chaque pièce selon ses indications scéniques de même que sa métaphore caractéristique
The present thesis intends to propose a new analysis of a dramatic text and to predict a possible representation. Our purpose consists in searching for the "hard core" of the text, between the literary analysis and the psychological analysis. The means that we try to discover the principal pivot of the play-text. Naturally, we do have the intention of limiting the comprehensive possibilities of the play. Futhermore, the stimuli of the director are not rejected ; in contrast, we make an effort to help him to start from a more solid base, to have some references which could be used as a reflexion track. We chose to use as a model the dramatic works of Jean Giraudoux. The interpretation proposed combines two different approaching methods. Firstly, we realise an analysis based on the stage directions in the form of tables : the plays are defined through the stage presence of the heros, the quantity of their text, the dramatic relations and the conflicting relations among the "dramatis personae". Secondly, we apply a stylistic analysis by constructing a corpus of the most fruit ful metaphors in the plays of Jean Giraudoux, organised into motives characters and fields. Finally, we provide every character of the plays with the metaphor which is identified with it and then, we attempt to reveal the key-character of every play following its stage directions as well as its most significant metaphor
39

Cheriat, Ahmed. "Une Méthode de correction de la structure de documents XML dans le cadre d'une validation incrémentale." Tours, 2006. http://www.theses.fr/2006TOUR4022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
XML s'est imposé comme format d'échange de données. Dans ce cadre, les données sont structurées selon un schéma et un validateur permet de vérifier qu'un document XML respecte le schéma qui lui est associé, c'est à dire que sa structure suit les règles du schéma (la structure d'un document XML est un arbre). Si ce document est mis à jour, une validation incrémentale doit être réalisée, qui consiste à vérifier si la structure du nouveau document est toujours conforme aux règles du schéma, en considérant uniquement les parties qui sont concernées par les mises à jour (ceci pour réduire le coût, par rapport à une validation du document entier). Cette thèse présente une méthode générale de validation incrémentale, qui de plus, au lieu de refuser les mises à jour qui rendent un document invalide, propose des corrections pour celui-ci. La correction en l'occurence consiste à transformer le résultat invalide des mises à jour en un document valide. Dans un premier temps, nous nous intéressons à un problème simplifié, qui consiste à corriger un mot par rapport à un autre mot (le mot initial valide) et à un langage. En effet, la correction d'un document XML dont la structure est simplement une racine et ses fils correspond à la correction d'un mot (composé des fils de la racine). Par rapport à une grammaire (la contrainte du schéma associé à l'étiquette de la racine). Dans un second temps, nous avons étendue cette idée à la correction d'un arbre XML (la structure d'un document) par rapport à un langage d'arbres (le schéma associé du document). Cette correction est réalisée en appliquant le minimum de modifications possibles (insérer, supprimer ou renommer des éléments) pour obtenir un arbre valide à partir d'un arbre invalide. Les algorithmes présentés dans cette thèse ont été implantés (en Java) et des résultats expérimentaux sont rapportés
XML becomes the main tool used to exchange data on the web. In this context, XML document should respect schema constraints that describe the structural form of XML documents. The validation of an XML document wrt a schema constraints consists in testing whether the document verifies the set of structural specifications described by this schema. Supposing that updates are applied to the document, an incremental validator is the one that verifies whether the updated document complies with the schema, by validating only the parts of the document involved in the updates (to reduce the cost of a validation from scratch of the whole XML document). In this thesis we associate the validation process with correctoin proposals. During the execution of our validation method, if a constraint violation is found, a correction routine is called in order to propose local solutions capable of allowing the validation process to continue. Firstly, we are interested in a special case of this problem, which consists in correcting a word wrt another word (the initial valid word) and wrt a regular language. Indeed, the correction of an XML document having only a root and its sons corresponds to the correction of a word (composed by the children of the root) wrt a regular language (the constraint associated tothe root). In a second time, we extended this idea to the correction of XML tree (the structure of documents) wrt tree languages (the schema associated to an XML document). This correction is done by applying the minimum of modifications (by insertion, deletion or by replacement of some elements) on an invalid XML document in order to obtain a valid XML document. The algorithms presented in this thesis were implemented (in Java) and the experimental result are shown
40

Tarafdar, Arundhati. "Wordspotting from multilingual and stylistic documents." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les outils et méthodes d’analyse d’images de documents (DIA) donnent aujourd’hui la possibilité de faire des recherches par mots-clés dans des bases d’images de documents alors même qu’aucune transcription n’est disponible. Dans ce contexte, beaucoup de travaux ont déjà été réalisés sur les OCR ainsi que sur des systèmes de repérage de mots (spotting) dédiés à des documents textuels avec une mise en page simple. En revanche, très peu d’approches ont été étudiées pour faire de la recherche dans des documents contenant du texte multi-orienté et multi-échelle, comme dans les documents graphiques. Par exemple, les images de cartes géographiques peuvent contenir des symboles, des graphiques et du texte ayant des orientations et des tailles différentes. Dans ces documents, les caractères peuvent aussi être connectés entre eux ou bien à des éléments graphiques. Par conséquent, le repérage de mots dans ces documents se révèle être une tâche difficile. Dans cette thèse nous proposons un ensemble d’outils et méthodes dédiés au repérage de mots écrits en caractères bengali ou anglais (script Roman) dans des images de documents géographiques. L’approche proposée repose sur plusieurs originalités
Word spotting in graphical documents is a very challenging task. To address such scenarios this thesis deals with developing a word spotting system dedicated to geographical documents with Bangla and English (Roman) scripts. In the proposed system, at first, text-graphics layers are separated using filtering, clustering and self-reinforcement through classifier. Additionally, instead of using binary decision we have used probabilistic measurement to represent the text components. Subsequently, in the text layer, character segmentation approach is applied using water-reservoir based method to extract individual character from the document. Then recognition of these isolated characters is done using rotation invariant feature, coupled with SVM classifier. Well recognized characters are then grouped based on their sizes. Initial spotting is started to find a query word among those groups of characters. In case if the system could spot a word partially due to any noise, SIFT is applied to identify missing portion of that partial spotting. Experimental results on Roman and Bangla scripts document images show that the method is feasible to spot a location in text labeled graphical documents. Experiments are done on an annotated dataset which was developed for this work. We have made this annotated dataset available publicly for other researchers
41

Trupin, Eric. "Segmentation de documents : Application a un systeme de lecture pour non-voyants." Rouen, 1993. http://www.theses.fr/1993ROUES009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans ce mémoire abordent les différentes étapes nécessaires à la lecture d'un texte dactylographié pour un non-voyant. Ces travaux s'appuient sur la conception existante et commercialisée d'un dispositif électronique de lecture de texte pour aveugles: l'appareil Delta. Le fonctionnement de celui-ci est détaillé et les diverses améliorations apportées à cet appareil sont présentées. Ce document discute ensuite d'une nouvelle génération de cet appareil équipé d'un scanner à main. Aussi une technique de segmentation d'images en blocs est mise au point, conjointement à une procédure de discrimination texte/graphique, permettant d'écrire l'image sous forme de blocs de texte. Les blocs sont détectés grâce à un balayage périodique appelé suivi de sondes, puis extraits grâce à un suivi de contour modifié qui utilise une matrice d'observation. Une procédure d'analyse des objets connexes contenus dans chaque bloc permet de distinguer le texte du graphique suivant cinq critères de discrimination et remet en cause la segmentation du bloc effectuée si des objets graphiques sont contenus dans le bloc. Ces techniques sont évaluées dans ce mémoire. Une organisation de ces blocs, appelé ordre logique, permet ensuite de les enchaîner grâce à l'intervention de l'utilisateur qui valide chaque bloc proposé. Certains séparateurs graphiques détectés dans l'image sont alors pris en compte pour améliorer l'ordre détecté et limiter le nombre de rejets par l'utilisateur des blocs proposés
42

Pitou, Cynthia. "Extraction d'informations textuelles au sein de documents numérisés : cas des factures." Thesis, La Réunion, 2017. http://www.theses.fr/2017LARE0015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement automatique de documents consiste en la transformation dans un format compréhensible par un système informatique de données présentes au sein de documents et compréhensibles par l'Homme. L'analyse de document et la compréhension de documents sont les deux phases du processus de traitement automatique de documents. Étant donnée une image de document constituée de mots, de lignes et d'objets graphiques tels que des logos, l'analyse de documents consiste à extraire et isoler les mots, les lignes et les objets, puis à les regrouper au sein de blocs. Les différents blocs ainsi formés constituent la structure géométrique du document. La compréhension de documents fait correspondre à cette structure géométrique une structure logique en considérant des liaisons logiques (à gauche, à droite, au-dessus, en-dessous) entre les objets du document. Un système de traitement de documents doit être capable de : (i) localiser une information textuelle, (ii) identifier si cette information est pertinente par rapport aux autres informations contenues dans le document, (iii) extraire cette information dans un format compréhensible par un programme informatique. Pour la réalisation d'un tel système, les difficultés à surmonter sont liées à la variabilité des caractéristiques de documents, telles que le type (facture, formulaire, devis, rapport, etc.), la mise en page (police, style, agencement), la langue, la typographie et la qualité de numérisation du document. Dans ce mémoire, nous considérons en particulier des documents numérisés, également connus sous le nom d'images de documents. Plus précisément, nous nous intéressons à la localisation d'informations textuelles au sein d'images de factures, afin de les extraire à l'aide d'un moteur de reconnaissance de caractères. Les factures sont des documents très utilisés mais non standards. En effet, elles contiennent des informations obligatoires (le numéro de facture, le numéro siret de l'émetteur, les montants, etc.) qui, selon l'émetteur, peuvent être localisées à des endroits différents. Les contributions présentées dans ce mémoire s'inscrivent dans le cadre de la localisation et de l'extraction d'informations textuelles fondées sur des régions identifiées au sein d'une image de document.Tout d'abord, nous présentons une approche de décomposition d'une image de documents en sous-régions fondée sur la décomposition quadtree. Le principe de cette approche est de décomposer une image de documents en quatre sous-régions, de manière récursive, jusqu'à ce qu'une information textuelle d'intérêt soit extraite à l'aide d'un moteur de reconnaissance de caractères. La méthode fondée sur cette approche, que nous proposons, permet de déterminer efficacement les régions contenant une information d'intérêt à extraire.Dans une autre approche, incrémentale et plus flexible, nous proposons un système d'extraction d'informations textuelles qui consiste en un ensemble de régions prototypes et de chemins pour parcourir ces régions prototypes. Le cycle de vie de ce système comprend cinq étapes:- Construction d'un jeu de données synthétiques à partir d'images de factures réelles contenant les informations d'intérêts.- Partitionnement des données produites.- Détermination des régions prototypes à partir de la partition obtenue.- Détermination des chemins pour parcourir les régions prototypes, à partir du treillis de concepts d'un contexte formel convenablement construit.- Mise à jour du système de manière incrémentale suite à l'insertion de nouvelles données
Document processing is the transformation of a human understandable data in a computer system understandable format. Document analysis and understanding are the two phases of document processing. Considering a document containing lines, words and graphical objects such as logos, the analysis of such a document consists in extracting and isolating the words, lines and objects and then grouping them into blocks. The subsystem of document understanding builds relationships (to the right, left, above, below) between the blocks. A document processing system must be able to: locate textual information, identify if that information is relevant comparatively to other information contained in the document, extract that information in a computer system understandable format. For the realization of such a system, major difficulties arise from the variability of the documents characteristics, such as: the type (invoice, form, quotation, report, etc.), the layout (font, style, disposition), the language, the typography and the quality of scanning.This work is concerned with scanned documents, also known as document images. We are particularly interested in locating textual information in invoice images. Invoices are largely used and well regulated documents, but not unified. They contain mandatory information (invoice number, unique identifier of the issuing company, VAT amount, net amount, etc.) which, depending on the issuer, can take various locations in the document. The present work is in the framework of region-based textual information localization and extraction.First, we present a region-based method guided by quadtree decomposition. The principle of the method is to decompose the images of documents in four equals regions and each regions in four new regions and so on. Then, with a free optical character recognition (OCR) engine, we try to extract precise textual information in each region. A region containing a number of expected textual information is not decomposed further. Our method allows to determine accurately in document images, the regions containing text information that one wants to locate and retrieve quickly and efficiently.In another approach, we propose a textual information extraction model consisting in a set of prototype regions along with pathways for browsing through these prototype regions. The life cycle of the model comprises five steps:- Produce synthetic invoice data from real-world invoice images containing the textual information of interest, along with their spatial positions.- Partition the produced data.- Derive the prototype regions from the obtained partition clusters.- Derive pathways for browsing through the prototype regions, from the concept lattice of a suitably defined formal context.- Update incrementally the set of protype regions and the set of pathways, when one has to add additional data
43

Elagouni, Khaoula. "Combining neural-based approaches and linguistic knowledge for text recognition in multimedia documents." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de cette thèse portent sur la reconnaissance des indices textuels dans les images et les vidéos. Dans ce cadre, nous avons conçu des prototypes d'OCR (optical character recognition) capables de reconnaître tant des textes incrustés que des textes de scène acquis n'importe où au sein d'images ou de vidéos. Nous nous sommes intéressée à la définition d'approches robustes à la variabilité des textes et aux conditions d'acquisition. Plus précisément, nous avons proposé deux types de méthodes dédiées à la reconnaissance de texte : - une approche fondée sur une segmentation en caractères qui recherche des séparations non linéaires entre les caractères adaptées à la morphologie de ces derniers ; - deux approches se passant de la segmentation en intégrant un processus de scanning multi-échelles ; la première utilise un modèle de graphe pour reconnaître les textes tandis que la seconde intègre un modèle connexionniste récurrent spécifiquement développé pour gérer les contraintes spatiales entre les caractères.Outre les originalités de chacune des approches, deux contributions supplémentaires de ce travail résident dans la définition d'une reconnaissance de caractères fondée sur un modèle de classification neuronale et l'intégration de certaines connaissances linguistiques permettant de tirer profit du contexte lexical. Les différentes méthodes conçues ont été évaluées sur deux bases de documents : une base de textes incrustés dans des vidéos et une base publique de textes de scène. Les expérimentations ont permis de montrer la robustesse des approches et de comparer leurs performances à celles de l'état de l'art, mettant en évidence leurs avantages et leurs limites
This thesis focuses on the recognition of textual clues in images and videos. In this context, OCR (optical character recognition) systems, able to recognize caption texts as well as natural scene texts captured anywhere in the environment have been designed. Novel approaches, robust to text variability (differentfonts, colors, sizes, etc.) and acquisition conditions (complex background, non uniform lighting, low resolution, etc.) have been proposed. In particular, two kinds of methods dedicated to text recognition are provided:- A segmentation-based approach that computes nonlinear separations between characters well adapted to the localmorphology of images;- Two segmentation-free approaches that integrate a multi-scale scanning scheme. The first one relies on a graph model, while the second one uses a particular connectionist recurrent model able to handle spatial constraints between characters.In addition to the originalities of each approach, two extra contributions of this work lie in the design of a character recognition method based on a neural classification model and the incorporation of some linguistic knowledge that enables to take into account the lexical context.The proposed OCR systems were tested and evaluated on two datasets: a caption texts video dataset and a natural scene texts dataset (namely the public database ICDAR 2003). Experiments have demonstrated the efficiency of our approaches and have permitted to compare their performances to those of state-of-the-art methods, highlighting their advantages and limits
44

Jiménez-Guarin, Claudia. "Opérations d'accès par le contenu à une base de documents textuels : application à un environnement de bureau." Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00333333.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Sont présentées la définition, l'implantation et l'expérimentation de méthodes d'accèes par le contenu à une base de documents textuels, dans le cadre d'un serveur d'information bureautique. L'intégration de ces opérations comprend d'une part l'intégration des documents au modèle de données du serveur, d'autre part l'intégration au niveau fonctionnel des opérations spécifiques aux documents par l'introduction des opérateurs correspondants dans le langage de manipulation de données. Est considérée la coexistence de deux modèles de contenu des documents: le contenu textuel, forme par les chaines de caractères qui forment les portions de contenu de leur structure logique, et le contenu sémantique, qui est le résultat d'une analyse du contenu. Ont ainsi ete définies deux opérations de recherche, la recherche textuelle et la recherche sémantique, effectuées sur ces deux modèles de contenu. Les méthodes d'accès et de stockage correspondantes utilisent des méthodes de signature pour l'établissement des index textuel et sémantique. Ces méthodes permettent de tres bonnes performances, facilite de mise a jour et évaluation de requête. Ont été expérimentées une approche logicielle et une approche matérielle (avec le filtre Schuss) pour la réalisation de ces opérations. Une grande partie de ce travail a été intégrée dans le serveur ois, développe dans le cadre du projet esprit 231, Doeois
45

Molinari, Gaëlle. "Représentation et acquisition de connaissances spécifiques à un domaine scientifique à partir de textes et d'illustrations : effet de la structure du domaine, des connaissances des lecteurs, des caractéristiques du texte et de ses illustrations." Lyon 2, 2002. http://theses.univ-lyon2.fr/documents/lyon2/2002/molinari_g.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos recherches portent sur l'acquisition de connaissances spécifiques à un domaine scientifique à l'aide de textes et d'illustrations chez des sujets de niveaux d'expertise différents. Le domaine à acquérir a été décrit à partir de la formalisation en systèmes. Dans une première expérience, nous avons étudié l'effet de l'adéquation entre la structure du domaine et la structure des connaissances des lecteurs sur l'apprentissage à partir du texte. Il s'agissait aussi de rendre compte d'une interaction entre les connaissances des lecteurs et la cohérence du texte. Ainsi, l'accroissement de l'expertise semble se traduire par un traitement différencié des états et des événements qui définissent le domaine. Par ailleurs, les débutants bénéficient davantage d'un texte cohérent que d'un texte non-cohérent, tandis que l'inverse est observé pour les experts. Dans la deuxième expérience, nous avons étudié la relation entre la catégorie sémantique (états, événements) des connaissances apportées par un organisateur initial et celle des informations évoquées dans un texte subséquent. Comparés aux débutants, les experts s'investissent davantage dans le traitement du texte subséquent lorsque la nature sémantique de ce dernier est différente de celle de l'organisateur initial. Dans les troisième et quatrième expériences, nous avons étudié l'effet des illustrations sur l'apprentissage à partir de textes en fonction des connaissances des lecteurs, de la catégorie (états, événements) des informations illustrées du texte, et de la place des illustrations dans le déroulement de la lecture (illustrations présentées en même temps, avant ou après leurs correspondants textuels). Les débutants tirent davantage profit des illustrations d'états, et ce d'autant plus qu'elles jouent le rôle d'organisateurs initiaux. Les experts portent un plus grand intérêt pour les illustrations d'événements, et ce d'autant plus qu'elles leur permettent de mettre à jour la représentation qu'ils ont formée à partir du texte.
46

Sorin, Laurent. "Contributions des architectures textuelles à l'accessibilité non-visuelle des documents numériques." Thesis, Toulouse 2, 2015. http://www.theses.fr/2015TOU20132/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’accessibilité numérique joue un rôle décisif pour l’éducation, l’inclusion sociale et l’autonomie des individus souffrant d’une déficience. Dans ces travaux, nous nous sommes intéressés à une composante universelle des documents numériques : la mise en forme des textes. L’utilisation de couleurs, polices et dispositions de texte peut paraître anodin, mais il se trouve qu’au-delà de l’esthétique du texte, la mise en forme a non seulement du sens, mais elle permet aux lecteurs d’optimiser leur activité de lecture. Par exemple des couleurs et une police particulière peuvent suffire à nous indiquer un titre, qui va permettre au lecteur de se représenter globalement le contenu. Ces travaux visaient donc à rendre accessible la signification de la mise en forme aux déficients visuels, afin qu’ils puissent accéder aux mêmes informations que les lecteurs voyants mais aussi bénéficier des mêmes optimisations quand ils accèdent aux documents à l’aide de voix de synthèse
Digital accessibility plays a crucial role for the education, the social inclusion and the autonomy of impaired people. This work focused on a universal component of digital documents: text formatting. Colors, fonts and text disposition are far more than just an ornament; text formatting conveys important meaning for content comprehension, and allows reader to optimize their activity. For instance, a specific set of colors and font can be enough to indicate the presence of a title, which allows a global representation of the content themes. Thus, we aimed at making text formatting meaning accessible to visually impaired people, so they can obtain the same information as sighted readers, and also benefit from the same optimizations when accessing the document with synthetic voices
47

Felhi, Mehdi. "Document image segmentation : content categorization." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0109/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous abordons le problème de la segmentation des images de documents en proposant de nouvelles approches pour la détection et la classification de leurs contenus. Dans un premier lieu, nous étudions le problème de l'estimation d'inclinaison des documents numérisées. Le but de ce travail étant de développer une approche automatique en mesure d'estimer l'angle d'inclinaison du texte dans les images de document. Notre méthode est basée sur la méthode Maximum Gradient Difference (MGD), la R-signature et la transformée de Ridgelets. Nous proposons ensuite une approche hybride pour la segmentation des documents. Nous décrivons notre descripteur de trait qui permet de détecter les composantes de texte en se basant sur la squeletisation. La méthode est appliquée pour la segmentation des images de documents numérisés (journaux et magazines) qui contiennent du texte, des lignes et des régions de photos. Le dernier volet de la thèse est consacré à la détection du texte dans les photos et posters. Pour cela, nous proposons un ensemble de descripteurs de texte basés sur les caractéristiques du trait. Notre approche commence par l'extraction et la sélection des candidats de caractères de texte. Deux méthodes ont été établies pour regrouper les caractères d'une même ligne de texte (mot ou phrase) ; l'une consiste à parcourir en profondeur un graphe, l'autre consiste à établir un critère de stabilité d'une région de texte. Enfin, les résultats sont affinés en classant les candidats de texte en régions « texte » et « non-texte » en utilisant une version à noyau du classifieur Support Vector Machine (K-SVM)
In this thesis I discuss the document image segmentation problem and I describe our new approaches for detecting and classifying document contents. First, I discuss our skew angle estimation approach. The aim of this approach is to develop an automatic approach able to estimate, with precision, the skew angle of text in document images. Our method is based on Maximum Gradient Difference (MGD) and R-signature. Then, I describe our second method based on Ridgelet transform.Our second contribution consists in a new hybrid page segmentation approach. I first describe our stroke-based descriptor that allows detecting text and line candidates using the skeleton of the binarized document image. Then, an active contour model is applied to segment the rest of the image into photo and background regions. Finally, text candidates are clustered using mean-shift analysis technique according to their corresponding sizes. The method is applied for segmenting scanned document images (newspapers and magazines) that contain text, lines and photo regions. Finally, I describe our stroke-based text extraction method. Our approach begins by extracting connected components and selecting text character candidates over the CIE LCH color space using the Histogram of Oriented Gradients (HOG) correlation coefficients in order to detect low contrasted regions. The text region candidates are clustered using two different approaches ; a depth first search approach over a graph, and a stable text line criterion. Finally, the resulted regions are refined by classifying the text line candidates into « text» and « non-text » regions using a Kernel Support Vector Machine K-SVM classifier
48

Ghorbel, Adam. "Generalized Haar-like filters for document analysis : application to word spotting and text extraction from comics." Thesis, La Rochelle, 2016. http://www.theses.fr/2016LAROS008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous avons proposé une approche analytique multi-échelle pour le word spotting dans les documents manuscrits. Le modèle proposé fonctionne selon deux niveaux différents. Un module de filtrage global permettant de définir plusieurs zones candidates de la requête dans le document testé. Ensuite, l’échelle de l’observation est modifiée à un niveau inférieur afin d’affiner les résultats et sélectionner uniquement ceux qui sont vraiment pertinents. Cette approche de word spotting est basée sur des familles généralisées de filtres de Haar qui s’adaptent à chaque requête pour procéder au processus de spotting et aussi sur un principe de vote qui permet de choisir l’emplacement spatial où les réponses générées par les filtres sont accumulées. Nous avons en plus proposé une autre approche pour l’extraction de texte du graphique dans les bandes dessinées. Cette approche se base essentiellement sur les caractéristiques pseudo-Haar qui sont générées par l’application des filtres généralisés de Haar sur l’image de bande dessinée. Cette approche est une approche analytique et ne nécessite aucun processus d’extraction ni des bulles ni d’autres composants
The presented thesis follows two directions. The first one disposes a technique for text and graphic separation in comics. The second one points out a learning free segmentation free word spotting framework based on the query-by-string problem for manuscript documents. The two approaches are based on human perception characteristics. Indeed, they were inspired by several characteristics of human vision such as the Preattentive processing. These characteristics guide us to introduce two multi scale approaches for two different document analysis tasks which are text extraction from comics and word spotting in manuscript document. These two approaches are based on applying generalized Haar-like filters globally on each document image whatever its type. Describing and detailing the use of such features throughout this thesis, we offer the researches of document image analysis field a new line of research that has to be more explored in future. The two approaches are layout segmentation free and the generalized Haar-like filters are applied globally on the image. Moreover, no binarization step of the processed document is done in order to avoid losing data that may influence the accuracy of the two frameworks. Indeed, any learning step is performed. Thus, we avoid the process of extraction features a priori which will be performed automatically, taking into consideration the different characteristics of the documents
49

Ventresque, Anthony. "Espaces vectoriels sémantiques : enrichissement et interprétation de requêtes dans un système d'information distribué et hétérogène." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00457820.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes d'information font face à un problème de pertinence dans les recherches dû à l'augmentation considérable des données accessibles. De plus, le nombre d'appareils communicants ne cesse de croître et de menacer le modèle client/serveur. Une nouvelle architecture distribuée tend donc à s'imposer : les réseaux pair-à-pair (P2P). Mais ils sont peu économes en ressource réseau (une requête inonde le réseau) et offrent des fonctionnalités limitées (recherche par mots-clés). Dans les deux communautés, RI et systèmes P2P, les recherches penchent vers l'utilisation de sémantique. En informatique, les approches basées sur la sémantique nécessitent souvent de définir des ontologies. Le développement important et distribué des ontologies génère une hétérogénéité sémantique. La solution classique est d'utiliser des correspondances entre parties de deux ontologies. Mais c'est une solution qui est difficile à obtenir et qui n'est pas toujours complète. Souvent les parties non-partagées de deux ontologies ne sont pas gérées, ce qui entraîne une perte d'information. Notre solution : EXSI2D, utilise une expansion particulière, appelée expansion structurante, du côté de l'initiateur de requêtes. Cela lui permet de préciser les dimensions de sa requête sans modifier la requête elle-même. EXSI2D offre aussi la possibilité au fournisseur d'information d'interpréter l'expansion structurante dans sa propre ontologie. Ainsi, il est possible à chaque participant d'un système d'information sémantiquement hétérogène d'utiliser toute son ontologie, y compris les parties non partagées. Nous montrons aussi l'utilisation d'EXSI2D dans un système P2P, grâce à SPARTANBFS, un protocole « frugal » pour systèmes P2P non structurés.
50

Segond, Luis Otavio. "Archivage électronique multimédia." Paris 6, 1986. http://www.theses.fr/1986PA066333.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Spécifications d'un service d'archivage de documents multimédia qui doit aider les usagers d'un bureau à ranger leurs documents permanents à une place adéquate afin qu'ils puissent être facilement consultés ultérieurement.

До бібліографії