Academic literature on the topic 'Images de documents anciens'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Images de documents anciens.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Images de documents anciens"

1

André, Jacques, Jean-Daniel Fekete, and Hélène Richy. "Traitement mixte image/texte de documents anciens." Cahiers GUTenberg, no. 21 (1995): 75–85. http://dx.doi.org/10.5802/cg.172.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Likforman-Sulem, Laurence. "Apport du traitement des images à la numérisation des documents manuscrits anciens." Document numérique 7, no. 3-4 (October 1, 2003): 13–26. http://dx.doi.org/10.3166/dn.7.3-4.13-26.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Arnia, Fitri, Khairun Saddami, and Khairul Munadi. "DCNet: Noise-Robust Convolutional Neural Networks for Degradation Classification on Ancient Documents." Journal of Imaging 7, no. 7 (July 12, 2021): 114. http://dx.doi.org/10.3390/jimaging7070114.

Full text
Abstract:
Analysis of degraded ancient documents is challenging due to the severity and combination of degradation present in a single image. Ancient documents also suffer from additional noise during the digitalization process, particularly when digitalization is done using low-specification devices and/or under poor illumination conditions. The noises over the degraded ancient documents certainly cause a troublesome document analysis. In this paper, we propose a new noise-robust convolutional neural network (CNN) architecture for degradation classification of noisy ancient documents, which is called a degradation classification network (DCNet). DCNet was constructed based on the ResNet101, MobileNetV2, and ShuffleNet architectures. Furthermore, we propose a new self-transition layer following DCNet. We trained the DCNet using (1) noise-free document images and (2) heavy-noise (zero mean Gaussian noise (ZMGN) and speckle) document images. Then, we tested the resulted models with document images containing different levels of ZMGN and speckle noise. We compared our results to three CNN benchmarking architectures, namely MobileNet, ShuffleNet, and ResNet101. In general, the proposed architecture performed better than MobileNet, ShuffleNet, ResNet101, and conventional machine learning (support vector machine and random forest), particularly for documents with heavy noise.
APA, Harvard, Vancouver, ISO, and other styles
4

Ben Arbia, Ines Ben Messaoud, Haikal El Abed, Volker Märgner, and Hamid Amiri. "Collaborative Access to Ancient Documents." International Journal of Mobile Computing and Multimedia Communications 4, no. 3 (July 2012): 34–53. http://dx.doi.org/10.4018/jmcmc.2012070103.

Full text
Abstract:
With the evolution of the next generation networks several applications have emerged to be used through the web. Applications allowing the analysis and the recognition of documents are emerged to be used through Internet. Document pre-processing output may affect the efficiency of document analysis and recognition systems. In order to ameliorate the efficiency of such systems, an objective evaluation of pre-processing steps is necessary. The authors propose a new framework for automatic evaluation of binarization approaches. The evaluation of binarization approaches is based on the comparison between binary images and their ground-truths. For that reason a method for the generation of ground-truth is proposed. This method is evaluated using the benchmarking dataset DIBCO 2009. The comparison between binarization methods’ results is based on several evaluation metrics as FM and PSNR. The proposed framework is tested on printed images (250 images) from the Google-Books collection and on handwritten images (60 images) from the IAM historical database.
APA, Harvard, Vancouver, ISO, and other styles
5

Bagnall, Roger S. "Materializing Ancient Documents." Daedalus 145, no. 2 (April 2016): 79–87. http://dx.doi.org/10.1162/daed_a_00378.

Full text
Abstract:
Two materially oriented revolutions have transformed the study of ancient documents in recent decades: first, a new interest in the ancient production of written artifacts; and second, the concern with the archaeological contexts, and more particularly the taphonomy–that is, the processes at work in the burial–of those same objects. The first, largely driven by the availability of digital images, has given life to the study of ancient writing as a cultural and social phenomenon and to the social life of written objects. In the process, connections between literary and documentary texts have come to the fore and distinctions between these categories have eroded. The second revolution began with an interest in what archaeological contexts of excavated papyri could tell us about the history of the texts, but it has evolved to see the texts themselves as artifacts engaged in an iterative dialogue with both the contexts and other objects found in them.
APA, Harvard, Vancouver, ISO, and other styles
6

Benabdelaziz, Ryma, Djamel Gaceb, and Mohammed Haddad. "Word Spotting Based on Bispace Similarity for Visual Information Retrieval in Handwritten Document Images." International Journal of Computer Vision and Image Processing 9, no. 3 (July 2019): 38–58. http://dx.doi.org/10.4018/ijcvip.2019070103.

Full text
Abstract:
Retrieving information from a huge collection of ancient handwritten documents is important for indexing, interpreting, browsing, and searching documents in various domains. Word spotting approaches are widely used in this context but have several limitations related to the complex properties of handwriting. These can appear at several steps: interest point detection, description, and matching. This article proposes a new word spotting approach for the word retrieval in handwritten document, which mainly leverages the properties of image gradients for visual features detection and description. The proposed approach is based on the combination of spatial relationships with textural information to design a more accurate matching. The experimental results of the proposed approach demonstrate a higher performance over the Jeremy Bentham dataset, evaluated following the recent benchmarks of ICDAR 2015 Competition on Keyword Spotting for Handwritten Documents.
APA, Harvard, Vancouver, ISO, and other styles
7

Srinivasa, K. G., B. J. Sowmya, D. Pradeep Kumar, and Chetan Shetty. "Efficient Image Denoising for Effective Digitization using Image Processing Techniques and Neural Networks." International Journal of Applied Evolutionary Computation 7, no. 4 (October 2016): 77–93. http://dx.doi.org/10.4018/ijaec.2016100105.

Full text
Abstract:
Vast reserves of information are found in ancient texts, scripts, stone tablets etc. However due to difficulty in creating new physical copies of such texts, knowledge to be obtained from them is limited to those few who have access to such resources. With the advent of Optical Character Recognition (OCR) efforts have been made to digitize such information. This increases their availability by making it easier to share, search and edit. Many documents are held back due to being damaged. This gives rise to an interesting problem of removing the noise from such documents so it becomes easier to apply OCR on them. Here the authors aim to develop a model that helps denoise images of such documents retaining on the text. The primary goal of their project is to help ease document digitization. They intend to study the effects of combining image processing techniques and neural networks. Image processing techniques like thresholding, filtering, edge detection, morphological operations, etc. will be applied to pre-process images to yield higher accuracy of neural network models.
APA, Harvard, Vancouver, ISO, and other styles
8

Beltran, Maria Helena Roxo, and Vera Cecilia Machline. "Images as documents for the history of science: some remarks concerning classification." Circumscribere: International Journal for the History of Science 20 (December 14, 2017): 112. http://dx.doi.org/10.23925/1980-7651.2017v20;p112-119.

Full text
Abstract:
Studies on history of science are increasingly emphasizing the important role that, since ancient times, images have had in the processes of shaping concepts, as well as registering and transmitting knowledge about nature and the arts. In the past years, we have developed at Center Simão Mathias of Studies on the History of Science (CESIMA) inquiries devoted to the analysis of images as forms of registering and transmitting knowledge about nature and the arts – that is to say, as documents pertaining to the history of science. These inquiries are grounded on the assumption that all images derive from the interaction between the artistic technique used in their manufacture and the concept intended to be expressed by them. This study enabled us to analyze distinct roles that images have had in different fields of knowledge at various ages. Some of the results obtained so far are summarized in the present article.
APA, Harvard, Vancouver, ISO, and other styles
9

Shobha Rani, N., N. Chandan, A. Sajan Jain, and H. R. Kiran. "Deformed character recognition using convolutional neural networks." International Journal of Engineering & Technology 7, no. 3 (July 26, 2018): 1599. http://dx.doi.org/10.14419/ijet.v7i3.14053.

Full text
Abstract:
Realization of high accuracies towards south Indian character recognition is one the truly interesting research challenge. In this paper, our investigation is focused on recognition of one of the most widely used south Indian script called Kannada. In particular, the proposed exper-iment is subject towards the recognition of degraded character images which are extracted from the ancient Kannada poetry documents and also on the handwritten character images that are collected from various unconstrained environments. The character images in the degraded documents are slightly blurry as a result of which character image is imposed by a kind of broken and messy appearances, this particular aspect leads to various conflicting behaviors of the recognition algorithm which in turn reduces the accuracy of recognition. The training of degraded patterns of character image samples are carried out by using one of the deep convolution neural networks known as Alex net.The performance evaluation of this experimentation is subject towards the handwritten datasets gathered synthetically from users of age groups between 18-21, 22-25 and 26-30 and also printed datasets which are extracted from ancient document images of Kannada poetry/literature. The datasets are comprised of around 497 classes. 428 classes include consonants, vowels, simple compound characters and complex com-pound characters. Each base character combined with consonant/vowel modifiers in handwritten text with overlapping/touching diacritics are assumed as a separate class in Kannada script for our experimentation. However, for those compound characters that are non-overlapping/touching are still considered as individual classes for which the semantic analysis is carried out during the post processing stage of OCR. It is observed that the performance of the Alex net in classification of printed character samples is reported as 91.3% and with reference to handwritten text, and accuracy of 92% is recorded.
APA, Harvard, Vancouver, ISO, and other styles
10

Codognet, Philippe. "Ancient Images and New Technologies: The Semiotics of the Web." Leonardo 35, no. 1 (February 2002): 41–49. http://dx.doi.org/10.1162/002409402753689308.

Full text
Abstract:
The article develops an analysis of visual knowledge and the use of pictures in electronic communication. The author focuses in particular on indexical images, which we use in navigat-ing multimedia documents and the Web. For this purpose, the author bases his study on the one hand on semiotics, the core concepts of which were intro-duced by C.S. Peirce at the beginning of the last century; and on the other hand on a more classical historical analy-sis, in order to point out the deep roots of the concepts used in contemporary computer-based communication.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Images de documents anciens"

1

Drira, Fadoua Emptoz Hubert Lebourgeois Frank. "Contribution à la restauration des images de documents anciens." Villeurbanne : Doc'INSA, 2008. http://docinsa.insa-lyon.fr/these/pont.php?id=drira.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Drira, Fadoua. "Contribution à la restauration des images de documents anciens." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0111/these.pdf.

Full text
Abstract:
La numérisation massive de documents patrimoniaux ouvre de nouvelles perspectives de Recherche comme la restauration des documents dégradés. Ces dégradations sont dues au mauvais état de conservation et à la numérisation. De telles altérations sur des images aussi complexes ne peuvent pas être traitées par une simple transposition des outils traditionnels de restauration. Cette thèse traite donc de la restauration des dégradations des images des documents anciens, et plus particulièrement des dégradations du support papier et des formes des lettres car elles nuisent à la lisibilité des documents numérisés et empêchent tout traitement automatisé. Pour les dégradations du support papier, assimilées à un problème de superposition de couches, nous proposons deux méthodes. La première est une méthode de segmentation récursive issue de l’algorithme des nuées dynamiques appliquée sur les données décorrélées par l’analyse en composantes principales. La deuxième méthode est une amélioration de l’algorithme du Mean-Shift qui réduit sa complexité de calcul. Nous proposons, ensuite, de traiter les dégradations des formes des lettres par des méthodes de diffusion. Tout d’abord, nous présentons les modèles existants les plus adaptés à la restauration des images de document. Ensuite, nous proposons un modèle de diffusion capable de filtrer les contours et de renforcer la continuité des traits tout en préservant les singularités. Pour concevoir une approche capable de restaurer à la fois les dégradations du support papier et des formes des lettres, nous proposons une combinaison entre la segmentation et la diffusion. Cette combinaison permet de réaliser une segmentation en couches des images de documents tout en préservant la forme des contours des lettres
The massive digitization of heritage documents raised new prospects for Research like the restoration of the degraded documents. These degradations are due to the bad conditions of conservation and even to the digitization process. Images of old and degraded documents cannot be the retored directely by classical approaches. Hence, we propose in this thesis to develop and analyze document image restoration algorithms. We are mainly interested in foreground/background degradations, since they harm the legibility of the digitized documents and limit the processing of these images. For background degradations, considered as a problem of the superposition of layers, we propose two-based segmentation methods. The first is a recursive approach that relies on the k-means clustering algorithm and the principal component analysis. The second method is an improvement of the initial algorithm of MeanShift in an attempt to reduce its complexity. For foreground degradations, we propose to tackle the problem with PDE-based diffusion approaches. This solution has many useful features that are relevant for use in character restoration. Our comparative study of existing methods allows us to select the best approaches well adapted to our problem. We propose also a new diffusion method preserving singularities and edges while smoothing. Our previously proposed solutions, the diffusion and the Mean-Shift algorithms, are used with success in a joint iterative framework to solve foreground and background degradations. This framework generates segmented images with more reduced artefacts on the edges and on the background than those obtained in separate application of each method
APA, Harvard, Vancouver, ISO, and other styles
3

Rabeux, Vincent. "Évaluation de la qualité des documents anciens numérisés." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00858290.

Full text
Abstract:
Les travaux de recherche présentés dans ce manuscrit décrivent plusieurs apports au thème de l'évaluation de la qualité d'images de documents numérisés. Pour cela nous proposons de nouveaux descripteurs permettant de quantifier les dégradations les plus couramment rencontrées sur les images de documents numérisés. Nous proposons également une méthodologie s'appuyant sur le calcul de ces descripteurs et permettant de prédire les performances d'algorithmes de traitement et d'analyse d'images de documents. Les descripteurs sont définis en analysant l'influence des dégradations sur les performances de différents algorithmes, puis utilisés pour créer des modèles de prédiction à l'aide de régresseurs statistiques. La pertinence, des descripteurs proposés et de la méthodologie de prédiction, est validée de plusieurs façons. Premièrement, par la prédiction des performances de onze algorithmes de binarisation. Deuxièmement par la création d'un processus automatique de sélection de l'algorithme de binarisation le plus performant pour chaque image. Puis pour finir, par la prédiction des performances de deux OCRs en fonction de l'importance du défaut de transparence (diffusion de l'encre du recto sur le verso d'un document). Ce travail sur la prédiction des performances d'algorithmes est aussi l'occasion d'aborder les problèmes scientifiques liés à la création de vérités-terrains et d'évaluation de performances.
APA, Harvard, Vancouver, ISO, and other styles
4

Coustaty, Mickaël. "Contribution à l'analyse complexe de documents anciens, application aux lettrines." Phd thesis, Université de La Rochelle, 2011. http://tel.archives-ouvertes.fr/tel-00691922.

Full text
Abstract:
De nombreux projets de numérisation sont actuellement menés en France et en Europe pour sauvegarder le contenu de dizaines de milliers de documents anciens. Les images de ces documents sont utilisées par les historiens pour identifier l'historique des livres. Cette thèse s'inscrit dans le projet Navidomass (ANR-06-MDCA-012) qui a pour but de valoriser le patrimoine écrit français de la Renaissance, en proposant d'identifier ses images pour les indexer. Dans le cadre de cette thèse, nous nous sommes particulièrement intéressés aux images graphiques. Ces documents,qui sont apparus avec le début de l'imprimerie, sont composées d'images complexes puisque composées de différentes couches d'informations (images de traits).Afin de répondre à ce problème, nous proposons un modèle ontologique d'analyse complexe d'images de documents anciens. Ce modèle permet d'intégrer dans une même base les connaissances propres aux historiens, et les connaissances extraites par des traitements d'images. De par la nature complexe de ces images, les méthodes habituelles d'analyse d'images et d'extraction automatique de connaissances sont inopérantes. Nous proposons donc une nouvelle approche d'analyse des images de documents anciens qui permet de les caractériser à partir de leurs spécificités. Cette approche commence par simplifier les images en les séparant en différentes couches d'informations (formes et traits). Puis, pour chaque couche, nous venons extraire des motifs utilisés pour décrire les images. Ainsi, les images sont caractérisées à l'aide de sacs de motifs fréquents, et de sacs de traits. Pour ces deux couches d'informations, nous venons également extraire des graphes de régions qui permettent d'extraire une connaissance structurelle des images. La complexification de ces deux descriptions est insérée dans la base de connaissances, pour permettre des requêtes complexes. Le but de cette base est de proposer à l'utilisateur de rechercher une image en indiquant soit un exemple d'images recherchées, soit des éléments caractéristiques des images.
APA, Harvard, Vancouver, ISO, and other styles
5

Kieu, Van Cuong. "Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Full text
Abstract:
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training
APA, Harvard, Vancouver, ISO, and other styles
6

Pommaret, Sabine. "Traitement documentaire et valorisation des fonds iconographiques anciens dans les bibliothèques l'exemple de la collection d'estampes de la B.M. de Bourges /." [S.l.] : [s.n.], 2002. http://www.enssib.fr/bibliotheque/documents/dcb/pommaret.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Vinsonneau, Emile. "La qualité d'image dans le contexte de la numérisation de livres anciens." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0057/document.

Full text
Abstract:
L'objectif de cette thèse est de proposer des méthodes ou des outils de calibration permettant d'améliorer la qualité d'image dans le cadre de la numérisation de livres anciens.Le premier chapitre concerne la mise en oeuvre d'un "scanner sans éclairage". Ce scanner est matriciel et il ne contrôle pas la lumière via un éclairage artificiel. L'objectif du projet est de pouvoir corriger, par calibration ou par la mise en place d'un traitement d'image les défauts d'éclairage apparaissant sur le document. Nous verrons dans un premier chapitre les solutions possibles pour y répondre. Nous y proposerons également un moyen de segmenter le fond du document en se basant sur des pixels caractérisants le fond du document. Ce résultat permettra de reconstruire le fond puis de corriger les non-uniformités.Le deuxième chapitre concerne la mise en place d'un contrôle qualité de numérisation de livres anciens. Effectivement, la manipulation du matériel dans le contexte de la numérisation industrielle engendre des erreurs possibles de réglage. De ce fait, nous obtenons une numérisation de moindres qualités. Le contrôle se focalisera sur le flou de focus qui est le défaut le plus présent. Nous proposons dans ce chapitre de combiner différentes approches du problème permettant de le quantifier. Nous verrons que la combinaison de ces informations permet d'estimer avec précision la qualité de netteté de l'image.Le troisième chapitre évoque les problématiques de la gestion de la couleur. Pour avoir une homogénéité colorimétrique entre tous les appareils, il est indispensable que la calibration soit inférieure à un seuil visuel. Les contraintes industrielles ont de nombreux critères et il est difficile de tous les respecter. L'objectif de ce chapitre est de récapituler comment mettre en place un système permettant de calibrer la couleur avec toutes ces contraintes. Puis, il s'agit de comprendre comment créer une transformation entre l'espace de couleur de l'appareil et l'espace de couleur de connexion (l'espace L*a*b*). Nous verrons que la solution de ce problème se résout par une régression polynomiale dont le degré du polynôme varie en fonction du nombre de mesures faite sur la mire colorimétrique
The goal of this thesis is to add some tools in order to upgrade image quality when scanning with book digitization.First Chapter talks about image scanner whitout lighting control. This problem focuses to document camera. The goal is to correct lighting. We will see some corrections and we will suggest our method. For this part, we detect pixel's background document and we will rebuild the background of the image by them. With this information, we can correct lighting.Second chapter presents some way to do quality control after digitization, specially out of focus problem. We will enumerate different point of view to analyse and to estimate this information. To validate descriptors, we suggest to blur any picture and to compute blur estimation in order to evaluate precision. After that, we propose to combinate descriptors by machine learning.Third chapter mentions color management problem. Every image devices need to be calibrated. This chapter will expose how to calibrate scanner and explain it. We will see that L*a*b* color space is the connection profil space. To calibrate color, we must transform scanner color space to L*a*b*. We will see, in order to convert information, solution depends color chart used but we show a link between the function and thenumber of patch
APA, Harvard, Vancouver, ISO, and other styles
8

Griffiths, Trace A. "Enhancing Multispectral Imagery of Ancient Documents." DigitalCommons@USU, 2011. https://digitalcommons.usu.edu/etd/907.

Full text
Abstract:
Multispectral imaging (MSI) provides a wealth of imagery data that, together with modern signal processing techniques, facilitates the enhancement of document images. In this thesis, four topic areas are reviewed and applied to ancient documents. They are image fusion, matched filters, bleed-through removal, and shadow removal. These four areas of focus provide useful tools for papyrologists studying the digital imagery of documents. The results presented form a strong case for the utility of MSI data over the use of a single image captured at any given wavelength of light.
APA, Harvard, Vancouver, ISO, and other styles
9

Mehri, Maroua. "Historical document image analysis : a structural approach based on texture." Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS005/document.

Full text
Abstract:
Les récents progrès dans la numérisation des collections de documents patrimoniaux ont ravivé de nouveaux défis afin de garantir une conservation durable et de fournir un accès plus large aux documents anciens. En parallèle de la recherche d'information dans les bibliothèques numériques ou l'analyse du contenu des pages numérisées dans les ouvrages anciens, la caractérisation et la catégorisation des pages d'ouvrages anciens a connu récemment un regain d'intérêt. Les efforts se concentrent autant sur le développement d'outils rapides et automatiques de caractérisation et catégorisation des pages d'ouvrages anciens, capables de classer les pages d'un ouvrage numérisé en fonction de plusieurs critères, notamment la structure des mises en page et/ou les caractéristiques typographiques/graphiques du contenu de ces pages. Ainsi, dans le cadre de cette thèse, nous proposons une approche permettant la caractérisation et la catégorisation automatiques des pages d'un ouvrage ancien. L'approche proposée se veut indépendante de la structure et du contenu de l'ouvrage analysé. Le principal avantage de ce travail réside dans le fait que l'approche s'affranchit des connaissances préalables, que ce soit concernant le contenu du document ou sa structure. Elle est basée sur une analyse des descripteurs de texture et une représentation structurelle en graphe afin de fournir une description riche permettant une catégorisation à partir du contenu graphique (capturé par la texture) et des mises en page (représentées par des graphes). En effet, cette catégorisation s'appuie sur la caractérisation du contenu de la page numérisée à l'aide d'une analyse des descripteurs de texture, de forme, géométriques et topologiques. Cette caractérisation est définie à l'aide d'une représentation structurelle. Dans le détail, l'approche de catégorisation se décompose en deux étapes principales successives. La première consiste à extraire des régions homogènes. La seconde vise à proposer une signature structurelle à base de texture, sous la forme d'un graphe, construite à partir des régions homogènes extraites et reflétant la structure de la page analysée. Cette signature assure la mise en œuvre de nombreuses applications pour gérer efficacement un corpus ou des collections de livres patrimoniaux (par exemple, la recherche d'information dans les bibliothèques numériques en fonction de plusieurs critères, ou la catégorisation des pages d'un même ouvrage). En comparant les différentes signatures structurelles par le biais de la distance d'édition entre graphes, les similitudes entre les pages d'un même ouvrage en termes de leurs mises en page et/ou contenus peuvent être déduites. Ainsi de suite, les pages ayant des mises en page et/ou contenus similaires peuvent être catégorisées, et un résumé/une table des matières de l'ouvrage analysé peut être alors généré automatiquement. Pour illustrer l'efficacité de la signature proposée, une étude expérimentale détaillée a été menée dans ce travail pour évaluer deux applications possibles de catégorisation de pages d'un même ouvrage, la classification non supervisée de pages et la segmentation de flux de pages d'un même ouvrage. En outre, les différentes étapes de l'approche proposée ont donné lieu à des évaluations par le biais d'expérimentations menées sur un large corpus de documents patrimoniaux
Over the last few years, there has been tremendous growth in digitizing collections of cultural heritage documents. Thus, many challenges and open issues have been raised, such as information retrieval in digital libraries or analyzing page content of historical books. Recently, an important need has emerged which consists in designing a computer-aided characterization and categorization tool, able to index or group historical digitized book pages according to several criteria, mainly the layout structure and/or typographic/graphical characteristics of the historical document image content. Thus, the work conducted in this thesis presents an automatic approach for characterization and categorization of historical book pages. The proposed approach is applicable to a large variety of ancient books. In addition, it does not assume a priori knowledge regarding document image layout and content. It is based on the use of texture and graph algorithms to provide a rich and holistic description of the layout and content of the analyzed book pages to characterize and categorize historical book pages. The categorization is based on the characterization of the digitized page content by texture, shape, geometric and topological descriptors. This characterization is represented by a structural signature. More precisely, the signature-based characterization approach consists of two main stages. The first stage is extracting homogeneous regions. Then, the second one is proposing a graph-based page signature which is based on the extracted homogeneous regions, reflecting its layout and content. Afterwards, by comparing the different obtained graph-based signatures using a graph-matching paradigm, the similarities of digitized historical book page layout and/or content can be deduced. Subsequently, book pages with similar layout and/or content can be categorized and grouped, and a table of contents/summary of the analyzed digitized historical book can be provided automatically. As a consequence, numerous signature-based applications (e.g. information retrieval in digital libraries according to several criteria, page categorization) can be implemented for managing effectively a corpus or collections of books. To illustrate the effectiveness of the proposed page signature, a detailed experimental evaluation has been conducted in this work for assessing two possible categorization applications, unsupervised page classification and page stream segmentation. In addition, the different steps of the proposed approach have been evaluated on a large variety of historical document images
APA, Harvard, Vancouver, ISO, and other styles
10

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : application aux documents arabes." Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00495972.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabe anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : – Application d'un maillage automatique en utilisant le modèle de contour actif (snake). – Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. – Application de quelques règles d'extension pour trouver les zones. – Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. – Séparation de lignes
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Images de documents anciens"

1

Elliott, Neil. Documents and images for the study of Paul. Minneapolis, MN: Fortress Press, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Documents and images for the study of Paul. Minneapolis: Fortress Press, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Alistair, Moffat, and Bell Timothy C, eds. Managing gigabytes: Compressing and indexing documents and images. New York: Van Nostrand Reinhold, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Miocque, Marcel. Houlgate sous l'Occupation, 1940-1944: Évocations, documents, images. [Condé-sur-Noireau]: C. Corlet, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lefebvre, Jacques-Henri. Images de la bataille de Verdun, documents français et allemands. [Paris]: Éditions des Riaux, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

L' organisation de l'armée macedonienne sous les antigonides: Problèmes anciens et documents nouveaux. Athenes: Centre de recherche de l'antiquité grecque et romaine, Fondation nationale de la recherche scientifique, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Brunet, Jean-Paul. L' explication de documents historiques. Paris: Colin, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

The stability of photocopied and laser-printed documents and images: General guidelines. Ottawa, ON: Canadian Conservation Institute, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Chieh-Jen, Chen. The Bianwen Book: Images, Production, Action and Documents of Chen Chieh-Jen. Taipei, Taiwan: The Cube Project Space, 2015.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Levine, Robert M. Images of history: Nineteenth and early twentieth century Latin American photographs as documents. Durham: Duke University Press, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Images de documents anciens"

1

Maatouk, Mohamed Neji, and Najoua Essoukri Ben Amara. "Adaptive Watermarking Algorithm of Color Images of Ancient Documents on YIQ-PCA Color Space." In Advances in Intelligent Systems and Computing, 75–86. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-19713-5_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Burns, Maureen, and Andreas Knab. "Instant Architecture: Hosted Access to the Archivision Research Library with Built-In Image Management & Presentation Tools." In Proceedings e report, 150–57. Florence: Firenze University Press, 2018. http://dx.doi.org/10.36253/978-88-6453-707-8.38.

Full text
Abstract:
The Archivision Research Library is a collection of 100,000 digital images of art and architecture professionally photographed by a trained architect. It documents the built environment--from ancient monuments to cutting-edge contemporary constructions--with extensive, standardized descriptive metadata. Archivision is accessible for research and teaching through a web-based application--a dedicated hosted instance of MDID--with vrcHost LLC delivering full services and technical support: installation, integration, and maintenance. This combination provides not only instant access to Archivision, but also to sophisticated tools for managing images using an open source media management system to discover, aggregate, study, and present digital media.
APA, Harvard, Vancouver, ISO, and other styles
3

Ashour, Amira S., Nilanjan Dey, and Suresh Chandra Satapathy. "Knowledge Mining from Medical Images." In Mining Multimedia Documents, 133–45. Taylor & Francis Group, 6000 Broken Sound Parkway NW, Suite 300, Boca Raton, FL 33487-2742: CRC Press, 2017. http://dx.doi.org/10.1201/9781315399744-11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ashour, Amira S., Nilanjan Dey, and Suresh Chandra Satapathy. "Knowledge Mining from Medical Images." In Mining Multimedia Documents, 133–45. Boca Raton : CRC Press, [2017]: Chapman and Hall/CRC, 2017. http://dx.doi.org/10.1201/b21638-10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Bako, Steve, Soheil Darabi, Eli Shechtman, Jue Wang, Kalyan Sunkavalli, and Pradeep Sen. "Removing Shadows from Images of Documents." In Computer Vision – ACCV 2016, 173–83. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-54187-7_12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Nguyen, Tien-Nam, Jean-Christophe Burie, Thi-Lan Le, and Anne-Valerie Schweyer. "On the Use of Attention in Deep Learning Based Denoising Method for Ancient Cham Inscription Images." In Document Analysis and Recognition – ICDAR 2021, 400–415. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-86549-8_26.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sokratis, Vavilis, Ergina Kavallieratou, Roberto Paredes, and Kostas Sotiropoulos. "A Hybrid Binarization Technique for Document Images." In Learning Structure and Schemas from Documents, 165–79. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-22913-8_8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Michalak, Hubert, Robert Krupiński, Piotr Lech, and Krzysztof Okarma. "Preprocessing of Document Images Based on the GGD and GMM for Binarization of Degraded Ancient Papyri Images." In Progress in Image Processing, Pattern Recognition and Communication Systems, 116–24. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-81523-3_11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ceci, Michelangelo, Corrado Loglisci, and Donato Malerba. "Transductive Learning of Logical Structures from Document Images." In Learning Structure and Schemas from Documents, 121–42. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-22913-8_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Granell, Emilio, and Carlos-D. Martínez-Hinarejos. "Multimodal Output Combination for Transcribing Historical Handwritten Documents." In Computer Analysis of Images and Patterns, 246–60. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-23192-1_21.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Images de documents anciens"

1

Valdiviezo-N, Juan C., and Gonzalo Urcid. "Multispectral Images Segmentation of Ancient Documents with Lattice Memories." In Digital Image Processing and Analysis. Washington, D.C.: OSA, 2010. http://dx.doi.org/10.1364/dipa.2010.dmd6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Griffiths, Trace A., Gene A. Ware, and Todd K. Moon. "Signal processing techniques for enhancing multispectral images of ancient documents." In 2015 IEEE Signal Processing and Signal Processing Education Workshop (SP/SPE). IEEE, 2015. http://dx.doi.org/10.1109/dsp-spe.2015.7369581.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Elloumi, Walid, Mohamed Chakroun, Moncef Charfi, and Mohamed Adel Alimi. "Compression of the images of ancient Arab manuscript documents based on segmentation." In 2008 IEEE/ACS International Conference on Computer Systems and Applications (AICCSA). IEEE, 2008. http://dx.doi.org/10.1109/aiccsa.2008.4493634.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lettner, Martin, and Robert Sablatnig. "Spatial and Spectral Based Segmentation of Text in Multispectral Images of Ancient Documents." In 2009 10th International Conference on Document Analysis and Recognition. IEEE, 2009. http://dx.doi.org/10.1109/icdar.2009.51.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Nguyen, Nhu-Van, Mickael Coustaty, Alain Boucher, and Jean-Marc Ogier. "Interactive Knowledge Learning for Ancient Images." In 2013 12th International Conference on Document Analysis and Recognition (ICDAR). IEEE, 2013. http://dx.doi.org/10.1109/icdar.2013.67.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Hongxi Wei, Guanglai Gao, Yulai Bao, and Yali Wang. "An efficient binarization method for ancient Mongolian document images." In 2010 3rd International Conference on Advanced Computer Theory and Engineering (ICACTE 2010). IEEE, 2010. http://dx.doi.org/10.1109/icacte.2010.5579111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sehad, Abdenour, Youcef Chibani, Mohamed Cheriet, and Yacine Yaddaden. "Ancient degraded document image binarization based on texture features." In 2013 8th International Symposium on Image and Signal Processing and Analysis (ISPA). IEEE, 2013. http://dx.doi.org/10.1109/ispa.2013.6703737.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Maatouk, Mohamed Neji, Majd Bellaj, and Najoua Essoukri Ben Amara. "Watermarking ancient documents schema using wavelet packets and convolutional code." In 2010 2nd International Conference on Image Processing Theory, Tools and Applications (IPTA). IEEE, 2010. http://dx.doi.org/10.1109/ipta.2010.5586787.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Arnia, Fitri, Fardian, Sayed Muchallil, and Khairul Munadi. "Noise characterization in ancient document images based on DCT coefficient distribution." In 2015 13th International Conference on Document Analysis and Recognition (ICDAR). IEEE, 2015. http://dx.doi.org/10.1109/icdar.2015.7333906.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Zaghden, Nizar, Remy Mullot, and Adel M. Alimi. "Characterization of ancient document images composed by Arabic and Latin scripts." In 2011 International Conference on Innovations in Information Technology (IIT). IEEE, 2011. http://dx.doi.org/10.1109/innovations.2011.5893801.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Images de documents anciens"

1

Memon, N., Ed Wong, and Xiaolin Wu. Steganalysis Techniques for Documents and Images. Fort Belvoir, VA: Defense Technical Information Center, May 2005. http://dx.doi.org/10.21236/ada434159.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography