To see the other types of publications on this topic, follow the link: Contours, Détection de.

Dissertations / Theses on the topic 'Contours, Détection de'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Contours, Détection de.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Aberkane, Arezki. "Détection de contours dans les images CFA." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10222/document.

Full text
Abstract:
Cette thèse est consacrée à la détection des contours à partir d'images acquises par des caméras couleur mono-capteur. Dans ces dispositifs, le capteur est recouvert d'une mosaïque de filtres chromatiques (Color Filter Array, ou CFA) et forme une image (dite <> ou CFA) qui ne comporte qu'une seule composante couleur par pixel. Une procédure de dématriçage est classiquement appliquée à cette image pour estimer les deux composantes couleur manquantes en chaque pixel et obtenir une image couleur. Cependant, les artéfacts générés par le dématriçage peuvent altérer les performances des méthodes d'analyse bas-niveau des images. Ceci nous amène à éviter le dématriçage pour la détection des contours. Dans une approche de type gradient, nous proposons d'estimer les dérivées partielles soit en calculant les dérivées partielles dans les trois plans couleur (approche vectorielle), soit en estimant une luminance adaptée à la détection des contours (approche scalaire). L'état de l'art met en évidence que l'exploitation directe de l'image brute a été peu abordée et que les approches développées dans cette thèse sont originales. Pour l'approche vectorielle, nous proposons une adaptation de l'implantation récursive du filtre de Deriche au treillis du CFA. Pour l'approche luminance, nous utilisons un filtre optimal qui lisse et dérive conjointement les données brutes. Nous évaluons les performances des méthodes développées sur une base d'images synthétiques dont la vérité terrain est connue. Nous montrons ainsi que la détection des contours à partir des données brutes peut être satisfaisante tout en étant peu coûteuse en temps de calcul
This thesis is devoted to edge detection from the raw image acquired by single-sensor cameras. Such cameras are fitted with Bayer Color Filter Array (CFA, generally Bayer one) and deliver raw CFA image, in which each pixel is characterized by only one out of the three colour components (red, green, or blue). A demosaicing procedure is necessary to estimate the other two missing colour components at each pixel, so as to obtain a colour image. This however produces artefacts that may affect the performance of low-level processing tasks applied to such estimated images. We propose to avoid demosaicing to compute partial derivatives for edge detection. Simple differentiation kernels, Deriche filters or shifted Deriche filters can be used either in a vector or a scalar approache. The vector approach computes partial derivatives for the three channels and the scalar approach first estimates a luminance image, then computes derivatives. The partial CFA derivatives are then used to compute Di Zenzo gradient for edge detection. We assess the performance of our methods on a large dataset of synthetic images with available edge ground truth. We show that CFA-based approaches may provide as accurate edge detection results as colour vector-based ones at much reduced computation cost
APA, Harvard, Vancouver, ISO, and other styles
2

Fjørtoft, Roger. "Segmentation d'images radar par détection de contours." Toulouse, INPT, 1999. http://www.theses.fr/1999INPT020H.

Full text
Abstract:
Le radar à synthèse d'ouverture (RSO) aéroporté ou spatial est un puissant outil d'observation, permettant notamment d'acquérir des images de haute résolution de la surface terrestre par tout temps, de jour comme de nuit. Le phénomène de speckle, qui se traduit par une très forte granulation dans l'image détectée, rend cependant difficile l'interprétation automatique des données RSO. Ce travail de thèse est consacré à la segmentation d'images RSO, en particulier par l'approche contour. La segmentation consiste à diviser l'image en régions. Elle constitue un premier pas dans l'analyse de l'image, facilitant l'estimation des paramètres caractéristiques des régions. Les détecteurs de contours déjà proposés pour l'imagerie RSO travaillent sur des données détectées et supposent que le speckle est corrélé spatialement, ce qui entraîne une certaine dégradation des performances de ces opérateurs. A partir de l'estimateur maximum de vraisemblance (MV) de la réflectivité radar, nous développons l'opérateur optimal rapport de vraisemblance généralisé, qui exploite la nature intrinsèquement complexe des données RSO monovues afin d'éviter une perte de performance dûe à la corrélation du speckle. Les aspects spatiaux de la télédétection de contours, tels que la taille et la forme de la fenêtre d'analyse, le nombre de directions à examiner, et la présence de contours multiples, sont également abordés. Nous proposons d'utiliser des méthodes robustes basées sur l'algorithme de partage de eaux, en particulier le seuillage des dynamiques de bassin, pour extraire des contours fermés et squelettisés, définissant la segmentation de l'image. Le nombre de faux contours peut être réduit en post-traitement par la fusion de régions adjacentes ayant des propriétés similaires. L'estimateur MV de la position d'un contour dans une image RSO complexe est établi. Deux méthodes de repositionnement de contours, l'une basée sur les champs de Markov et le modèle de Potts, l'autre sur les contours actifs, sont proposés. L'apport de la segmentation pour des traitements ultérieurs est illustré pour le filtrage adaptatif de speckle et pour la classification contextuelle supervisée.
APA, Harvard, Vancouver, ISO, and other styles
3

Magnier, Baptiste. "Détection de Contours et Diffusion Anisotropique dans les Images." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2011. http://tel.archives-ouvertes.fr/tel-00780268.

Full text
Abstract:
Ce mémoire de thèse est consacré à la détection anisotrope de contours et à la diffusion anisotropique dans les images qui utilisent des demi-filtres gaussiens. Ces demi-filtres parcourent toutes les orientations possibles autour d'un pixel avec un pas de discrétisation choisi. A partir de demi-filtres orientés de dérivées de gaussiennes anisotropes, une nouvelle approche de détection de bords dans les images couleurs a été développée. Puisque le filtre est allongé et fin, cette méthode permet d'extraire les contours des larges structures mais également des petits objets, même en présence de bruit. Les courbes gamma mettent en évidence des parties sombres ou sur-éclairées d'une image. L'utilisation combinée de ces demi-filtres et des courbes gamma apporte une robustesse supplémentaire au filtre puisqu'il est capable d'extraire les bords des objets, même dans les parties sous et sur-exposées d'une image. Le deuxième travail dans cette thèse concerne l'extraction de lignes de crêtes dans les images à partir de différence de deux demi-gaussiennes anisotropiques. Cette nouvelle méthode rend très précise la détection de ce type de contours même au niveau des lignes fortement courbées ou coudées. De plus, l'utilisation de demi-filtres apporte une information supplémentaire au niveau des jonctions qui correspondent aux maxima locaux. Enfin, le dernier thème de cette thèse est dédié à la diffusion anisotropique dans les images. Ainsi, trois nouveaux schémas de régularisation ont été développés dont deux pour supprimer les textures et un pour le débruitage. Ce dernier schéma donne des résultats intéressants, même dans des images en couleurs fortement bruitées.
APA, Harvard, Vancouver, ISO, and other styles
4

Tabbone, Salvatore-Antoine. "Détection multi-échelle de contours subpixel et de jonctions." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL021N.

Full text
Abstract:
Un système de vision se décompose généralement en plusieurs niveaux. Le premier niveau (bas niveau) a pour objectif d'extraire, de l'énorme quantité d'information contenue dans une image, des primitives robustes et exploitables. La qualité des résultats des niveaux supérieurs est donc tributaire de celle du bas niveau. Nous tentons de répondre aux attentes des niveaux supérieurs d'un système de vision en leur fournissant des informations robustes, exploitables et aussi proches que possible de la scène observée. Nous proposons un système complet de traitement bas niveau d'images à niveau de gris. Une image est décrite à plusieurs échelles (détection multi-échelle) en termes de jonctions et de contours avec une précision subpixel. Un algorithme de fermeture de contours fait coopérer les contours et les jonctions détectés. Notre système est fonde sur des études originales de comportement de modèles d'indices vis-à-vis d'un détecteur de contours
APA, Harvard, Vancouver, ISO, and other styles
5

Dibos, Françoise. "Formalisation du problème de détection de contours : deux théories." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090015.

Full text
Abstract:
Cette thèse comporte deux parties. Dans la première partie, nous démontrons qu'une segmentation minimisante K pour la fonctionnelle de Mumford et Shah vérifie la propriété des projections. Ceci veut dire que pour toute droite D du plan, la somme des longueurs de Hausdorff des projections sur D et sur une droite orthogonale A D de l'intersection de K et de toute boule centrée sur K et de rayon R est supérieure à AR, où A est une constante universelle. Cette démonstration réalise une étape vers la preuve de la conjecture de Mumford et Shah. Nous démontrons aussi que tout ensemble vérifiant la propriété des projections est dénombrablement rectifiable et que cette propriété est conservatrice par passage a la limite au sens de Hausdorff. Enfin, nous proposons une démonstration simplifiée du théorème de séparation de Besicovitch en demandant à un 1-ensemble E de vérifier une hypothèse supplémentaire qui n'est pas trop restrictive. Dans la deuxième partie de cette thèse, nous proposons une méthode géométrique de détection de contours. Cette méthode, qui utilise les derniers résultats en diffusion anisotropique des images a pour principales caractéristiques de permettre la détection simultanée de plusieurs contours sans augmentation du temps de calcul et de ne nécessiter aucun paramètre
APA, Harvard, Vancouver, ISO, and other styles
6

Zhou, Zhi-Dong. "Détection de contours et mise en correspondance des images stéréoscopiques." Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0202.

Full text
Abstract:
Les recherches effectuées en traitement de l'image par ordinateur sont présentées dans cette thèse. Elles concernent particulièrement la détection de contours et la mise en correspondance d'images stéréoscopiques. Les contours sont détectés respectivement par un filtre gaussien et un filtre optimal, qui est un filtre exponentiel symétrique. Dans les deux cas, les contours sont localises avec précision. Quant à la mise en correspondance des images stéréoscopiques, les images sont prises dans un système d'axes parallèles aux cameras. La stratégie de mise en correspondance consiste à apparier tout d'abord les points de contours en utilisant la stratégie de multi-niveaux, et ensuite, les autres pixels en utilisant les appariements trouvés des points de contours. Le système de stéréovision qui fonctionne selon ce principe a été réalisé
APA, Harvard, Vancouver, ISO, and other styles
7

Bossart, Pierre-Louis. "Détection de contours réguliers dans des images bruitées et texturées : association des contours actifs et d'une approche multiéchelle." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0098.

Full text
Abstract:
Cette thèse traite de la détection de contours dans des images fortement bruitées et texturées. Après avoir exposé les limitations des opérateurs locaux, nous suggérons de contraindre la détection grâce aux modèles de contours actifs, qui introduisent des informations a priori sur la géométrie et la régularité des objets cherchés. La mise en oeuvre des contours actifs est difficile en raison de nombreux problèmes pratiques. Nous proposons deux techniques rendant cette approche globale plus robuste et plus facile d'emploi. D'une part, nous facilitons le choix des paramètres en adaptant un algorithme de calibrage ayant une explication géométrique : les paramètres dépendent de la valeur de la courbure maximale. L'association des contours actifs et d'une représentation multiéchelle permet d'autre part de réduire la dépendance vis-à-vis de l'initialisation. Après une convergence robuste vers une solution grossière, la localisation des contours est améliorée en diminuant progressivement l'échelle d'analyse. Nous proposons alors plusieurs techniques efficaces de suivi des contours dans l'espace-échelle, s'appuyant sur une prédiction du déplacement des frontières sous l'effet du lissage gaussien. Les résultats expérimentaux montrent la validité de notre approche, et mettent en évidence l'apport d'une collaboration entre processus de segmentation, en particulier pour automatiser l'initialisation.
APA, Harvard, Vancouver, ISO, and other styles
8

Forthoffer, Martial. "Détection de contours par transformée en ondelettes et réseaux de neurones." Nancy 1, 1992. http://www.theses.fr/1992NAN10008.

Full text
Abstract:
Le mémoire présenté traite de la segmentation d'images par détection de contours par la coopération de la transformée en ondelettes et des réseaux de neurones. Le chapitre i introduit les différentes méthodes de segmentation d'images en insistant sur la détection de contours. La transformée en ondelettes présentée dans le chapitre II effectue une analyse multirésolution et permet d'exprimer les contours comme les informations perdues lors d'une approximation du signal sur des facteurs de résolutions dyadiques. Dans le chapitre III, nous proposons une nouvelle méthode de détection de contours effectuée à partir de combinaisons multirésolution pondérées par une estimation locale du bruit. Le résultat est généralement peu sensible au bruit, mais certaines informations telles que les contours en forme de toit sont supprimées. Le chapitre IV détaille les différentes bases d'ondelettes construites sur des filtres de type gradient ou laplacien. Les limites imposées par la transformée en ondelettes induisent l'utilisation d'une version bi-orthogonale qui autorise l'utilisation de filtres optimaux au sens de Canny. La difficulté à déterminer une méthode analytique de recombinaison multirésolution nous conduit dans le chapitre V à soumettre cette tache à un réseau de neurones. Le réseau identifie les liens existant entre les contours réels et leur contribution dans les différentes résolutions de l'image, en fonction d'une référence déterminée par expert. Pour des applications exigeant une grande vitesse de calcul, son intégration avec la transformée en ondelettes (algorithme temps réel) est envisagée.
APA, Harvard, Vancouver, ISO, and other styles
9

Elomary, Youssef. "Modèles déformables et multirésolution pour la détection de contours de traitement d'images." Phd thesis, Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00010656.

Full text
Abstract:
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.

Notre propos dans cette thèse est d'étudier ces modèles dans un environnement multirésolution.

Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.

Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation

d'énergie.

Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'aggrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle

associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon

une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
APA, Harvard, Vancouver, ISO, and other styles
10

Wan, Yue-Feng. "Un opérateur hyperbolique pour la détection de contours dans les images numériques." Lille 1, 1996. http://www.theses.fr/1996LIL10216.

Full text
Abstract:
Dans ce mémoire, nous décrivons un nouvel opérateur permettant la détection de contours dans une image numérique. La mise en évidence des contours est réalisée grâce à une opération de convolution de l'image avec un filtre dont la réponse impulsionnelle est une fonction sinus hyperbolique amortie. Nous montrons, en nous basant sur les critères de performance définis par canne, que ce filtre est au moins aussi performant que les autres filtres similaires décrits précédemment dans la littérature. Nous présentons enfin quelques résultats obtenus lors du traitement de données réelles par l'operateur hyperbolique, à la fois sur des signaux monodimensionnels et sur des images. Une partie du mémoire est consacrée à la description d'une procédure de calcul de la réponse du filtre sur un signal discret, basée sur l'utilisation de traitements récursifs.
APA, Harvard, Vancouver, ISO, and other styles
11

Garcia, Lorca Federico. "Filtres récursifs temps réel pour la détection de contours : optimisations algorithmiques et architecturales." Paris 11, 1996. http://www.theses.fr/1996PA112439.

Full text
Abstract:
Dans cette thèse on s'intéresse à deux aspects différents : conceptuel et réalisationel, sur lesquels portent les quatre innovations présentées. Si celles-ci sont illustrées par une application au détecteur de contours de Deriche, elles sont facilement généralisables à d'autres détecteurs qu'ils soient basés sur le calcul de maxima locaux de la dérivée première, ou le calcul des passages par zéro du laplacien. Les filtres à réponse impulsionnelle infinie symétriques ou anti-symétriques peuvent être réalisés sous forme cascade. Le filtre de lissage peut être défini par intégration numérique du filtre dérivateur optimal. Tout filtre détecteur de contours à noyau large peut être considéré comme un filtre de lissage bidimensionnel à noyau large suivi d'un simple filtre Sobel. L’utilisation d'opérateurs blocs série offre le meilleur compromis surface rapidité pour l'intégration en ASICS ou FPGAS. Nous proposons une architecture câblée temps réel optimale en compacité et simplicité de la version récursive du filtre détecteur de contours de Deriche. Nous exposons la méthode qui conduit à notre solution. A travers cette expérience, nous souhaitons transmettre aux concepteurs d'outils de CAO un certain nombre d'idées qui doivent à notre avis être exploitées afin que des outils tels que les graphes flots de données ou les langages synchrones assistent efficacement l'architecte dans les problèmes d'ordonnancement, d'allocation et de repliement temporel du graphe vers l'architecture.
APA, Harvard, Vancouver, ISO, and other styles
12

Ziou, Djemel. "La détection des contours dans des images à niveaux de gris : mise en oeuvre et sélection de détecteurs." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 1991. http://tel.archives-ouvertes.fr/tel-00812973.

Full text
Abstract:
La détection de contour a pour objectif l'acquisition d'une représentation compacte de toutes les propriétés significatives de la scène perçue. Elle doit être efficace et fiable, car la validité et l'efficacité ainsi que les possibilités de réalisation des traitements ultérieurs y sont directement liées. Cependant, la présence du bruit dans l'image rend difficile la conception d'un algorithme général de détection de contours satisfaisant d'une manière optimale ces exigences. C'est la raison pour laquelle de nombreux détecteurs ont été proposés souvent différents par leur objectif ainsi que par leurs propriétés mathématiques et algorithmiques. Le problème auquel se trouve souvent confronter les utilisateurs de la détection de contours est le choix du détecteur le plus approprié pour l'application envisagée. Le thème central de cette thèse est la détection de contours dans des images à niveaux de gris, en visant la mise en œuvre d'une sélection automatique de détecteurs et de leurs paramètres les plus appropriés pour mettre en évidence un contour donné. Pour disposer d'un ensemble d'outils nécessaires à la détection de contours, nous proposons deux détecteurs de contours originaux. Le premier est destiné aux lignes de crête. Il est optimal au sens de Canny et implanté efficacement par des équations aux différences. Le second est un détecteur de contours fermés de type marche fondé sur des techniques d'apprentissage. Il est destiné à des images comportant quelques objets poses sur un fond. Cet algorithme peut être utilisé pour la détection de contours et pour l'extraction de régions. La définition d'un critère de sélection de détecteurs et le calcul automatique de leurs paramètres nécessitent la spécification de la relation de cause à effet entre les caractéristiques du contour et les propriétés des détecteurs. Dans ce contexte, nous proposons une étude bibliographique approfondie et une étude théorique mettant en évidence l'influence des attributs des contours sur les performances des détecteurs. Cette étude validée par des expérimentations a permis d'obtenir des résultats originaux. En ce qui concerne la sélection des détecteurs de contours, nous proposons une approche incrémentale qui consiste à choisir un seul détecteur à chaque itération. La combinatoire de l'approche proposée est faible grâce à l'utilisation d'heuristiques. Le système implanté est composé d'algorithmes originaux. Il a l'avantage de fournir une solution efficace assurant le compromis entre deux critères de performance qui sont de nature antagoniste : la détection et la localisation.
APA, Harvard, Vancouver, ISO, and other styles
13

Abdellaoui, Andaloussi Maane Mohamed. "Segmentation d'images par détection de régions ou de contours : application aux images échocardiographiques et introduction d'un modèle de contour de l'endocarde." Paris 12, 1991. http://www.theses.fr/1991PA120029.

Full text
Abstract:
L'objet de ces travaux est de developper des outils specifiques de segmentation des images echocardiographiques. Nous proposons deux approches, l'une fondee sur les techniques de detection de regions, l'autre sur celles de detection de contours. Dans un premier temps, nous avons utilise une methode qui consiste a rechercher le seuil optimal qui nous permet, dans une sequence d'images, de separer l'objet mobile du fond immobile. Ce seuil est obtenu a partir d'informations de mouvements calculees par des matrices de cooccurrence temporelle. Dans la deuxieme partie de ce travail nous avons mene une etude comparative entre differents filtres detecteurs de contours afin de definir celui dont les performances sont optimales au sens des criteres de canny. Cette etude nous a conduit a choisir le filtre de deriche dans notre algorithme de detection du contour endocardique. Malgre les resultats intrinseques de celui-ci, les resultats obtenus ne permettent pas la visualisation de l'endocarde. Pour se faire, nous proposons un modele de contour tenant compte des informations de variations de luminance et de la forme quasi-circulaire du contour recherche. Une methode de programmation dynamique nous permet alors de detecter le contour endocardique optimal au sens de notre modele
APA, Harvard, Vancouver, ISO, and other styles
14

Chidiac, Hanna. "Études des contours dans des images à niveaux de gris origines, détection et classification." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0019/MQ56881.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Bachmann, Jean-Paul. "Étude et réalisation d'un automate microprogrammé pour la détection de contours dans une image." Paris 11, 1986. http://www.theses.fr/1986PA112307.

Full text
Abstract:
Cet ouvrage présente la réalisation d'un calculateur microprogrammé pour effectuer des traitements de voisinage sur des images qui s'interface entre un mini-ordinateur HP1000 et une mémoire d'image. Après une présentation des microprocesseurs en tranches et des architectures microprogrammées, la réalisation du calculateur et du poste qui le contrôle est abordée. Le calculateur est réalisé à partir de microprocesseurs en tranches de la famille AXD2900. Il possède un bus de 16 bits et une structure trois adresses. Son séquenceur peut adresser 1 24 micro-instructions de 72 bits. Une mémoire tampon lui permet de manipuler des portions d'images sans être pénalisé par les accès à la mémoire d'image. Il est piloté par un poste de contrôle construit autour du microprocesseur MC6800. Le poste a été particulièrement conçu pour faciliter la mise au point des microprogrammes implantés dans la machine. La partie logicielle est ensuite décrite. Elle comprend l'écriture d'un assembleur spécifique de la machine, du moniteur du poste de contrôle et des microprogrammes de quelques opérateurs de lissage et de détection de contours.
APA, Harvard, Vancouver, ISO, and other styles
16

Sarifuddin. "Implantation sous forme de circuit spécialisé d'un algorithme de détection de contours multi-échelle." Dijon, 1995. http://www.theses.fr/1995DIJOS019.

Full text
Abstract:
L'extraction des contours d'une image discrète joue un rôle important dans une chaine de traitement d'images. Les différentes méthodes de détection de contours sont nombreuses telles que les gradients du premier ordre, du second ordre et par approche de filtrage optimal. La détection de contours multi-échelles par la transformée en ondelettes permet de retrouver d'une manière optimum tous les détails de contours présents dans une image par changement d'échelles. Elle s'effectue donc en calculant les informations de détails qui diffèrent d'une échelle à l'autre, ce qui permet d'accéder à une représentation des résultats d'une qualité meilleure. Les résultats de contours en quatre échelles différentes obtenus par la transformée en ondelettes en utilisant le filtre de Deriche optimise montrent la complémentarité entre les contours d'une échelle à l'autre. Par ailleurs on remarque que quatre échelles sont suffisantes pour assurer cette complémentarité. L'application en temps réel pour la détection de contours 2d en quatre échelles nécessite une implantation de 32 filtres récursifs d'ordre 3. Pour que l'implantation de ces filtres soit rendue possible (simplicité et limitation du cout), nous avons implanté ces filtres dans le cas particulier des quatre échelles. Cette thèse donne le détail de la conception et de l'implantation de l'algorithme de détection de contours multi-échelles dans des circuits FPGAs xc4005 (chaque FPGA contient quatre filtres récursifs d'ordre 3) ainsi que la réalisation d'une carte de système de traitement en temps réel pour la détection de contours en quatre échelles différentes. La vitesse du traitement (lissage plus détection) est de 10 mhz (25 images par seconde pour des images de 512 x 512 pixel)
APA, Harvard, Vancouver, ISO, and other styles
17

Rital, Soufiane. "Hypergraphe de voisinage spatiocolorimétrique : application en traitement d'images : détection de contours et du bruit." Dijon, 2004. http://www.theses.fr/2004DIJOS020.

Full text
Abstract:
Dans ce document, nous nous intéressons `a la modélisation de l'image par le biais de la théorie des hypergraphes. Notre contribution est essentielle- ment axée sur la détermination des propriétés issues de cette théorie et sur l'analyse de leur adéquation avec des problématiques de l'image et parti- culi`erement la détection de contours et la suppression de bruit. Dans un premier temps, nous étudions la représentation par hypergraphes de voisi- nage spatiocolorimétrique de l'image. Trois représentations sont présentées incorporant des propriétés globales, locales, des mesures de similarité et des mesures de dissimilarité. Ensuite, on utilise les propriétés des hypergraphes engendrées par la représentation afin de définir des mod`eles structurels de bruit et de contour. Ceci nous permet ainsi de déduire des algorithmes de suppression de bruit et d'extraction de contours sur des images `a niveaux de gris et couleur. Les performances des approches proposées sont com- parées aux solutions classiquement utilisées. Enfin, la représentation par hypergraphe de voisinage spatiocolorimétrique s'est avérée efficace pour le traitement des images bas niveaux
In this document, we are interested in image modeling by the means of the hypergraph theory. Our contribution is essentially centered on the determi- nation of the properties resulting from this theory and on the analysis from their adequacy with image problems, particularly edge and noise detection. First, we study the image spatiocolorimetric neighborhood hypergraph re- presentation. Three representations are respectively presented incorporating global properties, local properties and similarity functions. Then, we use the hypergraph properties generated by the representation in order to define the structural models of noise and edge. This enables us to deduce the algorithms of noise suppression and edge detection on gray scale and color images. The performances of the proposed approaches are compared with the solutions classically used. Finally, the representation by neighborhood hypergraph consistently seems to be efficient in low level image processing
APA, Harvard, Vancouver, ISO, and other styles
18

Hachouf, Fella. "Télédétection des contours linéaires." Rouen, 1988. http://www.theses.fr/1988ROUES027.

Full text
Abstract:
Etude du problème de la détection des contours tel qu'il se pose par exemple en détection automatique des réseaux routiers ou fluviaux sur des images issues de photographies aériennes. Les principes de base du traitement d'image sont passés en revue. Les différentes méthodes de filtrage sont ensuite abordées. La solution proposée consiste dans la squelettisation homologique de l'image du module du gradient, ce qui permet l'extraction des structures à reconnaître par transformation du squelette en graphe
APA, Harvard, Vancouver, ISO, and other styles
19

Alshatti, Wael. "Approches vectorielles du filtrage et de la détection de contours dans des images multi-spectrales." Chambéry, 1994. http://www.theses.fr/1994CHAMS022.

Full text
Abstract:
La représentation d'une image peut être rendue plus riche que la classique représentation en niveaux de gris par l'utilisation d'une base multi-spectrale. Les images couleur, certaines images bio-médicales ou les images satellites sont des images multi-spectrales. L'image peut être vue alors comme un champ vectoriel. L'objectif de ce travail est d'étudier et de définir des méthodes de traitement basées sur des approches vectorielles, prenant en compte la corrélation existant entre les différentes composantes spectrales. La première partie du travail concerne le filtrage des images multi-spectrales. Après avoir présenté une étude comparative des solutions existantes, une nouvelle classe de filtres est proposée. Ces filtres ont un comportement qui peut être contrôlé par deux paramètres. Selon les valeurs de ces paramètres, deux familles de filtres peuvent être définies. La première regroupe des NL-filtres qui offrent de meilleures propriétés de lissage que les NL-filtres. La deuxième famille peut être vue comme une extension au cas vectoriel des filtres de rang scalaire. Ces filtres possèdent des propriétés intéressantes de rehaussement de contraste, ce qui facilite les étapes ultérieures de segmentation et d'analyse. Des études et des essais montrent les performances de ces deux familles. La deuxième partie du travail présente les différentes approches vectorielles de la détection de contours dans des images multi-spectrales.
APA, Harvard, Vancouver, ISO, and other styles
20

Nguyen, Van Dinh. "Exploitation de la détection de contours pour la compréhension de texte dans une scène visuelle." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS473.

Full text
Abstract:
L'intérêt porté à la détection de contours pour la compréhension de texte dans une scène visuelle a été croissant au cours des dernières années comme en témoignent un grand nombre d'applications telles que les systèmes de reconnaissance de plaque d'immatriculation de voiture, les systèmes de navigation, les voitures autonomes basées sur la reconnaissance des panneaux de signalisation, etc. Dans cette recherche, nous abordons les défis de la conception de systèmes de lecture de texte de scène automatique robustes et fiables. Deux étapes majeures du système, à savoir, la localisation de texte dans une scène et sa reconnaissance, ont été étudiées et de nouveaux algorithmes ont été développés pour y remédier. Nos travaux sont basés sur l'observation qu'indiquer des régions de texte de scène primaire qui ont forte probabilité d'être des textes est un aspect important dans la localisation et la reconnaissance de cette information. Ce facteur peut influencer à la fois la précision et l'efficacité des systèmes de détection et de reconnaissance. Inspirées par les succès des recherche de proposition d'objets dans la détection et la reconnaissance objet général, deux techniques de proposition de texte de scène ont été proposées, à savoir l'approche Text-Edge-Box (TEB) et l'approche Max-Pooling Text Proposal (MPT). Dans le TEB, les fonctionnalités bottom-up proposées, qui sont extraites des cartes binaires de contours de Canny, sont utilisées pour regrouper les contours connectés et leur attribuer un score distinct. Dans la technique MPT, une nouvelle solution de groupement est proposée, qui est inspiré de l'approche Max-Pooling. À la différence des techniques de regroupement existantes, cette solution ne repose sur aucune règle heuristique spécifique liée au texte ni sur aucun seuil pour fournir des décisions de regroupement. Basé sur ces résultats, nous avons conçu un système pour comprendre le texte dans une scène visuelle en intégrant des modèles a l'état de l'art en reconnaissance de texte, où une suppression des faux positifs et une reconnaissance de mot peut être traitée simultanément. De plus, nous avons développé un système assisté de recherche de texte dans une scène en construisant une interface web en complément du système de compréhension de texte. Le système peut être consulté via le lien: dinh.ubismart.org:27790. Des expériences sur diverses bases de données publiques montrent que les techniques proposées surpassent les méthodes les plus modernes de reconnaissance de textes sous différents cadres d'évaluation. Le système complet propose surpasse également d'autres systèmes complets de reconnaissance de texte et a été soumis à une compétition de lecture automatique dans laquelle il a montré sa performance et a atteint la cinquième position dans le classement (Dec-2017): http://rrc.cvc.uab.es/?ch=2&com =evaluation&task=4
Scene texts have been attracting increasing interest in recent years as witnessed by a large number of applications such as car licence plate recognition systems, navigation systems, self-driving cars based on traffic sign, and so on. In this research, we tackle challenges of designing robust and reliable automatic scene text reading systems. Two major steps of the system as a scene text localization and a scene text recognition have been studied and novel algorithms have been developed to address them. Our works are based on the observation that providing primary scene text regions which have high probability of being texts is very important for localizing and recognizing texts in scenes. This factor can influence both accuracy and efficiency of detection and recognition systems. Inspired by successes of object proposal researches in general object detection and recognition, two state-of-the-art scene text proposal techniques have been proposed, namely Text-Edge-Box (TEB) and Max-Pooling Text Proposal (MPT). In the TEB, proposed bottom-up features, which are extracted from binary Canny edge maps, are used to group edge connected components into proposals and score them. In the MPT technique, a novel grouping solution is proposed as inspired by the max-pooling idea. Different from existing grouping techniques, it does not rely on any text specific heuristic rules and thresholds for providing grouping decisions. Based on our proposed scene text proposal techniques, we designed an end-to-end scene text reading system by integrating proposals with state-of-the-art scene text recognition models, where a false positive proposals suppression and a word recognition can be processed concurrently. Furthermore, we developed an assisted scene text searching system by building a web-page user interface on top of the proposed end-to-end system. The system can be accessed by any smart device at the link: dinh.ubismart.org:27790. Experiments on various public scene text datasets show that the proposed scene text proposal techniques outperform other state-of-the-art scene text proposals under different evaluation frameworks. The designed end-to-end systems also outperforms other scene-text-proposal based end-to-end systems and are competitive to other systems as presented in the robust reading competition community. It achieves the fifth position in the champion list (Dec-2017): http://rrc.cvc.uab.es/?ch=2&com =evaluation&task=4
APA, Harvard, Vancouver, ISO, and other styles
21

Bouda, Rabah. "Application de la transformée en ondelettes et des filtres orientés à la détection de contours." Aix-Marseille 3, 1999. http://www.theses.fr/1999AIX30044.

Full text
Abstract:
Depuis quelques annees, la transformee en ondelettes a connue une evolution considerable en traitement d'images et en particulier en detection de contours multi-echelles. Cette transformee est basee sur une fonction appelee ondelette mere. Depuis sa creation, plusieurs fonctions ondelettes ont ete elaborees, chacune avec ses proprietes. Dans le but de mieux comprendre les avantages et les inconvenients de l'utilisation de telle ou telle ondelette, nous determinons les criteres de choix pour l'ondelette. Les problemes de la non-invariance en temps et de la linearite en phase sont explores dans l'optique de la detection et de la localisation de contours. Nous donnons un tableau synthetique regroupant les grandes familles des ondelettes couramment utilisees ainsi que leurs proprietes. Nous proposons une nouvelle methode de description d'objets par leur contour a l'aide de la transformee en ondelettes. Cette methode s'appuie sur une representation parametrique du contour exprime dans le plan complexe. Le comportement de la transformee en ondelettes discrete et dyadique est etudie vis a vis des transformations geometriques de l'objet de l'image (rotation, translation, changement d'echelle, changement d'origine) et des modifications locales. Une methode est choisie pour assurer une bonne invariance du descripteur. Une estimation quantitative de l'invariance est assuree grace au choix d'un critere base sur l'energie du descripteur. La notion de filtres orientes et leur utilisation est ensuite exploree pour la detection de contours. Nous avons propose et calcule un filtre et nous montrons que la decomposition multi-orientation avec les filtres orientes est efficace pour la detection de contour. Nous comparons les resultats obtenus par la methode des filtres orientes avec ceux de la transformee en ondelettes discrete et continue orientee. Un critere quantitatif de mesure des performances de ces algorithmes est propose.
APA, Harvard, Vancouver, ISO, and other styles
22

Drogoul, Audric. "Méthode du gradient topologique pour la détection de contours et de structures fines en imagerie." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4063/document.

Full text
Abstract:
Cette thèse porte sur la méthode du gradient topologique appliquée au traitement d'images. Principalement, on s'intéresse à la détection d'objets assimilés, soit à des contours si l'intensité de l'image à travers la structure comporte un saut, soit à une structure fine (filaments et points en 2D) s'il n'y a pas de saut à travers la structure. On commence par généraliser la méthode du gradient topologique déjà utilisée en détection de contours pour des images dégradées par du bruit gaussien, à des modèles non linéaires adaptés à des images contaminées par un processus poissonnien ou du bruit de speckle et par différents types de flous. On présente également un modèle de restauration par diffusion anisotrope utilisant le gradient topologique pour un domaine fissuré. Un autre modèle basé sur une EDP elliptique linéaire utilisant un opérateur anisotrope préservant les contours est proposé. Ensuite, on présente et étudie un modèle de détection de structures fines utilisant la méthode du gradient topologique. Ce modèle repose sur l'étude de la sensibilité topologique d'une fonction coût utilisant les dérivées secondes d'une régularisation de l'image solution d'une EDP d'ordre 4 de type Kirchhoff. En particulier on explicite les gradients topologiques pour des domaines 2D fissurés ou perforés, et des domaines 3D fissurés. Plusieurs applications pour des images 2D et 3D, floutées et contaminées par du bruit gaussien, montrent la robustesse et la rapidité de la méthode. Enfin on généralise notre approche pour la détection de contours et de structures fines par l'étude de la sensibilité topologique d'une fonction coût utilisant les dérivées m−ième d'une régularisation de l'image dégradée, solution d'une EDP d'ordre 2m
This thesis deals with the topological gradient method applied in imaging. Particularly, we are interested in object detection. Objects can be assimilated either to edges if the intensity across the structure has a jump, or to fine structures (filaments and points in 2D) if there is no jump of intensity across the structure. We generalize the topological gradient method already used in edge detection for images contaminated by Gaussian noise, to quasi-linear models adapted to Poissonian or speckled images possibly blurred. As a by-product, a restoration model based on an anisotropic diffusion using the topological gradient is presented. We also present a model based on an elliptical linear PDE using an anisotropic differential operator preserving edges. After that, we study a variational model based on the topological gradient to detect fine structures. It consists in the study of the topological sensitivity of a cost function involving second order derivatives of a regularized version of the image solution of a PDE of Kirchhoff type. We compute the topological gradients associated to perforated and cracked 2D domains and to cracked 3D domains. Many applications performed on 2D and 3D blurred and Gaussian noisy images, show the robustness and the fastness of the method. An anisotropic restoration model preserving filaments in 2D is also given. Finally, we generalize our approach by the study of the topological sensitivity of a cost function involving the m − th derivatives of a regularization of the image solution of a 2m order PDE
APA, Harvard, Vancouver, ISO, and other styles
23

Vézina, Martin. "Développement de logiciels de thermographie infrarouge visant à améliorer le contrôle de la qualité de la pose de l’enrobé bitumineux." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5979.

Full text
Abstract:
Les fissures et les nids-de-poule sont des défauts très présents sur les routes du réseau routier québécois. Un bon contrôle de la qualité lors de la pose de l’enrobé bitumineux permet de diminuer les risques d’apparition de ces défauts. Le ministère des Transports du Québec (MTQ) utilise la thermographie infrarouge afin de détecter les zones non conformes, soit celles qui deviendront des nids-de-poule ou des fissures. Des variations thermiques sur l’image infrarouge permettent la détection de ces zones. Toutefois, les logiciels utilisés par le MTQ ne sont pas appropriés pour détecter les zones non conformes. Ce mémoire présente deux méthodes de détection automatique des zones non conformes. La première permet l’analyse des images prises par une caméra thermique alors que la seconde permet d’analyser en continu les données provenant d’un scanneur infrarouge. Ces deux méthodes utilisent des techniques de segmentation afin de détecter les zones non conformes. Elles permettent l’analyse automatique des données sans qu’aucune intervention humaine ne soit nécessaire.
APA, Harvard, Vancouver, ISO, and other styles
24

Dipanda, Albert. "Analyse d'images et animation synthétique : application à la détection automatique des contours par analyse de texture et utilisation d'expertise en échocardiographie : animation bidimensionnelle des contours." Paris 12, 1990. http://www.theses.fr/1990PA120006.

Full text
Abstract:
Le but de cette these est la detection des contours du ventricule droit dans une image echocardiographique et l'animation de ces contours. Les methodes classiques de recherche des contours que nous avons appliquees sur les images echocardiographiques, se sont averees inadaptees. Ceci nous a conduit a elaborer une methode reposant sur l'analyse de texture, qui a permis de discriminer les trois classes de textures presentes dans l'image (myocarde, cavites, tissus environnants). Une segmentation de l'image en zones qui presentent une uniformite texturelle a ete effectuee. Elle s'appuie sur une classification supervisee, basee sur la distance de mahalanobis. Les contours detectes sont fermes en utilisant une base de connaissances anatomiques, elaboree avec l'aide d'un cardiologue. Une evaluation des resultats obtenus a montre la similitude des contours detectes automatiquement et ceux traces manuellement par le cardiologue. Une animation des contours detectes est realisee; a partir d'un nombre limite d'images, nommees images-cles, selectionnees a divers instants du cycle cardiaque; elle assure la generation d'images intermediaires. La methode employee pour cette generation est la methode dite des points-mobiles. Cette etude a ete appliquee au ventricule droit a partir d'images echocardiographiques, mais les methodes developpees pourraient etre utilisees pour d'autres organes ou solides deformables, et sur d'autres types d'images
APA, Harvard, Vancouver, ISO, and other styles
25

Bubel, Annie. "Détection et groupement des jonctions dans une image 2D pour l'extraction des contours structurés d'objets 3D." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ57927.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Stoclin, Vincent. "Développement de critères pour l'évaluation de filtres discrets de détection de contours dans les images numériques." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-398-399.pdf.

Full text
Abstract:
Dans ce memoire, nous proposons de nouveaux criteres pour l'evaluation des filtres discrets de detection de contours dans les images numeriques. En utilisant un modele de contour de type echelon discret nous definissons les criteres de detection, de localisation et de proximite. Ces trois criteres s'expriment simplement a partir de la reponse impulsionnelle discrete des operateurs et s'appliquent sur les detecteurs procedant par une approche derivative. Le critere de detection permet de quantifier l'influence du bruit sur la reponse du detecteur a notre modele de contour. Le critere de localisation quantifie l'ecart entre la position reelle du contour et la position detectee en presence de bruit. Un modele de contour ne presentant qu'une seule transition n'est pas tres representatif des images reelles. Afin de tenir compte de la presence d'un contour proche du contour a detecter nous definissons le critere de proximite. Il permet de fixer les limites sur l'erreur de localisation commise par le detecteur due a un contour proche. L'application de ces criteres sur les filtres derivatifs utilisant un masque de convolution (filtres rif) ne posant aucun probleme nous nous sommes interesses plus particulierement aux detecteurs a reponse impulsionnelle infinie definis par une fonction de transfert du second ordre recursif
Pour ces detecteurs, nous exprimons nos criteres en considerant les parametres de cette fonction de transfert. A partir de ces nouveaux criteres il est possible d'evaluer les performances de l'ensemble des detecteurs discrets. Dans la partie resultat nous proposons deux methodes d'utilisation de nos criteres, l'une pour la selection d'un filtre, l'autre pour la comparaison des detecteurs. La premiere approche consiste a considerer un detecteur et a determiner les parametres adequats pour mettre en evidence un contour dans une configuration donnee. La seconde approche consiste a comparer a facteur d'echelle identique les differents detecteurs
APA, Harvard, Vancouver, ISO, and other styles
27

Mraghni, Mohamed-Chadi. "Détection de chaînes de contours dans une image numérique par approche symbolique et par grammaire de formes." Tours, 1997. http://www.theses.fr/1997TOUR4010.

Full text
Abstract:
On présente une méthode de détection de chaînes de contours dites cohérentes, par un raisonnement symbolique en intégrant la segmentation et l'interprétation. Une étude théorique, fondée sur l'analyse du 8-voisinage, a conduit à décrire ces chaînes par une grammaire dite de cohérence. Le système de détection développe correspond a un système itératif et incrémentiel. Il est composé de deux parties : une base de connaissances qui contient les règles de la grammaire, un moteur qui correspond aux algorithmes de détection. La séparation de la base de connaissance et du moteur de détection apporte plusieurs avantages. Si, par exemple, la base de connaissances subit une mise à jour, cela implique peu ou pas de modification quant aux algorithmes. Cette séparation permet également de définir plusieurs bases de connaissances, qui correspondraient chacune à une forme différente (e. G. Une base pour la détection de chaînes de contours, une autre pour les structures linéaires). Pour décrire les structures linéaires, on a introduit la notion de grammaire de formes qui correspond à une spécialisation de la grammaire de cohérence. On a définit une grammaire de forme par pente (l'étendue des pentes a été quantifiée). Cette méthode a été implémentée et testée sur des images réelles et artificielles. Actuellement deux bases de connaissances ont été établies, l'une concerne les chaines de contours, l'autre les segments de droites
APA, Harvard, Vancouver, ISO, and other styles
28

Cabestaing, François. "Détection de contours en mouvement dans une séquence d'images : conception et réalisation d'un processeur câblé temps-réel." Lille 1, 1992. http://www.theses.fr/1992LIL10010.

Full text
Abstract:
Dans ce travail, nous présentons la conception et la réalisation d'un processeur spécifique dédié à l'analyse de scènes dynamiques: le STREAM, Système Temps-Réel d'Extraction et d'Analyse du mouvement. Ce processeur permet la détection en temps-réel des contours de tous les objets en mouvement se déplaçant dans une scène observée par une caméra fixe. Nous avons évalué l'efficacité de plusieurs algorithmes permettant d'extraire d'une séquence d'images les contours des objets en mouvement, en adaptant au cas des contours mobiles divers critères de comparaison utilisés en traitement d'images statiques. Cette étude nous a permis de sélectionner la méthode de détection la plus adaptée au traitement de scènes réelles. L'algorithme retenu a été partitionné en opérateurs simples qui ont été implantés sur une série de cartes électroniques communicant par l'intermédiaire de liens vidéo numériques. L'efficacité du processeur STREAM a été vérifiée dans le cadre de deux expérimentations liées à l'amélioration de la sécurité dans les systèmes de transport en commun de voyageurs
APA, Harvard, Vancouver, ISO, and other styles
29

Rochery, Marie. "Contours actifs d'ordre supérieur et leur application à la détection de linéiques dans les images de télédétection." Nice, 2005. http://www.theses.fr/2005NICE4036.

Full text
Abstract:
Cette thèse aborde le problème de l'introduction d'une connaissance a priori sur la géométrie de l'objet à détecter dans le cadre général de la reconnaissance de formes dans une image. L'application choisie pour illustrer ce problème est la détection de réseaux de linéiques dans des images satellitaires et aériennes. Nous nous plaçons dans le cadre des contours actifs, qui ont été largement utilisés en traitement d'image pour l'extraction d'objets, et nous introduisons une nouvelle classe de contours actifs d'ordre supérieur. Cette classe permet la création de nouveaux modèles rendant possible l'incorporation d'informations géométriques fortes définissant plutôt qu'une forme spécifique, une famille générale de formes. Nous étudions, dans un premier temps, un cas particulier d'énergie quadratique qui favorise des structures à plusieurs bras de largeur à peu près constante et connectés entre eux. Cette énergie démontre les perspectives de modélisation qu'offre la nouvelles classe de contours actifs introduite. L'énergie étudiée ainsi que des termes linéaires de longueur et d'aire sont utilisés comme termes d'a priori pour les modèles d'extraction de linéiques que nous proposons. Plusieurs termes d'attache aux données sont proposés dont un terme quadratique permettant de lier la géométrie du contour et les propriétés de l'image. Un modèle d'extraction permettant de gérer les occultations est également présenté. Pour permettre la minimisation de l'énergie, nous développons un cadre méthodologique utilisant les courbes de niveau. Les forces non locales sont calculées sur le contour extrait avant d'être étendues sur tout le domaine considéré. Finalement, afin de résoudre certaines difficultés rencontrées avec les contours actifs standards ainsi que les nouveaux modèles, nous proposons d'utiliser des modèles de champs de phase pour modéliser les régions. Cette méthodologie offre une alternative avantageuse aux techniques classiques et nous définissons des modèles d'extraction de linéiques similaires aux contours actifs d'ordre supérieur dans ce cadre. La pertinence de tous les modèles proposés est illustrée sur des images satellitaires et aériennes réelles
This thesis addresses the question of how to introduce prior knowledge about the shape of an object to be detected in the general framework of object recognition from images. We illustrate this idea with the problem of line network extraction from satellite and aerial images. We use the framework of active contours, which has been extensively used in image processing for object extraction. We introduce a whole new class of active contours, named "higher-order active contours". This class allows us to define new models that incorporate sophisticated prior geometric knowledge describing, rather than a specific shape, a general family of shapes. We first study a particular case of a geometric quadratic energy that favours network structures composed of arms of roughly constant width joined at junctions. This energy demonstrates the modelling possibilities offered by the new class of active contours. The geometric quadratic energy is added to the linear terms length and area, and is used as a geometric prior for the line network extraction models we propose. Several image terms are defined, one of them being a quadratic term linking the geometry of contour points and the data. A model for extraction in presence of occlusions is also presented. In order to minimize these energies, we develop an algorithm based on the level set methodology. The non-local forces of the gradient descent equation are computed on the extracted contour, before being extended to the whole domain. Finally, in order to solve certain difficulties with both standard active contours and the new models, we propose to use phase field models to model regions
APA, Harvard, Vancouver, ISO, and other styles
30

Pham, Minh Hoan. "Méthodes de détection des régions cancéreuses dans des images obtenues par tomographie calculée." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30388.

Full text
Abstract:
La Tomographie Calculée (CT) est une technique non-invasive permettant de fournir des images de toutes les parties du corps humain sans superposition des structures adjacentes. Cette technique se base sur l'absorption de rayon X et permet la reconstruction d'images du corps humain. Les mesures avec CT à rayons X sont soumises à de nombreuses imperfections ou d'artefacts d'images qui comportent : bruit quantique, diffusion des rayons X par le patient, et des effets non linéaires de volume. Le traitement d'image est un outil indispensable pour améliorer le contraste et extraire d'une manière automatique les régions d'intérêts. L'analyse des données d'images CT est une aide à la décision pour l'apparition d'un cancer en phase naissante. La segmentation automatique de la tomographie calculée (CT) est une étape importante pour la chirurgie assistée qui requière à la fois une grande précision et une interaction minimale de l'utilisateur. Les tentatives d'utilisations de la segmentation, comprenant le seuillage (global et optimal), le filtrage, la segmentation par région de type watershead, et l'approche basée sur les contours actifs, ne sont pas pleinement satisfaisantes. Dans cette thèse, nous nous intéressons aux techniques d'extraction automatique des régions représentant les zones cancéreuses dans des images obtenues par la CT. Un nouvel algorithme basé sur la programmation dynamique, est proposé pour l'ajustement automatique des paramètres des contours actifs. Dans notre nouvelle approche, nous utilisons l'entropie pour l'estimation des paramètres alpha et beta de l'énergie interne. Pour obtenir des images pour l'identification des régions malignes, qui soient de meilleure qualité en terme de contraste, nous avons utilisé la fusion d'images à partir de la Transformée en ondelettes. Toutes ces méthodes ont été implémentées sous forme de plugins dans le logiciel GIMP
Computed Tomography (CT) is a non-invasive technique which provides images of the human body without superposing adjacent structures. This technique is based on the absorption of X-rays by the human body. Analysis from X-ray absorption is subject to a variety of imperfections and image artifacts including quantum noise, X-rays scattered by the patient (absorptive environment), beam hardening, and nonlinear volume effects. Image processing is a crucial tool for contrast enhancement and region analysis. Analysis of CT images is a decision-making tool for cancer formation at an incipient phase. Segmentation of computed tomography (CT) images is an important step in image-guided surgery that requires both high accuracy and minimal user interaction. Previous attempts include thresholding (global and optimal), region growing (region competition, watershed segmentation), edge tracing, and parametric active contour (AC) approaches for segmentation, are not fully satisfying. In this dissertation we have been interested in the CT image processing methods to detect and analyze cancerous regions in phase II and III. A new algorithm, which hinges on dynamic programming, has been proposed for automatically extracting region of interest using adapted active contours. In our new approach, Entropy is used to estimate the parameters alpha and beta of the active contour internal energy. In order to enhance the image quality in terms of contrast and to understand more the regions of interest, image fusion is used. Image fusion is a process of combining multiple images into a single image containing more relevant information. We use Wavelet Transform and a specific Fusion Rule to identify and select relevant information of the process. All these methods have been implemented as plugins in GIMP software
APA, Harvard, Vancouver, ISO, and other styles
31

Abdulrahman, Hasan. "Oriented filters for feature extraction in digital Images : Application to corners detection, Contours evaluation and color Steganalysis." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS077/document.

Full text
Abstract:
L’interprétation du contenu de l’image est un objectif très important dans le traitement de l’image et la vision par ordinateur. Par conséquent, plusieurs chercheurs y sont intéressés. Une image contient des informations multiples qui peuvent être étudiés, telles que la couleur, les formes, les arêtes, les angles, la taille et l’orientation. En outre, les contours contiennent les structures les plus importantes de l’image. Afin d’extraire les caractéristiques du contour d’un objet, nous devons détecter les bords de cet objet. La détection de bords est un point clé dans plusieurs applications, telles que :la restauration, l’amélioration de l’image, la stéganographie, le filigrane, la récupération, la reconnaissance et la compression de l’image, etc. Toutefois, l’évaluation de la performance de la méthode de détection de bords reste un grand défi. Les images numériques sont parfois modifiées par une procédure légale ou illégale afin d’envoyer des données secrètes ou spéciales. Afin d’être moins visibles, la plupart des méthodes stéganographiques modifient les valeurs de pixels dans les bords/textures de parties de l’image. Par conséquent, il est important de détecter la présence de données cachées dans les images numériques. Cette thèse est divisée principalement en deux parties.La première partie discute l’évaluation des méthodes de détection des bords du filtrage, des contours et des angles. En effet, cinq contributions sont présentées dans cette partie : d’abord, nous avons proposé un nouveau plan de surveillance normalisée de mesure de la qualité. En second lieu, nous avons proposé une nouvelle technique pour évaluer les méthodes de détection des bords de filtrage impliquant le score minimal des mesures considérées. En plus, nous avons construit une nouvelle vérité terrain de la carte de bords étiquetée d’une manière semi-automatique pour des images réelles.En troisième lieu, nous avons proposé une nouvelle mesure prenant en compte les distances de faux points positifs pour évaluer un détecteur de bords d’une manière objective. Enfin, nous avons proposé une nouvelle approche de détection de bords qui combine la dérivée directionnelle et l’homogénéité des grains. Notre approche proposée est plus stable et robuste au bruit que dix autres méthodes célèbres de détection. La seconde partie discute la stéganalyse de l’image en couleurs, basée sur l’apprentissage automatique (machine learning). En effet, trois contributions sont présentées dans cette partie : d’abord, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur l’extraction de caractéristiques de couleurs à partir de corrélations entre les gradients de canaux rouge, vert et bleu. En fait, ces caractéristiques donnent le cosinus des angles entre les gradients. En second lieu, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur des mesures géométriques obtenues par le sinus et le cosinus des angles de gradients entre tous les canaux de couleurs. Enfin, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur une banque de filtres gaussiens orientables. Toutes les trois méthodes proposées présentent des résultats intéressants et prometteur en devançant l’état de l’art de la stéganalyse en couleurs
Interpretation of image contents is very important objective in image processing and computer vision. Wherefore, it has received much attention of researchers. An image contains a lot of information which can be studied such as color, shapes, edges, corners, size, and orientation. Moreover, contours include the most important structures in the image. In order to extract features contour of an object, we must detect the edges of that object. Edge detection results, remains a key point and very important step in wide range of applications such as: image restoration, enhancement, steganography, watermarking, image retrieval, recognition, compression, and etc. An efficient boundary detection method should create a contour image containing edges at their correct locations with a minimum of misclassified pixels. However, the performance evaluationof the edge detection results is still a challenging problem. The digital images are sometimes modify by a legal or illegal data in order to send special or secret data. These changes modify slight coefficient values of the image. In order to be less visible, most of the steganography methods modify the pixel values in the edge/texture image areas. Therefore, it is important to detect the presence of hidden data in digital images. This thesis is divided mainly into two main parts. The first part, deals with filtering edge detection, contours evaluation and corners detection methods. More deeply, there are five contributions are presented in this part: first, proposed a new normalized supervised edge map quality measure. The strategy to normalize the evaluation enables to consider a score close to 0 as a good edge map, whereas a score 1 translates a poor segmentation. Second, proposed a new technique to evaluate filtering edge detection methods involving the minimum score of the considerate measures. Moreover, build a new ground truth edge map labelled in semi-automatic way in real images. Third, proposed a new measure takes into account the distances of false positive points to evaluate an edge detector in an objective way. Finally, proposed a new approach for corner detection based on the combination of directional derivative and homogeneity kernels. The proposed approach remains more stable and robust to noise than ten famous corner detection methods. The second part, deals with color image steganalysis, based on a machine learning classification. More deeply, there are three contributionsare presented in this part: first, proposed a new color image steganalysis method based on extract color features from correlations between the gradients of red, green and blue channels. Since these features give the cosine of angles between gradients. Second, proposed a new color steganalysis method based on geometric measures obtained by the sine and cosine of gradient angles between all the color channels. Finally, proposed a new approach for color image steganalysisbased on steerable Gaussian filters Bank.All the three proposed methods in this part, provide interesting and promising results by outperforming the state-of-art color image steganalysis
APA, Harvard, Vancouver, ISO, and other styles
32

Ait, Fares Wassima. "Détection et suivi d'objets par vision fondés sur segmentation par contour actif base région." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2143/.

Full text
Abstract:
La segmentation et le suivi d'objets sont des domaines de recherche compétitifs dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet de celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous utilisons des critères qui dépendent des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode du contour actif, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées
Object segmentation and tracking is a challenging area of ongoing research in computer vision. One important application lies in robotics where the ability to accurately segment an object of interest from its background is crucial and particularly on images acquired onboard during robot motion. Object segmentation technique consists in separating the object region from the image background according to a pre-defined criterion. Object tracking is a process of determining the positions of moving objects in image sequences. Several techniques can be applied to ensure these operations. In this thesis, we are interested to segment and track objects in video sequences using active contour method due to its robustness and efficiency to segment and track non-rigid objects. Active contour method consists in making a curve converge from an initial position around the object to be detected towards this object boundary according to a pre-defined criterion. We employ criteria which depend on the image regions what may impose certain constraints on the characteristics of these regions as a homogeneity assumption. This assumption may not always be verified due to the heterogeneity often present in images. In order to cope with the heterogeneity that may appear either in the object of interest or in the image background in noisy images using an inadequate active contour initialization, we propose a technique that combines local and global statistics in order to compute the segmentation criterion. By using a radius with a fixed size, a half-disk is superposed on each point of the active contour to define the local extraction regions. However, when the heterogeneity appears on both the object of interest and the image background, we develop a new technique based on a flexible radius that defines two half-disks with two different radius values to extract the local information. The choice of the value of these two radii is determined by taking into consideration the object size as well as the distance separating the object of interest from its neighbors. Finally, to track a mobile object within a video sequence using the active contour method, we develop a hybrid object tracking approach based on region characteristics and on motion vector of interest points extracted on the object region. Using our approach, the initial active contour for each image will be adequately adjusted in a way that it will be as close as possible to the actual boundary of the object of interest so that the evolution of active contour based on characteristics of the region will not be trapped by false contours. Simulation results on synthetic and real images validate the effectiveness of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
33

Rousseau, Kami. "Restauration adaptative des contours par une approche inspirée de la prédiction des performances." Thèse, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/2788.

Full text
Abstract:
En télédétection, les cartes de contours peuvent servir, entre autres choses, à la restitution géométrique, à la recherche d'éléments linéaires, ainsi qu'à la segmentation. La création de ces cartes est faite relativement tôt dans la chaîne de traitements d'une image. Pour assurer la qualité des opérations subséquentes, il faut veiller à obtenir une carte de contours précise. Notre problématique est de savoir s'il est possible de diminuer la perte de temps liée au choix d'algorithme et de paramètre en corrigeant automatiquement la carte de contours. Nous concentrerons donc nos efforts sur le développement d'une méthode de détection/restauration de contours adaptative. Notre méthode s'inspire d'une technique de prédiction des performances d'algorithmes de bas niveau. Elle consiste à intégrer un traitement par réseau de neurones à une méthode"classique" de détection de contours. Plus précisément, nous proposons de combiner la carte de performances avec la carte de gradient pour permettre des décisions plus exactes. La présente étude a permis de développer un logiciel comprenant un réseau de neurones entraîné pour prédire la présence de contours. Ce réseau de neurones permet d'améliorer les décisions de détecteurs de contours, en réduisant le nombre de pixels de fausses alarmes et de contours manqués. La première étape de ce travail consiste en une méthode d'évaluation de performance pour les cartes de contours. Une fois ce choix effectué, il devient possible de comparer les cartes entre elles. Il est donc plus aisé de déterminer, pour chaque image, la meilleure détection de contours. La revue de la littérature réalisée simultanément a permis de faire un choix d'un groupe d'indicateurs prometteurs pour la restauration de contours. Ces derniers ont servi à la calibration et à l'entrainement d'un réseau de neurones pour modéliser les contours. Par la suite, l'information fournie par ce réseau a été combinée par multiplication arithmétique avec les cartes d'amplitudes de détecteurs"classiques" afin de fournir de nouvelles cartes d'amplitude du gradient. Le seuillage de ces contours donne des cartes de contours"optimisées". Sur les images aéroportées du jeu de données South Florida, la médiane des mesures-F de la pour l'algorithme de Sobel passe de 51,3 % avant la fusion à 56,4 % après. La médiane des mesures-F pour l'algorithme de Kirsch amélioré est de 56,3 % et celle de Frei-Chen amélioré est de 56,3 %. Pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F médiane est de 52,3 % avant fusion et de 57,2 % après fusion.En guise de comparaison, la mesure-F médiane pour le détecteur de Moon, mathématiquement optimal pour contours de type"rampe", est de 53,3 % et celle de l'algorithme de Canny, est de 61,1 %. L'applicabilité de notre algorithme se limite aux images qui, après filtrage, ont un rapport signal sur bruit supérieur ou égal à 20. Sur les photos au sol du jeu de données de South Florida, les résultats sont comparables à ceux obtenus sur les images aéroportées. Par contre, sur le jeu de données de Berkeley, les résultats n'ont pas été concluants. Sur une imagette IKONOS du campus de l'Université de Sherbrooke, pour l'algorithme de Sobel, la mesure-F est de 45,7 % «0,9 % avant la fusion et de 50,8 % après. Sur une imagette IKONOS de l'Agence Spatiale Canadienne, pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F est de 35,4 % «0,9 % avant la fusion et de 42,2 % après. Sur cette même image, l'algorithme de Argyle (Canny sans post-traitement) a une mesure-F de 35,1 % «0,9 % avant fusion et de 39,5 % après. Nos travaux ont permis d'améliorer la banque d'indicateurs de Chalmond, rendant possible le prétraitement avant le seuillage de la carte de gradient. À chaque étape, nous proposons un choix de paramètres permettant d'utiliser efficacement la méthode proposée. Les contours corrigés sont plus fins, plus complets et mieux localisés que les contours originaux. Une étude de sensibilité a été effectuée et permet de mieux comprendre la contribution de chaque indicateur. L'efficacité de l'outil développé est comparable à celle d'autres méthodes de détection de contours et en fait un choix intéressant pour la détection de contours. Les différences de qualité observées entre notre méthode et celle de Canny semble être dues à l'utilisation, ou non, de post-traitements. Grâce au logiciel développé, il est possible de réutiliser la méthodologie; cette dernière a permis d'opérationnaliser la méthode proposée. La possibilité de réutiliser le filtre, sans réentrainement est intéressante. La simplicité du paramétrage lors de l'utilisation est aussi un avantage. Ces deux facteurs répondent à un besoin de réduire le temps d'utilisation du logiciel.
APA, Harvard, Vancouver, ISO, and other styles
34

Rochery, Marie. "Contours actifs d´ordre supérieur et leur application à la détection de linéiques dans des images de télédétection." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00010631.

Full text
Abstract:
Cette thèse aborde le problème de l´introduction d´une connaissance a priori sur la géométrie de l´objet à détecter dans le cadre général de la reconnaissance de formes dans une image. L´application choisie pour illustrer ce problème est la détection de réseaux de linéiques dans des images satellitaires et aériennes. Nous nous placons dans le cadre des contours actifs et nous introduisons une nouvelle classe de contours actifs d´ordre supérieur. Cette classe permet la création de nouveaux modèles rendant possible l´incorporation d´informations géométriques fortes définissant plutôt qu´une forme spécifique, une famille générale de formes. Nous étudions un cas particulier d´énergie quadratique qui favorise des structures à plusieurs bras de largeur à peu près constante et connectés entre eux. L´énergie étudiée ainsi que des termes linéaires de longueur et d´aire sont utilisés comme termes d´a priori pour les modèles d´extraction de linéiques que nous proposons. Plusieurs termes d´attache aux données sont proposés dont un terme quadratique permettant de lier la géométrie du contour et les propriétés de l´image. Un modèle d´extraction permettant de gérer les occultations est également présenté. Pour permettre la minimisation de l´énergie, nous développons un cadre méthodologique utilisant les courbes de niveau. Les forces non locales sont calculées sur le contour extrait avant d´être étendues sur tout le domaine considéré. Finalement, afin de résoudre certaines difficultés rencontrées avec les contours actifs standards ainsi que les nouveaux modèles, nous proposons d´utiliser des modèles de champs de phase pour modéliser les régions. Cette méthodologie offre une alternative avantageuse aux techniques classiques et nous définissons des modèles d´extraction de linéiques similaires aux contours actifs d´ordre supérieur dans ce cadre. La pertinence de tous les modèles proposés est illustrée sur des images satellitaires et aériennes réelles.
APA, Harvard, Vancouver, ISO, and other styles
35

Mayorquim, Jorge Luiz. "Étude en vue de la réalisation d'un réseau de neurones binaires logiques : détection de contours en temps réel." Compiègne, 1996. http://www.theses.fr/1996COMPD893.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Ziou, Djemel. "La détection de contours dans des images à niveaux de gris : mise en œuvre et sélection de détecteurs." Vandoeuvre-les-Nancy, INPL, 1991. http://docnum.univ-lorraine.fr/public/INPL_T_1991_ZIOU_D.pdf.

Full text
Abstract:
Dans cette thèse nous nous intéressons particulièrement à la détection de contours dans des images à niveaux de gris. Son objectif principal est la définition d'un critère de sélection des détecteurs de contours et leurs paramètres les plus appropriés pour mettre en évidence un contour donné par un utilisateur. Nous proposons une étude bibliographique approfondie (synthèse, problématique, etc. . . ) et deux détecteurs de contours originaux dont l'un est issu des critères de Canny qui constituent un formalisme récent et reconnu mondialement. Nous présentons ensuite une étude de l'influence des attributs d'un contour et des propriétés mathématiques d'un détecteur sur ses performances. Enfin, nous décrivons le système de sélection de détecteurs de contours et le calcul automatique de leurs paramètres
APA, Harvard, Vancouver, ISO, and other styles
37

Touzani, Abderrahmane. "Classification automatique par détection des contours des modes des fonctions de densité de probabilité multivariables et étiquetage probabiliste." Lille 1, 1987. http://www.theses.fr/1987LIL10058.

Full text
Abstract:
Présentation des méthodes non paramétriques permettant de connaître la valeur de la fonction de densité en chacun des points d'une discrétisation de l'espace en hypercubes élémentaires. L'estimateur est mis en forme grâce à l'introduction d'un filtre de type médian multidimensionnel. Deux opérateurs différentiels sont introduits et appliqués aux fonctions de densité estimées et filtrées. Un algorithme d'extraction de contour séquentiel permet d'exploiter la réponse des opérateurs différentiels pour identifier les contours des modes. L'intérêt de l'approche présentée est démontre pour les problèmes de classification automatique non supervisée, tant sous l'hypothèse non paramétrique que paramétrique
APA, Harvard, Vancouver, ISO, and other styles
38

Chen, Yuxin. "Filtre de Canny Deriche : application à la détection des contours, évaluation et implémentation sur un réseau parallèle de transputers." Châtenay-Malabry, Ecole centrale de Paris, 1990. http://www.theses.fr/1990ECAP0134.

Full text
Abstract:
Des traitements essentiels de bas niveau de la vision par ordinateur sont étudiés dans cette thèse. Une série d'opérateurs réalisant le lissage, les dérivées premières et secondes de l'image ainsi que leur formule d'implémentation récursive sont élaborées. Diverses techniques d'extraction de contours sont développées. Nous avons particulièrement étudié les interactions entre des contours proches. L'influence du paramètre résolutionnel α des opérateurs sur la détection et la localisation des contours dans différents environnements est exprimée explicitement. Cela permet, entre autres, de calculer les déplacements des points de discontinuité détectés. Apres une justification des principaux résultats obtenus sur des signaux 2D, nous proposons un algorithme d'étiquetage des points de contours avec les valeurs de α. Il en résulte une classification des contours. Le problème d'extraction des points à forte courbure a été considéré. Nous avons amélioré l'algorithme de Plessey en utilisant un filtre plus performant pour calculer les dérivées de l'image. Nous proposons une nouvelle approche travaillant directement sur l'image en niveau de gris. Une nouvelle primitive extraite de la fonction codée du contour est définie: fonction d'enveloppe. Une approche utilisant un filtre non linéaire ε-saturé est développée pour extraire cette fonction. Nous avons mené une étude de la parallélisation d'un algorithme de détection de contours sur un système de transputers. Deux solutions sont proposées pour l'implémentation parallèle. La première solution consiste à repartir une image en bandes horizontales et à stocker chaque bande dans un processeur. Une méthode est alors proposée pour supprimer la transposition généralement employée pour les traitements sur colonne. La deuxième solution consiste à stocker une image entière dans un seul processeur. Les performances de ces deux solutions sont évaluées. Diverses techniques d'optimisations du traitement et des communications sont analysées.
APA, Harvard, Vancouver, ISO, and other styles
39

VAILLANT, REGIS. "Géométrie différentielle et vision par ordinateur : détection et reconstruction des contours d'occultation de la surface d'un objet non-polyédrique." Paris 11, 1990. http://www.theses.fr/1990PA112337.

Full text
Abstract:
Le cadre general de ce travail est l'etude des objets non-polyedriques lorsqu'ils sont observes avec des systemes de vision passive. Le but recherche est batir une representation de ces objets incluant les proprietes differentielles de leur surface. Cette these est plus specialement consacree a l'etude des contours d'occultation. Il s'agit des contours pour lesquels le rayon optique est tangent a la surface observee. Nous presentons plusieurs resultats lies aux proprietes de l'image de ces contours et un algorithme permettant: la detection des contours d'occultation en utilisant plusieurs images (au moins 3) et la reconstruction de la surface observee dans le voisinage du contour. La reconstruction faite comprend les proprietes differentielles de la surface jusqu'a l'ordre 2: courbures et directions principales. Nous presentons aussi un algorithme tres simple permettant le calcul du signe de la courbure gaussienne. Des resultats sur des donnees synthetiques (en vue d'evaluer la qualite numerique) et des donnees reelles sont presentees. Les applications potentielles de ces algorithmes sont tres importantes dans le cadre des problemes de modelisation d'objets
APA, Harvard, Vancouver, ISO, and other styles
40

Lefèvre, Sébastien. "Détection d'événements dans une séquence vidéo." Phd thesis, Université François Rabelais - Tours, 2002. http://tel.archives-ouvertes.fr/tel-00278073.

Full text
Abstract:
Le problème abordé ici concerne l'indexation de données multimédia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vidéo afin d'y détecter des événements prédéfinis. La recherche de ces événements étant contextuelle, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications.
APA, Harvard, Vancouver, ISO, and other styles
41

Halit, Mehdi. "Détection et suivi de contours sur des séquences échocardiographiques apicales par coopération de modèles déformables et de réseaux de neurones." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-147.pdf.

Full text
Abstract:
Cette thèse porte sur la segmentation d'images échocardiographiques prises sous incidence apicale par application d'une méthode de coopération entre les modèles déformables de type contours actifs ou « snakes », et les réseaux de neurones de type Hopfield pour l'optimisation. Nous avons repris le modèle originel des contours actifs et nous recherchons le minimum de son potentiel d'énergie en utilisant un réseau de Hopfield. L'originalité de notre travail réside dans l'introduction, dans l'expression de l'énergie, en plus des termes d'énergie interne et d'attache aux données de l'image, d'un terme issu d'un apprentissage par ACP (Analyse en Composantes Principales) effectue sur les champs de déplacement des points du contour entre deux images successives de la séquence apicale. Cette thèse commence par la présentation de la problématique de segmentation d'images échocardiographiques apicales et des différentes techniques qui ont été appliquées. Par la suite, le modèle du contour actif originel est présenté, et ses limites mises à nu. Un premier essai est effectué pour la segmentation de la séquence d'images en utilisant le modèle originel des contours actifs, dans lequel on a introduit un terme supplémentaire issu d'une ACP sur les formes du contour. Les résultats n'étant pas satisfaisants, on modifie le modèle afin de le combiner avec un réseau de Hopfield pour l'optimisation, et une ACP sur les champs de déplacement entre deux images successives. Cette coopération de méthodes apporte de la robustesse aux résultats et permet de se rapprocher des segmentations manuelles effectuées par des experts cardiologues, et qui restent les contours de référence.
APA, Harvard, Vancouver, ISO, and other styles
42

Toulminet, Gwenaëlle. "Extraction des contours 3D des obstacles par stéréovision pour l'aide à la conduite automobile." INSA de Rouen, 2002. http://www.theses.fr/2002ISAM0011.

Full text
Abstract:
Dans le cadre de la conception d'un capteur de vision 3D pour l'aide à la conduite automobile, nous avons conçu une méthode d'extraction rapide, robuste et fiable des contours 3D des obstacles. Dans une première étape, nous améliorons les cartes 3D éparses construites à partir de paires d'images stéréoscopiques. L'amélioration des cartes 3D éparses consiste à détecter et à corriger les faux appariements de mise en correspondance. Pour cela, nous appliquons un critère de continuité sur des courbes 3D de contour préalablement construites, et nous supposons que la majorité des points 3D des courbes 3D sont les résultats d'appariements corrects de mise en correspondance. Dans une deuxième étape, les contours 3D des obstacles sont extraits à partir des courbes 3D améliorées, ce qui permet de réduire la sensibilité de la méthode aux faux appariements de mise en correspondance. De plus, l'extraction des contours 3D des obstacles a été conçue de manière à réduire sa sensibilité au bruit stochastique et à une modélisation et une détection approximative du plan de la route : cette extraction est une coopération de deux méthodes d'extraction des contours 3D des obstacles qui n'ont pas la même sensibilité et qui sont utilisées de manière complémentaire. La robustesse et la fiabilité de l'extraction des contours 3D des obstacles sont étudiées à partir de scènes routières réelles dont les conditions de visibilité sont différentes. Une partie de ces travaux a été réalisée dans le cadre d'une action intégrée franco-italienne GALILEE 2000 en collaboration avec le Dipartimento di Ingegneria dell'Informazione de l'Université de Parme.
APA, Harvard, Vancouver, ISO, and other styles
43

Zéboudj, Rachid. "Filtrage, seuillage automatique, contraste et contours : du pré-traitement à l'analyse d'image." Saint-Etienne, 1988. http://www.theses.fr/1988STET4001.

Full text
Abstract:
Etude de quelques aspects du traitement et de l'analyse d'image : présentation d'un lissage adaptatif mettant en évidence les régions qui composent une image; introduction de la notion de contraste utile en seuillage d'image; segmentation d'image; techniques d'extraction d'information par seuillage d'image et détection de contours; classification de formes utilisant la courbure
APA, Harvard, Vancouver, ISO, and other styles
44

Duquenoy, Eric. "Accroissement de la vitesse de convergence de la Transformée de Hough et contribution à la détection de contours par fenêtre ductile." Littoral, 1998. http://www.theses.fr/1998DUNK0025.

Full text
Abstract:
Ce travail décrit deux approches nouvelles de la transformée de Hough, méthode utilisée en traitement d'images pour la détection de formes simples telles que droites, cercles ou ellipses mais également, sous certaines conditions, des formes plus complexes. Après avoir démontré la propriété de pseudo-linéarité de cette transformée nous proposons, dans une première partie un principe général d'accélération de la convergence de la méthode vers le résultat final basé sur une utilisation conjointe d'un mécanisme de sous-échantillonnage spatial et d'un suivi de maximum adaptatif. Les résultats présentés concernent la détection d'ellipses mais peuvent être étendus à tout type de transformée. Dans une seconde partie, nous présentons une application originale de la transformée, concernant l'extraction de contours, utilisant une modélisation des profils de niveaux de gris par des segments de droites. L'identification des segments s'effectue à l'intérieur de fenêtres ductiles dont l'évolution est supervisée par un processus de suivi de maximum dans l'espace transformé
This work describes two news approaches of the Hough transform, which method is used in image processing to extract lines, circles, ellipses or arbitrary shapes. After demonstrating the pseudo-linearity property of this transform we propose, in the first part, a general principle of acceleration of the method convergence based on the use of a spatial under-sampling mechanism and an adaptive follow-up of the maximum. The shown results are applied to the detection of ellipses, but can be extended to any type of transform. In the second part, we present an original application of the transform applied to contours extraction using profiles modeling of grey levels by straight line segments. The identification of segments is executed within ductile windows whose evolution is supervised by a process of follow-up of the maximum in transformed space
APA, Harvard, Vancouver, ISO, and other styles
45

Perez, Oramas Oliver. "Contribution à une méthodologie d'intégration de connaissances pour le traitement d'images : application à la détection de contours par règles linguistiques floues." Nancy 1, 2000. http://www.theses.fr/2000NAN10091.

Full text
Abstract:
Dans ce mémoire, nous proposons une contribution à une méthodologie d'intégration de connaissances dans le traitement d'images que nous appliquons à la détection de contours. Nous avons esquissé cette méthodologie sous la base de la théorie de la granulation floue de l'information récemment proposée par L. A. Zadeh. Ainsi, nous construisons pour une application de détection de contours, un modèle contextuel qui incorpore de la connaissance relative à diverses parties du système d'acquisition telles que l'environnement, le montage d'observation et le produit, tenant compte des imprécisions des contours réels. Ce modèle est ensuite inséré dans le paradigme de traitement flou des images que nous avons proposé. Ce mémoire s'articule en quatre parties : la première présente notre point de vue d'un système de vision industrielle et cible le traitement d'images auquel nous nous intéressons. Nous introduisons ensuite la modélisation linguistique, servant de base théorique au raisonnement approximatif et la théorie de la granulation floue de l'information. La deuxième partie généralise des applications de traitement d' images en utilisant la théorie des ensembles flous par le paradigme de traitement flou des images. Nous particularisons ensuite ce paradigme pour le cas d'un système à base de règles floues pour construire notre opérateur de détection de contours FRED, Fuzzy Resoning Edge Detection. Le modèle générique complet de cet opérateur est constitué de cinq modules qui définissent l'image de contours de sortie à partir d'une image numérique d'entrée: une étape d' extraction des propriétés, une étape de fuzzification, une étape de raisonnement, une étape de défuzzification et un modèle contextuel lié à la base de connaissances. Sur la base de la théorie de la granulation floue de l'information, nous avons présenté une méthodologie pour construire le modèle contextuel, impliquant les étapes de granulation, d'attribution et de valuation. La troisième partie détaille l'implémentation de deux opérateurs de détection de contours sur la base de l'opérateur générique FRED. Bien que ces deux opérateurs utilisent la même structure générique et aient le même objectif de détection de contours, ils traduisent néanmoins deux contextes différents. Les résultats de ces deux opérateurs sont alors agrégés par un opérateur de fusion que nous avons développé en fonction de critères spécifiques. Dans la dernière partie, pour valider l'implémentation de nos deux opérateurs, nous avons utilisé les critères de Fram et Deutsch sur des images de synthèse, qui reflètent la robustesse de l'opérateur vis à vis du bruit et la continuité des points du segment de contour. Cette validation est illustrée sur des angiographies rénales par une application dans le domaine bio-médical concernant l'extraction de contours de sténoses
In this thesis, we propose a contribution to a methodology for knowledge integration in image processing that we apply to edge detection. We outlined this methodology under the base of the theory of fuzzy information granulation, recently suggested by L A. Zadeh. Thus, we built a contextual model, for an edge detection application, that incorporates knowledge about the elements relating to the acquisition system and that takes into account the imprecision of real contours. This model is inserted in a fuzzy image processing paradigm. This document is articulated in four parts. First, we present our point of view about an industrial vision system. Next, we introduce linguistic modeling as the theoretical base of approximate reasoning as same as the theory of the fuzzy information granulation. Second, we start with a generalization of image processing applications using fuzzy set theory through the paradigm of fuzzy image processing. Then we particularize this paradigm for fuzzy rules system case in order to construct our edge detection operator FRED, (Fuzzy Reasoning Edge Detection). FRED consists of five modules : the extraction of properties, the fuzzification, the reasoning, the defuzzification and the contextual model related to the knowledge base. On the ground of fuzzy information granulation, we presented a methodology to construct the contextual model, implying the stages of granulation, attribution and valuation. Third, we detail the implementation of two operators of detection of contours on the basis of FRED. Although these two operators use the same generic structure and have the same objective, edge detection, they translate nevertheless two different contexts. The results of these operators are then aggregated with a specific fusion operator that we have especially developed. And fourth, we validate the implementations of our two operators\ using Fram and Deutsch criteria on computergenerated images. These criteria reflect the robustness of the operator with respect to the noise and the continuity of the contour's segment. An application concerning a renal arteriography edge detection process ends this document
APA, Harvard, Vancouver, ISO, and other styles
46

Favier, Eric. "Contribution de l'analyse multi-résolution à la description des contours et des textures." Saint-Etienne, 1994. http://www.theses.fr/1994STET4020.

Full text
Abstract:
Cette thèse s'attache à l'étude multirésolution des contours discrets et des images à niveaux de gris de texture. Le but est de fournir une description de ces objets à différentes échelles d'étude et d'essayer de déterminer la ou les échelles d'étude les plus appropriées pour l'analyse de ceux-ci. La première partie de ce travail se rapporte à l'étude des images binaires et plus particulièrement à l'étude des contours discrets. La notion d'échelle d'étude d'un contour est définie ainsi que des algorithmes permettant de la choisir. Pour chaque contour, on détermine la (ou les) échelle(s) d'étude permettant de le décrire de manière optimale. Des algorithmes de calculs de courbures en chaque point du contour, de détermination de points dominants en fonction de l'échelle d'étude choisie sont décrits. Une définition de la convexité est donnée en fonction des études choisies ainsi que la notion de t enveloppe convexe. Il est également présenté une distance sur l'ensemble des contours discrets. Cette dernière est une distance de convexité à une échelle d'étude donnée qui permet de comparer deux contours indépendamment de leur taille sur un critère de convexité. De plus, un lien est tissé entre ces différents algorithmes et les opérations de granulométrie ou d'ouvertures connues dans la morphologie mathématique. La seconde partie de cette thèse aborde l'étude des images en niveaux de gris multitexturées, là aussi le but est de décrire ces images en fonction de l'échelle d'étude et de trouver les bons paramètres pour l'analyse de ce type d'images. Les méthodes sont d'ordre statistique et les processus mis en oeuvre sont liés aux approches multirésolutions. Un modèle gaussien d'images de texture est présenté. Chaque image est étudiée à différentes échelles d'étude, et le choix de la meilleure échelle d'étude est abordé ce qui permet de proposer des méthodes automatiques de détection des zones de texture semblable. Des résultats sont présentés pour des exemples d'images multitexturées et une analyse des résultats montre que nos méthodes permettent de segmenter de manière très satisfaisante certaines images qui posent des problèmes à de nombreux algorithmes existants
APA, Harvard, Vancouver, ISO, and other styles
47

Pérez, Rúa Juan Manuel. "Hierarchical motion-based video analysis with applications to video post-production." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S125/document.

Full text
Abstract:
Nous présentons dans ce manuscrit les méthodes développées et les résultats obtenus dans notre travail de thèse sur l'analyse du contenu dynamique de scène visuelle. Nous avons considéré la configuration la plus fréquente de vision par ordinateur, à savoir caméra monoculaire et vidéos naturelles de scène extérieure. Nous nous concentrons sur des problèmes importants généraux pour la vision par ordinateur et d'un intérêt particulier pour l'industrie cinématographique, dans le cadre de la post-production vidéo. Les problèmes abordés peuvent être regroupés en deux catégories principales, en fonction d'une interaction ou non avec les utilisateurs : l'analyse interactive du contenu vidéo et l'analyse vidéo entièrement automatique. Cette division est un peu schématique, mais elle est en fait liée aux façons dont les méthodes proposées sont utilisées en post-production vidéo. Ces deux grandes approches correspondent aux deux parties principales qui forment ce manuscrit, qui sont ensuite subdivisées en chapitres présentant les différentes méthodes que nous avons proposées. Néanmoins, un fil conducteur fort relie toutes nos contributions. Il s'agit d'une analyse hiérarchique compositionnelle du mouvement dans les scènes dynamiques. Nous motivons et expliquons nos travaux selon l'organisation du manuscrit résumée ci-dessous. Nous partons de l'hypothèse fondamentale de la présence d'une structure hiérarchique de mouvement dans la scène observée, avec un objectif de compréhension de la scène dynamique. Cette hypothèse s'inspire d'un grand nombre de recherches scientifiques sur la vision biologique et cognitive. Plus précisément, nous nous référons à la recherche sur la vision biologique qui a établi la présence d'unités sensorielles liées au mouvement dans le cortex visuel. La découverte de ces unités cérébrales spécialisées a motivé les chercheurs en vision cognitive à étudier comment la locomotion des animaux (évitement des obstacles, planification des chemins, localisation automatique) et d'autres tâches de niveau supérieur sont directement influencées par les perceptions liées aux mouvements. Fait intéressant, les réponses perceptuelles qui se déroulent dans le cortex visuel sont activées non seulement par le mouvement lui-même, mais par des occlusions, des désocclusions, une composition des mouvements et des contours mobiles. En outre, la vision cognitive a relié la capacité du cerveau à appréhender la nature compositionnelle du mouvement dans l'information visuelle à une compréhension de la scène de haut niveau, comme la segmentation et la reconnaissance d'objets
The manuscript that is presented here contains all the findings and conclusions of the carried research in dynamic visual scene analysis. To be precise, we consider the ubiquitous monocular camera computer vision set-up, and the natural unconstrained videos that can be produced by it. In particular, we focus on important problems that are of general interest for the computer vision literature, and of special interest for the film industry, in the context of the video post-production pipeline. The tackled problems can be grouped in two main categories, according to the whether they are driven user interaction or not : user-assisted video processing tools and unsupervised tools for video analysis. This division is rather synthetic but it is in fact related to the ways the proposed methods are used inside the video post-production pipeline. These groups correspond to the main parts that form this manuscript, which are subsequently formed by chapters that explain our proposed methods. However, a single thread ties together all of our findings. This is, a hierarchical analysis of motion composition in dynamic scenes. We explain our exact contributions, together with our main motivations, and results in the following sections. We depart from a hypothesis that links the ability to consider a hierarchical structure of scene motion, with a deeper level of dynamic scene understanding. This hypothesis is inspired by plethora of scientific research in biological and psychological vision. More specifically, we refer to the biological vision research that established the presence of motion-related sensory units in the visual cortex. The discovery of these specialized brain units motivated psychological vision researchers to investigate how animal locomotion (obstacle avoidance, path planning, self-localization) and other higher-level tasks are directly influenced by motion-related percepts. Interestingly, the perceptual responses that take place in the visual cortex are activated not only by motion itself, but by occlusions, dis-occlusions, motion composition, and moving edges. Furthermore, psychological vision have linked the brain's ability to understand motion composition from visual information to high level scene understanding like object segmentation and recognition
APA, Harvard, Vancouver, ISO, and other styles
48

Lalande, Alain. "Utilisation de la logique floue et de la programmation dynamique pour la détection automatique des contours cardiaques à partir d'images en ciné-IRM." Dijon, 1999. http://www.theses.fr/1999DIJOMUO5.

Full text
Abstract:
La détermination des paramètres globaux et régionaux de la fonction cardiaque nécessite la connaissance des contours du ventricule gauche. La ciné-IRM et plus particulièerement la séquence FLASH 2D segmentée en apnée nous permet d'acquérir des coupes peiet axe jointives du ventricule gauche à différentes phases du cycle cardiaque. Le caractère tomographique de l'IRM rend indispensable le développement de méthodes de contourage automatique. Le principal objectif de notre travail est de développer une méthode de détection automatique des contours du ventricule gauche, et d'en extraire la surface de la cavité cardiaque et l'épaisseur du myocarde. À partir des données obtenues en diastole et en systole, on calcule le volume de la cavité cardique, la fraction d'éjection et l'épaississement du myocarde. Notre méthode est basée sur la logique floue, la programmation dynamique et la transformée de Hough. Trois paramètres sont définis pour chaque pixel. Ces paramètres représentent les hypothèses suivantes : les points des contours cardiaques ont le même niveau de gris. Ils appartiennent à un contour et le déplacement d'un contour d'une coupe jointive à l'autre est limité. À partir de ces paramètres est défini le sous-ensemble flou des points des contours cardiaques. Le calcul du degré d'appartenance à ce ce sous-ensemble pour chaque pixel entraîne la création d'une matrice de degrés d'appartennce associée à l'image initiale. L'utilisation de la programmation dynamique avec recherche dans un graphe sur cette matrice permet la détection des contours du ventricule gauche. Concernant l'étude des volumes et de la fraction d'éjection sur des volontaires sains, les résultats obtenus avec notre méthode automatique sont concordants avec ceux obtenus dans la littérature. Sur une population composée de patients et de témoins saints, il y a une excellente corrélation entre notre méthode automatique et un tracé manuel des contours du ventricule gauche. Cependant notre méthode à tendance à surestimer l'épaisseur du myocarde.
APA, Harvard, Vancouver, ISO, and other styles
49

Rital, Soufiane. "Hypergraphe de Voisinage Spatiocolorimétrique. Application en traitement d'images : Détection decontours et du bruit." Phd thesis, Université de Bourgogne, 2004. http://tel.archives-ouvertes.fr/tel-00011832.

Full text
Abstract:
Dans ce document, nous nous intéressons à la modélisation de l'image par le biais de la théorie des hypergraphes. Notre contribution est essentiellement axée sur la détermination des propriétés issues de
cette théorie et sur l'analyse de leur adéquation avec des problématiques de l'image et particulièrement la détection de contours et la suppression de bruit.

Dans un premier temps, nous étudions la représentation par hypergraphes de voisinage spatiocolorimétrique de l'image. Trois représentations sont présentées incorporant des propriétés globales, locales, des mesures de similarité et des mesures de dissimilarité.

Ensuite, on utilise les propriétés des hypergraphes engendrées par la représentation afin de définir des modèles structurels de bruit et de contour. Ceci nous permet ainsi de déduire des algorithmes de suppression de bruit et d'extraction de contours sur des images
à niveaux de gris et couleur. Les performances des approches proposées sont comparées aux solutions classiquement utilisées.
Enfin, la représentation par hypergraphe de voisinage
spatiocolorimétrique s'est avérée efficace pour
le traitement des images bas niveaux.
APA, Harvard, Vancouver, ISO, and other styles
50

Knossow, David. "Analyse et capture multicaméras du mouvement humain." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0039.

Full text
Abstract:
Au cours de cette thèse, nous avons abordé la problématique du suivi du mouvement humain. Nous proposons d'utiliser plusieurs caméras vidéos, permettant de s'affranchir de contraintes sur l'environnement de capture ainsi que de la pose de marqueurs sur l'acteur, au contraire des systèmes courament utilisés. Cela complexifie la recherche d'une information pertinente dans les images mais aussi la corrélation de cette information entre les différentes images ainsi que l'interprétation de cette information en terme de mouvements articulaires du corps humain. Nous nous intéressons à une approche utilisant les contours occultants du corps et étudions le lien entre le mouvement articulaire du corps et le mouvement apparent des contours dans les images. La minimisation de l'erreur entre les contours extraits des images et la projection du modèle nous permet d'estimer le mouvement de l'acteur. Nous montrons que l'utilisation d'images video permet entre autres de produire des informations complémentaires telles que les contacts entre les parties du corps de l'acteur. Ces informations sont importantes pour la ré-utilisation des mouvements en animation 3D
My Ph. D manuscript deals with the problem of markerless human motion capture. We propose an approach that relies on the use of multiple cameras and that avoids most of the constraints on the environment and the use of markers to perform the motion capture, as it is generally the case for industrial systems. The absence of markers makes harder the problem of extracting relevant information from images but also to correlate this information between. Moreover, interpreting this extracted information in terms of joint parameters motion is not an easy task. We propose an approach that relies on occluding contours of the human body. We studied the link between motion parameters and the apparent motion of the edges in images. Minimizing the error between the extracted edges and the projection of the 3D model onto the images allows to estimate the motion parameters of the actor. Among the opened issues, we show that using video based motion capture allows to provide additional hints such as contacts between body parts or between the actor and its environment. This information is particularly relevant for improving character animation
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography