To see the other types of publications on this topic, follow the link: Application à la restauration d'images.

Dissertations / Theses on the topic 'Application à la restauration d'images'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Application à la restauration d'images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gibert, Michel. "Transformée de Fourier bidimensionnelle : application, restauration d'images." 63-Aubière : Impr. U.E.R. Sci, 1985. http://catalogue.bnf.fr/ark:/12148/cb36110061s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Lauga, Guillaume. "Méthodes proximales multi-niveaux et application à la restauration d'images." Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0089.

Full text
Abstract:
La taille des problèmes de restauration d'images ne fait qu'augmenter. Cette croissance pose un problème majeur de passage à l'échelle pour les algorithmes d'optimisation, qui peinent à fournir des solutions satisfaisantes en un temps raisonnable. Parmi les méthodes proposées pour surmonter ce défi, les méthodes multi-niveaux semblent être un candidat idéal. En réduisant de manière systématique la dimension du problème, le coût computationnel nécessaire à sa résolution peut diminuer drastiquement. Ce type d'approche est classique pour la résolution numérique des équations aux dérivées partielles (EDP), avec des garanties théoriques et des démonstrations pratiques pour expliquer leur succès. Cependant, les méthodes actuelles d'optimisation multi-niveaux n'ont pas les mêmes garanties, ni les mêmes performances. Dans cette thèse, nous proposons de combler une partie de cet écart en introduisant un nouvel algorithme multi-niveaux, IML FISTA, possédant les garanties de convergence théoriques optimales pour les problèmes d'optimisation convexes non-lisses, i.e., convergence vers un minimiseur et taux de convergence de la fonction objectif vers une valeur minimale. IML FISTA est aussi en mesure de traiter les régularisations de l'état-de-l'art en restauration d'images. En comparant IML FISTA aux algorithmes standard sur un grand nombre de problèmes de restauration d'images: défloutage, débruitage, reconstruction de pixels manquants pour des images en couleur et des images hyperspectrales, ainsi qu'en reconstruction d'images radio-interférométriques, nous montrons qu'IML FISTA est capable d'accélérer la résolution de ces problèmes de manière significative. Le cadre d'IML FISTA est suffisamment général pour s'adapter à de nombreux autres problèmes de restauration d'images. Nous concluons cette thèse en proposant un nouveau point de vue sur les algorithmes multi-niveaux, en démontrant leur équivalence, dans certains cas, avec les algorithmes de descente par coordonnées qui sont nettement plus étudiés dans la littérature de l'optimisation non-lisse. Ce nouveau cadre théorique nous permet d'analyser les algorithmes multi-niveaux de manière plus rigoureuse, et notamment d'étendre leurs garanties de convergence à des problèmes non-lisses et non-convexes. Ce cadre est moins général que celui d'IML FISTA, mais il ouvre la voie à une conception plus solide sur le plan théorique des algorithmes multi-niveaux
The size of image restoration problems is constantly increasing. This growth poses a major scaling problem for optimisation algorithms, which struggle to provide satisfactory solutions in a reasonable amount of time. Among the methods proposed to overcome this challenge, multilevel methods seem to be an ideal candidate. By systematically reducing the size of the problem, the computational cost of solving it can be drastically reduced. This type of approach is standard in the numerical solution of partial differential equations (PDEs), with theoretical guarantees and practical demonstrations to explain their success. However, current multilevel optimisation methods do not have the same guarantees nor the same performance. In this thesis, we propose to bridge part of this gap by introducing a new multilevel algorithm, IML FISTA, which has the optimal theoretical convergence guarantees for convex non-smooth optimisation problems, i.e. convergence to a minimiser and convergence rate of the objective function to a minimum value. IML FISTA is also able to handle state-of-the-art regularisations in image restoration. By comparing IML FISTA with standard algorithms on many image restoration problems: deblurring, denoising, reconstruction of missing pixels for colour and hyperspectral images, and reconstruction of radio-interferometric images, we show that IML FISTA is capable of significantly speeding up the resolution of these problems. As IML FISTA's framework is sufficiently general, it can be adapted to many other image restoration problems. We conclude this thesis by proposing a new point of view on multilevel algorithms, by demonstrating their equivalence, in certain cases, with coordinate descent algorithms, which are much more widely studied in the non-smooth optimisation literature. This new theoretical framework allows us to analyse multi-level algorithms more rigorously, and in particular to extend their convergence guarantees to non-smooth and non-convex problems. This framework is less general than that of IML FISTA, but it paves the way for a more theoretically robust design of multilevel algorithms
APA, Harvard, Vancouver, ISO, and other styles
3

Chanas, Laurent. "Méthodes variationnelles pour la restauration de séquences d'images dégradées : application aux images infrarouges éblouies par le laser." Cergy-Pontoise, 2001. http://biblioweb.u-cergy.fr/theses/01CERG0131.pdf.

Full text
Abstract:
La restauration de séquences d'images fortement dégradées, c'est à dire contenant du bruit et des pertes d'informations, pose des problèmes difficiles que nous essayons d'aborder dans cette thèse. Dans un premier temps, nous présentons un état de l'art des méthodes existantes de restauration d'images et de séquences d'images. Ensuite, en utilisant l'approche variationnelle, nous proposons trois nouvelles énergies de restauration. La première est basée sur l'hypothèse que séquences d'images ont un fond fixe, et combine un filtrage temporel et une régularisation spatiale. L'intérêt de cette énergie est de pouvoir être minimisée en temps réel grâce au schéma numérique proposé. Ensuite, afin d'améliorer la qualité de restauration lorsque la séquence contient du mouvement, d'autres modèles sont utilisés. Le premier consiste à considérer une séquence d'images comme un volume de donnée continue par morceaux et l'énergie associée utilise une régularisation équivalente à une diffusion 3D anisotrope. Puis dans le cas des mouvements de grande amplitude, le modèle du flot optique est utilisé pour construire une énergie globale permettant de calculer le mouvement, débruiter les images, et reconstruire les zones détériorées en même temps. Des résultats sont présentés sur des images de synthèses et dans le cadre d'une application particulière qui est à l'origine de la thèse : les images issues de caméras éblouies par laser. Cette application a fait l'objet d'une étude de faisabilité, qui aboutit à un système de restauration temps-réel.
APA, Harvard, Vancouver, ISO, and other styles
4

Blanc-Féraud, Laure. "Modélisation d'image : application à la compression numérique et à la restauration d'image floue." Nice, 1989. http://www.theses.fr/1989NICE4294.

Full text
Abstract:
ANous nous intéressons à la modélisation des images numériques noir et blanc. Dans un premier temps, afin de suivre les non-stationnarités de l'image, nous avons développé un modèle autorégressif (AR), causal évolutif. Dans un deuxième temps, nous cherchons à obtenir une modélisation conduisant à des algorithmes rapides pour la déconvolution d'image floue. Le but est de transformer un système 2D de dimension NxN, en N systèmes 1D décorrélés. Nous proposons d'appliquer une FFT sur une image miroir. Nous étudions les propriétés de cette nouvelle transformation, et la comparons avec d'autres transformées sinusoïdales (TSD, TCD). Le chapitre ii est consacré à la compression numérique. Le résiduel du modèle prédictif évolutif développé au chapitre I est codé par un train d'impulsions. De façon à réduire les coûts en calculs, nous proposons deux méthodes sous optimales pour le calcul de l'entrée multi-impulsionnelle. Au chapitre III, nous nous intéressons à la restauration d'image floue. Après transformation des données, un filtre de Kalman 1D est appliqué sur chaque colonne décorrélée. Nous proposons un traitement adaptatif pour régulariser la solution autour des zéros de la fonction de flou. L'influence des coefficients AR est étudiée. Pour une application à des images réelles, les paramètres du système doivent être estimés à partir de l'image floue observée. On propose une reparamétrisation de la fonction de flou ou les coefficients sont liés par une loi a priori. L'estimation est effectuée par la maximisation de la fonction de vraisemblance, déterminée en fonction du processus d'innovation calcule par le filtre. Des résultats de simulations sont présentés en compression et restauration
APA, Harvard, Vancouver, ISO, and other styles
5

Chaux, Caroline. "Analyse en ondelettes M-bandes en arbre dual : application à la restauration d'images." Phd thesis, Université de Marne la Vallée, 2006. http://tel.archives-ouvertes.fr/tel-00714292.

Full text
Abstract:
Cette thèse porte sur les décompositions en ondelettes M-bandes en arbre dual ainsi que sur leur application à l'analyse et la restauration d'images. Ces décompositions permettent d'obtenir une analyse multi-échelles, directionnelle et locale des images. Elles s'inscrivent donc dans la perspective de travaux récents visant à mieux représenter les informations géométriques (textures, contours) et les préserver lors de traitements. Ce travail s'appuie sur les travaux antérieurs de N. Kingsbury et I. Selesnick portant sur la construction de décompositions en ondelettes formant des paires de Hilbert (approchées). Ces auteurs ont établi divers résultats concernant le cas dyadique et l'une de nos contributions a été de montrer qu'il était possible de généraliser leurs conclusions et de montrer de nouveaux résultats dans le cas M-bandes. Les représentations proposées présentent de nombreux avantages notamment en termes d'invariance par translation de l'analyse et de sélectivité directionnelle. Nous avons établi les conditions que doivent satisfaire les bancs de filtres en arbre dual servant à l'analyse et à la synthèse des signaux traités. Nous avons également étudié les pré-traitements qu'il est nécessaire d'appliquer à des données discrètes. Ces décompositions introduisant typiquement une redondance d'un facteur 2 (dans le cas réel, et de 4 dans le cas complexe), elles constituent des trames à partir desquelles on peut calculer une reconstruction optimale. Ces nouvelles transformées ont finalement été généralisées aux cadres biorthogonal et complexe. Notre volonté d'appliquer ces outils d'analyse au débruitage de signaux nous a conduit à l'étude des propriétés statistiques des coefficients issus de la décomposition M-bandes en arbre dual d'un processus aléatoire stationnaire au sens large. Nous avons tout d'abord calculé les statistiques au second ordre de ces coefficients et nous avons étudié le rôle du post-traitement dans le calcul des corrélations. Quelques résultats asymptotiques concernant les corrélations d'un couple de coefficients primal/dual ont également été obtenus. Les inter-corrélations entre les ondelettes primale et duale jouant un rôle clé dans notre étude, nous en avons fourni des expressions exactes pour quelques familles d'ondelettes usuelles. Des simulations numériques nous ont aussi permis de valider nos résultats théoriques ainsi que d'évaluer la zone d'influence de la dépendance statistique induite. Pour démontrer l'efficacité de ces décompositions, nous avons été amenés à nous intéresser à deux types de problèmes : le débruitage et la déconvolution d'images. En ce qui concerne le débruitage, nous avons poursuivi deux buts principaux liés au cheminement de la thèse. Dans un premier temps, nous nous sommes attachés à montrer que la décomposition en arbre dual M-bandes apporte un gain significatif en terme de qualité, à la fois objective et subjective, par rapport à une décomposition en ondelettes classique, voire une décomposition dyadique en arbre dual. Dans un second temps, nous avons considéré le débruitage d'images multi-canaux pour lesquelles nous avons mis en place un estimateur statistique original reposant sur l'emploi du principe de Stein et permettant notamment de prendre en compte des voisinages quelconques (spatial, intercomposantes, inter-échelles, ...). Les problèmes de déconvolution d'images ont été appréhendés dans le cadre de méthodes variationnelles, en mettant en place un algorithme itératif, utilisant des outils récemment développés en analyse convexe. L'approche proposée permet de résoudre des problèmes inverses associés à des modèles probabilistes variés et elle est applicable à l'analyse M-bandes en arbre dual ainsi qu'à tout autre type de représentation à l'aide d'une trame.
APA, Harvard, Vancouver, ISO, and other styles
6

Joyeux, Laurent. "Reconstruction de séquences d'images haute résolution : application à la restauration de films cinématographiques." La Rochelle, 2000. http://www.theses.fr/2000LAROS042.

Full text
Abstract:
La restauration des documents cinématographiques a débuté durant cette dernière décennie et elle fut principalement motivée par l'état de délabrement avancé de nombreux films. Le traitement numérique des films détériorés semble incontournable, même s'il reste très couteux pour être généralisé aujourd'hui. Les films cinématographiques vieillissants subissent divers types de détériorations. Nous abordons dans ce mémoire la restauration de deux catégories de défauts qui sont aussi les plus fréquents : les détériorations ponctuelles et les rayures. Pour préserver la qualité visuelle des images cinématographiques, nous détectons d'abord les détériorations pour ne focaliser la correction que sur les zones endommagées. La localisation des détériorations ponctuelles utilise deux détecteurs complémentaires. Un détecteur morphologique basé sur les propriétés statiques et un détecteur dynamique qui s'appuie sur le caractère impulsionnel de ces défauts. Les détériorations sont ensuite supprimées par une reconstruction morphologique. La rayure, de par sa persistance temporelle, compte parmi les défauts les plus problématiques à supprimer. Nous proposons, pour détecter les rayures, une approche spatio-temporelle. Tout d'abord, une technique statique basée sur la recherche d'extrema permet de détecter toutes les rayures. Un processus de poursuite, mis en œuvre par un filtrage de Kalman, permet alors de rejeter les fausses rayures. Deux méthodes de restauration, l'une statique et l'autre temporelle, sont proposées pour reconstruire les zones rayées. La première technique consiste en une version améliorée d'un algorithme existant basé sur les séries de Fourier. La seconde est une nouvelle approche bayesienne qui se distingue par sa performance aussi bien en terme de qualité qu'en cout de calcul. Sa principale originalité réside dans sa prise en compte des informations résiduelles des zones rayées.
APA, Harvard, Vancouver, ISO, and other styles
7

Sibarita, Jean-Baptiste. "Formation et restauration d'images en microscopie à rayons : application à l'observation d'échantillons biologiques." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00345364.

Full text
Abstract:
Technique récente, la microscopie à rayons X offre aujourd'hui une résolution spatiale supérieure à celle de la microscopie optique (20 nm contre 200 nm en microscopie optique confocal laser). Elle offre également un meilleur pouvoir de pénétration que la microscopie électronique (jusqu'à 10 μm contre 1 μm en microscopie électronique à moyenne et haute tension). Ainsi, la microscopie à rayons X mous (longueurs d'onde comprises entre 2,4 et 4,3 nanomètres) permet l'analyse à haute résolution en 2 ou 3 dimensions d'échantillons biologiques placés dans des conditions proches de leur milieu naturel (contrairement aux microscopes électroniques classiques qui imposent une préparation des échantillons). Cependant, la réduction de la dose absorbée par l'échantillon nécessite des durées d'expositions aussi courtes que possible. Or, effectuer une acquisition avec peu de photons se fait au détriment du rapport signal sur bruit des images. Un de nos objectifs a été le développement d'outils pour l'amélioration et la restauration de ces images. La première partie de nos travaux a consisté à déterminer la fonction de transfert du microscope à rayons X en transmission et à comparer les résultats obtenus avec le modèle théorique de la formation des images. Dans la seconde partie, nous avons complété les modèles existants liant le nombre de photons et le contraste, en prenant en compte le mode de formation des images dans le microscope. La troisième partie de ces travaux concerne le développement de techniques de traitement numérique des images dans le but d'améliorer et de restaurer des images obtenues par microscopie à rayons X avec de faibles temps d'exposition. Ces processus ont été appliqués à l'étude par microscopie à rayons X de différents types d'échantillons biologiques
APA, Harvard, Vancouver, ISO, and other styles
8

Bourdon, Pascal. "Restauration d'images et de séquences d'images par EDP : contributions et applications en communications numériques." Poitiers, 2004. http://www.theses.fr/2004POIT2321.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l’utilisation d’opérations de restauration d’images en transmission. Un système de transmission permet de véhiculer un signal entre une source et un destinataire. Le support physique utilisé n'étant pas toujours parfait, ce signal peut présenter des erreurs en réception. En outre, d'autres erreurs peuvent être provoquées par le système de communication lui-même, en particulier en transmission d’images, où seules les données pertinentes vis-à-vis de l’œil humain sont émises. Nous proposons ici d'étudier et de concevoir plusieurs modèles de restauration par Equations aux Dérivées Partielles, afin de réduire l'impact de ces différentes erreurs. Nous proposons en particulier un nouveau modèle de lissage de séquences d'images, ainsi qu'une méthode de inpainting multi-résolution. Les applications porteront sur l'atténuation d'artefacts de compression et la correction d’erreurs pour les codeurs JPEG /MPEG/H26x, et pour un schéma de codage conjoint
This PhD research focuses on image processing in digital communications. A transmission system is a system that transmits information from one place to another through a physical path. Because this path is subject to interference and propagation disturbances, errors can occur during the reception. Additional errors may also be generated by the system itself. In order to achieve better performances, most image coding standards exploit perceptual properties of the human visual system to remove data from the source, thus introducing distortion. In this dissertation, we study and conceive several PDE (Partial Differential Equations)-based models for image restoration, so to attenuate visual impact of these errors. In particular we propose a new image sequence denoising model, as well as a multiresolution inpainting method. Current applications include compression artifacts removal and error correction on JPEG/MPEG/H. 26x images/sequences, and on a joint source/channel coding scheme as well
APA, Harvard, Vancouver, ISO, and other styles
9

Buisson, Olivier. "Analyse de séquence d'images haute résolution : application à la restauration numérique de films cinématographiques." La Rochelle, 1997. http://www.theses.fr/1997LAROS016.

Full text
Abstract:
Cette thèse présente une technique de restauration numérique de films anciens. L'utilisation des technologies numériques fait disparaitre les détériorations (rayures, poussières) que la restauration traditionnelle (chimico-mécanique) ne peut effacer. La restauration numérique des films doit, en phase finale, restituer les images numériques sur films pour les diffuser à nouveau en salle. Cette restitution impose une numérisation haute résolution des images (2000 x 1500 pixels) et la réalisation de traitements spécifiques pour préserver la qualité visuelle des images cinématographiques afin de respecter cette contrainte, nous avons mis en œuvre une technique originale de restauration en deux étapes : détection préalable des détériorations puis, correction des zones détectées. La phase de détection utilise un détecteur spatial fondé sur les principes de la morphologie mathématique en niveaux de gris combiné avec un détecteur spatio-temporel basée sur l'estimation de mouvement. Pour estimer correctement les mouvements de grande amplitude des séquences d'images haute résolution, nous avons élaboré une technique d'estimation de mouvement multi-résolutions. L’originalité de cette corrélation itérative réside dans l'utilisation, pour accélérer le processus de recherche, de projections de radon. Après détection des détériorations, les zones détectées sont corrigées. Cette phase de correction utilise une technique d'interpolation polynomiale qui permet de reconstruire les basses fréquences des signaux, comme les régions homogènes et les contours. Une technique itérative d'estimation des séries de Fourier permet alors de reconstruire les hautes fréquences des textures. Ces deux phases de détection et de correction d'images cinématographiques ont été validées sur un prototype industriel.
APA, Harvard, Vancouver, ISO, and other styles
10

Sabarita, Jean-Baptiste Chassery Jean-Marc. "Formation et restauration d'images en microscopie à rayons X application à l'observation d'échantillons biologiques /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00345364.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Primot, Jérôme. "Application des techniques d'analyse de surface d'onde à la restauration d'images dégradées par la turbulence atmosphérique." Paris 11, 1989. http://www.theses.fr/1989PA112100.

Full text
Abstract:
La résolution angulaire des grands télescopes terrestres est essentiellement limitée par la turbulence atmosphérique à environ une seconde d'arc et, ceci, quel que soit le diamètre de leur pupille d'entrée. Différentes techniques de traitement a posteriori des images enregistrées en sortie du télescope ont déjà été proposées afin de récupérer son pouvoir de résolution théorique. L'originalité de la méthode décrite ici réside dans le fait que sont traitées simultanément des données en provenance des plans pupillaire et focal. Pour ce faire, une deuxième voie d'analyse de surface d'onde est placée en parallèle de la voie classique d'enregistrement des images dégradées. Elle permet alors l'évaluation à chaque instant de la fonction de transfert optique. Á partir de cette information, les fréquences spatiales de l'objet qui n'ont pas totalement été occultées par la turbulence peuvent être corrigées. Le traitement complet d'un ensemble de couples (image, fonction de transfert associée) est décrit. Les limitations de la méthode sont caractérisées et une expérimentation en laboratoire a pu être réalisée afin de prouver son efficacité. L'évaluation du rapport signal à bruit de cette technique permet de la situer par rapport aux techniques d'interférométrie de tavelures et d'interférométrie dans le plan pupillaire pour différents niveaux de luminance de l'objet observé.
APA, Harvard, Vancouver, ISO, and other styles
12

Weiss, Pierre. "Algorithmes rapides d'optimisation convexe : applications à la restauration d'images et à la détection de changements." Nice, 2008. http://www.theses.fr/2008NICE4032.

Full text
Abstract:
Algorithmes rapides d'optimisation convexe. Applications à la restauration d'images et à la détection de changements. Cette thèse contient des contributions en analyse numérique et en vision par ordinateur. Dans une première partie, nous nous intéressons à la résolution rapide, par des méthodes de premier ordre, de problèmes d'optimisation convexe. Ces problèmes apparaissent naturellement dans de nombreuses tâches telles que la reconstruction d'images, l'échantillonnage compressif ou la décomposition d'images en texture et en géométrie. Ils ont la particularité d'être non différentiables ou très mal conditionnés. On montre qu'en utilisant des propriétés fines des fonctions à minimiser on peut obtenir des algorithmes de minimisation extrêmement efficaces. On analyse systématiquement leurs taux de convergence en utilisant des résultats récents dus à Y. Nesterov. Les méthodes proposées correspondent - à notre connaissance - à l'état de l'art des méthodes de premier ordre. Dans une deuxième partie, nous nous intéressons au problème de la détection de changements entre deux images satellitaires prises au même endroit à des instants différents. Une des difficultés principales à surmonter pour résoudre ce problème est de s'affranchir des conditions d'illuminations différentes entre les deux prises de vue. Ceci nous mène à l'étude de l'invariance aux changements d'illuminations des lignes de niveau d'une image. On caractérise complètement les scènes qui fournissent des lignes de niveau invariantes. Celles-ci correspondent assez bien à des milieux urbains. On propose alors un algorithme simple de détection de changements qui fournit des résultats très satisfaisants sur des image synthétiques et des images Quickbird réelles
This PhD contains contributions in numerical analysis and in computer vision. The talk will be divided in two parts. In the first part, we will focus on the fast resolution, using first order methods, of convex optimization problems. Those problems appear naturally in many image processing tasks like image reconstruction, compressed sensing or texture+cartoon decompositions. They are generally non differentiable or ill-conditioned. We show that they can be solved very efficiently using fine properties of the functions to be minimized. We analyze in a systematic way their convergence rate using recent results due to Y. Nesterov. To our knowledge, the proposed methods correspond to the state of the art of the first order methods. In the second part, we will focus on the problem of change detection between two remotely sensed images taken from the same location at two different times. One of the main difficulty to solve this problem is the differences in the illumination conditions between the two shots. This leads us to study the level line illumination invariance. We completely characterize the 3D scenes which produce invariant level lines. We show that they correspond quite well to urban scenes. Then we propose a variational framework and a simple change detection algorithm which gives satisfying results both on synthetic OpenGL scenes and real Quickbird images
APA, Harvard, Vancouver, ISO, and other styles
13

Caron, Julien. "Restauration en échantillonnage irrégulier, théorie et applications aux signaux et images satellitaires." Amiens, 2012. http://www.theses.fr/2012AMIE0108.

Full text
Abstract:
Les performances des satellites progressent rapidement grâce au développement des technologies mais aussi grâce à la compréhension et l'intégration des phénomènes physiques complexes intervenant lors de l'acquisition. Cette thèse traite de plusieurs problèmes d'échantillonnage irrégulier dont les micro-vibrations des satellites dits push-broom dont les capacités en imagerie permettent la détermination de modèles d'élévation très précis. Nous traitons aussi de l'inversion d'interférogrammes en spectrogrammétrie où l'irrégularité de l'échantillonnage est liée à la précision d'usinage des composants réfléchissants. Les micro-vibrations dans le cas du tangage sont estimées à partir d'une carte de disparités altérée et non-dense par contraintes de parcimonie. Nous montrons expérimentalement que ce modèle et les algorithmes utilisés permettent de résoudre ce problème mal posé. L'ajout d'un apriori sur la régularité de l'élévation améliore encore cette estimation dans les cas les plus difficiles. Les images acquises en présence de micro-vibrations nécessitent de plus un rééchantillonnage et une déconvolution avec une problématique de coût numérique. L'algorithme que nous présentons ici répond à ces besoins grâce au cadre fonctionnel des splines que nous adaptons au problème de la déconvolution, avec des performances équivalentes à l'état de l'art et un coût numérique maîtrisé. Enfin nous abordons un problème inverse en interférométrie statique où la nature des signaux et de l'échantillonnage soulève de nombreuses questions, ce travail réalisé lors d'une R&T sur l'instrument SIFTI développé au CNES y apporte des réponses claires sous forme de résultats théoriques et numériques
Performances of remote-sensing satellites have been increasing fast thanks to developing technologies but also the better understanding and integration of complex physical phenomena occurring during the acquisition. This thesis report adresses several irregular sampling problems including the microvibrations of push-broom satellites whose imaging capabilities allow for the computation of very accurate numerical elevation models. We also adress the inversion of interferograms in spectrogrametry where the sampling irregularity is caused by imperfectly machined reflecting components. Microvibrations in the single pitch case are estimated from a perturbed, non-dense disparity map under sparsity constraints. Experiments show that this modeling and the developed algorithms can solve this ill-posed problem. Furthermore, an additional regularity hypothesis on the elevation improves this estimation for more difficult cases. Images suffering from micro-vibrations during acquisition necessitate a sampling correction together with deblurring and fast restoration. The algorithm we present here fulfills these requirements thanks an adaptation of the splines setting to the deblurring case, it is faster than state-of-the-art algorithms with equivalent performances. Finally, we adress the interferogram inversion problem in which the signals and sampling sets raise many questions, this work was achieved during a R&T study of the SIFTI instrument examined at CNES, it clarifies these questions in the form of theoretical and numerical results
APA, Harvard, Vancouver, ISO, and other styles
14

Terebes, Romulus Mircea. "Diffusion directionnelle : applications à la restauration et à l'amélioration d'images de documents anciens." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12819.

Full text
Abstract:
Le sujet de ce mémoire est l'amélioration et la restauration d'images contenant des structures caractérisées en tout point par une orientation dominante. En particulier, nous traitons les approches fondées sur l'utilisation des équations aux dérivées partielles en intégrant la notion d'orientation définie en tout point comme étant orthogonale au vecteur gradient. Après une revue des principaux types d'EDP utilisés pour la restauration d'images. Nous proposons deux approches originales utilisant des informations directionnelles robustes. Nous démontrons l'intérêt de nos méthodes vis à vis des approches classiques au travers d'un plan d'expérience mettant en jeu des images de synthèse. La dernière partie du méloire est consacrée aux applications de nos méthodes pour la restauration des gravures et des documents anciens numérisés
The topic of this document is the enhancement and restoration of images containing oriented structures. Particularly, we deal with approaches based on Partial Derivative Equations (PDE). We introduce an orientation information charactrized in each pixel as being orthogonal to the gradient vector. After a presentation of the most important PDE's used in image restoration tasks, we propose two original approaches using robust directional information. The interest of our methods when compared with classical approaches is demonstrated through the use of an experimental design on synthesized images, The last part of the thesis is devoted to the presentaion of applications of the proposed methods for digitized ancient engraving and document images restoration tasks
APA, Harvard, Vancouver, ISO, and other styles
15

STAWINSKI, GUILLAUME. "Methodes bayesiennes pour la restauration et la reconstruction d'images : application a la gammagraphie et tomographie par photofissions." Paris 11, 1998. http://www.theses.fr/1998PA112410.

Full text
Abstract:
Cette these est consacree au developpement d'algorithmes bayesiens pour la resolution de problemes inverses rencontres en gammagraphie et tomographie par photofissions. Pour chacune de ces applications, les differentes transformations statistiques subies par le signal et dues au systeme de mesures ont ete etudiees. Deux modelisations possibles du systeme de mesures ont ete determinees pour chacune des applications : une modelisation classique relativement simple et une nouvelle modelisation basee sur les processus ponctuels cascades. Des algorithmes bayesiens em (expectation-maximization) et mcmc (markov chain monte carlo) de restauration et de reconstruction d'images, bases sur ces modelisations, ont ete developpes et ont ete compares. Il est apparu experimentalement que la modelisation par processus ponctuels cascades n'ameliore pas de maniere significative les resultats obtenus a partir d'une modelisation classique. Dans le cadre de la gammagraphie, nous avons propose alors deux approches originales permettant une amelioration des resultats. La premiere consiste a introduire un champ de markov inhomogene comme loi a priori, c'est-a-dire a faire varier spatialement le parametre de regularisation associe a un champ markovien gaussien classique. Cependant, l'estimation des hyperparametres necessaires a cette approche demeure un probleme majeur. Dans le cadre de la deconvolution de sources ponctuelles, une seconde approche consiste a introduire des modeles haut niveau. L'image est modelisee par une liste d'objets de formes connues mais de nombre et parametres inconnus. L'estimation est alors realisee en utilisant des methodes mcmc a sauts reversibles. Cette approche permet d'obtenir des resultats plus precis que ceux obtenus par une modelisation par champs markovien pour des temps de calcul reduits.
APA, Harvard, Vancouver, ISO, and other styles
16

Gilardet, Mathieu. "Étude d'algorithmes de restauration d'images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire." Phd thesis, Université de Pau et des Pays de l'Adour, 2013. http://tel.archives-ouvertes.fr/tel-00952964.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique.
APA, Harvard, Vancouver, ISO, and other styles
17

Bruneau, Jean-Michel. "Resolution de problemes inverses mal poses en analyse multiresolution. Application a la restauration d'images et a la stereovision." Nice, 1993. http://www.theses.fr/1993NICE4677.

Full text
Abstract:
Restauration d'images et stereovision appartiennent a la classe des problemes inverses mal poses. Dans les deux cas, nous adoptons un meme principe de resolution: les problemes sont exprimes sous une forme variationnelle dans le cadre de la theorie de la regularisation. Les solutions regularisees classiques, obtenues par minimisation de fonctionnelles convexes, sont peu realistes car globalement lisses, ce qui est incompatible avec les discontinuites souvent presentes en pratique. Afin de pallier cet inconvenient et de generer des signaux continus par morceaux, nous modelisons les solutions a estimer par un champ de markov couple a un processus de ligne implicite non observe, a valeurs continues. La regularisation s'effectue grace a des fonctions de potentiel particulieres, appelees phi-fonctions. Une estimation bayesienne par maximum a posteriori conduit alors a minimiser des fonctionnelles non convexes. Dans ce but, nous developpons trois algorithmes deterministes originaux. Deux algorithmes ont une formulation semblable au gnc, dont une version rapide est egalement proposee. Le troisieme, l'algorithme auto-adaptatif, minimise par etape une suite d'energies convexes. Une strategie d'estimation multiresolution de type coarse-to-fine, qui accelere et facilite la minimisation, est egalement employee. L'analyse multiresolution retenue est basee sur la transformee en ondelettes. Les algorithmes proposes sont valides sur des donnees synthetiques et reelles, en stereovision comme en restauration d'images bruitees ou floues et bruitees. La qualite dse solutions estimees et le faible cout calcul montrent l'interet de ces algorithmes
APA, Harvard, Vancouver, ISO, and other styles
18

Lantz, Eric. "Restauration d'objet à partir d'images obtenues en microscopie à éclairage partiellement cohérent : applications métrologiques." Besançon, 1989. http://www.theses.fr/1989BESA2044.

Full text
Abstract:
La limite de resolution en microscopie optique a eclairage partiellement coherent peut etre considerablement ameliore en combinant, pour restaurer l'objet, l'information a priori disponible avec les images experimentales digitalisees. La premiere partie presente les traitements prealables de l'image, lies a cette information a priori: digitalisation, symetrisation si le modele de l'image est symetrique, acquisition de plusieurs images d'un meme objet. Dans la deuxieme partie, on dispose d'un modele complet de l'objet et de l'image associee. Le modele developpe concerne les traits epais sur circuits integres. On montre comment remonter aux parametres dimensionnels caracterisant ces traits par comparaison du modele aux images experimentales, puis on evalue la precision accessible sur ces parametres. L'information a priori est, dans la troisieme partie, une limitation du support spatial de l'objet. Ce support est de l'ordre du micrometre. Il est alors possible de discretiser les equations du transfert bilineaire. Ce formalisme permet de restaurer un objet de phase et d'amplitude a partir de deux images differemment focalisees
APA, Harvard, Vancouver, ISO, and other styles
19

Chambah, Majed. "Analyse et traitement de données chromatiques d'images numérisées à haute résolution : application à la restauration numérique des couleurs des films cinématographiques." La Rochelle, 2001. http://www.theses.fr/2001LAROS081.

Full text
Abstract:
Les films cinématographiques représentent un élément essentiel de la mémoire humaine collective du 20è siècle. Toutes les productions cinématographiques de nos jours se basent de fait sur les films couleur monopack. L'expérience a montré que contrairement au procédé multi-supports Technicolor, les films couleur modernes risquent de s'affadir d'une manière irréversible en un laps de temps relativement court (5 ans pour les plus instables jusqu'à quelques décennies). Une manipulation impropre ou des conditions de stockage inadéquates accélèrent ce processus d'affadissement, que seul un stockage à basse température permet de ralentir, mais, dans la plupart des cas, une version dégradée est le seul exemplaire existant. L'affadissement est un phénomène irréversible, impossible à corriger par des moyens photochimiques, d'où la nécessité de la restauration numérique désormais possible vu l'évolution technologique et l'avènement des plates-formes informatiques performantes. Nous nous intéressons dans le cadre de ce travail de doctorat à corriger l'affadissement des films, sans informations a priori, c'est-à-dire sans connaissance sur les couleurs des films avant leur affadissement. Deux approches ont été mises au point pour la correction de l'affadissement. Après l'étude du processus de numérisation des films et la suppression des éventuelles corrélations parasites qui résultent de ce processus, la première approche consiste à établir des modèles de vieillissement représentant des comportements d'affadissement différents. Du fait de l'absence d'informations a priori, les paramètres des modèles sont inconnus. Par un appariement entre les couleurs d'au moins quatre zones affadies de l'image et les couleurs intactes " souhaitables " de ces zones, il est possible de déterminer les paramètres de correction. De nouvelles méthodes automatiques de sélection des zones et de leurs couleurs cibles permettant une correction optimale, ont été développées afin d'offrir le plus d'assistance à l'utilisateur. La deuxième approche est une approche automatique, qui consiste à raviver les couleurs ternes, ensuite, à équilibrer les couleurs de l'image afin de supprimer la dominante due à l'affadissement. Cette méthode originale est adaptée à la correction de l'affadissement puisqu'elle permet de traiter même des dominantes non uniformes. Une dernière étape consiste à peaufiner les détails de l'image.
APA, Harvard, Vancouver, ISO, and other styles
20

Labat, Christian. "Algorithmes d'optimisation de critères pénalisés pour la restauration d'images : application à la déconvolution de trains d'impulsions en imagerie ultrasonore." Phd thesis, Ecole centrale de nantes - ECN, 2006. http://tel.archives-ouvertes.fr/tel-00132861.

Full text
Abstract:
La solution de nombreux problèmes de restauration et de reconstruction d'images se ramène à celle de la minimisation d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés préservant les discontinuités des images. Nous discutons des aspects algorithmiques dans le cas de problèmes de grande taille. Il est possible de tirer parti de la structure des critères pénalisés pour la mise en oeuvre algorithmique du problème de minimisation. Ainsi, des algorithmes d'optimisation semi-quadratiques (SQ) convergents exploitant la forme analytique des critères pénalisés ont été utilisés. Cependant, ces algorithmes SQ sont généralement lourds à manipuler pour les problèmes de grande taille. L'utilisation de versions approchées des algorithmes SQ a alors été proposée. On peut également envisager d'employer des algorithmes du gradient conjugué non linéaire GCNL+SQ1D utilisant une approche SQ scalaire pour la recherche du pas. En revanche, plusieurs questions liées à la convergence de ces différentes structures algorithmiques sont restées sans réponses jusqu'à présent. Nos contributions consistent à:
- Démontrer la convergence des algorithmes SQ approchés et GCNL+SQ1D.
- Etablir des liens forts entre les algorithmes SQ approchés et GCNL+SQ1D.
- Illustrer expérimentalement en déconvolution d'images le fait que les algorithmes SQ approchés et GCNL+SQ1D sont préférables aux algorithmes SQ exacts.
- Appliquer l'approche pénalisée à un problème de déconvolution d'images en contrôle non destructif par ultrasons.
APA, Harvard, Vancouver, ISO, and other styles
21

Halmaoui, Houssam. "Restauration d'images par temps de brouillard et de pluie : applications aux aides à la conduite." Phd thesis, Université d'Evry-Val d'Essonne, 2012. http://tel.archives-ouvertes.fr/tel-00830869.

Full text
Abstract:
Les systèmes d'aide à la conduite (ADAS) ont pour objectif d'assister le conducteur et en particulier d'améliorer la sécurité routière. Pour cela, différents capteurs sont généralement embarqués dans les véhicules afin, par exemple, d'avertir le conducteur en cas de danger présent sur la route. L'utilisation de capteurs de type caméra est une solution économiquement avantageuse et de nombreux ADAS à base de caméra voient le jour. Malheureusement, les performances de tels systèmes se dégradent en présence de conditions météorologiques défavorables, notamment en présence de brouillard ou de pluie, ce qui obligerait à les désactiver temporairement par crainte de résultats erronés. Hors, c'est précisément dans ces conditions difficiles que le conducteur aurait potentiellement le plus besoin d'être assisté. Une fois les conditions météorologiques détectées et caractérisées par vision embarquée, nous proposons dans cette thèse de restaurer l'image dégradée à la sortie du capteur afin de fournir aux ADAS un signal de meilleure qualité et donc d'étendre la gamme de fonctionnement de ces systèmes. Dans l'état de l'art, il existe plusieurs approches traitant la restauration d'images, parmi lesquelles certaines sont dédiées à nos problématiques de brouillard ou de pluie, et d'autres sont plus générales : débruitage, rehaussement du contraste ou de la couleur, "inpainting"... Nous proposons dans cette thèse de combiner les deux familles d'approches. Dans le cas du brouillard notre contribution est de tirer profit de deux types d'approches (physique et signal) afin de proposer une nouvelle méthode automatique et adaptée au cas d'images routières. Nous avons évalué notre méthode à l'aide de critères ad hoc (courbes ROC, contraste visibles à 5 %, évaluation sur ADAS) appliqués sur des bases de données d'images de synthèse et réelles. Dans le cas de la pluie, une fois les gouttes présentes sur le pare-brise détectées, nous reconstituons les parties masquées de l'image à l'aide d'une méthode d'"inpainting" fondée sur les équations aux dérivées partielles. Les paramètres de la méthode ont été optimisés sur des images routières. Enfin, nous montrons qu'il est possible grâce à cette approche de construire trois types d'applications : prétraitement, traitement et assistance. Dans chaque famille, nous avons proposé et évalué une application spécifique : détection des panneaux dans le brouillard ; détection de l'espace navigable dans le brouillard ; affichage de l'image restaurée au conducteur.
APA, Harvard, Vancouver, ISO, and other styles
22

Blanchet, Gwendoline. "Étude des artefacts de flou, ringing et aliasing en imagerie numérique : application à la restauration." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00136100.

Full text
Abstract:
Cette thèse aborde les problèmes liés à la formation des images numériques. L'étape d'échantillonnage nécessaire à la formation d'une image discrète à partir d'une image continue peut introduire différents types d'artefacts qui constituent des dégradations majeures de la qualité de l'image. La motivation principale de cette thèse a été l'étude de ces artefacts que sont le flou, le ringing et l'aliasing. Dans la première partie, nous rappelons tout d'abord le processus de formation des images numériques puis nous proposons des définitions de ces artefacts. Dans la deuxième partie, nous définissons une mesure conjointe du flou et du ringing dans le cadre d'un filtrage passe bas précédant l'échantillonnage. La troisième partie est dédiée à la détection automatique de ces artefacts dans les images. Enfin, en quatrième partie, la détection automatique est testée dans des applications concrètes de la restauration d'images: la déconvolution aveugle et le débruitage.
APA, Harvard, Vancouver, ISO, and other styles
23

Histace, Aymeric. "Détection et suivi robustes de structures sur des séquences d'images : application à l'IRM cardiaque marquée." Angers, 2004. http://www.theses.fr/2004ANGE0022.

Full text
Abstract:
Cette thèse s'intéresse à la détection et au suivi de données dans des séquences d'images. Nous montrons que l'intégration dans un modèle simple de contour actif d'énergies externes particulières permet une détection et un suivi robustes et fiables de structures. Ce travail s'organise autour de l'analyse quantitative de séquences IRM cardiaques marquées. L'étude de ces séquences d'images nécessite la mise en place de méthodes adaptées à la détection et au suivi des contours interne et externe du ventricule gauche, ainsi que à ceux de la grille de marquage. Pour la première étape, nous intégrons une énergie image fondée sur une analyse texturale des IRM marquées. Quant au suivi de la grille de tags, nous générons l'énergie externe par la mise en place d'un prétraitement des images de type diffusion anisotrope, fondé sur un formalisme informationnel utilisant le processus de l'Information Physique Extrême. L'ensemble des résultats obtenus a été validé par un expert médical
This thesis is dealing with the detection and the follow-up of structures in image sequences. We show that the integration of original external energies in a simple active contours model can lead to precise and reliable data detections. This work is presented through a particular application : the study of tagged cardiac MRI sequences. The study of those sequences can be divided into two parts : a detection and a follow-up of the internal and external boundaries of the Left Ventricle and a detection and a follow-up of the grid of tags. For the achievement of the first step, we propose the integration of a particular external energy which generation is based on a texture analysis of the tagged MRI. For the second, we propose an anisotropic diffusion of the images, which leading equation is based on an informational formalism using the Extreme Physical Information process. All the obtained results has been validated by a medical expert
APA, Harvard, Vancouver, ISO, and other styles
24

Maazi, Mostafa. "Conception et réalisation de systèmes en gamme millimétrique pour l'évaluation non destructive : application à la restauration de profils et d'images d'objets enfouis." Lille 1, 2005. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2005/50376-2005-9.pdf.

Full text
Abstract:
Les techniques microondes et millimétriques sont bien adaptées pour le Contrôle Non Destructif (CND) de matériaux mais celles-ci ne sont pas encore. Utilisées à grande échelle dans un contexte industriel. L'analyseur de réseaux vectoriel (ARV) jusqu'ici considéré comme un outil de choix dans le domaine de la caractérisation microondes en laboratoire s'avère souvent surdimensionné pour beaucoup d'applications industrielles. Ce travail consiste donc à proposer un dispositif, le "S-Parameters Measurement System" (SPMS), permettant la mesure d'un coefficient de réflexion S11, il est conçu dans une optique de simplicité et de faible coût. Deux démonstrateurs ont été réalisés, les SPMS-35000 et SPMS-60000 fonctionnant respectivement à 35 GHz et 60 GHz. La mesure du S11 en espace libre d'un matériau sous test, a d'abord permis la détection et la localisation de défauts de petite taille (quelques mm) enfouis dans un matériau diélectrique. Puis, l'utilisation d'outils de traitement de signal permettant la résolution du problème inverse, la déconvolution aveugle et les réseaux de neurones artificiels, a rendu possible l'évaluation de la géométrie et de la profondeur du défaut.
APA, Harvard, Vancouver, ISO, and other styles
25

Julien, Caron. "Restauration en échantillonnage irrégulier. Théorie et applications aux images et signaux satellitaires." Phd thesis, Université de Picardie Jules Verne, 2012. http://tel.archives-ouvertes.fr/tel-00862519.

Full text
Abstract:
Les performances des instruments d'acquisition satellitaire progressent rapidement grâce au développement des technologies mais aussi grâce à la compréhension et l'intégration des phénomènes physiques complexes intervenant lors de l'acquisition. Cette thèse traite de plusieurs problèmes d'échantillonnage irrégulier dont les micro-vibrations des satellites dits push-broom tels que SPOT5 et les récents satellites Pléiades dont les capacités en imagerie permettent la détermination de modèles d'élévation très précis. Nous traitons aussi de l'inversion d'interferogrammes en spectrogrammétrie où l'irrégularité de l'échantillonnage est liée a la précision d'usinage des composants réfléchissants. Les micro-vibrations dans le cas du tangage sont estimées à partir d'une nappe de disparité altérée et non-dense par contraintes de parcimonie. Nous montrons expérimentalement que ce modèle et les algorithmes utilises permettent de résoudre en partie ce problème mal posé. L'ajout d'un apriori sur la régularité de l'élévation permet d'améliorer encore cette estimation dans les cas plus difficiles. Les images acquises en présence de micro-vibrations nécessitent de plus un reéchantillonnage auquel s'ajoute la déconvolution avec une problématique de coût numérique. L'algorithme que nous présentons ici répond a ces besoins grâce au cadre fonctionnel des splines que nous adaptons au problème de la déconvolution, avec des performances équivalentes a l'état de l'art et un coût numérique maîtrisé. Enfin nous abordons un problème inverse en interférométrie statique où la nature des signaux et de l'échantillonnage soulève de nombreuses questions, ce travail réalisé lors d'une R&T sur l'instrument SIFTI développé au CNES y apporte des réponses claires sous forme de résultats théoriques et numériques dans le cadre unifié des séries de Fourier non-harmoniques.
APA, Harvard, Vancouver, ISO, and other styles
26

Gilardet, Mathieu. "Étude d’algorithmes de restauration d’images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire." Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3040/document.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique
We present a new method for seismic image restoration. When observed, a seismic image is the result of an initial deposit system that has been transformed by a set of successive geological deformations (folding, fault slip, etc) that occurred over a large period of time. The goal of seismic restoration consists in inverting the deformations to provide a resulting image that depicts the geological deposit system as it was in a previous state. With our contribution, providing a tool that quickly generates restored images helps the geophysicists to recognize geological features that may be too strongly altered in the observed image. The proposed approach is based on a minimization process that expresses geological deformations in terms of geometrical constraints. We use a quickly-converging Gauss-Newton approach to solve the system. We provide results to illustrate the seismic image restoration process on real data and present how the restored version can be used in a geological interpretation framework
APA, Harvard, Vancouver, ISO, and other styles
27

Dupé, François-Xavier. "Restauration et reconnaissance des formes dans des images avec bruit de Poisson : application à l'analyse des neurones en microscopies de fluorescence." Caen, 2010. http://www.theses.fr/2010CAEN2002.

Full text
Abstract:
Dans le cadre de l'étude du cerveau, les biologistes et les médecins s'intéressent à de petites excroissances sur les dendrites appelées épines dendritiques. Ces épines jouent un rôle important au niveau des transmissions synaptiques. Elles sont observées par fluorescence avec un microscope confocal. Les images acquises sont difficiles à exploiter car elles sont 1) dégradées par le flou dû aux limites de la diffraction et du bruit, 2) les épines présentent une grande diversité morphologique et 3) une dendrite peut posséder une densité importante d'épines. Cette thèse se décompose donc en trois parties : la première partie présente un cadre théorique d'optimisation aboutissant à des algorithmes de déconvolution sous bruit de Poisson. La deuxième partie concerne la comparaison de formes par leur morphologie avec des noyaux sur graphes. La troisième partie propose une plateforme d'exploitation d'images d'épines pour obtenir automatiquement des informations morphologiques sur ces épines
While studying the brain, biologists and doctors focus on some small protrusions on the dendrites which go by the name of dendritic spines. These spines play an important role in the synaptic transmission process. They are observed using a fluorescent confocal microscope. Observed images are hard to exploit because 1) they are degraded by diffraction-related blur and noise, 2) they present a large morphological diversity and 3) one dendrite may show an important density of spines. This thesis is then divided into three parts : the first part presents a theoretical optimization framework that is then applied to deconvolution under Poisson noise. The second part considers shape comparison using morphological information by graph kernels. The third part proposes a framework that deploys the image analysis tools developed in the previous chapters to get automatically morphological information about the observed spines
APA, Harvard, Vancouver, ISO, and other styles
28

Robini, Marc. "Inversion bayesienne et algorithmes stochastiques de type recuit. Application a la restauration d'images et a la reconstruction 3-D a partir d'un nombre très limite de projections." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0122.

Full text
Abstract:
Ce travail concerne l'inversion des problèmes linéaires mal posés typiquement rencontrés en restauration et en reconstruction de signaux n-D. Nous nous situons dans un contexte bayesien en faisant appel à une estimation au sens du maximum a posteriori. Les objets recherchés, continus par morceaux, sont modélisés par des champs markoviens à partir desquels un processus de ligne peut être défini de manière implicite. Le calcul de l'estimateur, le minimum global d'une fonctionnelle multimodale, est particulièrement délicat. Nous portons toute notre attention sur les algorithmes de recuit de type Métropolis, réputés pour leur extrême lenteur, et nous montrons que certaines techniques permettent d améliorer significativement leur convergence sans altérer leurs remarquables propriétés théoriques. Il s'agit de la distorsion concave de la fonctionnelle d'énergie, pour laquelle nous établissons de nouveaux résultats, et de la restriction à un espace localement borné. Parallèlement, nous proposons d'effectuer la minimisation sur l'espace de la transformée en ondelettes discrète et nous fournissons un moyen élégant de prolonger les contours via l'introduction de contraintes sur les sous-bandes haute fréquence. Les expériences correspondantes sont menées avec succès dans le cadre de la restauration d'images. Dans un deuxième temps, nous considérons le problème de la reconstruction 3-D à partir d'un nombre très restreint de projections (inférieur ou égal à 7) obtenues sous une incidence limitée. L'application visée s'inscrit dans le cadre des recherches en contrôle non destructif menées à Electricité de France. Les données réelles (issues de blocs de tests) dont nous disposons nécessitent une étude et des traitements complexes auxquels nous apportons des solutions adaptées. Finalement, la mise en œuvre finale d'un algorithme de type recuit permet de valider définitivement les techniques d'accélération mentionnées
This work deals with restoration and reconstruction of multi-dimensional signals observed through a linear, ill-conditioned operator. This class of ill-posed inverse problems is addressed in a bayesian framework, the solution being defined as a maximum a posteriori (MAP) estimate. The original objects to be recovered are made up of smooth regions separated by sharp transitions. This feature is modeled via a Markov random field which implicitly allows the detection of discontinuities. In such a case, the MAP estimate corresponds to the global minimum of a non-convex functional and its exact computation is a great challenge. We are focused on Metropolis-type annealing algorithms and we investigate some inexpensive acceleration techniques which do not alter their theoretical convergence properties ; namely, restriction of the state space to a locally bounded space and increasing concave trans form of the cost functional. We also propose to carry out the minimization process on the discrete wavelet transform space and we show that the smoothness of the underlying discontinuity field can be incorporated by means of a simple penalty term defined over the high frequency channels. Successful experiments about image restoration illustrate the benefits coming with the use of these various techniques. Subsequently, we consider a 3-D reconstruction problem from a few radiographs (around' '). The corresponding concrete application lies -within the scope of a nondestructive testing program launched by Electricité de France. The available dam first requires non-trivial processing steps dictated by a complex and specific study of the image formation process. Then, the implementation of annealing leads to very satisfactory results and it is checked that the above mentioned acceleration techniques significantly improve the convergence speed
APA, Harvard, Vancouver, ISO, and other styles
29

Veran, Jean-Pierre. "Estimation de la réponse impulsionnelle et restauration d'image en optique adaptative : application au système d'optique adaptative du télescope Canada-France-Hawaii /." Paris : École nationale supérieure des télécommunications, 1998. http://catalogue.bnf.fr/ark:/12148/cb36708233v.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Véran, Jean-Pierre. "Estimation de la réponse impulsionnelle et restauration d'image en optique adaptative. Application au système d'optique adaptative du télescope canada-france-hawaii." Paris, ENST, 1997. http://www.theses.fr/1997ENST0036.

Full text
Abstract:
Grace à l'optique adaptative qui permet la correction en temps réel des effets de la turbulence atmosphérique, il est possible d'obtenir des images astronomiques à très haute résolution angulaire à partir d'un télescope terrestre. La correction n'est cependant jamais parfaite et les images acquises sont toujours affectées d'un flou résiduel, qui nuit aux interprétations morphologiques et photométriques. Le but de cette thèse est de proposer une méthode permettant d'éliminer le flou résiduel par un traitement a posteriori. Notre approche comporte deux étapes : estimation de la fonction d'étalement de point (fep) du système d'optique adaptative qui varie fortement d'une image à l'autre, puis déconvolution proprement dite. La méthode que nous proposons pour estimer la fep se fonde sur une étude poussée du fonctionnement du système d'optique adaptative et plus particulièrement sur une modélisation détaillée des effets dégradant la mesure de l'analyseur de surface d'onde. Les données utilisées sont celles accumulées par l'ordinateur de contrôle pendant l'acquisition. Comparée aux techniques habituelles notre méthode a l'avantage de ne pas nécessiter de temps d'observation et d'être plus précise. Cette méthode a pu être implantée et validée sur pueo, le système d'optique adaptative du télescope canada-france-hawaii. Une fois la fep estimée, l'étape suivante est la déconvolution. Nous nous attachons donc d'abord à mettre en œuvre les algorithmes existants, tout en prenant en compte les spécificités des images acquises par optique adaptative. Nous proposons ensuite une nouvelle méthode pour la déconvolution des images de champs d’étoiles permettant une super-résolution des sources avec une excellente précision photométrique et astrométrique. Cette méthode est appliquée à des images du centre galactique, récemment acquises avec pueo. Nous nous intéressons enfin à la possibilité de rendre la déconvolution myope c'est-à-dire de raffiner l'estimation de la fep pendant le processus de restauration.
APA, Harvard, Vancouver, ISO, and other styles
31

Couprie, Camille. "Graph-based variational optimization and applications in computer vision." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00666878.

Full text
Abstract:
Many computer vision applications such as image filtering, segmentation and stereovision can be formulated as optimization problems. Recently discrete, convex, globally optimal methods have received a lot of attention. Many graph-based methods suffer from metrication artefacts, segmented contours are blocky in areas where contour information is lacking. In the first part of this work, we develop a discrete yet isotropic energy minimization formulation for the continuous maximum flow problem that prevents metrication errors. This new convex formulation leads us to a provably globally optimal solution. The employed interior point method can optimize the problem faster than the existing continuous methods. The energy formulation is then adapted and extended to multi-label problems, and shows improvements over existing methods. Fast parallel proximal optimization tools have been tested and adapted for the optimization of this problem. In the second part of this work, we introduce a framework that generalizes several state-of-the-art graph-based segmentation algorithms, namely graph cuts, random walker, shortest paths, and watershed. This generalization allowed us to exhibit a new case, for which we developed a globally optimal optimization method, named "Power watershed''. Our proposed power watershed algorithm computes a unique global solution to multi labeling problems, and is very fast. We further generalize and extend the framework to applications beyond image segmentation, for example image filtering optimizing an L0 norm energy, stereovision and fast and smooth surface reconstruction from a noisy cloud of 3D points
APA, Harvard, Vancouver, ISO, and other styles
32

Briceno-Arias, Luis M. "Problèmes d'inclusions couplées : Éclatement, algorithmes et applications." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00600967.

Full text
Abstract:
Cette thèse est consacrée à la résolution de problèmes d'analyse non linéaire multivoque dans lesquels plusieurs variables interagissent. Le problème générique est modélisé par une inclusion vis-à-vis d'une somme d'opérateurs monotones sur un espace hilbertien produit. Notre objectif est de concevoir des nouveaux algorithmes pour résoudre ce problème sous divers jeux d'hypothèses sur les opérateurs impliqués et d'étudier le comportement asymptotique des méthodes élaborées. Une propriété commune aux algorithmes est le fait qu'ils procèdent par éclatement en ceci que les opérateurs monotones et, le cas échéant, les opérateurs linéaires constitutifs du modèle agissent indépendamment au sein de chaque itération. Nous abordons en particulier le cas où les opérateurs monotones sont des sous-différentiels de fonctions convexes, ce qui débouche sur de nouveaux algorithmes de minimisation. Les méthodes proposées unifient et dépassent largement l'état de l'art. Elles sont appliquées aux inclusions monotones composites en dualité, aux problèmes d'équilibre, au traitement du signal et de l'image, à la théorie des jeux, à la théorie du trafic, aux équations d'évolution, aux problèmes de meilleure approximation et à la décomposition de domaine dans les équations aux dérivées partielles.
APA, Harvard, Vancouver, ISO, and other styles
33

Abboud, Feriel. "Restoration super-resolution of image sequences : application to TV archive documents." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1038/document.

Full text
Abstract:
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation
The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
APA, Harvard, Vancouver, ISO, and other styles
34

Vu, Bang Cong. "Inclusions Monotones en Dualité et Applications." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00816116.

Full text
Abstract:
Le but de cette thèse est de développer de nouvelles techniques d'éclatement d'opérateurs multivoques pour résoudre des problèmes d'inclusion monotone structurés dans des espaces hilbertiens. La dualité au sens des inclusions monotones tient une place essentielle dans ce travail et nous permet d'obtenir des décompositions qui ne seraient pas disponibles via une approche purement primale. Nous développons plusieurs algorithmes à métrique fixe ou variable dans un cadre unifié, et montrons en particulier que de nombreuses méthodes existantes sont des cas particuliers de la méthode explicite--implicite formulée dans des espaces produits adéquats. Les méthodes proposées sont appliquées aux problèmes d'inéquations variationnelles, aux problèmes de minimisation, aux problèmes inverses, aux problèmes de traitement du signal, aux problèmes d'admissibilité et aux problèmes de meilleure approximation. Dans un second temps, nous introduisons une notion de suite quasi-fejérienne à métrique variable et analysons ses propriétés asymptotiques. Ces résultats nous permettent d'obtenir des extensions de méthodes d'éclatement aux problèmes où la métrique varie à chaque itération.
APA, Harvard, Vancouver, ISO, and other styles
35

SURIN, HEINE ISABELLE. "Restauration d'images par filtrage de wiener adaptatif." Paris, CNAM, 1996. http://www.theses.fr/1996CNAM0244.

Full text
Abstract:
Les methodes de restauration d'images etudiees aujourd'hui sont tres performantes mais ont un cout de calcul tres eleve. Cette these montre qu'un traitement temps reel performant est envisageable. La technique de restauration qui y est proposee, repose sur l'amelioration d'une methode classique de filtrage (le filtre de wiener). Cette nouvelle technique est basee sur la decomposition en deux filtres, l'un invariant, permettant la restauration des contours, l'autre adaptatif, attenuant le bruit. Plusieurs mises en uvre sont proposees, demontrant la faisabilite avec un cout de calcul reduit
APA, Harvard, Vancouver, ISO, and other styles
36

FAYOLLE, MARC. "Modelisation unilaterale composite pour la restauration d'images." Paris 11, 1998. http://www.theses.fr/1998PA112467.

Full text
Abstract:
L'objectif general de ce travail est la mise au point de methodes de traitement applicables a des images degradees, eventuellement par un flou uniforme, et par l'ajout d'un bruit parasite blanc gaussien. Pour compenser la perte de qualite provoquee par cette degradation, on met en uvre des methodes probabilistes bayesiennes d'inversion. On a opte pour une modelisation de l'image faite par des lois a priori markoviennes composites combinant des pixels a valeurs reelles et separes par des lignes binaires dont la principale propriete est de modeliser convenablement les images reelles. Leur utilisation dans ce cadre permet tout d'abord la restauration d'image mais aussi la detection des contours des objets. Dans chaque cas, on aboutit a un probleme de maximisation resolu soit par des algorithmes de programmation dynamique ou d'echantillonnage, soit par une methode originale sequentielle. En pratique, trois modeles composites sont definis et etudies. Le premier est unidimensionnel alors que les deux suivants sont bidimensionnels. Deux d'entre eux etant unilateraux, on montre que le calcul exact de la vraisemblance des parametres devient possible, ainsi que sa maximisation par une procedure iterative qui, selon les modeles, est deduite des algorithmes d'expectation-maximization (em) ou de monte carlo par chaine de markov (mcmc). Il en resulte des methodes d'estimation des parametres qui permettent la restauration d'images non supervisee. L'estimation des parametres n'est pas abordee pour le troisieme modele composite. Il presente tout de meme un interet car on peut lui appliquer un algorithme rapide de detection de contours. D'autres modeles sont aussi envisages a des fins de comparaison et montrent les avantages resultants d'une modelisation composite unilaterale comme, en particulier, la possibilite de calculer la fonction de partition.
APA, Harvard, Vancouver, ISO, and other styles
37

Granier, Bernard. "Restauration d'images perturbees par la turbulence atmospherique." Paris 11, 1996. http://www.theses.fr/1996PA112496.

Full text
Abstract:
Une image observee est modelisee comme la convolution d'un noyau de flou du a la turbulence atmospherique par une image originale, a laquelle est ajoutee un bruit d'acquisition. L'objectif de notre etude est la mise en uvre d'une methode de restauration dont la complexite numerique est independante de la taille du noyau de perturbation. Nous proposons une methode de restauration en deux etapes: la premiere etant un filtrage de moindres carres faiblement regularise, la seconde un filtrage markovien. Nous etudions les methodes de deconvolution de moindres carres en proposant une technique de comparaison adaptee a ces methodes. Elles sont lineaires et l'image restauree par celles-ci peut etre separee en un terme de signal et un terme de bruit. L'etude du compromis realise entre ces deux termes permet de comparer les methodes de restauration de moindres carres. Le filtrage de tikhonov-miller apparait comme la methode la plus performante. Nous developpons alors une methode en deux etapes constituee par un filtrage de tikhonov-miller suivit d'un filtrage markovien. La premiere etape deconvolue l'image observee et la deuxieme filtre le bruit de deconvolution. Cette methode en deux etapes est une methode de restauration non lineaire dont la complexite est independante de la taille du noyau de perturbation. Nous comparons les images obtenues avec cette methode en deux etapes avec celles obtenues lorsque le filtrage markovien est remplace par un filtrage de diffusion. Nous adaptons la technique en deux etapes au cas de la deconvolution multi-images. La premiere etape devient une deconvolution par la methode de la pseudo-inverse multi-images, la seconde reste inchangee. Le nombre d'images observees necessaires ainsi que les hyper-parametres de la modelisation markovienne sont determines automatiquement. La methode multi-images permet alors d'obtenir des images restaurees de qualite independante du rapport signal a bruit des images observees
APA, Harvard, Vancouver, ISO, and other styles
38

Letexier, Damien. "Filtrages tensoriels adaptatifs pour la restauration d'images multidimensionnelles." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30019.

Full text
Abstract:
Cette thèse est consacrée à l'élaboration de filtres pour la restauration d'images multidimensionnelles. Nous adoptons un formalisme tensoriel. Ainsi, les différentes interactions entre les paramètres des données sont conservées. Divers filtres multidimensionnels sont présentés et comparés comme l'approximation par tenseur de rangs inférieurs ou filtre de Wiener multidimensionnel. Cependant, ces filtres utilisent des déploiements orthogonaux de tenseurs qui ne prennent pas en compte les spécificités des données. Dans le cas de l'imagerie multidimensionnelle, nous proposons alors un déploiement spécifique permettant d'améliorer le rapport signal sur bruit final. Les directions de déploiement sont estimées en estimant les contours rectilignes des images. Enfin, nous proposons d'utiliser des cumulants d'ordre quatre afin de supprimer un bruit Gaussien blanc ou corrélé présent dans les données. Des exemples sont proposés pour l'imagerie couleur et l'imagerie hyperspectrale
This thesis is devoted to multidimensional signal processing. The main interest of the proposed methods relies on the tensor modeling of data sets. Therefore, the whole parameters are considered while processing tensors. Multilinear algebra tools are required to design the presented multidimensional filters : higher order singular value troncature, lower rank tensor approximation or multidimensional Wiener filtering. However, these filters use an orthogonal flattening step that may not be adapted to data. A new method is proposed to avoid this shortcoming. This is useful for image applications such as color or hyperspectral images. It is shown that the signal to noise ratio can be improved if flattening directions are chose properly. This manuscript also propose a new method including higher order statistics to remove Gaussian components from multidimensional data. Some examples are given for color and hyperspectral images
APA, Harvard, Vancouver, ISO, and other styles
39

BURQ, CATHERINE. "Modeles de degradations en radiographie et restauration d'images." Paris 11, 1992. http://www.theses.fr/1992PA112135.

Full text
Abstract:
Cette these regroupe trois etudes inscrites dans le cadre de la restauration d'images et relatives aux degradations affectant les images radiographiques. Une premieres partie est consacree au rayonnement diffuse compton. Des hypotheses simplificatrices en accord avec les configurations experimentales rencontrees conduisent a une approximation au second ordre de ce rayonnement parasite dont la validite est testee a l'aide de simulations. De cette approximation se deduisent des caracteristiques generales du rayonnement diffuse et un algorithme de simulation simple qui en fournit un bon ordre de grandeur. Deux autres parties sont consacrees a la restauration d'images avec prise en compte de la variance du bruit supposee fonction de l'intensite. A l'aide d'une modelisation additive gaussienne du bruit, nous proposons une methode fournissant une parametrisation de la fonction variance et une estimation preliminaire des parametres. Des algorithmes de debruitages sont ensuite presentes. Dans un premier cas, la modelisation des intensites est localement lineaire et nous generalisons au cas correle les proprietes d'un algorithme iteratif d'estimation d'un parametre de variance et d'un parametre de regression propose pour traiter les modeles heteroscedastiques. Nous etudions pour notre probleme l'effet des iterations. Un deuxieme algorithme utilise une modelisation markovienne gaussienne des intensites. Le modele a priori choisi pour le champ des intensites leur impose d'avoir un faible laplacien. Les parametres de la fonction variance sont estimes au prealable et le maximum a posteriori fournit l'image reconstruite
APA, Harvard, Vancouver, ISO, and other styles
40

Chenegros, Guillaume. "Restauration d'images de la rétine corrigées par optique adaptative." Phd thesis, Université Paris-Diderot - Paris VII, 2008. http://tel.archives-ouvertes.fr/tel-00412618.

Full text
Abstract:
L'imagerie de la rétine, in vivo et à haute résolution, est rendue difficile à cause des aberrations de l'œil, qui limitent la résolution. La mesure et la correction de ces aberrations sont possibles grâce à l'utilisation de l'optique adaptative (OA). Un banc d'imagerie rétinienne avec OA a été développé par l'Observatoire de Paris et est actuellement utilisé sur un panel de patients à l'Hôpital des XV-XX à Paris.
En imagerie plein champ, le caractère tridimensionnel de l'objet d'intérêt (la rétine) rend l'interprétation des images difficile puisque tous les plans qui constituent l'objet contribuent à la formation de chaque plan image. De plus, la correction par OA est toujours partielle. Il est donc nécessaire de déconvoluer les images enregistrées afin d'une part de séparer numériquement les plans de l'objet et d'autre part, d'améliorer la résolution latérale. Une méthode de déconvolution nécessite généralement, pour donner des résultats satisfaisants, d'une part une bonne connaissance de la réponse impulsionnelle (RI) du système complet, et d'autre part un ajustement de paramètres de réglage appelés hyper-paramètres.
Nous avons développé deux méthodes de déconvolution 3D. La première méthode suppose la RI du système connu. La deuxième est une extension tridimensionnelle de la méthode de diversité de phase et permet d'estimer la RI du système conjointement à l'objet d'intérêt.
Par ailleurs, nous avons développé une technique d'estimation non supervisée (« automatique ») des
hyper-paramètres, qui permet d'envisager une utilisation efficace de la déconvolution 3D même par des
utilisateurs peu familiers du traitement des images tels que médecins ou biologistes.
Ces méthodes ont été validées d'abord sur des données simulées réalistes. Ensuite nous avons déve-
loppé à l'ONERA un banc d'imagerie 3D pour effectuer une validation expérimentale. Nous présenterons
les résultats préliminaires obtenus sur des images acquises sur ce banc.
APA, Harvard, Vancouver, ISO, and other styles
41

Hadj-Youcef, Mohamed Elamine. "Spatio spectral reconstruction from low resolution multispectral data : application to the Mid-Infrared instrument of the James Webb Space Telescope." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS326/document.

Full text
Abstract:
Cette thèse traite un problème inverse en astronomie. L’objectif est de reconstruire un objet 2D+λ, ayant une distribution spatiale et spectrale, à partir d’un ensemble de données multispectrales de basse résolution fournies par l’imageur MIRI (Mid-InfraRed Instrument), qui est à bord du prochain télescope spatial James Webb Space Telescope (JWST). Les données multispectrales observées souffrent d’un flou spatial qui dépend de la longueur d’onde. Cet effet est dû à la convolution par la réponse optique (PSF). De plus, les données multi-spectrales souffrent également d’une sévère dégradation spectrale en raison du filtrage spectral et de l’intégration par le détecteur sur de larges bandes. La reconstruction de l’objet original est un problème mal posé en raison du manque important d’informations spectrales dans l’ensemble de données multispectrales. La difficulté se pose alors dans le choix d’une représentation de l’objet permettant la reconstruction de l’information spectrale. Un modèle classique utilisé jusqu’à présent considère une PSF invariante spectralement par bande, ce qui néglige la variation spectrale de la PSF. Cependant, ce modèle simpliste convient que dans le cas d’instrument à une bande spectrale très étroite, ce qui n’est pas le cas pour l’imageur de MIRI. Notre approche consiste à développer une méthode pour l’inversion qui se résume en quatre étapes : (1) concevoir un modèle de l’instrument reproduisant les données multispectrales observées, (2) proposer un modèle adapté pour représenter l’objet à reconstruire, (3) exploiter conjointement l’ensemble des données multispectrales, et enfin (4) développer une méthode de reconstruction basée sur la régularisation en introduisant des priori à la solution. Les résultats de reconstruction d’objets spatio-spectral à partir de neuf images multispectrales simulées de l’imageur de MIRI montrent une augmentation significative des résolutions spatiale et spectrale de l’objet par rapport à des méthodes conventionnelles. L’objet reconstruit montre l’effet de débruitage et de déconvolution des données multispectrales. Nous avons obtenu une erreur relative n’excédant pas 5% à 30 dB et un temps d’exécution de 1 seconde pour l’algorithme de norm-l₂ et 20 secondes avec 50 itérations pour l’algorithme norm-l₂/l₁. C’est 10 fois plus rapide que la solution itérative calculée par l’algorithme de gradient conjugué
This thesis deals with an inverse problem in astronomy. The objective is to reconstruct a spatio-spectral object, having spatial and spectral distributions, from a set of low-resolution multispectral data taken by the imager MIRI (Mid-InfraRed Instrument), which is on board the next space telescope James Webb Space Telescope (JWST). The observed multispectral data suffers from a spatial blur that varies according to the wavelength due to the spatial convolution with a shift-variant optical response (PSF). In addition the multispectral data also suffers from severe spectral degradations because of the spectral filtering and the integration by the detector over broad bands. The reconstruction of the original object is an ill-posed problem because of the severe lack of spectral information in the multispectral dataset. The difficulty then arises in choosing a representation of the object that allows the reconstruction of this spectral information. A common model used so far considers a spectral shift-invariant PSF per band, which neglects the spectral variation of the PSF. This simplistic model is only suitable for instruments with a narrow spectral band, which is not the case for the imager of MIRI. Our approach consists of developing an inverse problem framework that is summarized in four steps: (1) designing an instrument model that reproduces the observed multispectral data, (2) proposing an adapted model to represent the sought object, (3) exploiting all multispectral dataset jointly, and finally (4) developing a reconstruction method based on regularization methods by enforcing prior information to the solution. The overall reconstruction results obtained on simulated data of the JWST/MIRI imager show a significant increase of spatial and spectral resolutions of the reconstructed object compared to conventional methods. The reconstructed object shows a clear denoising and deconvolution of the multispectral data. We obtained a relative error below 5% at 30 dB, and an execution time of 1 second for the l₂-norm algorithm and 20 seconds (with 50 iterations) for the l₂/l₁-norm algorithm. This is 10 times faster than the iterative solution computed by conjugate gradients
APA, Harvard, Vancouver, ISO, and other styles
42

Du, Xue Cheng. "Algorithmes rapides pour la restauration d'images dégradées par un système linéaire et par du bruit." Paris 11, 1986. http://www.theses.fr/1986PA112277.

Full text
Abstract:
Différentes méthodes sont d'abord présentées et examinées, leurs limitations et inconvénients sont discutés. Nous avons ensuite suivi une nouvelle approche qui présente plusieurs avantages. Nous nous plaçons dans un cadre bayésien pour prendre en compte simultanément l'information a priori et le bruit sur l'image observée. Pour éviter les hypothèses de causalité ou de séparabilité, nous utilisons un modèle d'état dégénéré: l'état est constant et égal à la totalité de l'objet à restaurer, la dynamique apparait uniquement dans l'équation d'observation. L'utilisation explicite des propriétés d'invariance par décalage de la convolution nous permet de remplacer l'équation de riccati par une équation de Chandrasekhar. L'hypothèse de stationnarité permet de factoriser la convariance initiale de l'objet avec un rang très faible. Si l'objet est supposé a priori corrélé, le gain de kalman s'étend naturellement dans le "futur" (non-causalité du modèle). La non-stationnarité de l'objet est traduite essentiellement par la moyenne a priori non constante. Si le système de dégradation est régulier, le gain de kalman converge très rapidement vers une valeur asymptotique. Nous développons alors un filtre de kalman sous-optimal a remise à jour réduite qui n'introduit pas de dégradation sensible par rapport au filtre optimal. Nous comparons ensuite une méthode de factorisation du type Chandrasekhar et une méthode de partitionnement du type doublement. Lorsque la dimension de l'état est élevée, les méthodes de factorisation de Chandrasekhar sont préférables aux méthodes de doublement. Le développement d'équations de Chandrasekhar duales discrètes permet de relâcher la contrainte de stationnarité et d'étendre le domaine d'application des techniques de factorisation. Ces méthodes sont ensuite étendues à la déconvolution adaptative d'image tenant compte du contexte local.
APA, Harvard, Vancouver, ISO, and other styles
43

Jin, Qiyu. "Restauration des images et optimisation des poids." Lorient, 2012. http://www.theses.fr/2012LORIS259.

Full text
Abstract:
Dans cette thèse, nous présentons et étudions quelques méthodes pour restaurer l’image originale à partir d’une image dégradée par un bruit additif ou flou. La thèse est composé de 4 parties, 6 chapitres. Partie I. Dans cette partie nous abordons le problème de débruitage du bruit blanc gaussien additif. Cette Partie a deux chapitres : Chapitre 1 et au Chapitre 2. Dans le Chapitre 1, un nouveau algorithme de débruitage d’images est donné. Le filtre proposé est basé sur la moyenne pondérée des observations dans une voisinage, avec des poids en fonction de la similitude des patchs associés. Contrairement au filtre de moyenne nonlocale, nous proposons de choisir les poids en minimisant une majoration exacte de l’erreur quadratique moyenne. Cette approche permet de définir des poids optimaux qui dependent de la fonction inconnue. En estimant ces poids optimaux à partir de l’image bruité, nous obtenons le filtre adaptatif. Sous certaines conditions de régularité de l’image cible, nous montrons que l’estimateur obtenu converge à une vitesse optimale. L’algorithme proposé s’adapte automatiquement à la bande passante du noyau de lissage. Dans le Chapitre 2, nous employons des techniques d’estimation de l’oracle pour expliquer comment déterminer les largeurs des patchs de similarité et de la fenêtre de recherche. Partie II. Dans cette partie, nous étudions le modèle du bruit de Poisson. Dans le Chapitre 3, nous proposons l’algorithme de débruitage d’une image lorsque les données sont contaminés par le bruit de Poisson. La méthode proposé est celle du Chapiter 1, la difference étant que le medèle du bruit de Poisson est hétéroscédastique. Nous adaptons la méthode de poids optimaux à cette situation. Dans le Chapitre 4, nous transposons les résultats de Chapitre 2 au cas du bruit du Poisson. Partie III. Cette partie est consacrée à la reconstruction de l’image à partir de données contaminées par le mélange de bruit gaussien et de bruit impulsionnel. Elle a un seul chapitre, à savoir Chapitre 5. Dans ce chapitre, nous introduisons une généralisation de la statistique ROAD pour mieux détecter le bruit impulsionnel. Combinant cette méthode avec le filtre à poids optimaux du Chapitre 1, nous obtenons une nouvelle méthode pour traiter le bruit mixte, appelé filtre mixte à poids optimaux. Partie IV. La dernière partie se concentre sur les problèmes inverses de l’image flou,et comprend le Chapitre 6. Ce chapitre propose un nouvel algorithme pour résoudre les problèmes inverses basés sur la minimisation de la norme L2 et sur le contrôle de la Variation totale. Il consiste à relâcher le rôle de la variation totale en une approche classique de minimisation Variation Totale, ce qui nous permet d’obtenir une meilleure approximation aux problèmes inverses. Les résultats numériques du problème de déconvolution montrent que notre méthode est plus performante que les précédentes
In this these, we present and study some methods for restoring the original image from an image degraded by additive noise or blurring. The these is composed of 4 parts,and 6 chapters. Part I. In this part, we deal with the additive Gaussian white noise. This part is divided into two chapters : Chapter 1 and Chapter 2. In Chapter 1, a new image denoisingalgorithm to deal with the additive Gaussian white noise model is given. Like the nonlocal means method, we propose the filter which is based on the weighted average of the observations in a neighborhood, with weights depending on the similarity of local patches. But in contrast to the non-local means filter, instead of using a fixed Gaussian kernel, we propose to choose the weights by minimizing a tight upper bound of mean square error. This approach makes it possible to define the weights adapted to the function at hand, mimicking the weights of the oracle filter. Under some regularity conditions on the target image, we show that the obtained estimator converges at the usual optimal rate. The proposed algorithm is parameter free in the sense that it automatically calculates the bandwidth of the smoothing kernel. In Chapter 2, we employ the techniques of oracle estimation to explain how to determine he widths of the similarity patch and of the search window. We justify the Non-Local Means algorithm by proving its convergence under some regularity conditions on the target image. Part II. This part has two chapters. In Chapter 3, we propose an image denoising algorithm for the data contaminated by the Poisson noise. Our key innovations are : Firstly, we handle the Poisson noise directly, i. E. We do not transform Poisson distributed noise into a Gaussian distributed one with constant variance ; secondly, we get the weights of estimates by minimizing the a tight upper bound of the mean squared error. In Chapter 4, we adapt the Non-Local means to restore the images contaminated by the Poisson noise. Part III. This part is dedicated to the problem of reconstructing the image from data contaminated by mixture of Gaussian and impulse noises (Chapter 5). In Chapter 5, we modify the Rank-Ordered Absolute differences (ROAD) statistic in order to detect more effectively the impulse noise in the mixture of impulse and Gaussian noises. Combining it with the method of Optimal Weights, we obtain a new method to deal with the mixed noise, called Optimal Weights Mixed Filter. Part IV. The final part focuses on inverse problems of the flou images, and it includes Chapter 6. This chapter provides a new algorithm for solving inverse problems, based on the minimization of the L2 norm and on the control of the total variation. It consists in relaxing the role of the total variation in the classical total variation minimization approach, which permits us to get better approximation to the inverse problems. Theix numerical results on the deconvolution problem show that our method outperforms some previous ones
APA, Harvard, Vancouver, ISO, and other styles
44

Hassaïne, Abdelâali. "Restauration des pistes sonores optiques cinématographiques : approche par traitement d'images." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005981.

Full text
Abstract:
La restauration des films anciens est un domaine de recherche qui a été largement étudié par la communauté scientifique. La restauration de la piste son optique, quant à elle, n'a été en pratique effectuée que dans le domaine audio, bien qu'elle constitue une image continue sur la pellicule photographique, située entre la succession des images et les perforations. Deux types de pistes son optiques existent : les pistes son à largeur variable qui contiennent une région transparente située entre deux régions opaques symétriques. La taille de la région transparente est proportionnelle à l'amplitude du signal audio. Pour la restauration de ce type de pistes, nous avons proposé des algorithmes pour le réglage d'azimut, la détection de l'axe de symétrie et la correction de la topologie. Le nettoyage est assuré par une étape de segmentation. Le second type est celui des pistes son à densité variable, dans lesquelles c'est l'intensité de chaque ligne qui est proportionnelle à l'amplitude du signal audio. Pour la restauration de ce type de pistes, nous avons proposé un algorithme pour la détection et la correction de la déviation d'azimut, puis un algorithme de « clipping » pour la suppression des différents défauts. Nous avons également étudié le problème de la mauvaise exposition des pistes son. Ce problème est dû à la diffusion de la lumière pendant les différentes copies. Plusieurs méthodes morphologiques ont été développées pour la détection et la restauration de ce type de défauts. Le système de restauration est d'abord évalué par nos partenaires experts en la matière. Nous avons aussi organisé des tests audio en aveugle pour avoir une évaluation objective des résultats.
APA, Harvard, Vancouver, ISO, and other styles
45

Bondeau, Christine. "Etude d'images perturbées par la turbulence atmosphérique : simulation et restauration." Dijon, 1999. http://www.theses.fr/1999DIJOS076.

Full text
Abstract:
La turbulence atmosphérique perturbe l'observation à haute résolution. C'est un phénomène étudié depuis longtemps, en astronomie notamment. La présente étude porte sur le cas de l'observation d'un objet situé à environ vingt kilomètres, la propagation étant horizontale et près du sol, en infrarouge. Apres un rappel des effets de la turbulence en imagerie haute résolution, nous exposons la méthode de simulation qui nous permet de générer des images longue pose et des séquences d'images courte pose dégradées. L'évolution temporelle de la turbulence et les effets d'anisoplanétisme ont été pris en compte. Les images longue pose sont restaurées avec des algorithmes classiques de déconvolution. Les résultats ne sont satisfaisants que pour une faible perturbation. Il est plus avantageux d'exploiter des images courte pose, car elles contiennent plus de hautes fréquences spatiales ; mais l'objet observé y fluctue aléatoirement. On travaille donc ici à partir d'une séquence de plusieurs dizaines d'images. Deux approches sont proposées. L'une consiste à analyser statistiquement les régions de chaque image pour en extraire les plus représentatives et reconstituer ainsi l'objet réel. Les résultats sont alors nettement meilleurs. La seconde est une approche frontière. Une analyse du problème, basée sur la méthode du maximum de vraisemblance appliquée aux descripteurs de Fourier de la forme, permet d'établir que le contour le plus probable est obtenu par la moyenne de la position de chaque point de contour au long de la séquence. Nous déterminons ce contour soit grâce à un appariement multirésolution des contours point à point, d'une image sur l'autre, soit en appliquant un snake région, optimal au sens de la théorie statistique, que nous faisons évoluer avec l'objet au cours de la séquence ; dans ce dernier cas, l'appariement est automatiquement réalisé puisque l'on connait la position des noeuds du snake.
APA, Harvard, Vancouver, ISO, and other styles
46

Gaucel, Jean-Michel. "Méthodes tridimensionnelles pour la compression, restauration et détection en imagerie hyperspectrale." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30004.

Full text
Abstract:
L’imagerie hyperspectrale représente une avancée considérable pour l’observation de la Terre. Le traitement de ces données nécessite de développer des méthodes nouvelles. Au cours de cette thèse, nous avons apporté notre contribution pour des applications à la compression, restauration, détection et à la séparation de composantes. La compression des données hyperspectrales est une nécessité. Tout d’abord, nous proposons une méthode basée sur la troncature de la SVD après un réarrangement spatial du cube, comme alternative à l’algorithme JPEG2000 "standard". Puis, nous présentons un algorithme de restauration qui permet de ne pas dégrader les petites cibles, fréquentes en imagerie hyperspectrale, et ainsi d’améliorer les performances de détection. Ensuite, nous introduisons une prise en compte des caractéristiques spatiales de la scène en détection d’anomalies permettant une amélioration des performances. Enfin, l’utilisation des outils de séparation de sources est abordée et adaptée au contexte de la détection d’anomalies. Nous proposons une méthode de décomposition qui optimise l’indépendance en relaxant la condition d’orthogonalité et montrons sa supériorité par rapport à une ACI classique
The hyperspectral imagery represents a considerable advance for the observation of the earth. The processing of these data requires to develop new methods. During this thesis, we have made our contribution to the research for applications to compression, restoration, detection and components separation. The compression of the hyperspectral data is a need. Firstly, we propose a method based on the SVD truncation after a spatial rearrangement of the cube, as an alternative to the "standard" JPEG2000 algorithm. Secondly, we present a restoration algorithm which makes it possible not to degrade the small targets, frequent in hyperspectral imagery, and thus to improve the detection performances. Then, we introduce a taking into account of the spatial characteristics of the scene in anomalies detection, which leads to an improvement of the performances. Lastly, the use of the tools for sources separation is addressed and adapted to the context of anomalies detection. We propose a decomposition method which optimizes the independence by releasing the condition of orthogonality and we show its superiority compared with a traditional ACI
APA, Harvard, Vancouver, ISO, and other styles
47

Patry, Jacques. "Restauration et correction de blocs d'image détruits ou manquants." Sherbrooke : Université de Sherbrooke, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
48

Saint-Félix, Didier. "Restauration d'image : régularisation d'un problème mal-posé et algorithmique associée." Paris 11, 1987. http://www.theses.fr/1987PA112369.

Full text
Abstract:
Étude de la régularisation des problèmes mal posés sur l'exemple des problèmes de restauration d'image. Présentation d'un algorithme récursif de minimisation d'un critère régularisant déterministe. Accélération de la convergence. Approche bayésienne: obtention d'une solution optimale lissée a l'aide d'un filtre de kalman. Évaluation de la performance de la méthode par comparaison à d'autres sur des données expérimentales.
APA, Harvard, Vancouver, ISO, and other styles
49

Ben, Hadj SaÏma. "Restauration d'images 3D de microscopie de fluorescence en présence d'aberrations optiques." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847334.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la restauration d'image tridimensionnelle de microscopie de fluorescence. Deux difficultés majeures dans ce système d'imagerie sont traitées. La première est le flou variable en profondeur qui est dû aux aberrations induites par la variation des indices de réfraction dans le système optique et le spécimen imagé. La deuxième est le bruit qui est principalement dû au processus de comptage de photons. L'objectif de cette thèse est de réduire ces distorsions afin de fournir aux biologistes une image de meilleure qualité possible. Dans la première partie de cette thèse, nous étudions les modèles d'approximation du flou variable en profondeur et nous choisissons un modèle adéquat au problème d'inversion. Dans ce modèle, la réponse impulsionnelle (RI) variable en profondeur est approchée par une combinaison convexe d'un ensemble de RIs invariables spatialement. Nous développons pour ce modèle deux méthodes rapides de restauration non-aveugle par minimisation d'un critère régularisé, chacune d'elles est adaptée au type de bruit présent dans les images de microscopie confocale ou à champ large. Dans la deuxième partie, nous abordons le problème de restauration aveugle et proposons deux méthodes dans lesquelles le flou variable en profondeur et l'image sont conjointement estimés. Dans la première méthode, la RI est estimée en chaque voxel du volume considéré afin de laisser une grande liberté sur la forme de la RI, tandis que dans la deuxième méthode, la forme de la RI est contrainte par une fonction gaussienne afin de réduire le nombre de variables inconnues et l'espace des solutions possibles. Dans ces deux méthodes d'estimation aveugle, l'effet des aberrations optiques n'est pas efficacement estimé en raison du manque d'information. Nous améliorons ces méthodes d'estimation en alternant des contraintes dans les domaines fréquentiel et spatial. Des résultats sont montrés en simulation et sur des données réelles.
APA, Harvard, Vancouver, ISO, and other styles
50

Marhaba, Bassel. "Restauration d'images Satellitaires par des techniques de filtrage statistique non linéaire." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0502/document.

Full text
Abstract:
Le traitement des images satellitaires est considéré comme l'un des domaines les plus intéressants dans les domaines de traitement d'images numériques. Les images satellitaires peuvent être dégradées pour plusieurs raisons, notamment les mouvements des satellites, les conditions météorologiques, la dispersion et d'autres facteurs. Plusieurs méthodes d'amélioration et de restauration des images satellitaires ont été étudiées et développées dans la littérature. Les travaux présentés dans cette thèse se concentrent sur la restauration des images satellitaires par des techniques de filtrage statistique non linéaire. Dans un premier temps, nous avons proposé une nouvelle méthode pour restaurer les images satellitaires en combinant les techniques de restauration aveugle et non aveugle. La raison de cette combinaison est d'exploiter les avantages de chaque technique utilisée. Dans un deuxième temps, de nouveaux algorithmes statistiques de restauration d'images basés sur les filtres non linéaires et l'estimation non paramétrique de densité multivariée ont été proposés. L'estimation non paramétrique de la densité à postériori est utilisée dans l'étape de ré-échantillonnage du filtre Bayésien bootstrap pour résoudre le problème de la perte de diversité dans le système de particules. Enfin, nous avons introduit une nouvelle méthode de la combinaison hybride pour la restauration des images basée sur la transformée en ondelettes discrète (TOD) et les algorithmes proposés à l'étape deux, et nos avons prouvé que les performances de la méthode combinée sont meilleures que les performances de l'approche TOD pour la réduction du bruit dans les images satellitaires dégradées
Satellite image processing is considered one of the more interesting areas in the fields of digital image processing. Satellite images are subject to be degraded due to several reasons, satellite movements, weather, scattering, and other factors. Several methods for satellite image enhancement and restoration have been studied and developed in the literature. The work presented in this thesis, is focused on satellite image restoration by nonlinear statistical filtering techniques. At the first step, we proposed a novel method to restore satellite images using a combination between blind and non-blind restoration techniques. The reason for this combination is to exploit the advantages of each technique used. In the second step, novel statistical image restoration algorithms based on nonlinear filters and the nonparametric multivariate density estimation have been proposed. The nonparametric multivariate density estimation of posterior density is used in the resampling step of the Bayesian bootstrap filter to resolve the problem of loss of diversity among the particles. Finally, we have introduced a new hybrid combination method for image restoration based on the discrete wavelet transform (DWT) and the proposed algorithms in step two, and, we have proved that the performance of the combined method is better than the performance of the DWT approach in the reduction of noise in degraded satellite images
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography