Добірка наукової літератури з теми "Traitement d’images optiques"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Traitement d’images optiques".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Traitement d’images optiques":

1

Houma, F., R. Belkessa, A. Khouider, N. Bachari, and Z. Derriche. "Étude corrélative des paramètres physico-chimiques et des données satellites IRS1C pour caractériser la pollution aquatique. Application à la baie d’Oran, Algérie." Revue des sciences de l'eau 17, no. 4 (April 12, 2005): 429–46. http://dx.doi.org/10.7202/705541ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contrôle de la qualité de l'eau est fondé naturellement et traditionnellement sur des mesures et des prélèvements in situ. Des images satellites étalonnées à partir des données mesurées in situ fournissent une information quantitative et continue sur le milieu aquatique et peuvent être employées pour estimer, avec une approximation raisonnable, les facteurs affectant la qualité de l’eau L’objectif de cet article consiste à établir des corrélations entre les propriétés optiques de l’eau de mer et les paramètres physico-chimiques. Nous présentons des relations exprimant les variables indicatrices de la qualité des eaux du littoral d’Oran et la réflectance calculée de chaque pixel à partir d’un modèle physique de correction radiométrique. Les mesures in- situ sont effectuées pour des zones de différentes qualités d’eaux et leurs réflectances sont calculées à partir d’une image satellite à haute résolution IRS1-C. Les meilleures corrélations sont obtenues sur le deuxième et le troisième canal visible. Pour la demande chimique en oxygène, le coefficient de corrélation atteint 0.84, pour les matières en suspension r2 = 0.88, pour la demande biochimique de l’oxygène pendant cinq jours r2 = 0.62, pour l’oxygène dissous r2 = 0.77 et pour la turbidité r2 = 0.90. Finalement, des relations linéaires sont établies avec les réflectances. L’inversion de ces relations permet d’obtenir des images transformées à partir du logiciel de traitement d’image afin d’estimer pour chaque pixel le degré de pollution du milieu.
2

Pissondes, Jean-Claude. "Du traitement du signal avec des ondes et des lentilles : Le traitement d’images et la transformée de Fourier à la lumière de la diffraction en Optique." J3eA 12 (2013): 0016. http://dx.doi.org/10.1051/j3ea/2013016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Traitement d’images optiques":

1

Hennequin, Christophe. "Etude et réalisation d’un calculateur temps réel embarqué pour la détection de petits objets dans des séquences d’images multi-échelles." Dijon, 2008. http://www.theses.fr/2008DIJOS015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre d'un projet de l'Institut Franco-Allemand de Recherches de Saint-Louis (ISL) consistant à équiper des projectiles d'artillerie d'un système d'acquisition et de traitement d'images embarqué. L'étude est consacrée à la détection de cibles en temps réel dans des séquences d'images aériennes avec pour contraintes imposées, la qualité dégradée des images, la taille réduite des cibles et l'altitude de prise de vue variable. Les performances des algorithmes de référence pour la détection rapide de petits objets étant insuffisantes sur nos séquences d'images, un algorithme de détection avancé est développé associant une méthode statistique et un filtrage morphologique. Après une analyse détaillée du comportement du détecteur et la validation de ses performances, une approche adéquation algorithme/architecture est considérée afin de rendre le traitement compatible avec le calcul en temps réel sur un système embarqué. Enfin, la conception d'une architecture spécifique à fort parallélisme permet de réaliser un prototype de calculateur sur un composant programmable
This doctoral thesis is part of a research project of the French-German Research Institute of Saint-Louis (ISL) which has been set up to equip artillery projectiles with an on-board image acquisition and processing system. The study focused on real-time target detection in aerial image sequences, considering the imposed restrictions of low quality images, reduced target size and variable acquisition altitude. In view of the unsatisfactory efficiency of the reference algorithms to rapidly detect small objects in our image sequences, an advanced detection algorithm combining statistical methods with morphological filtering has been developed. After analysing in detail the detector’s behaviour and validating its performance, an algorithm/architecture adequacy approach is used for implementing a compatible real-time processing for embedded systems. Finally, the design of a specific and highly parallel architecture allowed to realize a prototype calculator with a programmable component
2

Coquand, Mathieu. "Méthode de rétrovisée pour la caractérisation de surfaces optiques dans une installation solaire à concentration." Thesis, Perpignan, 2018. http://www.theses.fr/2018PERP0001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La filière solaire thermodynamique concentrée est une des voies les plus prometteuses pour la production des énergies renouvelables du futur. L’efficacité des surfaces optiques est un des facteurs clés influant sur les performances d’une centrale. Un des défis technologiques restant à résoudre concerne le temps et les efforts nécessaires à l’ajustement et l’orientation de tous ces miroirs, ainsi que la calibration des héliostats pour assurer un suivi précis de la course du soleil et une concentration contrôlée. Le travail présenté dans ce manuscrit propose une réponse à ce problème par le développement d’une méthode de caractérisation des héliostats dite de « rétrovisée », consistant à placer quatre caméras au voisinage du récepteur pour enregistrer les répartitions de luminance occasionnées par la réflexion du soleil sur l’héliostat. La connaissance du profil de luminance solaire, combiné à ces quatre images, permet de reconstruire les pentes des erreurs optiques de l’héliostat.La première étape de l’étude de la méthode a consisté à établir les différentes équations permettant de reconstruire les pentes des surfaces optiques à partir des différents paramètres du système. Ces différents développements théoriques ont ensuite permis la réalisation de simulations numériques pour valider la méthode et définir ses possibilités et ses limites. Enfin, des tests expérimentaux ont été réalisés sur le site de la centrale Thémis. À la suite de ces expériences, des pistes d’améliorations ont été identifiées pour améliorer la précision expérimentale et envisager son déploiement industriel
Concentrated solar power is a promising way for renewable energy production. Optical efficiency of the mirrors is one of the key factors influencing a power plant performance. Methods which allow the operator to adjust all the heliostat of a plant quickly, in addition of calibration and tracking, are essential for the rise of the technology. The work presented in this thesis is the study of a “backward-gazing” method consisting in placing four cameras near the receiver simultaneously recording brightness images of the sun reflected by the heliostat. The optical errors of the mirrors are retrieved from these four images and the knowledge of the one dimension sun radiance profile.The first step of the study consists in the theoretical description of the method. Then numerical simulations are performed to estimate the general accuracy and the limits of the backward-gazing method. In a third phase, experimental tests have been fulfilled at Themis solar power plant. Finally, ideas of improvement are proposed based on the experiments performed
3

Madec, Morgan. "Conception, simulation et réalisation d’un processeur optoélectronique pour la reconstruction d’images médicales." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/MADEC_Morgan_2006.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement optique des données tomodensitométriques fournies par les systèmes d’exploration volumique pourrait permettre d’accélérer considérablement les algorithmes de génération d’images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l’aspect matériel, puis sous l’aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d’afficheurs et de capteur d’images. L’état de l’art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L’intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l’aide d’un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l’ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n’ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu’il est possible d’obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d’un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d’un processeur hybride dédié à des algorithmes plus complexes (ex : l’algorithme ASSR pour la reconstruction d’image des CT-scan) est également présentée à la fin de ce document
Optical processing can be used to speed up some algorithms of image reconstruction from tomodensitometric data provided by volume exploration systems. This may be of high interest in order to meet the needs of future assisted therapy systems. Two systems are described in this document, corresponding to the two main steps of the above mentioned algorithms: a filtering processor and a backprojection processor. They are first considered under a material point of view. Whatever function it may compute, an optical processor is made up of light sources, displays and cameras. Present state-of-the-art devices highlight a weakness in display performances. Special attention has been focused on ferroelectric liquid crystal spatial light modulators (modelling, simulations, and characterizations of commercial solutions). The potential of optical architectures is compared with electronic solutions, considering computation power and processed image quality. This study has been carried out for both systems first in simulation, with a reliable model of the architecture, and then with an experimental prototype. The optical filtering processor does not give accurate results: the signal to noise ratio on the reconstructed image is about 20 dB in simulation (the model used does not take into account the majority of geometrical distortions) and experimental measurements show strong limitation, especially when considering the problem of image formation with coherent lighting (speckle). On the other hand, results obtained with the optical backprojection processor are most encouraging. The model, more complete and accurate than the filtering processor, as well as the simulations, shows that processed image quality can be virtually equivalent to the one obtained by digital means (signal to noise ratio is over 50 dB) with two order of magnitude speed-up. Results obtained with the experimental prototype are in accordance with simulations and confirm the potential held by the architecture. As an extension, a hybrid processor involving the backprojection processor for the computation of more complex reconstruction algorithms, e. G. ASSR for helical CT-scan, is proposed in the last part of the document
4

Desrues, Mathilde. "Surveillance opérationnelle de mouvements gravitaires par séries temporelles d'images." Thesis, Strasbourg, 2021. http://www.theses.fr/2021STRAH002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Comprendre la dynamique et le comportement des mouvements gravitaires est essentiel dans l’anticipation de catastrophes naturelles et donc dans la protection des infrastructures et des personnes. Plusieurs techniques géodésiques apportent déjà des informations sur les champs de déplacement / déformation des pentes instables, techniques qui permettent d’analyser les propriétés géométriques des masses en mouvement et le comportement mécanique des pentes. En combinant des séries temporelles d’images optiques terrestres et ces techniques classiques, la quantité d’informations collectées est densifiée et répartie dans l’espace. Les capteurs passifs numériques sont de plus en plus utilisés pour la détection et la surveillance de mouvements gravitationnels. Ils fournissent à la fois des informations qualitatives, telles que la détection des changements de surface, et une caractérisation quantitative, telle que la quantification du déplacement du sol par des techniques de corrélation d’images. Notre approche consiste à analyser des séries chronologiques d’images terrestres provenant soit d’une seule caméra fixe, soit de caméras stéreoscopiques, ces dernières permettant d’obtenir des informations redondantes et complémentaires. Les séries temporelles sont traitées pour détecter les zones dans lesquelles le comportement cinématique est homogène. Les propriétés de la pente, telles que le volume de glissement et l’épaisseur de la masse en mouvement, font partie des résultats de l’analyse afin d’obtenir une vue d’ensemble aussi complète que possible. Ces travaux sont présentés au travers de l’analyse de quatre glissements de terrain situés dans les Alpes françaises. Ils interviennent dans le cadre d’une convention CIFRE/ANRT entre la société SAGE - Société Alpine de GEotechnique (Gières, France) et l’IPGS – Institut de Physique du Globe de Strasbourg / CNRS UMR 7516 (Strasbourg, France)
Understanding the dynamics and the behavior of gravitational slope movements is essential to anticipate catastrophic failures and thus to protect lives and infrastructures. Several geodetic techniques already bring some information on the displacement / deformation fields of the unstable slopes. These techniques allow the analysis of the geometrical properties of the moving masses and of the mechanical behavior of the slopes. By combining time series of passive terrestrial imagery and these classical techniques, the amount of collected information is densified and spatially distributed. Digital passive sensors are increasingly used for the detection and the monitoring of gravitational motion. They provide both qualitative information, such as the detection of surface changes, and a quantitative characterization, such as the quantification of the soil displacement by correlation techniques. Our approach consists in analyzing time series of terrestrial images from either a single fixed camera or pair-wise cameras, the latter to obtain redundant and additional information. The time series are processed to detect the areas in which the Kinematic behavior is homogeneous. The slope properties, such as the sliding volume and the thickness of the moving mass, are part of the analysis results to obtain an overview which is as complete as possible. This work is presented around the analysis of four landslides located in the French Alps. It is part of a CIFRE/ANRT agreement between the SAGE Society - Société Alpine de Géotechnique (Gières, France) and the IPGS - Institut de Physique du Globe de Strasbourg / CNRS UMR 7516 (Strasbourg, France)
5

Maaloul, Boutheina. "Des algorithmes de détection d'accidents routiers par vidéo surveillance." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes automatiques de vidéo surveillance ont été développés pour détecter et analyser les comportements anormaux et les situations de risque dans de nombreux domaines. L'une des applications de la vidéosurveillance est la surveillance du trafic. L'analyse du mouvement dans les routes vise à détecter les comportements de circulation anormaux et les événements soudains. Les accidents de la route peuvent causer des blessures graves touchant principalement la tête et le cerveau, entraînant des handicapes et même la mort. Chaque minute supplémentaire pour assister les blessés fait la différence entre la vie et la mort, ce qui est révélée par l'Heure d'or (Golden Hour). Par conséquent, fournir une assistance rapide pour les blessés est obligatoire. De plus, les accidents peuvent causer des embouteillages entraînant d’éventuels autres accidents s’ils ne sont pas notifiés rapidement. Par conséquent, il est important de concevoir un système capable d'organiser une réponse d'urgence efficace. Cette réponse devrait être basée, d'une part sur une détection automatique par analyse vidéo, puis sur une notification rapide. De nombreuses villes en France sont équipées de caméras de surveillance installées sur différentes routes. La surveillance du trafic est effectuée par des opérateurs humains pour visualiser l’état de circulation des routes. Le flux vidéo de ce réseau de caméras existant est livré non traité au centre de gestion du trafic, ainsi, il n'y a pas de stockage des scènes d'accident. De plus, il n'y a pas de technologie associée pour une gestion rapide en cas d’urgence. Les objectifs de cette thèse sont d’abord l'identification de scénarios d'accidents et la collecte de données liées à un accident de la route; ensuite, la conception et le développement d'algorithmes de traitement vidéo pour la détection automatique des accidents sur les autoroutes. Les solutions développées utiliseront les caméras fixes existantes, afin de ne pas nécessiter d'investissements importants dans l'infrastructure. Les approches proposées sont basées sur l'utilisation de l'algorithme de flux optique et des calculs statistiques pour l'extraction de caractéristiques et la reconnaissance d'accidents. La solution proposée est suffisante et robuste au bruit et à la lumière
Automatic video surveillance systems have been developed to detect and analyze abnormal behavior or situation of risk in many fields reducing human monitoring of activities captured by cameras (security surveillance, abnormal behavior detection, etc.). One of the applications of video surveillance is the traffic monitoring. Analyzing the motion in roads aims to detect abnormal traffic behavior and sudden events, especially in case of Emergency and Disaster Management (EDM). Road accidents can cause serious injuries affecting mostly the head and the brain, leading to lifelong disabilities and even death; each additional rescue minute can mean the difference between life and death as revealed by the golden Hour[Lerner et al., 2001]. Therefore, providing a rapid assistance for injuries is mandatory. Moreover, if not addressed promptly, accidents may cause traffic jams, eventually leading to more accidents, and even greater loss of lives and properties. Many cities in France are equipped with video surveillance cameras installed on different roads and highways. Traffic monitoring is done by human operators to visualize the congestion of a road or to measure the flow of the traffic. The video stream of this existing network of cameras is delivered unprocessed to the traffic management center. Thus, there are no video storage of accident scenes. In addition, there is no associated technology for a rapid emergency management. Therefore, it is important to design a system able toorganizean effective emergency response. This response should be based, firstly on an automatic detection by video analysis, then, on a rapid notification allowing the optimization of the emergency intervention itinerary without affecting the traffic state. Our work resolves the first part of the emergency response.The objectives of this thesis are firstly the identification of accident scenarios and the collection of data related to road accident; next, the design and the development of video processing algorithms for the automatic detection of accidents in highways. The developed solutions will use the existing fixed cameras, so as not to require significant investments in infrastructure. The core of the proposed approaches will focus on the use of the dense Optical Flow (OF) algorithm [Farnebäck, 2003] and heuristic computations for features extraction and accident recognition. The purpose of the dense OF is to estimate the motion of each pixel in a region of interest (ROI) between two given frames. At the output of the dense OF, a dense features could be extracted which is more performant than features extracted at some points. Defining thresholds for accident detection in various environment is very challenging. Therefore, studying the motion at a global scale in the image, allows defining a dynamic thresholds for accident detection using statistic computations. The proposed solution is sufficient and robust to noise and light changing
6

Yildizoglu, Romain. "Etude de relaxations en traitement d'images. Application à la segmentation et autres problèmes multi-étiquettes." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0129/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie différentes relaxations pour minimiser des fonctionnelles non convexes qui apparaissent en traitement d’images. Des problèmes comme la segmentation d’image peuvent en effet s’écrire comme un problème de minimisation d’une certaine fonctionnelle, le minimiseur représentant la segmentation recherchée. Différentes méthodes ont été proposées pour trouver des minima locaux ou globaux de la fonctionnelle non convexe du modèle de Mumford-Shah constant par morceaux à deux phases. Certaines approches utilisent une relaxation convexe qui permet d’obtenir des minima globaux de la fonctionnelle non convexe. On rappelle et compare certaines de ces méthodes et on propose un nouveau modèle par bande étroite, qui permet d’obtenir des minima locaux tout en utilisant des algorithmes robustes qui proviennent de l’optimisation convexe. Ensuite, on construit une relaxation convexe d’un modèle de segmentation à deux phases qui repose sur la comparaison entre deux histogrammes donnés et les histogrammes estimés globalement sur les deux régions de la segmentation. Des relaxations pour des problèmes multi-étiquettes à plusieurs dimensions comme le flot optique sont également étudiées. On propose une relaxation convexe avec un algorithme itératif qui ne comprend que des projections qui se calculent exactement, ainsi qu’un nouvel algorithme pour une relaxation convexe sur chaque variable mais non convexe globalement. On étudie la manière d’estimer une solution du problème non convexe original à partir d’une solution d’un problème relaxé en comparant des méthodes existantes avec des nouvelles
In this thesis we study different relaxations of non-convex functionals that can be found in image processing. Some problems, such as image segmentation, can indeed be written as the minimization of a functional. The minimizer of the functional represents the segmentation. Different methods have been proposed in order to find local or global minima of the non-convex functional of the two-phase piecewise constant Mumford-Shah model. With a convex relaxation of this model we can find a global minimum of the nonconvex functional. We present and compare some of these methods and we propose a new model with a narrow band. This model finds local minima while using robust convex optimization algorithms. Then a convex relaxation of a two-phase segmentation model is built that compares two given histograms with those of the two segmented regions. We also study some relaxations of high-dimension multi-label problems such as optical flow computation. A convex relaxation with a new algorithm is proposed. The algorithm is iterative with exact projections. A new algorithm is given for a relaxationthat is convex in each variable but that is not convex globally. We study the problem of constructing a solution of the original non-convex problem with a solution of the relaxed problem. We compare existing methods with new ones
7

Ferraris, Vinicius. "Détection de changement par fusion d'images de télédétection de résolutions et modalités différentes." Thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/24107/1/Ferraris_Vinicius.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changements
8

Alston, Laure. "Spectroscopie de fluorescence et imagerie optique pour l'assistance à la résection de gliomes : conception et caractérisation de systèmes de mesure et modèles de traitement des données associées, sur fantômes et au bloc opératoire." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1295/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les gliomes sont des tumeurs cérébrales infiltrantes difficilement curables, notamment à cause de la difficulté à visualiser toutes les infiltrations au bloc opératoire. Dans cette thèse, nous réalisons une étude clinique de spectroscopie de fluorescence de la protoporphyrine IX (PpIX) dans les gliomes de 10 patients selon l’hypothèse que les spectres collectés proviennent de la contribution de 2 états de la PpIX dont les proportions varient suivant la densité en cellules tumorales. Après avoir présenté le développement du système interventionnel proposant une excitation multi-longueurs d’onde, nous présentons son utilisation sur fantômes de PpIX mimant les propriétés des gliomes. Ceci permet tout d’abord d’obtenir les spectres émis par les 2 états séparément puis de proposer un modèle d’ajustement des spectres comme une combinaison linéaire des 2 spectres de référence sur la bande spectrale 608-637 nm. Ensuite, nous présentons la mise en place de l’étude clinique, notamment l’analyse de risques, avant d’appliquer ce système in vivo. Les mesures in vivo détectent de la fluorescence dans des tissus où le microscope chirurgical n’en détecte pas, ce qui pourrait s’expliquer par un changement d’état de la PpIX entre le cœur des gliomes et leurs infiltrations. L’intérêt de l’excitation multi-longueurs d’onde est démontré par la décroissance de la corrélation des spectres acquis aux trois excitations suivant la densité en cellules tumorale. Enfin, nous soulevons des pistes d’étude de l’identification peropératoire des zones de fonctionnalité cérébrale à l’aide d’une caméra optique ainsi que l’étude du temps de vie de fluorescence et de la fluorescence deux photons de la PpIX sur fantômes
Gliomas are infiltrative tumors of the brain which are yet hardly curable, notably because of the difficulty to precisely delimitate their margins during surgery. Intraoperative 5-ALA induced protoporphyrin IX (PpIX) fluorescence microscopy has shown its relevance to assist neurosurgeons but lacks sensitivity. In this thesis, we perform a spectroscopic clinical trial on 10 patients with the assumption that collected fluorescence is a linear combination of the contribution of two states of PpIX which proportions vary with the density of tumor cells. This work starts with the development of the intraoperative, portable and real time fluorescence spectroscopic device that provides multi-wavelength excitation. Then, we show its use on PpIX phantoms with tissues mimicking properties. This first enables to obtain a reference emitted spectrum for each state apart and then permits the development of a fitting model to adjust any emitted spectrum as a linear combination of the references in the spectral band 608-637 nm. Next, we present the steps led to get approvals for the clinical trial, especially the risk analysis. In vivo data analysis is then presented, showing that we detect fluorescence where current microscopes cannot, which could exhibit a change in PpIX state from glioma center to its margins. Besides, the relevance of multi-wavelength excitation is highlighted as the correlation between the three measured spectra of a same sample decreases with the density of tumor cells. Finally, the complementary need to intraoperatively identify cerebral functional areas is tackled with optical measurements as a perspective and other properties of PpIX on phantoms are also raised
9

Chen, Xu. "New formulation of optical flow for turbulence estimation." Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0025/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le flot optique est un outil, prometteur et puissant, pour estimer le mouvement des objets de différentes natures, solides ou fluides. Il permet d’extraire les champs de vitesse à partir d’une séquence d’images. Dans cette étude, nous développons la méthode du flot optique pour récupérer, d’une manière précise, le champ de vitesse des mouvements turbulents incompressibles. L’estimation de turbulence consiste à minimiser une fonction d’énergie composée par un terme d’observation et un terme de régularisation. L’équation de transport d’un scalaire passif est alors employée pour représenter le terme d’observation. Cependant, dans le cas où le nombre de Reynolds est grand, et, à cause des contraintes optiques, l’image n’est pas pleinement résolue pour prendre en compte la physique de toutes les échelles de la turbulence. Pour compléter les informations manquantes liées aux physiques des petites échelles, nous adoptons une démarche similaire à celle de Large Eddy Simulation (LES), et, proposons d’utiliser le modèle mixte afin de tenir compte de l’interaction entre les grandes échelles et celles non-résolues. Quant au terme de régularisation, il se repose sur l’équation de continuité des fluides incompressibles. Les tests à l’aide des images synthétiques et expérimentales de la turbulence bi-dimensionnelle - des données des cas test de la communauté du flot optique -, ont non seulement validé notre démarche, mais montrent une amélioration significative des qualités des champs de vitesses extraites. Le cas du flot optique, en 3D, relève encore du défi dans le cas de l’estimation des champs de vitesse de la turbulence. D’une part, contrairement au 2D où il existe des cas tests bien établis, il n’existe pas, à notre connaissance, des séquences d’images 3D référentielles permettant de tester notre démarche et méthode. D’autre part, l’augmentation du coût d’estimation demande des algorithme adaptés. Ainsi, nous sommes amené à utiliser la simulation numérique directe d’écoulement turbulent en présence d’un scalaire passif, pour générer des données de scalaires afin d’évaluer la performance du flot optique. Nous prêtons également attention à l’effet du nombre de Schmidt qui caractérise la relation entre la diffusion moléculaire scalaire et la dissipation de turbulence. Les tests sont ensuite effectués avec cette base de données numériques. Les résultats montrent que la précision de l’estimation augmente avec des nombres de Schmidt plus élevés. Par ailleurs, l’influence du terme de régularisation est aussi étudié au travers deux équations qui se différencient par l’ordre spatial des dérivées partielles. Les résultats numériques montrent que l’équation avec un terme de régularisation de seconde-ordre est meilleure que celle de premier-ordre
The method of optical flow is a powerful tool for motion estimation. It is able to extract the dense velocity field from image sequence. In this study, we employ this method to retrieve precisely the incompressible turbulent motions. For 2D turbulence estimation, it consists in minimizing an objective function constituted by an observation term and a regularization one. The observation term is based on the transport equation of a passive scalar field. For non-fully resolved scalar images, we propose to use the mixed model in large eddy simulation (LES) to determine the interaction between large-scale motions and the unresolved ones. The regularization term is based on the continuity equation of 2D incompressible flows. Evaluation of the proposed formulation is done over synthetic and experimental images. In addition, we extend optical flow to three dimensional and multiple scalar databases are generated with direct numerical simulation (DNS) in order to evaluate the performance of optical flow in the 3D context. We propose two formulations differing by the order of the regularizer. Numerical results show that the formulation with second-order regularizer outperforms its first-order counterpart. We also draw special attention to the effect of Schmidt number, which characterizes the ratio between the molecular diffusion of the scalar and the dissipation of the turbulence. Results show that the precision of the estimation increases as the Schmidt number increases. Overall, optical flow has showcased its capability of reconstructing the turbulent flow with excellent accuracy. This method has all the potential and attributes to become an effective flow measurement approach in fluid mechanics community
10

Mansouri, Abdelkhalek. "Generic heuristics on GPU to superpixel segmentation and application to optical flow estimation." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Déterminer des clusters dans des nuages de points et apparier des graphes sont des tâches primordiales en informatique, analyse de donnée, traitement d’image, généralement modélisées par des problèmes d’optimisation de classe NP-difficile. Avec l’avènement des multiprocesseurs à bas coût, l’accélération des procédures heuristiques pour ces tâches devient possible et nécessaire. Nous proposons des implantations parallèles sur système GPU (graphics processing unit) pour des algorithmes génériques appliqués ici à la segmentation d’image en superpixels et au problème du flot optique. Le but est de fournir des algorithmes génériques basés sur des structures de données décentralisées et aisément adaptables à différents problèmes d’optimisation sur des graphes et plateformes parallèles.Les algorithmes parallèles proposés sur GPU incluent le classique k-means et le calcul de forêt couvrante minimum pour la segmentation en superpixels. Ils incluent également un algorithme de recherche locale parallèle et un algorithme mémétique à base de population de solutions appliqués à l’estimation du flot optique via des appariements de superpixels. Tandis que les opérations sur les données exploitent le GPU, l’algorithme mémétique opère en tant que coalition de processus exécutés en parallèle sur le CPU multi-cœur et requérant des ressources GPU. Les images sont des nuages de points de l’espace euclidien 3D (domaine espace-intensité), et aussi des graphes auxquels sont associés des grilles de processeurs. Les kernels GPU exécutent des transformations en parallèle sous contrôle du CPU qui a un rôle réduit de détection des conditions d’arrêt et de séquencement des transformations.La contribution présentée est composée de deux grandes parties. Dans une première partie, nous présentons des outils pour la segmentation en superpixels. Une implémentation parallèle de l’algorithme des k-means est présentée et appliquée aux données 3D. Elle est basée sur une subdivision cellulaire de l’espace 3D qui permet des recherches de plus proche voisin en parallèle en temps optimal constant pour des distributions bornées. Nous présentons également une application de l’algorithme parallèle de calcul de forêt couvrante de Boruvka à la segmentation superpixel de type ligne de partage-des-eaux (watershed). Dans une deuxième partie, en se basant sur les superpixels générés, des procédures parallèles de mise en correspondance sont dérivées pour l’estimation du flot optique avec prise en compte des discontinuités. Ces méthodes incluent des heuristiques de construction et d’amélioration, telles que le winner-take-all et la recherche locale parallèle, et leur intégration dans une métaheuristique à base de population. Diverses combinaisons d’exécution sont présentées et évaluées en comparaison avec des algorithmes de l’état de l’art performants
Finding clusters in point clouds and matching graphs to graphs are recurrent tasks in computer science domain, data analysis, image processing, that are most often modeled as NP-hard optimization problems. With the development and accessibility of cheap multiprocessors, acceleration of the heuristic procedures for these tasks becomes possible and necessary. We propose parallel implantation on GPU (graphics processing unit) system for some generic algorithms applied here to image superpixel segmentation and image optical flow problem. The aim is to provide generic algorithms based on standard decentralized data structures to be easy to improve and customized on many optimization problems and parallel platforms.The proposed parallel algorithm implementations include classical k-means algorithm and application of minimum spanning forest computation for super-pixel segmentation. They include also a parallel local search procedure, and a population-based memetic algorithm applied to optical flow estimation based on superpixel matching. While data operations fully exploit GPU, the memetic algorithm operates like a coalition of processes executed in parallel on the multi-core CPU and requesting GPU resources. Images are point clouds in 3D Euclidean space (space-gray value domain), and are also graphs to which are assigned processor grids. GPU kernels execute parallel transformations under CPU control whose limited role only consists in stopping criteria evaluation or sequencing transformations.The presented contribution contains two main parts. Firstly, we present tools for superpixel segmentation. A parallel implementation of the k-means algorithm is presented with application to 3D data. It is based on a cellular grid subdivision of 3D space that allows closest point findings in constant optimal time for bounded distributions. We present an application of the parallel Boruvka minimum spanning tree algorithm to compute watershed minimum spanning forest. Secondly, based on the generated superpixels and segmentation, we derive parallel optimization procedures for optical flow estimation with edge aware filtering. The method includes construction and improvement heuristics, as winner-take-all and parallel local search, and their embedding into a population-based metaheuristic framework. The algorithms are presented and evaluated in comparison to state-of-the-art algorithms

Частини книг з теми "Traitement d’images optiques":

1

Coqueugniot, Hélène. "Paléo-imagerie par rayons X : une méthode d’exploration transdisciplinaire, de l’archéologie à la chirurgie Hélène." In Regards croisés: quand les sciences archéologiques rencontrent l'innovation, 139–56. Editions des archives contemporaines, 2017. http://dx.doi.org/10.17184/eac.3794.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’imagerie par rayons X, bi- et tridimensionnelle, est devenue une méthodologie incontournable dans de nombreux champs disciplinaires dont celui des sciences archéologiques. Contrairement aux autres méthodes d’imagerie permettant seulement des acquisitions de surface (photographie et photogrammétrie, scanner laser), le rayonnement X permet également des acquisitions de volume, ce qui s’avère être un avantage fondamental dans les indications nécessitant de visualiser du contenu sans toucher au contenant. Cette propriété physique du rayonnement X de traverser la matière et de révéler l’intérieur des objets sur des images projetées en 2 dimensions a été appliquée très tôt au domaine archéologique, dès l’invention même de la radiologie en 1895, en parallèle avec son développement fulgurant dans le domaine médical. Les applications « archéométriques » des rayons X ont fait émerger le terme de paléoradiologie, qui définit l’application du rayonnement X à l’étude de matériaux bio-archéologiques. Un siècle après, les méthodes d’acquisition par rayons X se sont considérablement développées (radiologie numérique, tomodensitométrie, microtomographie RX) et le traitement des images a ouvert l’accès, grâce à la révolution numérique, à une nouvelle dimension. L’introduction de cette troisième dimension pour l’imagerie radiologique a permis de nombreuses avancées en recherches fondamentale et appliquée dans le domaine archéologique, tout en renouvelant considérablement les possibilités de conservation et de valorisation du patrimoine. En constituant un réseau interdisciplinaire, nous avons développé, à partir de la tomodensitométrie, une chaîne complète d’imagerie tridimensionnelle, initiée pour l’anthropologie biologique et qui trouve ses applications dans le domaine de l’archéologie et plus récemment dans celui de la chirurgie reconstructrice. En parallèle avec l’utilisation des rayons X, d’autres méthodes d’acquisitions d’images apportent également leurs contributions à l’archéologie. Leur intégration dans une approche transdisciplinaire utilisant l’ensemble des modalités non-destructives d’acquisition d’images et de leur représentation (multimodale et multidimensionnelle) a été nommée paléo-imagerie. La paléo-imagerie s’exprime à la fois sur le terrain et en laboratoire, fonctionne de manière diachronique (sans focus chronologique, de la préhistoire aux périodes contemporaines) et holistique en contextualisant l’objet dans son environnement archéologique. Dans cette optique, la paléo-imagerie a toute sa place au sein des méthodes de l’archéométrie

До бібліографії