Academic literature on the topic 'Compression d'images – Évaluation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Compression d'images – Évaluation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Compression d'images – Évaluation"

1

Beretta, Patricia. "Compression d'images appliquée aux angiographies cardiaques : aspects algorithmiques, évaluation de la qualité diagnostique." Lyon, INSA, 1997. http://theses.insa-lyon.fr/publication/1997ISAL0107/these.pdf.

Full text
Abstract:
La compression d'images avec perte présente aujourd'hui un intérêt majeur pour l'archivage et la communication des angiographies cardiaques. Notre travail porte sur les aspects algorithmiques d'une technique de compression adaptée à cette modalité d'imagerie médicale, et sur la validation de la qualité diagnostique d'images comprimées. Dans un schéma de compression à base de la transformation cosinus discrète de l'image (Full-Frame DCT) nous avons principalement étudié deux aspects : l'adaptativité et la robustesse de la quantification scalaire des coefficients du plan de la DCT d'une part, et la prise en compte de post traitements d'autre part. Ces deux aspects algorithmiques ont une portée générale, ils sont applicables à d'autres méthodes de compression. La validation de la qualité diagnostique d'images médicales comprimées ne peut pas être, actuellement, basée sur des paramètres mathématiques, mais uniquement sur une évaluation par des experts médicaux. Nous avons conduit des campagnes d'évaluation de la qualité diagnostique avec trois méthodes de compression à un taux maximum de 12:1 : le standard JPEG, le standard MPEG, et MLOT, une méthode dédiée développée par les laboratoires Philips. Nous avons pu observer que, dans les conditions définies ci-dessus, la compression n'augmente pas la variabilité des interprétations visuelles et des mesures quantitatives de façon statistiquement significative. Dans nos conditions expérimentales, la qualité diagnostique de l'image comprimée est préservée. Globalement, les résultats de ces expériences sont très prometteurs car ils attestent que la compression est acceptable pour le travail du clinicien. Il existe un vaste champ d'applications de la compression pour les angiographies cardiaques en développant des algorithmes dédiés supérieurs aux standards, en identifiant à l'aide d'évaluations cliniques les limites d'application de ces algorithmes standars ou dédiés.
APA, Harvard, Vancouver, ISO, and other styles
2

Baudin, Olivier. "Schéma de compression adaptative d’image : Modélisation paramétrique et classification, quantification et codage, évaluation. Application en imagerie médicale." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0024.

Full text
Abstract:
Ce travail porte sur l'étude et la réalisation d'un algorithme destiné à la compression d'images médicales (statiques). La méthode comprend une phase d'apprentissage pendant laquelle une analyse de bases d'images d'une modalité médicale donnée permet de régler et d'adapter la chaîne de compression aux caractéristiques locales des images. La qualité des images reconstruites est évaluée par un protocole suivant une méthode de type ROC
This work concerns the study and the realization of a medical (static) image compression algorithm. The method integrates a learning phase during which image data bases of given medical modalities are analyzed in order to adjust and adapt the compression scheme to the local caracteristics of the images. The quality of the reconstructed images is evaluated using an ROC protocol
APA, Harvard, Vancouver, ISO, and other styles
3

Delgorge, Cécile. "Proposition et évaluation de techniques de compression d'images ultrasonores dans le cadre d'une télé-échographie robotisée." Orléans, 2005. http://www.theses.fr/2005ORLE2066.

Full text
Abstract:
Le contexte de cette thèse est le projet de télé-échographie robotisée OTELO. Un objectif est de proposer une méthode de compression adaptée à l'image ultrasonore. Une étude comparative montre, à l'aide de critères statistiques et psychovisuels, que les standards Jpeg-Ls et Jpeg2000 sont les méthodes de compression d'images ultrasonores les mieux adaptées dans un contexte de télé-échographie. Un second objectif est d'évaluer la qualité d'un résultat de compression d'une image ultrasonore dans l'idée de s'approcher au mieux du jugement de l'expert. Une nouvelle méthodologie permet de proposer un critère d'évaluation obtenu à partir d'une fusion de critères statistiques et reproduisant à 90% le jugement de l'expert.
APA, Harvard, Vancouver, ISO, and other styles
4

Urbano, Rodriguez Luis Alberto. "Contribution à la compression d'images par transformée en cosinus discrète en imagerie médicale, et évaluation sur une base d'images multi-modalités." Tours, 1991. http://www.theses.fr/1991TOUR3307.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Le, Meur Olivier. "Attention sélective en visualisation d'images fixes et animées affichées sur écran : modèles et évaluation de performances - application." Nantes, 2005. http://www.theses.fr/2005NANT2063.

Full text
Abstract:
Cette étude traite de la modélisation de l'attention visuelle pré-attentive (ou plus communément appelé Bottom-Up) sur images fixes couleurs et sur séquence d'images animées. Il s'agit donc de déterminer de façon automatique et en utilisant uniquement des caractéristiques visuelles de bas niveaux les zones attirant le regard. Nous proposons d'abord de construire un espace psycho-visuel dans lequel les signaux achromatique et chromatiques sont normalisés en fonction de leur propre seuil différentiel de visibilité. L'intérêt est ici d'exprimer les différentes caractéristiques visuelles avec la même unité, c'est à dire en terme de visibilité. Ensuite, plusieurs transformations sont effectuées pour déterminer la saillance spatiale achromatique et chromatiques, toutes basées sur une modélisation d'inspiration biologique des mécanismes perceptifs humains (suppression de la redondance locale, interactions facilitatrices de type iso-orienté et co-linéaire. . . ). Une méthode de fusion est proposée permettrant de déduire la carte de saillance spatiale finale. L'évaluation des performances de la modélisation est réalisée en comparant nos résultats avec des résultats provenant de tests oculométriques sur un panel d'observateurs. Pour cela, trois métriques sont utilisées: le coefficient de corrélation linéaire, la divergence de Kullback-Leibler et une méthode de classification. Comparativement au modèle de L. Itti considéré comme le modèle de référence, et quelle que soit la métrique utilisée, notre modèle fournit en moyenne de meilleurs résultats. L'extension à la dimension temporelle a été réalisée permettant de détecter les zones saillantes dans les vidéo. A partir des données achromatiques de l'espace psycho-visuel, la saillance temporelle est déduite des contrastes locaux de mouvement de la séquence d'images. La fusion de la saillance spatiale et de la saillance temporelle conduit à la carte de saillance finale. A partir de nouveaux tests oculométriques, une nouvelle évaluation est alors effectuée. En moyenne, le modèle spatio-temporel de saillance détecte 77% des zones saillantes. Finalement, deux applications utilisant les cartes de saillance sont décrites. La première concerne le codage vidéo H. 264 pour laquelle l'objectif est de privilégier la qualité sur les zones visuellement importantes. La seconde traite de la création d'images ou de séquences d'images miniatures permettant d'augmenter le confort visuel lorsque l'écran d'affichage est de faible taille
This thesis describes the modeling of the bottom-up visual attention on color pictures and image sequences. The principal aim is to automatically detect areas of an image that effortlessly attract the attention. The method presented here uses only low level visual features in order to identify the salient regions. Two saliency-based applications are described. We first propose to build a psychovisual space in which achromatic and chromatic data is normalized to its individual differential visibility threshold. This data is expressed in the same unit, namely the visibility. Several biological-based transformations that simulate the most important perception mechanisms (the long-range interactions, the modelling of cortical cells) are used to calculate the achromatic and chromatic salient values. The final saliency map is obtained by a new merging process, which combines the achromatic and chromatic maps. The performance assessment consists of comparing our results to the ground truth stemming from Eye-tracking experiments. Three metrics, linear correlation coefficient, the Kullback-Leibler divergence and a classification method, are used. Moreover, a comparison with reults coming from L. Itti's model is also conducted; the proposed approach yields in average better results, regardless of the metric used. The temporal dimension has been added to the model in order to compute the temporal saliency. The local motion is first computed from the normalized achromatic data. The dominant motion is then deduced. The local motion contrast, which is a relevant estimator of the temporal saliency, is the difference between local and dominant motion. The final spatio-temporal map is the combination of the spatial and the temporal saliency maps. The spatio-temporal model was assessed using new eye tracking experiments. On average, 77% of the salient regions are correctly detected. Two saliency-based applications, saliency-based H. 264 coding and saliency-based thumbnails, have been developed. The former deals with a video compression scheme driven by a saliency map: perceptually non-important areas are subjected to higher compression than more relevant parts of the data. The latter concerns the construction of saliency-based thumbnails. The goal is to ease the image viewing on devices with limited display sizes
APA, Harvard, Vancouver, ISO, and other styles
6

Rosenberger, Christophe. "Contribution à l'évaluation d'algorithmes de traitement d'images." Habilitation à diriger des recherches, Université d'Orléans, 2006. http://tel.archives-ouvertes.fr/tel-00194404.

Full text
Abstract:
J'ai obtenu mon Doctorat en 1999 sur le thème de la segmentation d'images. Depuis septembre 2000, je suis maître de conférences à l'ENSI de Bourges. J'enseigne des cours de traitement d'images et d'intelligence artificielle au niveau Master. Je suis depuis le 1er septembre 2006, le responsable des relations européennes et internationales au sein de cet établissement. Je suis rattaché au Laboratoire Vision Robotique (UPRES EA 2078) et à l'équipe Signal, Image et Vision. Je suis le responsable du groupe Interprétation au sein de cette équipe regroupant 3 maîtres de conférences, un ATER et 2 doctorants. Mes activités de recherche principales sont la modélisation 3D d'objets, la détection/reconnaissance d'objets et l'évaluation d'algorithmes de traitement d'images. Ce manuscrit concerne ce dernier thème correspondant à mon activité majeure de recherche. J'ai participé au co-encadrement de 4 doctorants dont deux spécifiquement sur ce thème (les deux ayant soutenu) et deux étudiants de Master recherche. J'ai valorisé mes activités de recherche au travers de plusieurs publications : 1 chapitre de livre international, 6 revues internationales, 2 revues nationales, 53 conférences internationales et 10 conférences nationales. Je suis titulaire du Contrat d'encadrement doctoral et de recherche (PEDR) depuis le 1er octobre 2005. J'ai été sollicité pour effectuer de nombreuses expertises (projets ANVAR, référé d'articles et projets ANR). J'ai participé à de nombreux contrats industriels afin de contribuer au budget de fonctionnement du groupe Interprétation. Ce manuscrit comporte 2 parties. La première correspond à une synthèse de mes activités pédagogiques, administratives et recherche. La seconde présente un résumé des mes activités de recherche dans le domaine de l'évaluation d'algorithmes de traitement d'images. Elle est constituée de trois chapitres. Le premier a pour objectif de positionner la problématique de l'évaluation d'algorithmes de traitement d'images. Les différentes approches utilisées dans la littérature y sont présentées. J'ai développé une méthodologie visant à analyser des approches d'évaluation et à en faciliter leurs conceptions et utilisations. Cette démarche est déclinée au travers de deux algorithmes de traitement d'images. Le troisième chapitre de ce manuscrit présente les travaux sur l'évaluation de résultats de compression d'images ultrasonores dans lesquels j'ai été impliqué. Le thème de l'évaluation de la segmentation d'images que j'ai initié au sein du laboratoire est abordée dans le quatrième chapitre. Je conclus ce document par mon projet de recherche.
APA, Harvard, Vancouver, ISO, and other styles
7

Rousselot, Maxime. "Image quality assessment of High Dynamic Range and Wide Color Gamut images." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S034/document.

Full text
Abstract:
Ces dernières années, les technologies d’écran se sont considérablement améliorées. Par exemple, le contraste des écrans à plage dynamique élevée (HDR) dépasse de loin la capacité d’un écran conventionnel. De plus, un écran à gamut de couleur étendu (WCG) peut couvrir un espace colorimétrique plus grand que jamais. L'évaluation de la qualité de ces nouveaux contenus est devenue un domaine de recherche actif, les métriques de qualité SDR classiques n'étant pas adaptées. Cependant, les études les plus récentes négligent souvent une caractéristique importante: les chrominances. En effet, les bases de données existantes contiennent des images HDR avec un gamut de couleur standard, négligeant ainsi l’augmentation de l’espace colorimétrique due au WCG et les artefacts chromatiques. La plupart des mesures de qualité HDR objectives non plus ne prennent pas en compte ces artefacts. Pour surmonter cette problématique, dans cette thèse, nous proposons deux nouvelles bases de données HDR/WCG annotés avec des scores subjectifs présentant des artefacts chromatique réaliste. En utilisant ces bases de données, nous explorons trois solutions pour créer des métriques HDR/WCG: l'adaptation des métrics de qualité SDR, l’extension colorimétrique d’une métrique HDR connue appelée HDR-VDP-2 et, enfin, la fusion de diverses métriques de qualité et de features colorimétriques. Cette dernière métrique présente de très bonnes performances pour prédire la qualité tout en étant sensible aux distorsions chromatiques
To improve their ability to display astonishing images, screen technologies have been greatly evolving. For example, the contrast of high dynamic range rendering systems far exceed the capacity of a conventional display. Moreover, a Wide Color gamut display can cover a bigger color space than ever. Assessing the quality of these new content has become an active field of research as classical SDR quality metrics are not adapted. However, state-of-the-art studies often neglect one important image characteristics: chrominances. Indeed, previous databases contain HDR images with a standard gamut thus neglecting the increase of color space due to WCG. Due to their gamut, these databases are less prone to contain chromatic artifacts than WCG content. Moreover, most existing HDR objective quality metrics only consider luminance and are not considering chromatic artifacts. To overcome this problematic, in this thesis, we have created two HDR / WCG databases with annotated subjective scores. We focus on the creation of a realistic chromatic artifacts that can arise during compression. In addition, using these databases, we explore three solutions to create HDR / WCG metrics. First, we propose a method to adapt SDR metrics to HDR / WCG content. Then, we proposed an extension of a well-known HDR metric called HDR-VDP-2. Finally, we create a new metric based on the merger of various quality metric and color features. This last metric presents very good performance to predict quality while being sensitive to chromatic distortion
APA, Harvard, Vancouver, ISO, and other styles
8

Bosc, Emilie. "Compression des données Multi-View-plus-Depth (MVD) : De l'analyse de la qualité perçue à l'élaboration d'outils pour le codage des données MVD." Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00777710.

Full text
Abstract:
Cette thèse aborde la problématique de compression des vidéos multi-vues avec pour pilier un souci constant du respect de la perception humaine du media, dans le contexte de la vidéo 3D. Les études et les choix portés durant cette thèse se veulent orientés par la recherche de la meilleure qualité perçue possible des vues synthétisées. L'enjeu des travaux que de cette thèse réside dans l'investigation de nouvelles techniques de compression des données multi-view-plus-depth (MVD) limitant autant que possible les dégradations perceptibles sur les vues synthétisées à partir de ces données décodées. La difficulté vient du fait que les sources de dégradations des vues synthétisées sont d'une part multiples et d'autre part difficilement mesurables par les techniques actuelles d'évaluation de qualité d'images. Pour cette raison, les travaux de cette thèse s'articulent autour de deux axes principaux: l'évaluation de la qualité des vues synthétisées ainsi que les artefacts spécifiques et l'étude de schémas de compression des données MVD aidée de critères perceptuels. Durant cette thèse nous avons réalisé des études pour caractériser les artefacts liés aux algorithmes DIBR. Les analyses des tests de Student réalisés à partir des scores des tests de Comparaisons par paires et ACR-HR ont permis de déterminer l'adéquation des méthodes d'évaluation subjective de qualité pour le cas des vues synthétisées. L'évaluation des métriques objectives de qualité d'image/vidéo ont également permis d'établir leur corrélation avec les scores subjectifs. Nous nous sommes ensuite concentrés sur la compression des cartes de profondeur, en proposant deux méthodes dérivées pour le codage des cartes de profondeur et basées sur la méthode LAR. En nous appuyant sur nos observations, nous avons proposé une stratégie de représentation et de codage adaptée au besoin de préserver les discontinuités de la carte tout en réalisant des taux de compression importants. Les comparaisons avec les codecs de l'état de l'art (H.264/AVC, HEVC) montrent que notre méthode propose des images de meilleure qualité visuelle à bas débit. Nous avons également réalisé des études sur la répartition du débit entre la texture et la profondeur lors de la compression de séquences MVD. Les résultats de cette thèse peuvent être utilisés pour aider à la conception de nouveaux protocoles d'évaluation de qualité de données de synthèse; pour la conception de nouvelles métriques de qualité; pour améliorer les schémas de codage pour les données MVD, notamment grâce aux approches originales proposées; pour optimiser les schémas de codage de données MVD, à partir de nos études sur les relations entre la texture et la profondeur.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography