To see the other types of publications on this topic, follow the link: Indexation par le contenu.

Dissertations / Theses on the topic 'Indexation par le contenu'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Indexation par le contenu.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lutfi, Rania. "Indexation intelligente et recherche par le contenu de l'audio." Nantes, 2003. http://www.theses.fr/2003NANT2028.

Full text
Abstract:
La numérisation croissante des contenus audiovisuels s'accompagne de la production d'outils généraux pour rechercher de l'information. Ce sera le rôle majeur d'un SGBD audio. Toutefois, les SGBDs actuels, les moteurs de recherche basés sur le contenu et plus particulièrement, les travaux dans le cadre des archives radiophoniques demeurent limités. Il devient donc crucial de pouvoir définir des techniques automatiques (ou au moins semi-automatiques) d'indexation/de recherche par le contenu audiovisuel. Cette thèse s'intéresse exclusivement aux documents audio. L'objectif est de concevoir, mettre en oeuvre et expérimenter, un système d'indexation et de recherche par le conrenu de l'audio. . .
APA, Harvard, Vancouver, ISO, and other styles
2

Sayah, Salima. "Indexation d'images par moments : accès par le contenu aux documents visuels." Cachan, Ecole normale supérieure, 2007. http://www.theses.fr/2007DENS0005.

Full text
Abstract:
Notre objectif au cours de ce travail a été de réfléchir et mettre au point une méthode pour extraire les composantes visuelles de l'image, de les caractériser et de les retrouver après le processus d'indexation et de recherche dans les bases de données d'images. Nous commençons par mettre au point une méthode de détection de points d'intérêt invariante à l'échelle et au changement d'intensité de l'image. Ce détecteur fournit des points stables et répétables qui permettront une caractérisation locale de l'image. Les invariants radiaux des moments de Chebyshev permettent une description robuste aux transformations géométriques que peut subir l'image. Afin d'optimiser notre système de caractérisation nous avons utilisé l'espace des invariants couleur. Après l'étape d'indexation, nous procédons au regroupement de primitives visuelles en utilisant la méthode de classification PDDP et l'algorithme de recherche KNN. Pour plus de précision et de pertinence de notre système, nous avons utilisé l'algorithme d'appariement en prenant en compte des contraintes géométriques du voisinage du point pour la mise en correspondance des points d'intérêt
In our works, the goal was to investigate methods to define visual search keys, in order to characterize and use them in indexing and search process applied to big image database. We have to implement a fast and efficient partial indexing system. First we proposed a new interest point detector based on invariant scale and intensity Harris detector. By using this detector we obtained an efficient and repeatable salient points, Tbose points are characterized in the description step. Our shape descriptor is based on radial Chebyshev moment invariants, this descriptor is robust to geometric transformations. In order to make it more effective we used the color invariants. Afler indexing, the search step is very important, we first clustered the feature vectors by using the PDDP and KNN algorithms. Afler that we used the Gouet interest points matching algorithm, that has been efficient for big sets of points by using geometric constraints that are robust whatever the imag transformations are
APA, Harvard, Vancouver, ISO, and other styles
3

Souvannavong, Fabrice. "Indexation et recherche de plans vidéo par le contenu sémantique." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001298.

Full text
Abstract:
Nous abordons dans ce mémoire le problème délicat de l'indexation de plans vidéo et en particulier l'indexation automatique par le contenu sémantique. L'indexation est l'opération qui consiste à extraire une signature numérique ou textuelle qui décrit le contenu de manière précise et concise afin de permettre une recherche efficace dans une base de données. L'aspect automatique de l'indexation est important puisque nous imaginons bien la difficulté d'établir les signatures manuellement sur de grandes quantités de données. Jusqu'à présent les systèmes automatiques d'indexation et de recherche d'images ou de vidéos se sont concentrés sur la description et l'indexation du contenu purement visuel. Les signatures permettaient d'effectuer une recherche principalement sur les couleurs et les textures des images. A présent, le nouveau défi est d'ajouter à ces signatures une description sémantique du contenu de manière automatique. Un éventail des techniques utilisées pour l'indexation du contenu visuel est tout d'abord présenté. Ensuite nous introduisons une méthode pour calculer une signature précise et compacte à partir des régions des images clefs des plans. Il s'agit d'une adaptation de l'analyse de la sémantique latente qui fut initialement introduite pour indexer le texte. La tâche délicate de la recherche par le contenu sémantique est ensuite abordée. Les expériences sont conduites dans le cadre de l'évaluation TRECVID qui nous permet d'obtenir une grande quantité de vidéo avec leurs annotations. Nous poursuivons la classification sémantique en étudiant la fusion de systèmes de classification. Finalement nous introduisons une nouvelle méthode d'apprentissage actif.
APA, Harvard, Vancouver, ISO, and other styles
4

Souvannavong, Fabrice. "Indexation et recherche de plans vidéo par le contenu sémantique /." Paris : École nationale supérieure des télécommunications, 2005. http://catalogue.bnf.fr/ark:/12148/cb40105248d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Souvannavong, Fabrice. "Indexation et recherche de plans videos par le contenu sémantique." Paris, ENST, 2005. http://www.theses.fr/2005ENST0018.

Full text
Abstract:
Nous abordons dans ce mémoire le problème délicat de l'indexation de plans vidéo et en particulier l'indexation automatique par le contenu sémantique. L'indexation est l'opération qui consiste à extraire une signature numérique ou textuelle qui décrit le contenu de manière précise et concise afin de permettre une recherche efficace dans une base de données. L'aspect automatique de l'indexation est important puisque nous imaginons bien la difficulté d'établir les signatures manuellement sur de grandes quantités de données. Jusqu'à présent les systèmes automatiques d'indexation et de recherche d'images ou de vidéos se sont concentrés sur la description et l'indexation du contenu purement visuel. Les signatures permettaient d'effectuer une recherche principalement sur les couleurs et les textures des images. A présent, le nouveau défi est d'ajouter à ces signatures une description sémantique du contenu de manière automatique. Un éventail des techniques utilisées pour l'indexation du contenu visuel est tout d'abord présenté. Ensuite nous introduisons une méthode pour calculer une signature précise et compacte à partir des régions des images clefs des plans. Il s'agit d'une adaptation de l'analyse de la sémantique latente qui fut initialement introduite pour indexer le texte. La tâche délicate de la recherche par le contenu sémantique est ensuite abordée. Les expériences sont conduites dans le cadre de l'évaluation TRECVID qui nous permet d'obtenir une grande quantité de vidéo avec leurs annotations. Nous poursuivons la classification sémantique en étudiant la fusion de systèmes de classification. Finalement nous introduisons une nouvelle méthode d'apprentissage actif
In this thesis, we address the fussy problem of video content indexing and retrieval and in particular automatic semantic video content indexing. Indexing is the operation that consists in extracting a numerical or textual signature that describes the content in an accurate and concise manner. The objective is to allow an efficient search in a database. The automatic aspect of the indexing is important since we can imagine the difficulty to annotate video shots in huge databases. Until now, systems were concentrated on the description and indexing of the visual content. The search was mainly led on colors and textures of video shots. The new challenge is now to automatically add to these signatures a semantic description of the content. First, a range of indexing techniques is presented. Second, we introduce a method to compute an accurate and compact signature from key-frames regions. This method is an adaptation of the latent semantic indexing method originally used to index text documents. Third, we address the difficult task of semantic content retrieval. Experiments are led in the framework of TRECVID. It allows having a huge amount of videos and their labels. Fourth, we pursue on the semantic classification task through the study of fusion mechanisms. Finally, this thesis concludes on the introduction of a new active learning approach to limit the annotation effort
APA, Harvard, Vancouver, ISO, and other styles
6

Hmedeh, Zeinab. "Indexation pour la recherche par le contenu textuel de flux RSS." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00968604.

Full text
Abstract:
Afin de réduire l'intervalle de temps nécessaire entre la publication de l'information sur le Web et sa consultation par les utilisateurs, les sites Web reposent sur le principe de la Syndication Web. Les fournisseurs d'information diffusent les nouvelles informations à travers des flux RSS auxquels les utilisateurs intéressés peuvent s'abonner. L'objectif de la thèse est de proposer un système de notification passant à l'échelle du Web, prenant en considération le grand nombre d'utilisateurs et le débit élevé d'items. Nous proposons un index basé sur les mots-clés des requêtes utilisateurs permettant de retrouver ceux-ci dans les items des flux. Trois structures d'indexation de souscriptions sont présentées. Un modèle analytique pour estimer le temps de traitement et l'espace mémoire de chaque structure est détaillé. Nous menons une étude expérimentale approfondie de l'impact de plusieurs paramètres sur ces structures. Pour les souscriptions jamais notifiées, nous adaptons les index étudiés pour prendre en considération leur satisfaction partielle. Afin de réduire le nombre d'items reçus par l'utilisateur, nous intégrons une deuxième phase de filtrage par nouveauté et diversité considérant l'ensemble d'items déjà reçus par l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
7

Fournier, Jérôme. "Indexation d'images par le contenu et recherche interactive dans les bases généralistes." Cergy-Pontoise, 2002. http://biblioweb.u-cergy.fr/theses/02CERG0157.pdf.

Full text
Abstract:
Nous nous intéressons à l'indexation et à la recherche des images par le contenu dans les bases généralistes. Nous présentons un système opérationnel nommé RETIN. Du point de vue indexation, nous proposons un traitement automatique et portons une attention particulière à la réduction de dimension et à l'augmentation de l'efficacité des signatures. Du point de vue recherche, nous utilisons le principe de la recherche-par-similarité et du bouclage de pertinence pour réduire le décalage entre l'information bas niveau extraite de l'image et la requête haut niveau de l'utilisateur. Nous proposons la mise à jour de la fonction de similarité ainsi qu'une stratégie d'exploration de la base pour la construction interactive d'une requête multiple. En outre, nous proposons une technique d'apprentissage à long-terme des similarités, basée sur les recherches passées pour le regroupement des images de la base en grandes catégories
This thesis deals with content-based image indexing and retrieval in general databases. We introduce an operational system named RETIN. From the indexing point of view, we propose an automatic processing in order to compute the image signatures. We also pay attention to dimensionality reduction and retrieval effectiveness improvement of signatures. From the retrieval point of view, we use the search-by-similarity and the relevance feedback principles in order to reduce the gap between the low-level information extracted from images and the high-level user's request. We propose a new method for the similarity function refinement and an exploration strategy for the interactive construction of a multiple request. Moreover, we introduce a long-term similarity learning technique, based on former retrieval sessions, which allows to cluster images into broad categories
APA, Harvard, Vancouver, ISO, and other styles
8

Bursuc, Andrei. "Indexation et recherche de contenus par objet visuel." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00873966.

Full text
Abstract:
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
APA, Harvard, Vancouver, ISO, and other styles
9

Hamroun, Mohamed. "Indexation et recherche par contenu visuel, sémantique et multi-niveaux des documents multimédia." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0372.

Full text
Abstract:
Suite aux derniers progrès technologiques, la quantité de données multimédias ne cesse d'augmenter. Dans ce contexte, le problème qui se pose est comment exploiter efficacement ces données ? il est nécessaire de mettre en place des outils facilitant leur accès et leur manipulation.Pour répondre à ces besoins, nous avons proposé, tout d’abord, un modèle d’indexation et de recherche de planes vidéos (ou images) par son contenu visuel (ISE). Les fonctionnalités innovantes d'ISE sont les suivantes : (i) définition d'un nouveau descripteur "PMC" et (ii) application de l'algorithme génétique (AG) pour améliorer la recherche (PMGA).Ensuite, nous nous sommes intéressés à la détection des concepts dans les plans vidéo (Approche LAMIRA). Dans ce même contexte, nous avons proposé une méthode d’annotation semi-automatique des plans vidéo afin d’améliorer la qualité d’indexation basée sur l’AG.Puis, nous avons fourni une méthode d’indexation sémantique séparant le niveau donné, d’un niveau conceptuel et d’un autre, plus abstrait, contextuel. Ce nouveau système intègre, aussi, des mécanismes d’expansion de la requête et de retour de pertinence. Pour donner plus de fluidité dans la requête utilisateur, l’utilisateur peut effectuer une recherche par navigation sur les trois niveaux d’abstraction. Deux systèmes appelés VISEN et VINAS ont été mis en place pour valider ces dernières positions.Finalement, un Framework SIRI a été propose sur la base d’une fusion multi-niveaux combinant nos 3 systèmes : ISE, VINAS et VISEN. Ce Framework fournit une représentation bidimensionnelle de vecteurs descripteurs (haut niveau et bas niveau) pour chaque image
Due to the latest technological advances, the amount of multimedia data is constantly increasing. In this context, the problem is how to effectively use this data? it is necessary to set up tools to facilitate its access and manipulation.To achieve this goal, we first propose an indexation and retrieval model for video shots (or images) by their visual content (ISE). The innovative features of ISE are as follows: (i) definition of a new descriptor "PMC" and (ii) application of the genetic algorithm (GA) to improve the retrieval (PMGA).Then, we focus on the detection of concepts in video shots (LAMIRA approach). In the same context, we propose a semi-automatic annotation method for video shots in order to improve the quality of indexation based on the GA.Then, we provide a semantic indexation method separating the data level from a conceptual level and a more abstract, contextual level. This new system also incorporates mechanisms for expanding the request and relevance feedback. To add more fluidity to the user query, the user can perform a navigation using the three levels of abstraction. Two systems called VISEN and VINAS have been set up to validate these last positions.Finally, a SIRI Framework was proposed on the basis of a multi-level indexation combining our 3 systems: ISE, VINAS and VISEN. This Framework provides a two-dimensional representation of features (high level and low level) for each image
APA, Harvard, Vancouver, ISO, and other styles
10

Caron, André. "Recherche par le contenu adaptée à la surveillance vidéo." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4911.

Full text
Abstract:
Les systèmes de surveillance vidéo sont omniprésents dans les lieux publics achalandés et leur présence dans les lieux privés s'accroît sans cesse. Si un aéroport ou une gare de trains peut se permettre d'employer une équipe de surveillance pour surveiller des flux vidéo en temps réel, il est improbable qu'un particulier effectue une telle dépense pour un système de surveillance à domicile. Qui plus est, l'utilisation de vidéos de surveillance pour l'analyse criminalistique requiert souvent une analyse a posteriori des événements observés. L'historique d'enregistrement correspond souvent à plusieurs jours, voire des semaines de vidéo. Si le moment où s'est produit un événement d'intérêt est inconnu, un outil de recherche vidéo est essentiel. Un tel outil a pour objectif d'identifier les segments de vidéo dont le contenu correspond à une description approximative de l'événement (ou de l'objet) recherché. Ce mémoire présente une structure de données pour l'indexation du contenu de longues vidéos de surveillance, ainsi qu'un algorithme de recherche par le contenu basé sur cette structure. À partir de la description d'un objet basée sur des attributs tels sa taille, sa couleur et la direction de son mouvement, le système identifie en temps réel les segments de vidéo contenant des objets correspondant à cette description. Nous avons démontré empiriquement que notre système fonctionne dans plusieurs cas d'utilisation tels le comptage d'objets en mouvement, la reconnaissance de trajectoires, la détection d'objets abandonnés et la détection de véhicules stationnés. Ce mémoire comporte également une section sur l'attestation de qualité d'images. La méthode présentée permet de déterminer qualitativement le type et la quantité de distortion appliquée à l'image par un système d'acquisition. Cette technique peut être utilisée pour estimer les paramètres du système d'acquisition afin de corriger les images, ou encore pour aider au développement de nouveaux systèmes d'acquisition.
APA, Harvard, Vancouver, ISO, and other styles
11

Michaud, Dorian. "Indexation bio-inspirée pour la recherche d'images par similarité." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2288/document.

Full text
Abstract:
La recherche d'images basée sur le contenu visuel est un domaine très actif de la vision par ordinateur, car le nombre de bases d'images disponibles ne cesse d'augmenter.L’objectif de ce type d’approche est de retourner les images les plus proches d'une requête donnée en terme de contenu visuel.Notre travail s'inscrit dans un contexte applicatif spécifique qui consiste à indexer des petites bases d'images expertes sur lesquelles nous n'avons aucune connaissance a priori.L’une de nos contributions pour palier ce problème consiste à choisir un ensemble de descripteurs visuels et de les placer en compétition directe. Nous utilisons deux stratégies pour combiner ces caractéristiques : la première, est pyschovisuelle, et la seconde, est statistique.Dans ce contexte, nous proposons une approche adaptative non supervisée, basée sur les sacs de mots et phrases visuels, dont le principe est de sélectionner les caractéristiques pertinentes pour chaque point d'intérêt dans le but de renforcer la représentation de l'image.Les tests effectués montrent l'intérêt d'utiliser ce type de méthodes malgré la domination des méthodes basées réseaux de neurones convolutifs dans la littérature.Nous proposons également une étude, ainsi que les résultats de nos premiers tests concernant le renforcement de la recherche en utilisant des méthodes semi-interactives basées sur l’expertise de l'utilisateur
Image Retrieval is still a very active field of image processing as the number of available image datasets continuously increases.One of the principal objectives of Content-Based Image Retrieval (CBIR) is to return the most similar images to a given query with respect to their visual content.Our work fits in a very specific application context: indexing small expert image datasets, with no prior knowledge on the images. Because of the image complexity, one of our contributions is the choice of effective descriptors from literature placed in direct competition.Two strategies are used to combine features: a psycho-visual one and a statistical one.In this context, we propose an unsupervised and adaptive framework based on the well-known bags of visual words and phrases models that select relevant visual descriptors for each keypoint to construct a more discriminative image representation.Experiments show the interest of using this this type of methodologies during a time when convolutional neural networks are ubiquitous.We also propose a study about semi interactive retrieval to improve the accuracy of CBIR systems by using the knowledge of the expert users
APA, Harvard, Vancouver, ISO, and other styles
12

Harb, Hadi Chen Liming. "Classification du signal sonore en vue d'une indexation par le contenu des documents multimédia." [S.l.] : [s.n.], 2003. http://bibli.ec-lyon.fr/exl-doc/hharb.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Harb, Hadi. "Classification du signal sonore en vue d'une indexation par le contenu des documents multimédia." Ecully, Ecole centrale de Lyon, 2003. http://bibli.ec-lyon.fr/exl-doc/hharb.pdf.

Full text
Abstract:
Les humains ont une aptitude remarquable de classifier les signaux sonores en des classes : musique, parole, applaudissement, explosion, etc. . . Face à une profusion de documents multimédias, nous proposons dans cette thèse de développer des machines de perception auditive automatiques dotées des capacités de classification sonore similaires à celles des humains. Nous suivons une approche inspirée par quelques études sur la perception humaine des classes sémantiques sonores du contexte de multimédia et nous proposons ainsi un modèle de mémoire sonore qui est à la base d'un espace de représentation du signal, nommé espace MGI (Modélisation Gaussienne Incrémentale). Un comité de réseaux de neurones est couplé à l'espace MGI afin de constituer un système de classification du signal sonore. Ce système a permis efficacement la classification en musique/parole, homme/femme, action/non-action, genre de musique, ainsi qu'une structuration des vidéos en des "scène sonores"
Humans have a remarkable ability to categorise audio signals into classes, such as speech, music, explosion, etc. . . The thesis studies the capacity of developing audio classification algorithms inspired by the human perception of the audio semantic classes in the multimedia context. A model of short therm auditory memory is proposed in order to explain some psychoacoustic effects. The memory model is then simplified to constitute the basis of the Piecewise Gaussian Modelling (PGM) features. The PGM features are coupled to a mixture of neural networks to form a general audio signal classifier. The classifier was successfully applied to speech/music classification, gender identification, action detection and musical genre recognition. A synthesis of the classification effort was used in order to structure a video into "audio scenes" and "audio chapters". This work has permitted the development of an autoamtic audio indexer prototype, CYNDI
APA, Harvard, Vancouver, ISO, and other styles
14

Jai, Andaloussi Said. "Indexation de l'information médicale. Application à la recherche d'images et de vidéos par le contenu." Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0150.

Full text
Abstract:
Dans ce travail de thèse, nous nous intéressons à l'utilisation des bases de données médicales multimédia pour l'aide à la décision diagnostique et le suivi thérapeutique. Notre objectif est de définir des méthodes, et un système, pour sélectionner dans les bases de documents multimédia des documents similaires à un document proposé en requête. Ces documents contiennent des informations sous forme texte, numérique, des images et parfois des séquences vidéos. Pour l'aide au diagnostic, l'interrogation du système s'effectue en lui présentant en requête le dossier patient, ou une partie de ce dossier. Notre travail va donc mettre en oeuvre des méthodes relatives au raisonnement à base de cas (CBR : Case Based Reasoning), à la fouille de données, à la recherche d‘images par le contenu (CBIR : Content Based Image Retrieval) et à la rechercher de vidéo par le contenu (CBVR : Content Based Video Retrieval). Les méthodes sont évaluées sur trois bases de données médicales multimodales. La première base de données étudiée est une base d‘images rétiniennes, constituée au LaTIM pour l‘aide au suivi de la rétinopathie diabétique. La seconde base est une base publique de mammographies (Digital Database for Screening Mammography, DDSM University of South Florida). La troisième base de données est une base de video gastro-entérologie constituée aussi au LaTIM. Nous utilisons cette base pour étudier les possibilités d'utilisation des méthodes développées dans le cadre de la recherche d‘images fixes, pour la recherche de séquences vidéos couleurs. Dans la première partie de notre travail, nous cherchons à caractériser individuellement chaque image du dossier patient. Nous avons poursuivi les travaux effectués dans le laboratoire sur l‘utilisation des méthodes globales de caractérisation des images dans le domaine compressé (quantification vectorielle, DCT, JPEG-ondelettes, ondelettes adaptées) pour la recherche d‘images. Les résultats obtenus avec les ondelettes, comparés aux autres méthodes de compression ont montré une grande amélioration en terme de retrouvaille. Cependant, les ondelettes nécessitent la spécification d'un noyau ou d'une fonction de base pour effectuer la décomposition. Pour pallier ce problème, nous avons proposé une méthode originale de caractérisation à partir de la décomposition BEMD des images (Bidimensionnal Empirical Mode Decomposition) : elle permet de décomposer une image en plusieurs modes BIMFs (Bidimensionnel Intrinsic Mode Functions), qui permettent d'accéder à des informations sur le contenu fréquentiel des images. Une des originalités de la méthode provient de l‘auto-adaptativite de la BEMD, qui ne nécessite pas une fonction de base pour effectuer la décomposition. Une fois les images caractérisées, la recherche s'effectue en calculant, au sens d'une métrique donnée, la distance entre la signature de l‘image requête et les signatures des images de la base. Ce calcul permet de sélectionner des images en réponse à la requête en dehors de toute signification sémantique. Pour améliorer le résultat de retrouvaille, nous introduisons une technique d‘optimisation pour le calcul de la distance entre signature, en utilisant les algorithmes génétiques. Nous abordons ensuite le problème de la recherche de vidéos par le contenu. Pour cela, nous introduisons une méthode pour le calcul des signatures vidéo à partir des images clefs extraites par l‘analyse du mouvement. La distance entre signatures video est calculée en utilisant une technique basée sur l‘analyse en composantes principales. Enfin, nous intégrons les travaux précédents dans la requète par dossiers patients, qui contiennent plusieurs images ainsi que des informations textuelles, sémantiques et numériques. Pour cela nous utilisons trois méthodes développées dans le cadre d‘une these récemment soutenue dans notre laboratoire : la première est basée sur les arbres de décision, la deuxième sur les réseaux bayésiens et la troisième sur la théorie de Dezert-Smarandache (DSmT)
This PhD thesis addresses the use of multimedia medical databases for diagnostic decision and therapeutic follow-up. Our goal is to develop methods and a system to select in multimedia databases documents similar to a query document. These documents consist of text information, numeric images and sometimes videos. In the proposed diagnosis aid system, the database is queried with the patient file, or a part of it, as input. Our work therefore involves implementing methods related to Case-Based Reasoning (CBR), datamining, Content Based Image Retrieval (CBIR) and Content Based Video Retrieval (CBVR). These methods are evaluated on three multimodal medical databases. The first database consists of retinal images collected by the LaTIM laboratory for aided diabetic retinopathy follow-up. The second database is a public mammography database (Digital Database for Screening Mammography – DDSM –) collected by the University of South Florida. The third database consists of gastroenterology videos also collected by the LaTIM laboratory. This database is used to discover whether methods developed for fixed image retrieval can also be used for color video retrieval. The first part of this work focuses on the characterization of each image in the patient file. We continued the work started in our laboratory to characterize images globally in the compressed domain (vector quantization, DCT-JPEG, wavelets, adapted wavelets) for image retrieval. Compared to other compression methods, the wavelet decomposition led to a great improvement in terms of retrieval performance. However, the wavelet decomposition requires the specification of a kernel or basis function. To overcome this problem, we proposed an original image characterization method based on the BEMD (Bidimensionnal Empirical Mode Decomposition). It allows decomposing an image into several BIMFs (Bidimensionnal Intrinsic Mode Functions) that provide access to frequency information of the image content. An originality of the method comes from the self-adaptivity of BEMD: it does not require the specification of a basic function. Once images are characterized, a similarity search is performed by computing the distance between the signature of the query image and the signature of each image in the database, given a metric. This process leads to the selection of similar images, without semantic meaning. An optimization process, based on genetic algorithms, is used to adapt the distance metric and thus improve retrieval performance. Then, the problem of content based video retrieval is addressed. A method to generate video signatures is presented. This method relies on key video frames extracted by movement analysis. The distance between video signatures is computed using a Principal Component Analysis (PCA) based technique. Finally, the proposed methods are integrated into the framework of patient file retrieval (each patient file consisting of several images and textual information). Three methods developed during a PhD thesis recently defended in our laboratory are used for patient file retrieval: the first approach is based on decision trees and their extensions, the second on Bayesian networks and the third on the Dezert-Smarandache theory (DSmT).
APA, Harvard, Vancouver, ISO, and other styles
15

Marie-Julie, Jean Michel. "Bases de données d'images- Calculateurs parallèles." Paris 6, 2000. http://www.theses.fr/2000PA066593.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Li, Ki-Joune. "Contributions aux systèmes d’hypermédia : Modélisation et indexation des objets spatio-temporels." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0052.

Full text
Abstract:
Dans ce mémoire, nous avons exposé deux aspects importants pour l'incorporation des données spatio-temporelles dans un système hypermédia : la modélisation et l'indexation spatiale. En ce qui concerne le premier aspect, nous avons proposé une méthode de modélisation qui facilite l'intégration des données spatio-temporelles dans un système d'hypermédia. Cette méthode a été approfondie pour les objets mobiles en utilisant la notion de trajet. Au niveau de l'indexation spatiale, nous avons vérifié qu'une méthode d'indexation spatiale respecte bien la proximité spatiale, réduit le nombre d'accès en mémoire secondaire, ce qui ralenti dramatiquement le temps d'accès. Dans cette optique, nous avons effectué une étude comparative entre les méthodes d'indexation spatiale existantes. Une nouvelle méthode d'indexation spatiale qui respecte le mieux la proximité spatiale a été proposé en utilisant la méthode des nuées dynamiques
In our works, we investigated two important aspects for the incorporation of spatio-temporal data into a hypermedia system: the modelling and the spatial indexing. As for the former aspect, we proposed a modelling method witch facilitates the integration of spatio-temporal data into a hypermedia system. Especially a modelling method for moving object was proposed, based on their trajectory. We have proved that spatial indexing method respecting well the spatial proximity of objects and queries, increases the hit-ratio. So a criteria, named the hierarchical variance was defined in order to quantify the spatial proximity of the spatial indexing method. By using the hierarchical variance, we have compared some important spatial indexing methods. And we have also proposed a new spatial indexing method which respect very well the spatial proximity by dynamic clustering method
APA, Harvard, Vancouver, ISO, and other styles
17

Thomas, Corinne. "Accès par le contenu à des documents numérisés contenant du texte et de l'image." Paris 7, 2001. http://www.theses.fr/2001PA077150.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Ordon︢ez, Varela John Richard. "Indexation et recherche d'images par le contenu, utilisant des informations de compression d'images : application aux images médicales." Rennes 1, 2004. http://www.theses.fr/2004REN10009.

Full text
Abstract:
Cette thèse est consacrée à la recherche d'images médicales par leur contenu numérique, en utilisant les informations fournies par des processus de compression d'images. Deux axes principaux de recherche ont été développés. Le premier s'appuie sur une analyse de l'image par quantification vectorielle, qui a conduit à l'élaboration de signatures associées aux images dans la base : les cartes d'activationsʺ. Plusieurs métriques de similitude entre cartes ont été étudiées, et d'autres approches pour introduire de l'information spatiale aux signatures ont été développées. Le deuxième axe est basé sur les méthodes de compression JPEG-DCT et JPEG-2000 qui travaillent dans le domaine transformé. Des signatures spatio-fréquentielles mettant à profit les différentes étapes de la chaîne de traitement définie par ces normes sont proposées. Les méthodes de retrouvaille d'images développées sont évaluées quantitativement sur plusieurs bases d'images médicales.
APA, Harvard, Vancouver, ISO, and other styles
19

Benmokhtar, Rachid. "Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005321.

Full text
Abstract:
Aujourd'hui, l'accès aux documents dans les bases de données, d'archives et sur Internet s'effectue principalement grâce à des données textuelles : nom de l'image ou mots-clés. Cette recherche est non exempte de fautes plus ou moins graves : omission, orthographe, etc. Les progrès effectués dans le domaine de l'analyse d'images et de l'apprentissage automatique permettent d'apporter des solutions comme l'indexation et la recherche à base des caractéristiques telles que la couleur, la forme, la texture, le mouvement, le son et le texte. Ces caractéristiques sont riches en informations et notamment d'un point de vue sémantique. Cette thèse s'inscrit dans le cadre de l'indexation automatique par le contenu sémantique des documents multimédia: plans vidéo et images-clés. L'indexation consiste à extraire, représenter et organiser efficacement le contenu des documents d'une base de données. L'état de l'art du domaine est confronté au «fossé sémantique» qui sépare les représentations visuelles brutes (bas-niveau) et conceptuelles (haut-niveau). Pour limiter les conséquences de cette problématique, nous avons introduit dans le système plusieurs types de descripteurs, tout en prenant à notre avantage les avancées scientifiques dans le domaine de l'apprentissage automatique et de la ``fusion multi-niveaux''. En effet, la fusion est utilisée dans le but de combiner des informations hétérogènes issues de plusieurs sources afin d'obtenir une information globale, plus complète, de meilleure qualité, permettant de mieux décider et d'agir. Elle peut être appliquée sur plusieurs niveaux du processus de classification. Dans cette thèse, nous avons étudié la fusion bas-niveau (précoce), la fusion haut-niveau (tardive), ainsi qu'à un niveau décisionnel basé sur l'ontologie et la similarité inter-concepts dit de raisonnement. Les systèmes proposés ont été validés sur les données de TRECVid (projet NoE K-Space) et les vidéos de football issues d'Orange-France Télécom Labs (projet CRE-Fusion). Les résultats révèlent l'importance de la fusion sur chaque niveau du processus de classification, en particulier, l'usage de la théorie des évidences.
APA, Harvard, Vancouver, ISO, and other styles
20

Omhover, Jean-François. "Recherche d'images par similarité de contenus régionaux." Paris 6, 2004. http://www.theses.fr/2004PA066254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Quellec, Gwenole. "Indexation et fusion multimodale pour la recherche d'informations par le contenu : Application aux bases de données d'images médicales." Télécom Bretagne, 2008. http://www.theses.fr/2008TELB0078.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux méthodes de recherche d'information dans des bases de données constituées de documents multimédia. Nous les appliquons à des documents contenant des images numériques et des éléments sémantiques associés. Notre objectif est de sélectionner dans la base des documents similaires à un document proposé en requête. Pour réaliser cet objectif, nous proposons des méthodes basées sur la recherche d'images par le contenu et le raisonnement à base de cas. L'application visée est l'aide au diagnostic dans un cadre médical : la base est constituée de dossiers patients contenant plusieurs images et des informations cliniques contextuelles à propos du patient. Le système est appliqué à deux bases de données médicales multimodales. La première base de données étudiée est une base d'images rétiniennes, constituée au LaTIM pour l'aide au suivi de la rétinopathie diabétique. La seconde est une base publique de mammographies. Dans un premier temps, nous cherchons à caractériser individuellement chaque image du dossier patient. Cette caractérisation est effectuée dans le domaine compressé. Nous avons ainsi proposé deux méthodes originales d'indexation à partir de la transformée en ondelettes des images : 1) une méthode globale, modélisant la distribution des coefficients d'ondelette dans l'image, 2) une méthode locale, basée sur l'extraction de lésions modélisables par une fonction paramétrique. Une des originalités de ces méthodes réside dans le fait que la base d'ondelettes est recherchée par optimisation dans le cadre du schéma de lissage. Après avoir obtenu les signatures caractérisant les images, nous cherchons à fusionner les signatures provenant de l'ensemble des images du dossier, ainsi que des informations sémantiques contextuelles, pour sélectionner les dossiers patients les plus proches. Outre le problème de l'hétérogénéité des données, nous devons résoudre le problème de l'incomplétude des dossiers patients. A notre connaissance, seuls des systèmes de recherche traitant séparément chaque type d'information ont été proposées dans la littérature. Nous proposons trois nouvelles approches, inspirées de la fouille de données et de la fusion d'information, pour réellement intégrer les différentes sources d'information hétérogènes tout en gérant les informations manquantes. La première est basée sur les arbres de décision et ses extensions, la deuxième sur les réseaux bayésiens et la troisième sur la théorie de Dezert-Smarandache (DSmT). Les résultats que nous obtenons pour les deux bases de données médicales multimodales que nous étudions sont très satisfaisants et supérieurs aux méthodes classiques. Ainsi, la précision moyenne pour une fenêtre de cinq cas atteint 81,78% pour la base d'images rétiniennes et 92,90% pour la base des mammographies
In this Ph. D thesis, we study methods for information retrieval in databases made of multidimedia documents. Our objective is to select in a database documents similar to a query document. The aimed application is computer aided diagnosis in a medical framework: the database is made up of several images together with clinical contextual information about the patient. We firts try to characterize each image in the patient file individually. We have thus proposed two original indexing methods derived from the wavelet transform of images: 1) a global method, modeling the distribution of wavelet coefficients in the image, 2) a local method, based on the extraction of lesions. Once images are characterized, we try to used all the information in the file to retrieve the closest patient files. In addition to the heterogeneity of the data, with have to cope with missing information in patient files. We propose three new approaches, derived from data mining and information fusion theory. The first approach is based on decision trees, the second one on Bayesian networks and the third one on the Dezert-Smarandache theory (DSmT). The results obtained on two multimodamedical databases are satisfying and superior to existing methods. Thus, the mean precision at five research 81. 78 % on a retinal image database and 92. 90 % on a mammography database
APA, Harvard, Vancouver, ISO, and other styles
22

Ben, Abdelali Abdessalem. "Etude de la conception d’architectures matérielles dédiées pour les traitements multimédia : indexation de la vidéo par le contenu." Dijon, 2007. http://www.theses.fr/2007DIJOS075.

Full text
Abstract:
Cette thèse constitue une contribution à l’étude de l’indexation automatique de la vidéo par le contenu en vue de la conception d’architectures matérielles dédiées à ce type d’application multimédia. L’indexation de la vidéo par le contenu présente un domaine de grande importance et qui est sans cesse en développement pour différents types d’applications telles que l’Internet, la TV interactive, les supports vidéo portables (PVR) et les applications de sécurité. L’étude proposée est effectuée à travers des exemples concrets de techniques d’analyse du contenu AV pour l’indexation de la vidéo et selon différents aspects applicatifs, technologiques et méthodologiques. Elle s’inscrit dans le cadre de la conception d’architectures matérielles dédiées et de l’exploitation des nouvelles technologies de systèmes embarqués pour les applications multimédia récentes. Un intérêt particulier est consacré à la technologie reconfigurable et aux nouvelles possibilités et moyens d’utilisation des circuits FPGA. La première phase de cette thèse a été consacrée à l’étude du domaine de l’indexation automatique de la vidéo par le contenu. Il s’agit de l’étude des caractéristiques et des nouveaux besoins des systèmes d’indexation au travers des approches et des techniques actuellement utilisées ainsi que les champs d’application des nouvelles générations de ces systèmes. Ceci afin de montrer l’intérêt d’avoir recours à de nouvelles architectures et à de nouvelles solutions technologiques permettant de supporter les exigences de ce domaine. La deuxième phase de ce travail a été réservée à la validation et à l’optimisation d’un ensemble de descripteurs visuels de la norme MPEG-7 pour la segmentation temporelle de la vidéo. Ceci constitue une étude de cas par l’étude d’un exemple important de techniques d’analyse du contenu AV utilisées dans une grande diversité d’applications. L’étude proposée constitue également une étape de préparation à l’implémentation matérielle de ces techniques dans le contexte de conception d’accélérateurs matériels pour l’indexation automatique de la vidéo par le contenu en temps réel. Dans ce cadre différentes transformations algorithmiques ont été proposées dans le but d’assurer une meilleure Adéquation Algorithme Architecture (AAA) et d’améliorer les performances des algorithmes étudiés. La troisième phase de ce travail a été consacrée à l’étude de la conception d’opérateurs matériels dédiés pour les techniques d’analyse du contenu AV ainsi qu’à l’étude de l’exploitation des nouvelles technologies des systèmes reconfigurables pour la mise en œuvre de SORC pour l’indexation automatique de la vidéo. Plusieurs architectures matérielles ont été proposées pour les descripteurs étudiés et différents concepts liés à l’exploitation de la technologie reconfigurable et les SORC ont été explorés (méthodologies et outils associés pour la conception de tels systèmes sur puce, technologie et méthodes pour la reconfiguration dynamique et partielle, plateformes matérielles à base d’FPGA, structure d’un SORC pour l’indexation de la vidéo par le contenu, etc. )
This thesis constitutes a contribution to the study of content based automatic video indexing aiming at designing hardware architectures dedicated to this type of multimedia application. The content based video indexing represents an important domain that is in constant development for different types of applications such as the Internet, the interactive TV, the personal video recorders (PVR) and the security applications. The proposed study is done through concrete AV analysis techniques for video indexing and it is carried out according to different aspects related to application, technology and methodology. It is included in the context of dedicated hardware architectures design and exploitation of the new embedded systems technologies for the recent multimedia applications. Much more interest is given to the reconfigurable technology and to the new possibilities and means of the FPGA devices utilization. The first stage of this thesis is devoted to the study of the automatic content based video indexing domain. It is about the study of features and the new needs of indexing systems through the approaches and techniques currently used as well as the application fields of the new generations of these systems. This is in order to show the interest of using new architectures and technological solutions permitting to support the new requirements of this domain. The second stage is dedicated to the validation and the optimization of some visual descriptors of the MPEG-7 standard for the video temporal segmentation. This constitutes a case study through an important example of AV content analysis techniques. The proposed study constitutes also a stage of preparation for the hardware implementation of these techniques in the context of hardware accelerators design for real time automatic video indexing. Different Algorithm Architecture Adequacy aspects have been studied through the proposition of various algorithmic transformations that can be applied for the considered algorithms. The third stage of this thesis is devoted to study the design of dedicated hardware operators for video content analysis techniques as well as the exploitation of the new reconfigurable systems technologies for designing SORC dedicated to the automatic video indexing. Several hardware architectures have been proposed for the MPEG-7 descriptors and different concepts related to the exploitation of reconfigurable technology and SORC have been studied as well (methodologies and tools for designing such systems on chip, technology and methods for the dynamic and partial reconfiguration, FPGA based hardware platforms, SORC structure for video indexing, etc. )
APA, Harvard, Vancouver, ISO, and other styles
23

Napoléon, Thibault. "Indexation multi-vues et recherche d'objets 3D." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00576966.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux problématiques liées à l'indexation et à la recherche d'objets 3D par le contenu. Dans un cadre plus particulier, nous nous sommes penchés sur des méthodes d'indexation multi-vues, caractérisant la forme à l'aide de projections 2D de l'objet en trois-dimensions. Dans un premier temps, nous introduisons une nouvelle approche de normalisation et d'alignement des objets 3D nécessaire à notre processus d'indexation. La définition de la position et de l'échelle s'appuie sur la sphère minimale englobante qui offre des propriétés intéressantes pour notre caractérisation multi-vues de la forme. En ce qui concerne la recherche de l'alignement optimal, nous proposons un estimateur permettant de comparer deux poses différentes en s'appuyant sur des résultats obtenus en psychologie cognitive. Dans une seconde partie, nous définissons trois nouveaux descripteurs de forme basés sur des projections 2D. Le premier décrit la forme d'une silhouette à l'aide d'un ensemble de pixels. Le second, utilise des informations de convexités et de concavités pour décrire le contour des projections de nos objets 3D. Enfin, le dernier utilise des informations d'orientation de la surface 3D. Finalement, le processus de recherche que nous introduisons permet d'interroger la base de données à l'aide d'objets 3D, de photos ou de dessins au trait. Afin de garantir une recherche efficace en temps et en pertinence des résultats, nous proposons deux optimisations. La première s'appuie sur la fusion de résultats tandis que la seconde élimine rapidement les objets éloignés de la requête au moyen d'un élagage précoce.
APA, Harvard, Vancouver, ISO, and other styles
24

Chaouch, Mohamed. "Recherche par le contenu d'objets 3D." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005168.

Full text
Abstract:
Aujourd'hui, grâce aux technologies récentes de numérisation et de modélisation 3D, des bases d'objets 3D de taille de plus en plus grande deviennent disponibles. La recherche par le contenu apparaît être une solution nécessaire pour structurer, gérer ces données multimédia, et pour naviguer dans ces grandes bases. Dans ce contexte, nous nous sommes intéressés plus particulièrement aux trois phases qui constituent le processus de la recherche par le contenu : la normalisation, l'extraction de la signature, et la mesure de similarité entre objets 3D. La première partie de la thèse porte sur la normalisation d'objets 3D, en particulier sur la recherche de la pose optimale. Nous proposons une nouvelle méthode d'alignement d'objets 3D basée sur la symétrie de réflexion et la symétrie de translation locale. L'approche repose sur les propriétés intéressantes de l'analyse en composantes principales vis-à-vis des symétries de réflexion pour retrouver d'éventuels axes d'alignement optimaux parmi les axes principaux. La deuxième partie de la thèse est consacrée à l'étude des descripteurs de forme et des mesures de similarité associées. Dans un premier temps, nous proposons un nouveau descripteur 3D dérivé de la transformée de Gauss, appelé 3D Gaussian descriptor. Calculé sur une partition de l'espace englobant l'objet, ce descripteur permet de caractériser localement la géométrie de la surface. Dans un deuxième temps, nous avons étudié les approches multi-vues caractérisant l'objet 3D à partir des images de projection. Nous introduisons une technique d'amélioration, appelée Enhanced Multi-views Approach, pouvant s'appliquer à la plupart des approches multi-vues. Des valeurs de pertinence sont définies et introduites dans la mesure de similarité afin de pondérer les contributions des projections dans la description de la forme 3D. La dernière méthode d'indexation que nous proposons, appelée Depth Line Approach, est une approche multi-vues fondée sur les images de profondeur. Pour les caractériser, nous introduisons une méthode de transcodage qui transforme les lignes de profondeur extraites en séquence d'états. Pour permettre une comparaison efficace, la mesure de similarité associée se base sur la programmation dynamique.
APA, Harvard, Vancouver, ISO, and other styles
25

Gbehounou, Syntyche. "Indexation de bases d'images : évaluation de l'impact émotionnel." Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2295/document.

Full text
Abstract:
L'objectif de ce travail est de proposer une solution de reconnaissance de l'impact émotionnel des images en se basant sur les techniques utilisées en recherche d'images par le contenu. Nous partons des résultats intéressants de cette architecture pour la tester sur une tâche plus complexe. La tâche consiste à classifier les images en fonction de leurs émotions que nous avons définies "Négative", "Neutre" et "Positive". Les émotions sont liées aussi bien au contenu des images, qu'à notre vécu. On ne pourrait donc pas proposer un système de reconnaissance des émotions performant universel. Nous ne sommes pas sensible aux mêmes choses toute notre vie : certaines différences apparaissent avec l'âge et aussi en fonction du genre. Nous essaierons de nous affranchir de ces inconstances en ayant une évaluation des bases d'images la plus hétérogène possible. Notre première contribution va dans ce sens : nous proposons une base de 350 images très largement évaluée. Durant nos travaux, nous avons étudié l'apport de la saillance visuelle aussi bien pendant les expérimentations subjectives que pendant la classification des images. Les descripteurs, que nous avons choisis, ont été évalués dans leur majorité sur une base consacrée à la recherche d'images par le contenu afin de ne sélectionner que les plus pertinents. Notre approche qui tire les avantages d'une architecture bien codifiée, conduit à des résultats très intéressants aussi bien sur la base que nous avons construite que sur la base IAPS, qui sert de référence dans l'analyse de l'impact émotionnel des images
The goal of this work is to propose an efficient approach for emotional impact recognition based on CBIR techniques (descriptors, image representation). The main idea relies in classifying images according to their emotion which can be "Negative", "Neutral" or "Positive". Emotion is related to the image content and also to the personnal feelings. To achieve our goal we firstly need a correct assessed image database. Our first contribution is about this aspect. We proposed a set of 350 diversifed images rated by people around the world. Added to our choice to use CBIR methods, we studied the impact of visual saliency for the subjective evaluations and interest region segmentation for classification. The results are really interesting and prove that the CBIR methods are usefull for emotion recognition. The chosen desciptors are complementary and their performance are consistent on the database we have built and on IAPS, reference database for the analysis of the image emotional impact
APA, Harvard, Vancouver, ISO, and other styles
26

Bouteldja, Nouha. "Accélération de la recherche dans les espaces de grande dimension : Application à l'indexation d'images par contenu visuel." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0628.

Full text
Abstract:
L'objectif des travaux de recherche présentés dans cette thèse est l'accélération de la recherche dans les grandes bases de données décrites par des vecteurs de grande dimension. Différentes structures ont déjà été proposées dans la littérature afin de réduire les temps de recherche mais plusieurs d'entre elles souffrent du problème de la malédiction de la dimension. Dans une première partie de cette thèse nous avons revisité le phénomène de la malédiction de la dimension avec les index classiques afin de déterminer à partir de quelle dimension ces index deviennent inefficaces. Cette première étude a montré que les index classiques fonctionnent bien avec des dimensions modérées (< 30) avec les bases réelles. Toutefois pour des dimensions plus importantes le problème de la malédiction de la dimension persiste. D'un autre coté avec l'augmentation des volumes des données ces dernières décennies vu la facilité de leur stockage, les besoins d'accélération de la recherche sont de plus en plus importants. Ces derniers points ont motivé la proposition de HiPeR notre principale contribution. HiPeR est un modèle hiérarchique qui assure la recherche exacte, progressive et approximative avec contrôle de précision. Elle est basée sur une hiérarchie d'espaces et d'index : la recherche commence par les espaces à faibles dimensions afin de réduire les effets de la malédiction de la dimension fournissant un premier résultat. Ce dernier sera amélioré progressivement en utilisant de plus grandes dimensions. Différentes stratégies sont proposées pour parcourir HiPeR en assurant la recherche exacte ou approximative. La qualité de la réponse approximative est fixée par l'utilisateur au moment de la recherche. Afin d'assurer la qualité escomptée, la méthode suit un modèle de précision probabiliste et non paramétrique. Les expériences, menées sur trois bases réelles de 4 millions de points, montrent qu'HiPeR améliore considérablement les index classiques en termes de temps CPU et d'accès I/O. Dans la dernière partie de cette thèse nous avons étudié le cas particulier des requêtes multiples où chaque entité de la base est décrite par plusieurs vecteurs. Afin d'accélérer la recherche dans une telle configuration, différentes stratégies ont été proposées et expérimentées avec les index classiques et HiPeR
In this thesis we are interested in accelerating retrieval in large databases where entities are described with high dimensional vectors (or multidimensional points). Several index structures have been already proposed to accelerate retrieval but a large number of these structures suffer from the well known Curse of Dimensionality phenomenon (CoD). In the first part of this thesis we revisited the CoD phenomenon with classical indices in order to determine from which dimension these indices does not work; Our study showed that classical indices still perform well with moderate dimensions (< 30) when dealing with real data. However, needs for accelerating retrieval are not satisfied when dealing with high dimensional spaces or with large databases. The latter observations motivated our main contribution called HiPeR. HiPeR is based on a hierarchy of subspaces and indexes: it performs nearest neighbors search across spaces of different dimensions, by beginning with the lowest dimensions up to the highest ones, aiming at minimizing the effects of curse of dimensionality. Scanning the hierarchy can be done according to several scenarios that are presented for retrieval of exact as well as approximate neighbors. In this work, HiPeR has been implemented on the classical index structure VA-File, providing VA-Hierarchies. For the approximate scenario, the model of precision loss defined is probabilistic and non parametric (very little assumptions are made on the data distribution) and quality of answers can be selected by user at query time. HiPeR is evaluated for range queries on 3 real data-sets of image descriptors varying from 500,000 vectors to 4 millions. The experiments demonstrate that the hierarchy of HiPeR improves the best index structure by significantly. Reducing CPU time, whatever the scenario of retrieval. Its approximate version improves even more retrieval by saving I/O access significantly. In the last part of our thesis, we studied the particular case of multiple queries where each database entity is represented with several vectors. To accelerate retrieval with such queries different strategies were proposed to reduce I/O and CPU times. The proposed strategies were applied both to simple indices as well as to HiPeR
APA, Harvard, Vancouver, ISO, and other styles
27

Berrani, Sid-Ahmed. "Recherche approximative de plus proches voisins avec contrôle probabiliste de la précision ; application à la recherche d'images par le contenu." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00532854.

Full text
Abstract:
Cette thèse s'intéresse aux systèmes de recherche d'images par le contenu, où le but est de rechercher les images les plus similaires à une image requête fournie en exemple. Pour cela, il est d'abord nécessaire de décrire les images stockées dans la base. L'objectif est de traduire la similarité visuelle entre images en une simple notion de proximité spatiale entre descripteurs. Ainsi, pour retrouver les images similaires à l'image requête, il suffit de retrouver les descripteurs les plus proches du descripteur de l'image requête. Ce mode de recherche, appelé recherche de plus proches voisins, est cependant extrêmement coûteux même lorsque les techniques s'indexation multidimensionnelles sont utilisées. Les performances de celles-ci se dégradent exponentiellement lorsque la dimension des descripteurs augmente (phénomène de la malédiction de la dimension). Il s'avère toutefois que l'on peut fortement réduire le coût de ces recherches en effectuant des recherches approximatives. Le principe est alors de négocier une réduction du temps de réponse contre l'introduction d'imprécisions durant la recherche. Ce travail reprend ce principe et propose une nouvelle méthode de recherche approximative de plus proches voisins qui permet un contrôle fin et intuitif de la précision de la recherche. Ce contrôle s'exprime au travers d'un seul paramètre qui indique la probabilité maximale de ne pas trouver un des plus proches voisins recherchés. Dans le but d'évaluer rigoureusement ses performances dans le cadre d'un système réel, la méthode proposée a été ensuite intégrée dans un système de recherche d'images pour la détection de copies. Les expérimentations effectuées montrent que la méthode proposée est efficace, fiable et son imprécision n'a qu'un impact mineur sur la qualité des résultats finaux.
APA, Harvard, Vancouver, ISO, and other styles
28

Zhou, Zhyiong. "Recherche d'images par le contenu application à la proposition de mots clés." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2254.

Full text
Abstract:
La recherche d'information dans des masses de données multimédia et l'indexation de ces grandes bases d'images par le contenu sont des problématiques très actuelles. Elles s'inscrivent dans un type de gestion de données qu'on appelle le Digital Asset Management (ou DAM) ; Le DAM fait appel à des techniques de segmentation d'images et de classification de données. Nos principales contributions dans cette thèse peuvent se résumer en trois points :- Analyse des utilisations possibles des différentes méthodes d'extraction des caractéristiques locales en exploitant la technique de VLAD.- Proposition d'une nouvelle méthode d'extraction de l'information relative à la couleur dominante dans une image.- Comparaison des Machine à Supports de Vecteur (SVM - Support Vector Machine) à différents classifieurs pour la proposition de mots clés d'indexation. Ces contributions ont été testées et validées sur des données de synthèse et sur des données réelles. Nos méthodes ont alors été largement utilisées dans le système DAM ePhoto développé par la société EINDEN, qui a financé la thèse CIFRE dans le cadre de laquelle ce travail a été effectué. Les résultats sont encourageants et ouvrent de nouvelles perspectives de recherche
The search for information in masses of multimedia data and the indexing of these large databases by the content are very current problems. They are part of a type of data management called Digital Asset Management (or DAM) ; The DAM uses image segmentation and data classification techniques.Our main contributions in this thesis can be summarized in three points : - Analysis of the possible uses of different methods of extraction of local characteristics using the VLAD technique.- Proposed a new method for extracting dominant color information in an image.- Comparison of Support Vector Machines (SVM) to different classifiers for the proposed indexing keywords. These contributions have been tested and validated on summary data and on actual data. Our methods were then widely used in the DAM ePhoto system developed by the company EINDEN, which financed the CIFRE thesis in which this work was carried out. The results are encouraging and open new perspectives for research
APA, Harvard, Vancouver, ISO, and other styles
29

Veneau, Emmanuel. "Macro-segmentation multi-critère et classification de séquences par le contenu dynamique pour l'indexation vidéo." Rennes 1, 2002. http://www.theses.fr/2002REN10013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Taïleb, Mounira. "NOHIS-tree nouvelle méthode de recherche de plus proches voisins : application à la recherche d'images par le contenu." Paris 11, 2008. http://www.theses.fr/2008PA112164.

Full text
Abstract:
Les tailles des bases d’images ont connu une croissance rapide. Elles peuvent se chiffrer actuellement en millions d’objets ce qui nécessite l’utilisation d’un système de recherche d’images par le contenu. Un tel système consiste tout d’abord en la description automatique des images de la base. Les propriétés visuelles de chaque image sont représentées sous forme de vecteurs multidimensionnels appelés descripteurs. Ensuite, trouver les images similaires à une image requête revient à chercher pour chaque descripteur de l’image requête les descripteurs les plus proches. Dans ce travail de thèse nous proposons une nouvelle méthode d’indexation de bases multidimensionnelles avec une évolution de l’algorithme de recherche de plus proches voisins. L’originalité de notre index multidimensionnel est la création de formes englobantes évitant le chevauchement. En effet, le chevauchement est l’un des principaux inconvénients qui ralentissent la recherche de plus proches voisins. Le nouvel index créé et son algorithme de recherche spécifique permettent d’accélérer la recherche de plus proches voisins tout en effectuant une recherche à l’exact. La méthode que nous avons conçue a été intégrée et évaluée dans un système réel de recherche d’images par le contenu. Les résultats des expérimentations effectuées montrent sa robustesse en termes de précision et de rapidité en temps de recherche
The increasing of image databases requires the use of a content-based image retrieval system (CBIR). A such system consist first to describe automatically the images, visual properties of each image are represented as multidimensional vectors called descriptors. Next, finding similar images to the query image is achieved by searching for the nearest neighbors of each descriptor of the query image. In this thesis, we propose a new method for indexing multidimensional bases with the search algorithm of nearest neighbors adapted. The originality of our multidimensional index is the disposition of the bounding forms avoiding overlapping. Indeed, the overlapping is one of the main drawbacks that slow the search of nearest neighbors search. Our index with its search algorithm speeds the nearest neighbors search while doing an exact search. Our method has been integrated and tested within a real content-based image system. The results of tests carried out show the robustness of our method in terms of accuracy and speed in search time
APA, Harvard, Vancouver, ISO, and other styles
31

Badr, Mehdi. "Traitement de requêtes top-k multicritères et application à la recherche par le contenu dans les bases de données multimédia." Phd thesis, Université de Cergy Pontoise, 2013. http://tel.archives-ouvertes.fr/tel-00978770.

Full text
Abstract:
Le développement des techniques de traitement des requêtes de classement est un axe de recherche très actif dans le domaine de la recherche d'information. Plusieurs applications nécessitent le traitement des requêtes de classement multicritères, telles que les méta-moteurs de recherche sur le web, la recherche dans les réseaux sociaux, la recherche dans les bases de documents multimédia, etc. Contrairement aux requêtes booléennes traditionnelles, dans lesquelles le filtrage est basé sur des prédicats qui retournent vrai ou faux, les requêtes de classement utilisent des prédicats de similarité retournant un score de pertinence. Ces requêtes spécifient une fonction d'agrégation qui combine les scores individuels produits par les prédicats de similarité permettant de calculer un score global pour chaque objet. Les k objets avec les meilleurs scores globaux sont retournés dans le résultat final. Dans cette thèse, nous étudions dans un premier temps les techniques et algorithmes proposés dans la littérature conçus pour le traitement des requêtes top-k multicritères dans des contextes spécifiques de type et de coût d'accès aux scores, et nous proposons un cadre générique capable d'exprimer tous ces algorithmes. Ensuite, nous proposons une nouvelle stratégie en largeur "breadth-first", qui maintient l'ensemble courant des k meilleurs objets comme un tout, à la différence des stratégies en profondeur habituelles qui se focalisent sur le meilleur candidat. Nous présentons un nouvel algorithme "Breadth-Refine" (BR), basé sur cette stratégie et adaptable à n'importe quelle configuration de type et de coût d'accès aux scores. Nous montrons expérimentalement la supériorité de l'algorithme BR sur les algorithmes existants. Dans un deuxième temps, nous proposons une adaptation des algorithmes top-k à la recherche approximative, dont l'objectif est de trouver un compromis entre le temps de recherche et la qualité du résultat retourné. Nous explorons l'approximation par arrêt prématuré de l'exécution et proposons une première étude expérimentale du potentiel d'approximation des algorithmes top-k. Dans la dernière partie de la thèse, nous nous intéressons à l'application des techniques top-k multicritères à la recherche par le contenu dans les grandes bases de données multimédia. Dans ce contexte, un objet multimédia (une image par exemple) est représenté par un ou plusieurs descripteurs, en général sous forme de vecteurs numériques qui peuvent être vus comme des points dans un espace multidimensionnel. Nous explorons la recherche des k plus proches voisins (k-ppv) dans ces espaces et proposons une nouvelle technique de recherche k-ppv approximative "Multi-criteria Search Algorithm " (MSA) basée sur les principes des algorithmes top-k. Nous comparons MSA à des méthodes de l'état de l'art dans le contexte des grandes bases multimédia où les données ainsi que les structures d'index sont stockées sur disque, et montrons qu'il produit rapidement un très bon résultat approximatif.
APA, Harvard, Vancouver, ISO, and other styles
32

Vieux, Rémi. "Extraction de Descripteurs Pertinents et Classification pour le Problème de Recherche des Images par le Contenu." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14244/document.

Full text
Abstract:
Dans le cadre du projet Européen X-Media, de nombreuses contributions ont été apportées aux problèmes de classification d'image et de recherche d'images par le contenu dans des contextes industriels hétérogènes. Ainsi, après avoir établi un état de l'art des descripteurs d'image les plus courant, nous nous sommes dans un premier temps intéressé a des méthodes globales, c'est à dire basée sur la description totale de l'image par des descripteurs. Puis, nous nous sommes attachés a une analyse plus fine du contenu des images afin d'en extraire des informations locales, sur la présence et la localisation d'objets d'intérêt. Enfin, nous avons proposé une méthode hybride de recherche d'image basée sur le contenu qui s'appuie sur la description locale des régions de l'image afin d'en tirer une signature pouvant être utilisée pour des requêtes globales et locales
The explosive development of affordable, high quality image acquisition deviceshas made available a tremendous amount of digital content. Large industrial companies arein need of efficient methods to exploit this content and transform it into valuable knowledge.This PhD has been accomplished in the context of the X-MEDIA project, a large Europeanproject with two major industrial partners, FIAT for the automotive industry andRolls-Royce plc. for the aircraft industry. The project has been the trigger for research linkedwith strong industrial requirements. Although those user requirements can be very specific,they covered more generic research topics. Hence, we bring several contributions in thegeneral context of Content-Based Image Retrieval (CBIR), Indexing and Classification.In the first part of the manuscript we propose contributions based on the extraction ofglobal image descriptors. We rely on well known descriptors from the literature to proposemodels for the indexing of image databases, and the approximation of a user defined categorisation.Additionally, we propose a new descriptor for a CBIR system which has toprocess a very specific image modality, for which traditional descriptors are irrelevant. Inthe second part of the manuscript, we focus on the task of image classification. Industrialrequirements on this topic go beyond the task of global image classification. We developedtwo methods to localize and classify the local content of images, i.e. image regions, usingsupervised machine learning algorithms (Support Vector Machines). In the last part of themanuscript, we propose a model for Content-Based Image Retrieval based on the constructionof a visual dictionary of image regions. We extensively experiment the model in orderto identify the most influential parameters in the retrieval efficiency
APA, Harvard, Vancouver, ISO, and other styles
33

Landré, Jérôme. "Analyse multirésolution pour la recherche et l'indexation d'images par le contenu dans les bases de données images : application à la base d'images paléontologique Trans'Tyfipal." Dijon, 2005. http://www.theses.fr/2005DIJOS043.

Full text
Abstract:
Ce travail présente une méthode de recherche d'images par navigation visuelle basée sur la construction de hiérarchies de signatures de tailles réduites croissantes, par un expert du domaine de la base d'images, prenant en compte le contexte de recherche de l'utilisateur. Les signatures sont utilisées pour construire un arbre de recherche flou grâce à l'algorithme des nuées dynamiques (dont deux améliorations sont proposées). Notre logiciel de démonstration utilise une interface web dynamique (PHP), les traitements d'images (optimisés) sont réalisés grâce aux librairies Intel IPP et OpenCV, le stockage est réalisé par une base de données MySQL, une interface de visualisation 3D (Java3D) permet de se rendre compte de la répartition des images dans la classification. Un protocole de test psycho-visuel a été réalisé. Notre méthode donne de bons résultats, tant en temps de calcul qu'en pertinence des images résultats lors de la navigation pour des bases d'images homogènes
In our work we propose a visual browsing method for content-based images retrieval consisting of the building of reduced increasing sizes signature vectors extracted from images descriptor vector by an expert of the domain of the images database. Signatures are used to build a fuzzy research tree with k-means algorithm (two improvements of this algorithm are given). Our demonstration software uses a web dynamic interface (PHP), image processing is performed by Intel OpenCV and IPP libraries, data is stored in a MySQL database, a Java3D interface allows to study visual behavior of images after classification. A testing protocol has been realized. Our method gives good results, in terms of computing time and quality of visual browsing results for homogeneous images databases
APA, Harvard, Vancouver, ISO, and other styles
34

Lai, Hien Phuong. "Vers un système interactif de structuration des index pour une recherche par le contenu dans des grandes bases d'images." Phd thesis, Université de La Rochelle, 2013. http://tel.archives-ouvertes.fr/tel-00934842.

Full text
Abstract:
Cette thèse s'inscrit dans la problématique de l'indexation et la recherche d'images par le contenu dans des bases d'images volumineuses. Les systèmes traditionnels de recherche d'images par le contenu se composent généralement de trois étapes: l'indexation, la structuration et la recherche. Dans le cadre de cette thèse, nous nous intéressons plus particulièrement à l'étape de structuration qui vise à organiser, dans une structure de données, les signatures visuelles des images extraites dans la phase d'indexation afin de faciliter, d'accélérer et d'améliorer les résultats de la recherche ultérieure. A la place des méthodes traditionnelles de structuration, nous étudions les méthodes de regroupement des données (clustering) qui ont pour but d'organiser les signatures en groupes d'objets homogènes (clusters), sans aucune contrainte sur la taille des clusters, en se basant sur la similarité entre eux. Afin de combler le fossé sémantique entre les concepts de haut niveau sémantique exprimés par l'utilisateur et les signatures de bas niveau sémantique extraites automatiquement dans la phase d'indexation, nous proposons d'impliquer l'utilisateur dans la phase de clustering pour qu'il puisse interagir avec le système afin d'améliorer les résultats du clustering, et donc améliorer les résultats de la recherche ultérieure. En vue d'impliquer l'utilisateur dans la phase de clustering, nous proposons un nouveau modèle de clustering semi-supervisé interactif en utilisant les contraintes par paires (must-link et cannot-link) entre les groupes d'images. Tout d'abord, les images sont regroupées par le clustering non supervisé BIRCH (Zhang et al., 1996). Ensuite, l'utilisateur est impliqué dans la boucle d'interaction afin d'aider le clustering. Pour chaque itération interactive, l'utilisateur visualise les résultats de clustering et fournit des retours au système via notre interface interactive. Par des simples cliques, l'utilisateur peut spécifier les images positives ainsi que les images négatives pour chaque cluster. Il peut aussi glisser les images entre les clusters pour demander de changer l'affectation aux clusters des images. Les contraintes par paires sont ensuite déduites en se basant sur les retours de l'utilisateur ainsi que les informations de voisinage. En tenant compte de ces contraintes, le système réorganise les clusters en utilisant la méthode de clustering semi-supervisé proposée dans cette thèse. La boucle d'interaction peut être répétée jusqu'à ce que le résultat du clustering satisfasse l'utilisateur. Différentes stratégies pour déduire les contraintes par paires entre les images sont proposées. Ces stratégies sont analysées théoriquement et expérimentalement. Afin d'éviter que les résultats expérimentaux dépendent subjectivement de l'utilisateur humain, un agent logiciel simulant le comportement de l'utilisateur humain pour donner des retours est utilisé pour nos expérimentations. En comparant notre méthode avec la méthode de clustering semi-supervisé la plus populaire HMRF-kmeans (Basu et al., 2004), notre méthode donne de meilleurs résultats.
APA, Harvard, Vancouver, ISO, and other styles
35

Konlambigue, Kangbéni Djotiname. "Conception d'un système de localisation à l'intérieur de bâtiments par vision monoculaire embarquée." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR022.

Full text
Abstract:
Cette thèse a pour objectif la conception d’un système de localisation à l’intérieur de bâtiments. A ciel dégagé, le système de localisation presque incontournable est le GPS (Global Positioning System). En captant des signaux provenant d’au moins quatre satellites du réseau GPS en orbite, un récepteur GPS procède par triangulation et estime sa position, qu’il soit sur terre, sur mer ou dans les airs. Le GPS permet de déterminer la position de n’importe quel récepteur placé en visibilité du réseau de satellites et un défaut de cette visibilité conduit généralement à une localisation erronée, voire impossible ; ce qui est le cas à l’intérieur de bâtiments. L’intérêt grandissant pour les services d’aide à la navigation des personnes et des biens dans les grandes surfaces fermées telles que les hôpitaux, les aéroports et centres commerciaux par exemple a suscité le besoin de système de localisation fiable et fonctionnel en environnement fermé. Pour répondre à cette problématique, plusieurs solutions ont été proposées. Une des approches les plus répandues pour faire de la localisation en environnement fermé est celle basée sur le réseau WiFi. En mesurant la force des signaux émis par les différents points d’accès, ce type de système est capable de trianguler la position d’un récepteur. Néanmoins, un des principaux inconvénients de cette approche est qu’elle nécessite de déployer un réseau de points d’accès avec les différents coûts que l’on connaît tels que ceux liés à la maintenance du système. Dans cette thèse, le système que nous proposons est basé sur la vision par ordinateur. Pour être localisé, l’utilisateur prend une photo de son environnement et indexe une base de données d’images géoréférencées. Cette indexation consiste en une comparaison de caractéristiques extraites des différentes images par le biais d’algorithmes de vision tels l’algorithme SIFT (Scale Invariant Feature Transform). En comparaison avec le système par WiFi, nous proposons un système (presque) purement logiciel, qui ne nécessite donc aucun déploiement et donc pas de coûts liés à la maintenance
This thesis aims at the design of an indoor localization system. Outdoors, the almost unavoidable localization system is GPS (Global Positionning System). By receiving signals from at least four satellites from the GPS network orbiting, a GPC receiver triangulates and estimates its position, whether on land, at sea or in the air. GPS makes it possible to determine the position of any receiver placed in visibility of the satellite network and the defect in this visibility generally leads to an erroneous or even impossible localization ; which is the case in indoor environment. The growing interest in navigation assistance services for people and goods in large indoor areas such as hospitals, airports and shopping malls for example has created the need for a reliable and functional tracking system for indoor environment. To respond to this problem, several solutions have been proposed. One of the most popular approaches to localization in indoor environment is that based on the WiFi network. By measuring the strength of the signals emitted by the various access points, this type of system is able to triangulate the position of a receiver. However, one of the main drawbacks of this approach is that it requires deploying a network of access points with the various known costs such as those related tosystem maintenance. In this thesis, the system we propose is based on computer vision. To be located, the user takes a photo of their surroundings and indexes a databasz of georeferenced images. This indexing consists in a comparison of features extracted from the different images using computer vision algorithms such as the SIFT (Scale Invariant Feature Transform) algorithm. In comparison with the WiFi system, we offer (almost) a pure software system, which does not require any deployment and therefore no maintenance costs
APA, Harvard, Vancouver, ISO, and other styles
36

Leveau, Valentin. "Représentations d'images basées sur un principe de voisins partagés pour la classification fine." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT257/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés au problème de la classification à « grain fin » qui est une tâche de classification particulière où les classes peuvent être visuellement distinguables seulement à partir de détails subtils et où le contexte agit souvent comme une source de bruit. Ce travail est principalement motivé par le besoin de concevoir des représentations d'images plus « fines » pour adresser de telles tâches de classification qui nécessitent un encodage d’informations discriminantes très fines et localisées. L'originalité principale de notre approche est d’intégrer dans une représentation globale de haute dimension une mesure de consistance géométrique locale entre l’image à représenter et les images d’une base de référence (que nous considérons comme un vocabulaire visuel possiblement constitué d’un grand nombre d’images). Ceci nous permet d’encoder dans une représentation vectorielle des motifs très localisés et géométriquement consistant avec l’image (contrairement aux méthodes de codage traditionnelles comme les Bag-of-Visual-Word, les vecteurs de Fisher ou les vecteurs VLAD). Plus en détails : Nous proposons dans un premier temps une approche de classification d'instances d'entités visuelles basée sur un classificateur par plus proches voisins qui agrège les similarités entre l'image requête et celles de la base d'apprentissage. Les similarités sont calculées avec prise en compte de la consistance géométrique locale entre les descripteurs locaux de la requête et ceux des images de la base d'apprentissage. Cette base pouvant être constituée de nombreux descripteurs locaux, nous proposons de passer notre méthode à l’échelle en utilisant des méthodes de recherche approximatives de plus proches voisins. Par la suite, nous avons mis au point un nouveau noyau de similarité entre des images basé sur les descripteurs locaux qu'elles partagent dans une base de référence. Nous avons nommé ce noyau Shared Nearest Neighbors Kernel (SNN Kernel), qui peut être utilisé comme n'importe quel autre noyau dans les machines à noyau. Nous avons dérivé, à partir de ce dernier, une représentation explicite globale des images à décrire. Cette représentation encode la similarité de l'image considérée avec les différentes régions visuelles des images de la base correspondant au vocabulaire visuel. Nous avons également rendu possible l'intégration de l'information de consistance géométrique dans nos représentations à l'aide de l'algorithme RANSAC amélioré que nous avons proposé dans notre contribution précédente. La classification des images se fait ensuite par un modèle linéaire appris sur ces représentations. Finalement, nous proposons, comme troisième contribution, une stratégie permettant de considérablement réduire, jusqu'à deux ordres de grandeur, la dimension de la représentation d'image sur-complète précédemment présentée tout en conservant une performance de classification compétitive aux méthodes de l’état de l’art. Nous avons validé nos approches en conduisant une série d’expérimentations sur plusieurs tâches de classification impliquant des objets rigides comme FlickrsLogos32 ou Vehicles29, mais aussi sur des tâches impliquant des concepts visuels plus finement discriminables comme la base FGVC-Aircrafts, Oxford-Flower102 ou CUB-Birds200. Nous avons aussi démontré des résultats significatifs sur des tâches de classification audio à grain fin comme la tâche d'identification d'espèce d'oiseau de LifeCLEF2015 en proposant une extension temporelle de notre représentation d'image. Finalement, nous avons montré que notre technique de réduction de dimension permet d’obtenir un vocabulaire visuel très interprétable composé des régions d'image les plus représentatives pour les concepts visuels représentés dans la base d’apprentissage
This thesis focuses on the issue of fine-grained classification which is a particular classification task where classes may be visually distinguishable only from subtle localized details and where background often acts as a source of noise. This work is mainly motivated by the need to devise finer image representations to address such fine-grained classification tasks by encoding enough localized discriminant information such as spatial arrangement of local features.To this aim, the main research line we investigate in this work relies on spatially localized similarities between images computed thanks to efficient approximate nearest neighbor search techniques and localized parametric geometry. The main originality of our approach is to embed such spatially consistent localized similarities into a high-dimensional global image representation that preserves the spatial arrangement of the fine-grained visual patterns (contrary to traditional encoding methods such as BoW, Fisher or VLAD Vectors). In a nutshell, this is done by considering all raw patches of the training set as a large visual vocabulary and by explicitly encoding their similarity to the query image. In more details:The first contribution proposed in this work is a classification scheme based on a spatially consistent k-nn classifier that relies on pooling similarity scores between local features of the query and those of the similar retrieved images in the vocabulary set. As this set can be composed of a lot of local descriptors, we propose to scale up our approach by using approximate k-nearest neighbors search methods. Then, the main contribution of this work is a new aggregation-based explicit embedding derived from a newly introduced match kernel based on shared nearest neighbors of localized feature vectors combined with local geometric constraints. The originality of this new similarity-based representation space is that it directly integrates spatially localized geometric information in the aggregation process.Finally, as a third contribution, we proposed a strategy to drastically reduce, by up to two orders of magnitude, the high-dimensionality of the previously introduced over-complete image representation while still providing competitive image classification performance.We validated our approaches by conducting a series of experiments on several classification tasks involving rigid objects such as FlickrsLogos32 or Vehicles29 but also on tasks involving finer visual knowledge such as FGVC-Aircrafts, Oxford-Flower102 or CUB-Birds200. We also demonstrated significant results on fine-grained audio classification tasks such as the LifeCLEF 2015 bird species identification challenge by proposing a temporal extension of our image representation. Finally, we notably showed that our dimensionality reduction technique used on top of our representation resulted in highly interpretable visual vocabulary composed of the most representative image regions for different visual concepts of the training base
APA, Harvard, Vancouver, ISO, and other styles
37

Landre, Jérôme. "Analyse multirésolution pour la recherche et l'indexation d'images par le contenu dans les bases de données images - Application à la base d'images paléontologique Trans'Tyfipal." Phd thesis, Université de Bourgogne, 2005. http://tel.archives-ouvertes.fr/tel-00079897.

Full text
Abstract:
Les systèmes de recherche d'images par le contenu récents utilisent une approche de navigation visuelle interactive dans les bases d'images. Ces méthodes utilisent une classification des images (hors-ligne) dans un arbre de recherche pour une navigation visuelle (en ligne) des utilisateurs. Cette approche possède trois problèmes principaux:
1) La taille du vecteur descripteur (n>100) rend les calculs de distance sensibles à la malédiction de la dimension,
2) La présence d'attributs de nature différente dans le vecteur descripteur ne facilite pas la classification,
3) La classification ne s'adapte pas (en général) au contexte de recherche de l'utilisateur.

Nous proposons dans ce travail une méthode basée sur la construction de hiérarchies de signatures de tailles réduites croissantes qui permettent de prendre en compte le contexte de recherche de l'utilisateur. Notre méthode tend à imiter le comportement de la vision humaine.

Le vecteur descripteur contient des attributs issus de l'analyse multirésolution des images. Ces attributs sont organisés par un expert du domaine de la base d'images en plusieurs hiérarchies de quatre vecteur signature de taille réduite croissante (respectivement 4, 6, 8 et 10 attributs). Ces signatures sont utilisées pour construire un arbre de recherche flou grâce à l'algorithme des nuées dynamiques (dont deux améliorations sont proposées). Les utilisateurs en ligne choisissent une hiérarchie de signature parmi celles proposées par l'expert en fonction de leur contexte de recherche.

Un logiciel de démonstration a été développé. Il utilise une interface web dynamique (PHP), les traitements d'images (optimisés) sont réalisés grâce aux librairies Intel IPP et OpenCV, le stockage et l'indexation sont réalisés par une base de données MySQL, une interface de visualisation 3D (Java3D) permet de se rendre compte de la répartition des images dans la classification.

Un protocole de tests psycho-visuels a été réalisé. Les résultats sur la base paléontologique Trans'Tyfipal sont présentés et offrent des réponses pertinentes selon le contexte de recherche. La méthode donne de bons résultats, tant en temps de calcul qu'en pertinence des images résultats lors de la navigation dans les bases d'images homogènes.
APA, Harvard, Vancouver, ISO, and other styles
38

DOMBRE, Julien. "Systèmes de représentation multi-échelles pour l'indexation et la restauration d'archives médiévales couleur." Phd thesis, Université de Poitiers, 2003. http://tel.archives-ouvertes.fr/tel-00006234.

Full text
Abstract:
Nos travaux ont été motivés par un problème pratique visant à rechercher des objets au sein d'images et en particulier dans des bases d'images de fresques médiévales. Les outils développés devront aider les historiens de l'art dans leur travail quotidien en leur fournissant la possibilité de retrouver et de caractériser des images ou des objets similaires dans l'ensemble des images dont ils disposent. Cette étude se situe par conséquent dans le cadre de la recherche d'images par le contenu. Pour résoudre ce problème, les méthodes classiques sont inefficaces car elles caractérisent les images globalement sans prendre en compte l'arrangement des objets qui les compose. La méthode proposée décrit l'image par un graphe pyramidal considérant alors l'image composée d'objets complexes en relation les uns avec les autres. Un algorithme de segmentation multi-échelles génère un ensemble de partitions cohérentes entre elles isolant ainsi les objets puis leurs parties. Les graphes d'adjacence des différents niveaux sont alors liés les uns avec les autres pour obtenir le graphe pyramidal de l'image. Au sein de cette structure de représentation de haut-niveau, nous avons ensuite cherché à caractériser chaque région le plus correctement possible à partir de sa couleur, sa texture et sa forme. Divers algorithmes sont enfin proposés pour utiliser de manière combinée ces description des objets ainsi que l'information spatiale et pyramidale de la représentation pour déterminer la similarité entre images et détecter des objets semblables au sein de la base d'images. De nombreux exemples expérimentaux illustrent ce manuscrit et montrent que cette approche est globalement plus performante que les systèmes existants.
APA, Harvard, Vancouver, ISO, and other styles
39

Le, Huu Ton. "Improving image representation using image saliency and information gain." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2287/document.

Full text
Abstract:
De nos jours, avec le développement des nouvelles technologies multimédia, la recherche d’images basée sur le contenu visuel est un sujet de recherche en plein essor avec de nombreux domaines d'application: indexation et recherche d’images, la graphologie, la détection et le suivi d’objets... Un des modèles les plus utilisés dans ce domaine est le sac de mots visuels qui tire son inspiration de la recherche d’information dans des documents textuels. Dans ce modèle, les images sont représentées par des histogrammes de mots visuels à partir d'un dictionnaire visuel de référence. La signature d’une image joue un rôle important car elle détermine la précision des résultats retournés par le système de recherche.Dans cette thèse, nous étudions les différentes approches concernant la représentation des images. Notre première contribution est de proposer une nouvelle méthodologie pour la construction du vocabulaire visuel en utilisant le gain d'information extrait des mots visuels. Ce gain d’information est la combinaison d’un modèle de recherche d’information avec un modèle d'attention visuelle.Ensuite, nous utilisons un modèle d'attention visuelle pour améliorer la performance de notre modèle de sacs de mots visuels. Cette étude de la saillance des descripteurs locaux souligne l’importance d’utiliser un modèle d’attention visuelle pour la description d’une image.La dernière contribution de cette thèse au domaine de la recherche d’information multimédia démontre comment notre méthodologie améliore le modèle des sacs de phrases visuelles. Finalement, une technique d’expansion de requêtes est utilisée pour augmenter la performance de la recherche par les deux modèles étudiés
Nowadays, along with the development of multimedia technology, content based image retrieval (CBIR) has become an interesting and active research topic with an increasing number of application domains: image indexing and retrieval, face recognition, event detection, hand writing scanning, objects detection and tracking, image classification, landmark detection... One of the most popular models in CBIR is Bag of Visual Words (BoVW) which is inspired by Bag of Words model from Information Retrieval field. In BoVW model, images are represented by histograms of visual words from a visual vocabulary. By comparing the images signatures, we can tell the difference between images. Image representation plays an important role in a CBIR system as it determines the precision of the retrieval results.In this thesis, image representation problem is addressed. Our first contribution is to propose a new framework for visual vocabulary construction using information gain (IG) values. The IG values are computed by a weighting scheme combined with a visual attention model. Secondly, we propose to use visual attention model to improve the performance of the proposed BoVW model. This contribution addresses the importance of saliency key-points in the images by a study on the saliency of local feature detectors. Inspired from the results from this study, we use saliency as a weighting or an additional histogram for image representation.The last contribution of this thesis to CBIR shows how our framework enhances the BoVP model. Finally, a query expansion technique is employed to increase the retrieval scores on both BoVW and BoVP models
APA, Harvard, Vancouver, ISO, and other styles
40

Ben, Ahmed Olfa. "Features-based MRI brain classification with domain knowledge : application to Alzheimer's disease diagnosis." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0002/document.

Full text
Abstract:
Les outils méthodologiques en indexation et classification des images par le contenu sont déjà assez matures et ce domaine s’ouvre vers les applications médicales. Dans cette thèse,nous nous intéressons à l'indexation visuelle, à la recherche et à la classification des images cérébrales IRM par le contenu pour l'aide au diagnostic de la maladie d'Alzheimer (MA). L'idée principale est de donner au clinicien des informations sur les images ayant des caractéristiques visuelles similaires. Trois catégories de sujets sont à distinguer: sujets sains (NC), sujets à troubles cognitifs légers (MCI) et sujets atteints par la maladie d'Alzheimer(AD). Nous représentons l’atrophie cérébrale comme une variation de signal dans des images IRM (IRM structurelle et IRM de Tenseur de Diffusion). Cette tâche n'est pas triviale,alors nous nous sommes concentrés uniquement sur l’extraction des caractéristiques à partir des régions impliquées dans la maladie d'Alzheimer et qui causent des changements particuliers dans la structure de cerveau : l'hippocampe le Cortex Cingulaire Postérieur. Les primitifs extrais sont quantifiés en utilisant l'approche sac de mots visuels. Cela permet de représenter l’atrophie cérébrale sous forme d’une signature visuelle spécifique à la MA.Plusieurs stratégies de fusion d’information sont appliquées pour renforcer les performances de système d’aide au diagnostic. La méthode proposée est automatique (sans l’intervention de clinicien), ne nécessite pas une étape de segmentation grâce à l'utilisation d'un Atlas normalisé. Les résultats obtenus apportent une amélioration par rapport aux méthodes de l’état de l’art en termes de précision de classification et de temps de traitement
Content-Based Visual Information Retrieval and Classification on Magnetic Resonance Imaging (MRI) is penetrating the universe of IT tools supporting clinical decision making. A clinician can take profit from retrieving subject’s scans with similar patterns. In this thesis, we use the visual indexing framework and pattern recognition analysis based on structural MRIand Tensor Diffusion Imaging (DTI) data to discriminate three categories of subjects: Normal Controls (NC), Mild Cognitive Impairment (MCI) and Alzheimer's Disease (AD). The approach extracts visual features from the most involved areas in the disease: Hippocampusand Posterior Cingulate Cortex. Hence, we represent signal variations (atrophy) inside the Region of Interest anatomy by a set of local features and we build a disease-related signature using an atlas based parcellation of the brain scan. The extracted features are quantized using the Bag-of-Visual-Words approach to build one signature by brain/ROI(subject). This yields a transformation of a full MRI brain into a compact disease-related signature. Several schemes of information fusion are applied to enhance the diagnosis performance. The proposed approach is less time-consuming compared to the state of thearts methods, computer-based and does not require the intervention of an expert during the classification/retrieval phase
APA, Harvard, Vancouver, ISO, and other styles
41

Margeta, Ján. "Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0055/document.

Full text
Abstract:
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient
The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images
APA, Harvard, Vancouver, ISO, and other styles
42

Pham, Khang-Nguyen. "Analyse factorielle des correspondances pour l'indexation et la recherche d'information dans une grande base de données d'images." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00532574.

Full text
Abstract:
Avec le développement du numérique, le nombre d'images stockées dans les bases de données a beaucoup augmenté. L'indexation des images et la recherche d'information dans les bases d'images sont plus compliquées que dans le cas de documents textuels Des méthodes d'indexation déjà utilisées en analyse de données textuelles sont proposées pour traiter des images. Pour transférer les résultats de l'analyse de données textuelles aux images, il est nécessaire d'utiliser de nouvelles caractéristiques : les mots visuels et on considère les images comme documents. Nous nous intéressons au problème d'indexation et de recherche d'information dans des grandes bases de données d'images à l'aide de méthodes d'analyse de données comme l'Analyse Factorielle des Correspondances (AFC). Nous proposons d'abord une utilisation astucieuse des indicateurs de l'AFC pour accélérer la recherche après l'avoir adaptée aux images. Nous nous intéressons ensuite au problème du passage à l'échelle de l'AFC. Pour ce faire, nous proposons un algorithme d'AFC incrémentale pour traiter de grands tableaux de données et la parallélisation de cet algorithme sur processeurs graphiques (GPU). Nous développons aussi une version parallèle de notre algorithme de recherche qui utilise les indicateurs de l'AFC sur GPU. Puis nous associons l'AFC à d'autres méthodes comme la Mesure de Dissimilarité Contextuelle ou les forêts aléatoires pour améliorer la qualité de la recherche. Enfin, nous présentons un environnement de visualisation, CAViz, pour accompagner les traitements précédents.
APA, Harvard, Vancouver, ISO, and other styles
43

Niaz, Usman. "Amélioration de la détection des concepts dans les vidéos en coupant de plus grandes tranches du monde visuel." Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0040/document.

Full text
Abstract:
Les documents visuels comprenant des images et des vidéos sont en croissance rapide sur Internet et dans nos collections personnelles. Cela nécessite une analyse automatique du contenu visuel qui fait appel à la conception de méthodes intelligentes pour correctement indexer, rechercher et récupérer des images et des vidéos. Cette thèse vise à améliorer la détection automatique des concepts dans les vidéos sur Internet. Nos contributions portent sur des différents niveaux dans le cadre de détection de concept et peuvent être divisés en trois parties principales. La première partie se focalise sur l’amélioration du modèle de représentation des vidéos « Bag-of-Words (BOW) » en proposant un nouveau mécanisme de construction qui utilise des étiquettes de concepts et une autre technique qui ajoute un raffinement à la signature BOW basée sur la distribution de ses éléments. Nous élaborons ensuite des méthodes pour intégrer des entités semblables et dissemblables pour construire des modèles de reconnaissance améliorés dans la deuxième partie. A ce stade-là, nous observons l’information potentielle que les concepts partagent et construisons des modèles pour les méta-concepts dont sont dérivés les résultats spécifiques de concepts. Cela améliore la reconnaissance des concepts qui ont peu d’exemples annotés. Enfin, nous concevons certaines méthodes d'apprentissage semi-supervisé pour bénéficier de la quantité importante de données non étiquetées. Nous proposons des techniques pour améliorer l'algorithme de cotraining avec une sélection optimale des classifieurs utilisés
Visual material comprising images and videos is growing ever so rapidly over the internet and in our personal collections. This necessitates automatic understanding of the visual content which calls for the conception of intelligent methods to correctly index, search and retrieve images and videos. This thesis aims at improving the automatic detection of concepts in the internet videos by exploring all the available information and putting the most beneficial out of it to good use. Our contributions address various levels of the concept detection framework and can be divided into three main parts. The first part improves the Bag of Words (BOW) video representation model by proposing a novel BOW construction mechanism using concept labels and by including a refinement to the BOW signature based on the distribution of its elements. We then devise methods to incorporate knowledge from similar and dissimilar entities to build improved recognition models in the second part. Here we look at the potential information that the concepts share and build models for meta-concepts from which concept specific results are derived. This improves recognition for concepts lacking labeled examples. Lastly we contrive certain semi-supervised learning methods to get the best of the substantial amount of unlabeled data. We propose techniques to improve the semi-supervised cotraining algorithm with optimal view selection
APA, Harvard, Vancouver, ISO, and other styles
44

Blanchart, Pierre. "Apprentissage rapide adapté aux spécificités de l'utilisateur : application à l'extraction d'informations d'images de télédétection." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00662747.

Full text
Abstract:
Le but des systèmes de recherche d'images est de diriger rapidement l'utilisateur vers des contenus qui sont pertinents par rapport à la requête qu'il a formulée. Après une présentation de la problématique et un état d'art du domaine, cette thèse présente nos contributions dans le cadre de l'apprentissage avec très peu d'exemples qui est propre à l'imagerie satellitaire. Ces contributions se situent principalement autour de l'utilisation de méthodes semi-supervisées pour exploiter l'information contenue dans les données non-labellisées et pallier en quelque sorte la faiblesse et la non-exhaustivité des bases d'apprentissage. Nous présentons deux scénarios d'utilisation de méthodes semi-supervisées. Le premier se place dans le cadre d'un système d'annotation automatique d'images. Le but est alors de détecter les structures inconnues, c'est à dire les ensembles cohérents de données qui ne sont pas représentées dans la base d'apprentissage et ainsi de guider l'utilisateur dans son exploration de la base. Le second scénario concerne les systèmes de recherche interactive d'images. L'idée est d'exploiter une structuration des données, sous la forme d'un clustering par exemple, pour accélérer l'apprentissage (i.e. minimiser le nombre d'itérations de feedback) dans le cadre d'un système avec boucle de pertinence. La nouveauté de nos contributions se situe autour du fait que la plupart des méthodes semi-supervisées ne permettent pas de travailler avec de gros volumes de données comme on en rencontre en imagerie satellitaire ou alors ne sont pas temps-réel ce qui est problématique dans un système avec retour de pertinence où la fluidité des interactions avec l'utilisateur est à privilégier. Un autre problème qui justifie nos contributions est le fait que la plupart des méthodes semi-supervisées font l'hypothèse que la distribution des données labellisées suit la distribution des données non labellisées, hypothèse qui n'est pas vérifiée dans notre cas du fait de la non-exhaustivité des bases d'apprentissage et donc de l'existence de structures inconnues au niveau des données non labellisées. La dernière partie de cette thèse concerne un système de recherche d'objets à l'intérieur d'un schéma de type apprentissage actif. Une stratégie de type "coarse-to-fine" est introduite pour autoriser l'analyse de la base d'images à une taille de patch beaucoup plus "fine" tout en maintenant un nombre raisonnable d'évaluations de la fonction de décision du classificateur utilisé à chaque itération de la boucle d'apprentissage actif. L'idée est d' élaguer de grandes parties de la base de données à une échelle d'analyse dite "grossière'', afin de réserver un traitement plus complexe et plus coûteux sur des zones restreintes et plus prometteuses des images.
APA, Harvard, Vancouver, ISO, and other styles
45

Chafik, Sanaa. "Machine learning techniques for content-based information retrieval." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL008/document.

Full text
Abstract:
Avec l’évolution des technologies numériques et la prolifération d'internet, la quantité d’information numérique a considérablement évolué. La recherche par similarité (ou recherche des plus proches voisins) est une problématique que plusieurs communautés de recherche ont tenté de résoudre. Les systèmes de recherche par le contenu de l’information constituent l’une des solutions prometteuses à ce problème. Ces systèmes sont composés essentiellement de trois unités fondamentales, une unité de représentation des données pour l’extraction des primitives, une unité d’indexation multidimensionnelle pour la structuration de l’espace des primitives, et une unité de recherche des plus proches voisins pour la recherche des informations similaires. L’information (image, texte, audio, vidéo) peut être représentée par un vecteur multidimensionnel décrivant le contenu global des données d’entrée. La deuxième unité consiste à structurer l’espace des primitives dans une structure d’index, où la troisième unité -la recherche par similarité- est effective.Dans nos travaux de recherche, nous proposons trois systèmes de recherche par le contenu de plus proches voisins. Les trois approches sont non supervisées, et donc adaptées aux données étiquetées et non étiquetées. Elles sont basées sur le concept du hachage pour une recherche efficace multidimensionnelle des plus proches voisins. Contrairement aux approches de hachage existantes, qui sont binaires, les approches proposées fournissent des structures d’index avec un hachage réel. Bien que les approches de hachage binaires fournissent un bon compromis qualité-temps de calcul, leurs performances en termes de qualité (précision) se dégradent en raison de la perte d’information lors du processus de binarisation. À l'opposé, les approches de hachage réel fournissent une bonne qualité de recherche avec une meilleure approximation de l’espace d’origine, mais induisent en général un surcoût en temps de calcul.Ce dernier problème est abordé dans la troisième contribution. Les approches proposées sont classifiées en deux catégories, superficielle et profonde. Dans la première catégorie, on propose deux techniques de hachage superficiel, intitulées Symmetries of the Cube Locality sensitive hashing (SC-LSH) et Cluster-Based Data Oriented Hashing (CDOH), fondées respectivement sur le hachage aléatoire et l’apprentissage statistique superficiel. SCLSH propose une solution au problème de l’espace mémoire rencontré par la plupart des approches de hachage aléatoire, en considérant un hachage semi-aléatoire réduisant partiellement l’effet aléatoire, et donc l’espace mémoire, de ces dernières, tout en préservant leur efficacité pour la structuration des espaces hétérogènes. La seconde technique, CDOH, propose d’éliminer l’effet aléatoire en combinant des techniques d’apprentissage non-supervisé avec le concept de hachage. CDOH fournit de meilleures performances en temps de calcul, en espace mémoire et en qualité de recherche.La troisième contribution est une approche de hachage basée sur les réseaux de neurones profonds appelée "Unsupervised Deep Neuron-per-Neuron Hashing" (UDN2H). UDN2H propose une indexation individuelle de la sortie de chaque neurone de la couche centrale d’un modèle non supervisé. Ce dernier est un auto-encodeur profond capturant une structure individuelle de haut niveau de chaque neurone de sortie.Nos trois approches, SC-LSH, CDOH et UDN2H, ont été proposées séquentiellement durant cette thèse, avec un niveau croissant, en termes de la complexité des modèles développés, et en termes de la qualité de recherche obtenue sur de grandes bases de données d'information
The amount of media data is growing at high speed with the fast growth of Internet and media resources. Performing an efficient similarity (nearest neighbor) search in such a large collection of data is a very challenging problem that the scientific community has been attempting to tackle. One of the most promising solutions to this fundamental problem is Content-Based Media Retrieval (CBMR) systems. The latter are search systems that perform the retrieval task in large media databases based on the content of the data. CBMR systems consist essentially of three major units, a Data Representation unit for feature representation learning, a Multidimensional Indexing unit for structuring the resulting feature space, and a Nearest Neighbor Search unit to perform efficient search. Media data (i.e. image, text, audio, video, etc.) can be represented by meaningful numeric information (i.e. multidimensional vector), called Feature Description, describing the overall content of the input data. The task of the second unit is to structure the resulting feature descriptor space into an index structure, where the third unit, effective nearest neighbor search, is performed.In this work, we address the problem of nearest neighbor search by proposing three Content-Based Media Retrieval approaches. Our three approaches are unsupervised, and thus can adapt to both labeled and unlabeled real-world datasets. They are based on a hashing indexing scheme to perform effective high dimensional nearest neighbor search. Unlike most recent existing hashing approaches, which favor indexing in Hamming space, our proposed methods provide index structures adapted to a real-space mapping. Although Hamming-based hashing methods achieve good accuracy-speed tradeoff, their accuracy drops owing to information loss during the binarization process. By contrast, real-space hashing approaches provide a more accurate approximation in the mapped real-space as they avoid the hard binary approximations.Our proposed approaches can be classified into shallow and deep approaches. In the former category, we propose two shallow hashing-based approaches namely, "Symmetries of the Cube Locality Sensitive Hashing" (SC-LSH) and "Cluster-based Data Oriented Hashing" (CDOH), based respectively on randomized-hashing and shallow learning-to-hash schemes. The SC-LSH method provides a solution to the space storage problem faced by most randomized-based hashing approaches. It consists of a semi-random scheme reducing partially the randomness effect of randomized hashing approaches, and thus the memory storage problem, while maintaining their efficiency in structuring heterogeneous spaces. The CDOH approach proposes to eliminate the randomness effect by combining machine learning techniques with the hashing concept. The CDOH outperforms the randomized hashing approaches in terms of computation time, memory space and search accuracy.The third approach is a deep learning-based hashing scheme, named "Unsupervised Deep Neuron-per-Neuron Hashing" (UDN2H). The UDN2H approach proposes to index individually the output of each neuron of the top layer of a deep unsupervised model, namely a Deep Autoencoder, with the aim of capturing the high level individual structure of each neuron output.Our three approaches, SC-LSH, CDOH and UDN2H, were proposed sequentially as the thesis was progressing, with an increasing level of complexity in terms of the developed models, and in terms of the effectiveness and the performances obtained on large real-world datasets
APA, Harvard, Vancouver, ISO, and other styles
46

Durieux, Valérie. "Le collaborative tagging appliqué à l'information médicale scientifique: étude des tags et de leur adoption par les médecins dans le cadre de leurs pratiques informationnelles." Doctoral thesis, Universite Libre de Bruxelles, 2013. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209555.

Full text
Abstract:
Suite à l’avènement du Web 2.0, le rôle de l’internaute s’est vu modifier, passant de consommateur passif à acteur à part entière. De nouvelles fonctionnalités ont vu le jour augmentant considérablement les possibilités d’interaction avec le système. Parmi celles-ci, le collaborative tagging permet à l’utilisateur de décrire l’information en ligne par l’attribution de mots-clés (ou tags), la particularité étant que ces tags ne sont pas uniquement accessibles aux tagueurs eux-mêmes mais à l’ensemble des internautes. L’octroi de tags à une ressource lui offre donc de multiples chemins d’accès exploitables par la communauté internet tout entière. Régulièrement comparé à l’indexation « professionnelle », le collaborative tagging soulève une question essentielle :cette nouvelle pratique contribue-t-elle favorablement à la description et, par extension, à la recherche d’informations sur internet ?

Tous les types d’informations ne pouvant être étudiés, la présente dissertation se focalise sur l’information médicale scientifique utilisée par les médecins dans le cadre de leur pratique professionnelle. Elle propose, dans un premier temps, de mesurer le potentiel des tags assignés dans deux systèmes de collaborative tagging (Delicious et CiteULike) à décrire l’information en les comparant à des descripteurs attribués par des professionnels de l’information pour un même échantillon de ressources. La comparaison a mis en lumière l’exploitabilité des tags en termes de dispositifs de recherche d’informations mais a néanmoins révélé des faiblesses indéniables par rapport à une indexation réalisée par des professionnels à l’aide d’un langage contrôlé.

Dans un second temps, la dissertation s’est intéressée aux utilisateurs finaux en quête d’informations, c’est-à-dire les médecins, afin de déterminer dans quelle mesure un système de collaborative tagging (CiteULike) peut assister ces derniers lors de leur recherche d’informations scientifiques. Pour ce faire, des entretiens individuels combinant interview semi-structurée et expérimentation ont été organisés avec une vingtaine de médecins. Ils ont fourni des indications riches et variées quant à leur adoption effective ou potentielle d’un système de collaborative tagging dans le cadre de leurs pratiques informationnelles courantes.

Enfin, cette dissertation se propose d’aller au-delà de l’étude des tags et du phénomène de collaborative tagging dans son ensemble. Elle s’intéresse également aux compétences informationnelles des médecins observés en vue d’alimenter la réflexion sur les formations qui leur sont dispensées tout au long de leurs études mais également durant leur parcours professionnel.
Doctorat en Information et communication
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
47

Alves, do Valle Junior Eduardo. "Local-Descriptor Matching for Image Identification Systems." Cergy-Pontoise, 2008. http://biblioweb.u-cergy.fr/theses/08CERG0351.pdf.

Full text
Abstract:
L'identification d'images (ou la détection des copies) consiste à retrouver l'original d’où est issue une image requête ainsi que les metadonnées associées, telles que titres, auteurs, droits de reproduction, etc. . . La tâche est difficile en raison de la variété des transformations que l'image originale peut avoir subi. Les systèmes d'identification d'images basées sur des descripteurs locaux ont montré une excellente efficacité, mais souffrent souvent des problèmes de rapidité d'exécution car, des centaines, voire des milliers de descripteurs, doivent être appariés afin de trouver une seule image. L'objectif de notre travail est de fournir des méthodes rapides pour l’appariement des descripteurs, basées sur la recherche rapide des k-plus proches voisins dans des espaces de grandes dimensions. De cette façon, nous pouvons gagner les avantages d’efficacité amenés par l'utilisation des descripteurs locaux, pendant qu’on minimise les problèmes d’efficience. Nous proposons trois nouvelles pour la recherche des k-plus proches voisins ; les 3-way trees, qui améliorent les KD-trees travers l’utilisation des noeuds chevauchants redondants ; les projection KD-forests, qui utilisent des multiples KD-trees à dimensionnalité modérée ; et les multicurves, qui utilisent des multiples courbes d’Hilbert remplissantes de l’espace. Ces techniques cherchent à réduire le nombre d’accès aléatoires, pour être bien adaptées à l’implémentation en mémoire secondaire
Image identification (or copy detection) consists in retrieving the original from which a query image possibly derives, as well as any related metadata, such as titles, authors, copyright information, etc. The task is challenging because of the variety of transformations that the original image may have suffered. Image identification systems based on local descriptors have shown excellent efficacy, but often suffer from efficiency issues, since hundreds, even thousands of descriptors, have to be matched in order to find a single image. The objective of our work is to provide fast methods for descriptor matching, by creating efficient ways to perform the k-nearest neighbours search in high-dimensional spaces. In this way, we can gain the advantages from the use of local descriptors, while minimising the efficiency issues. We propose three new methods for the k-nearest neighbours search: the 3-way trees — an improvement over the KD-trees using redundant, overlapping nodes; the projection KD-forests — a technique which uses multiple moderate dimensional KD-trees; and the multicurves, which is based on multiple moderate dimensional Hilbert space-filling curves. Those techniques try to reduce the amount of random access to the data, in order to be well adapted to the implementation in secondary memory
APA, Harvard, Vancouver, ISO, and other styles
48

Paris, Stéfane. "Reconnaissance par indexation en vision par ordinateur." Vandoeuvre-les-Nancy, INPL, 1992. http://docnum.univ-lorraine.fr/public/INPL_T_1992_PARIS_S.pdf.

Full text
Abstract:
La vision par ordinateur est amenée, pour des taches de manipulation robotique, à identifier et à localiser les objets de la scène observée. L’identification et la localisation, regroupées sous le terme reconnaissance, impliquent une connaissance à priori des objets à manipuler. Cette connaissance se traduit en une base de modèles d'objets. De façon à pouvoir accéder facilement et rapidement à ces modèles, nous proposons de les classer suivant leur structure. La classification structurelle obtenue est appelée index et le processus qui la construit est dit d'indexation
APA, Harvard, Vancouver, ISO, and other styles
49

Chaabouni, Mariem. "Assistance à la réutilisation de scénarios d’apprentissage : une approche guidée par l’évaluation du contexte d’usage à base d’indicateurs." Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA1007/document.

Full text
Abstract:
Les travaux de thèse s'inscrivent dans le domaine des Environnements Informatiques pour l'Apprentissage Humain (EIAH). Ils portent sur la proposition de processus, méthodes et outils pour assister les enseignants et les formateurs dans la réutilisation et la capitalisation des scénarios d'apprentissage. L'approche proposée nommée CAPtuRe a pour objectif de modéliser, évaluer et exploiter les informations contextuelles relatives à un scénario en se basant sur des observations effectives de ce dernier pour améliorer la réutilisation.Les problématiques étudiées concernent : (1) l'expression et l'analyse du contexte d'usage, (2) l'évaluation de la pertinence du scénario dans un contexte précis, (3) l'indexation des contextes sur la base de critères de réussite et d'efficacité du scénario pour la définition de son périmètre de réutilisation et (4) la suggestion proactive de réutilisation.Nous avons commencé par la spécification d'un cadre global d'ingénierie et de réutilisation de scénarios d'apprentissage. Dans ce cadre, nous avons défini un processus qui spécifie le cycle de vie du scénario explicitant la dimension contextuelle et son utilisation dans un environnement de "conception par la réutilisation". Pour opérationnaliser ce processus, nous avons défini une approche générique de modélisation de l'information contextuelle enrichie par les indicateurs, une méthode d'indexation et un algorithme de calcul de similarités contextuelles pour la sélection et la recommandation de scénarios appropriés à une situation d'apprentissage cible. Ces contributions ont été implémentées sous la forme d'une plateforme logicielle et appliquées sur des cas d'usage de scénarios hybrides
The work presented in this thesis is a part of the Technology Enhanced Learning domain. It focuses on the proposal of processes, methods and tools that assist teachers and trainers in the reuse and the capitalization of educational scenarios. The objective of the proposed approach named CAPtuRe is to model, evaluate and exploit the contextual information related to a scenario based on its effective observations with the aim to enhance reuse. The main concerns are: (1) the expression and the analysis of the usage context, (2) the evaluation of the relevance of the scenario in a specific context, (3) the indexing of the contexts based on criteria of success and effectiveness of the scenario to define its reuse scope and (4) the proactive suggestion of reuse. We started by specifying a global framework for the engineering and the reuse of educational scenarios. In this context, we have defined a process specifying the scenario lifecycle introducing the contextual dimension and its utilization in a "design by reuse" environment. In order to operationalize this process, we define a generic approach to model the contextual information of a scenario that is enriched by the indicators, an indexing method and an algorithm calculating contextual similarities for the selection and the recommendation of appropriated scenarios to a target learning situation. These contributions are implemented as a software platform and applied to hybrid scenarios usage cases
APA, Harvard, Vancouver, ISO, and other styles
50

Brunel, Lionel. "Indexation vidéo par l'analyse de codage." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00214113.

Full text
Abstract:
Ce travail de thèse porte sur l'indexation, normalisée par MPEG7, de séquences vidéos. A partir d'un flux MPEG1-2, ou de tout autre codec basé sur la prédiction de mouvement et la DCT, sans totalement le décompresser, nous exploitons l'analyse effectuée lors du codage. Ainsi de façon non-supervisée et en quasi temps réel, nous proposons une méthode d'estimation du mouvement de la caméra ainsi que d'extraction des objets en déplacement. Pour l'estimation du mouvement de la caméra, nous utilisons les vecteurs de prédiction temporelle présents dans le flux. L'étude des images d'erreur nous permet d'en évaluer la pertinence. Pour la détection des objets en mouvement, nous segmentons tout d'abord la séquence en zones de couleur uniforme directement sur les coefficients DCT. Nous établissons une distance colorimétrique, non seulement entre deux pixels voisins d'une image, mais aussi entre deux images successives, ce qui définit une zone en trois dimensions. Afin de segmenter plus précisément et de régulariser les contours sur chaque image, nous utilisons les B-Splines. Chaque objet candidat est déformé par la présence de tous ses voisins à partir d'un potentiel de couleur, ce qui, itérativement, permet d'éliminer les zones trop réduites. En combinant le mouvement de la caméra, les vecteurs de prédiction et les zones de couleur 2D+t, nous réalisons une fusion adaptative de façon à obtenir une bonne représentation des objets.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography