Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Analyse de données vidéo.

Дисертації з теми "Analyse de données vidéo"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Analyse de données vidéo".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Moinard, Matthieu. "Codage vidéo hybride basé contenu par analyse/synthèse de données." Phd thesis, Telecom ParisTech, 2011. http://tel.archives-ouvertes.fr/tel-00830924.

Повний текст джерела
Анотація:
Les travaux de cette thèse sont destinés à la conception d'outils algorithmiques permettant d'accroître le facteur de compression des standards actuels de codage vidéo, tels que H.264/AVC. Pour cela, une étude préalable portant sur un ensemble de méthodes de restauration d'image a permis d'identifier et d'inspecter deux axes de recherche distincts. La première partie est fondée sur des méthodes d'analyse et de synthèse de texture. Ce type de procédé, aussi connu sous le nom de template matching, est couramment utilisé dans un contexte de codage vidéo pour prédire une portion de la texture de l'image suite à l'analyse de son voisinage. Nous avons cherché à améliorer le modèle de prédiction en prenant en compte les spécificités d'un codeur vidéo de type H.264/AVC. En particulier, la fonction débit/distorsion utilisée dans les schémas de codage vidéo normatifs se base sur une mesure objective de la qualité. Ce mécanisme est par nature incompatible avec le concept de synthèse de texture, dont l'efficacité est habituellement mesurée selon des critères purement perceptuels. Cette contradiction a motivé le travail de notre première contribution. La deuxième partie des travaux de cette thèse s'inspire des méthodes de régularisation d'image basée sur la minimisation de la variation totale. Des méthodes ont été élaborées originellement dans le but d'améliorer la qualité d'une image en fonction de la connaissance a priori des dégradations qu'elle a subies. Nous nous sommes basés sur ces travaux pour concevoir un modèle de prédiction des coefficients transformés obtenus à partir d'une image naturelle, qui a été intégré dans un schéma de codage vidéo conventionnel.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Mongy, Sylvain. "Modélisation et analyse du comportement des utilisateurs exploitant des données vidéo." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00842718.

Повний текст джерела
Анотація:
Nous proposons dans ce travail d'analyser le comportement des utilisateurs exploitant des données vidéo. Notre objectif est de contribuer à comprendre pourquoi et comment chacune des séquences vidéo est visionnée par les utilisateurs. Pour cela, nous présentons une approche qui combine usage intra-vidéo et usage inter-vidéo. Au niveau intra-vidéo, nous définissons le visionnage d'une vidéo comme unité de comportement. Au niveau inter-vidéo, nous introduisons la session (enchaînement des vidéos visionnées) comme unité de comportement. Un comportement intra-vidéo est modélisé par un modèle de Markov construit en utilisant les différentes actions réalisées lors des vision nages que nous regroupons à l'aide d'une nouvelle méthode de regroupement (K-models). Cette méthode est dérivée de la technique des K-moyennes adaptée à l'utilisation de modèles. Nous caractérisons ainsi plusieurs comportements type qui permettent d'estimer quelle fut l'utilité ou d'une séquence vidéo lors d'une session. Un comportement inter-vidéo est modélisé par une session. Cette session est une séquence ordonnée des vision nages des séquences vidéo. Pour regrouper ces sessions, nous proposons une technique de regroupement hiérarchique qui présente la particularité de traiter des classes représentées par plusieurs sous-séquences enrichies par les comportements intra-vidéo. Les résultats obtenus sur des ensembles de test permettent d'identifier les comportements observés et d'en tirer des suppositions sur la pertinence des vidéos. Nous proposons également un modèle d'intégration dans un moteur de recherche permettant de détecter les erreurs d'indexation et de proposer des recherches alternatives.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Racine, Victor. "Quantification des dynamiques cellulaires par analyse de données de vidéo-microscopie 3D+t." Paris 6, 2006. http://www.theses.fr/2006PA066480.

Повний текст джерела
Анотація:
Cette thèse présente des méthodes d’analyse d’images numériques issues de la microscopie de fluorescente pour la biologie cellulaire. Elle s’intéresse essentiellement à la localisation et au suivi des complexes multimoléculaires dans les données multidimensionnelles (2D, 2D+t, 3D et 3D+t). Une première partie du travail est dédiée à l’extraction et la caractérisation de structures biologiques dans les images en utilisant des techniques de segmentation basées sur la décomposition en ondelettes. Plusieurs études biologiques réalisées en collaboration avec différentes équipes de recherche et exploitant directement ces outils sont présentées, comme par exemple l’étude de la morphométrie des organelles des cellules contraintes sur des micro-patterns et le travail sur la localisation de la protéine mid1p dans la levure. Dans une deuxième partie, il est présenté une méthode permettant de suivre dans le temps des molécules uniques ou des complexes multi moléculaires marqués. Elle permet la mise en correspondance des objets segmentés par minimisation des coûts d’association en utilisant la technique de recuit simulé. Cette méthode est bien adaptée à nombre de situations rencontrées en biologie cellulaire, car elle modélise de multiples comportements tels que l’apparition, la disparition ou la fusion et la dissociation. Une application au suivi de molécules uniques (ADN mono disperse 166kpb) est présentée dans le but d’étudier les variations de leur coefficient de diffusion. La troisième partie de cette thèse décrit un ensemble d’analyses appliquées à la caractérisation spatiale et temporelle des intermédiaires de transport du trafic membranaire marqués par les protéines chimériques GFP-Rab6A et GFP-Rab6A’. Plusieurs approches complémentaires sont exposées dans le but d’extraire un maximum d’informations quantitatives et de tenter une description des mécanismes biologiques sous-jacents
This thesis presents several approaches aiming to analyze fluorescence microscopy images in the field of cell biology. It is essentially focused on techniques for localization and tracking of multimolecular complexes in multidimensional data (2D, 2D+t, 3D and 3D+t). The first part of this work is dedicated to the extraction and characterization of fluorescent biological structures using wavelet based segmentation. Various biological studies performed in collaboration with various research groups are detailed, such as a study about morphometric analysis of organelles of cell constrained by micro patterns or the localization of the mid1p protein in yeasts. In a second part, a tracking algorithm of labeled molecular structures is presented. It is based on the linking over time of segmented objects by minimizing the association costs by a simulated annealing technique. This method is particularly well adapted in a lot of biological situations, because it allows modeling of many events like birth, death, fusion and fission. A single molecule (mono-disperse DNA 166kbp) dynamics analysis has been made using this tracking technique in order to extract the variations of the molecular diffusion coefficient. The third part describes a set of analyzes with the goal to study the spatial and temporal localization of transport intermediates involved in the membrane trafficking tagged by chimerical GFP-Rab6A and GFP-Rab6A’ proteins. Several complementary approaches are used to extract quantitative information and to describe the underneath biological processes
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Allart, Thibault. "Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136/document.

Повний текст джерела
Анотація:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Gadchaux, Christian. "Inclusion des étudiants en situation de handicap à l’université : approches croisées anthropologique et didactique, analyse de données d’entretiens cliniques et de données vidéo." Rouen, 2016. http://www.theses.fr/2016ROUEL027.

Повний текст джерела
Анотація:
L’université accueille la croissance du nombre d’étudiants en situation de handicap (loi 2005-103), et doit faire face à la complexité du défi de l’inclusion (loi 2013-595). La loi sur l’égalité des chances et des droits a rendu obligatoire leur admission, et la loi sur la refondation de l’école et de la République impose l’établissement de l’université inclusive. Nous interrogeons la problématique de l’inclusion des étudiants en situation de handicap à la fois dans l’aspect de socialisation par l’approche anthropologique, dans l’aspect de la production-transmission des savoirs académiques, et de leur accessibilisation par l’approche didactique. L’état des lieux de la question se fait dans une analyse historico-critique des textes et des institutions, afin de rendre compte de l’évolution conceptuelle des notions selon leur provenance. Nous faisons l’analyse et la critique des textes officiels et des positionnements institutionnels. Prenant appui sur la recherche scientifique nous reprenons à notre compte certains éléments conceptuels (liminalité, stigmates, rites d’interaction, rites d’institution) pour poursuivre l’approche anthropologique du handicap. La didactique de l’action conjointe que nous présentons rapidement nous semble répondre aux besoins relationnels d’inclusion dans la didactique du supérieur. Notre thèse adopte une démarche clinique et collaborative, donnant une place de choix aux acteurs, étudiants en situation de handicap ou non, et enseignants. Nous écoutons trois étudiants en situation de handicap, trois étudiants ordinaires (tous en Licence, deux de sociologie et un d’anthropologie) et deux enseignants (l’un expérimenté ; l’autre débutant). Ces entretiens cliniques recueillis suivant la méthode rogérienne de l’écoute active donnent lieu à un ensemble de corpus analysés dans la thèse et livrés in extenso en annexes pour servir d’apports empiriques à la recherche scientifique. Nous engageons une démarche croisée, anthropologique et didactique, de la description et l’analyse de données vidéo filmées en TD de sociologie et l’analyse croisée d’enseignants expérimentés. Qu’en est-il de la relation et de la production-transmission de savoirs en travaux dirigés, avec et pour des étudiants en situation de handicap aujourd’hui à l’université ? Si l’éclairage clinique ne nous permet pas de rendre compte de manière exhaustive des évolutions de la réalité actuelle, du moins nous permet-il de poser mieux certaines questions à la lumière des enjeux sociétaux et anthropologiques de l’inclusion de la socialisation cognitive à l’université
The university growth in the number of disabled students (2005-103 law), and is facing the complex challenge of inclusion (2013-595 law). The law on equal opportunities and rights made it compulsory admission, and the law school and refounding the Republic requires the establishment of inclusive university. We question the issue of inclusion of students with disabilities in both the socialization aspect of the anthropological approach in the aspect of the production-transmission of academic knowledge and their accessibilisation by the didactic approach. The inventory of the issue is in a critical historical analysis of texts and institutions, in order to realize the conceptual evolution of the concepts according to their origin. We analyze and critique of official documents and institutional positioning. Building on scientific research we return to our account some conceptual elements (liminality, stigmata, rites of interaction, rites of institution) to continue the anthropological approach to disability. Didactics of joint action that we present seems quickly respond to relational needs inclusion in the academic higher education. Our thesis adopts a clinical and collaborative approach, giving pride of place to actors, students with disabilities or not, and teachers. We listen to three students with disabilities, three regular students (all Bachelor, two of Sociology and Anthropology) and two teachers (one experienced, the other rookie). These clinical interviews collected at Rogerian method of active listening give rise to a set of corpus analyzed in the thesis and delivered in full in appendices to serve as empirical contributions to scientific research. We urge cross approach, anthropological and didactic, description and video analysis filmed TD sociology and cross analysis of experienced teachers. What about the relationship and the production-transmission of knowledge in tutorials, with and for students with disabilities at the University today? If the clinical lighting does not allow us to report comprehensively on developments of the current reality, at least it allows us better to ask some questions in the light of societal and anthropological issues of inclusion of cognitive socialization university
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Garcia, garcia Miguel. "Analyse de l'hypovigilance au volant par fusion d'informations environnementales et d'indices vidéo." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT120.

Повний текст джерела
Анотація:
L'hypovigilance du conducteur (que ce soit provoquée par la distraction ou la somnolence) est une des menaces principales pour la sécurité routière. Cette thèse s'encadre dans le projet Toucango, porté par la start-up Innov+, qui vise à construire un détecteur d'hypovigilance en temps réel basé sur la fusion d'un flux vidéo en proche infra-rouge et d'informations environnementales. L'objectif de cette thèse consiste donc à proposer des techniques d'extraction des indices pertinents ainsi que des algorithmes de fusion multimodale qui puissent être embarqués sur le système pour un fonctionnement en temps réel. Afin de travailler dans des conditions proches du terrain, une base de données en conduite réelle a été créée avec la collaboration de plusieurs sociétés de transports. Dans un premier temps, nous présentons un état de l'art scientifique et une étude des solutions disponibles sur le marché pour la détection de l'hypovigilance. Ensuite, nous proposons diverses méthodes basées sur le traitement d'images (pour la détection des indices pertinents sur la tête, yeux, bouche et visage) et de données (pour les indices environnementaux basés sur la géolocalisation). Nous réalisons une étude sur les facteurs environnementaux liés à l'hypovigilance et développons un système d'estimation du risque contextuel. Enfin, nous proposons des techniques de fusion multimodale de ces indices avec l'objectif de détecter plusieurs comportements d'hypovigilance : distraction visuelle ou cognitive, engagement dans une tâche secondaire, privation de sommeil, micro-sommeil et somnolence
Driver hypovigilance (whether caused by distraction or drowsiness) is one of the major threats to road safety. This thesis is part of the Toucango project, hold by the start-up Innov+, which aims to build a real-time hypovigilance detector based on the fusion of near infra-red video evidence and environmental information. The objective of this thesis is therefore to propose techniques for extracting relevant indices as well as multimodal fusion algorithms that can be embedded in the system for real-time operation. In order to work near ground truth conditions, a naturalistic driving database has been created with the collaboration of several transport companies. We first present a scientific state of the art and a study of the solutions available on the market for hypovigilance detection. Then, we propose several methods based on image (for the detection of relevant indices on the head, eyes, mouth and face) and data processing (for environmental indices based on geolocation). We carry out a study on the environmental factors related to hypovigilance and develop a contextual risk estimation system. Finally, we propose multimodal fusion techniques of these indices with the objective of detecting several hypovigilance behaviors: visual or cognitive distraction, engagement in a secondary task, sleep deprivation, microsleep and drowsiness
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Buisson, Alexandre. "Implémentation efficace d'un codeur vidéo hiérarchique granulaire sur une architecture à processeurs multimedia." Rennes 1, 2002. http://www.theses.fr/2002REN10083.

Повний текст джерела
Анотація:
CE MEMOIRE TRAITE DE L'INTEGRATION DES TECHNIQUES DE CODAGE VIDEO PAR MAILLAGES DANS DES SCHEMAS DE CODAGE ET DE LA MISE EN ADEQUATION DE CES ALGORITHMES AVEC UNE ARCHITECTURE MULTI-PROCESSEURS PENTIUM. L'AUGMENTATION CROISSANTE DES CAPACITES DES RESEAUX S'AVERE INSUFFISANTE, FACE A LA MULTIPLICATION DES DONNEES MISES EN CIRCULATION. DE CE FAIT, POUR L'ENSEMBLE DES MEDIA ET EN PARTICULIER POUR LA VIDEO, LES TRES BAS DEBITS RESTENT TOUJOURS UN OBJECTIF MAJEUR. AFIN D'ATTEINDRE CEUX-CI, LES ALGORITHMES DE CODAGE D'IMAGES ET DE VIDEO BASES MAILLAGES SEMBLENT PERTINENTS. CEPENDANT UNE SOLUTION DE CODAGE VIDEO UNIQUEMENT BASEE MAILLAGE RESTE INEXPLOITABLE ET IMMATURE A L'HEURE ACTUELLE. DE CE FAIT, IL SEMBLE JUDICIEUX D'ENVISAGER LEUR USAGE PAR LE BIAIS D'UNE HYBRIDATION AVEC UN CODEUR ROBUSTE. DE PLUS, LA COMPLEXITE DE CES ALGORITHMES ETANT IMPORTANTE, LEUR IMPLEMENTATION EFFICACE REPRESENTE UN POINT CRITIQUE. ON EXPLORE DONC LES TECHNIQUES A METTRE EN OEUVRE POUR AMELIORER LES PERFORMANCES DE CEUX-CI SUR UNE ARCHITECTURE MULTI-PENTIUM. LE CHAPITRE 1 DE CE MEMOIRE PRESENTE UN ETAT DE L'ART DETAILLE DES SOLUTIONS DE CODAGE PAR MAILLAGES. LE CHAPITRE 2 PRESENTE QUANT A LUI, UNE ETUDE CONCERNANT l'INTEGRATION DES MAILLAGES DANS UN MECANISME D'INTERPOLATION TEMPORELLE DE TRAME. LE CHAPITRE 3 DECRIT UN CERTAIN NOMBRE D'OPTIMISATIONS ALGORITHMIQUES. LE CHAPITRE 4 S'INTERESSE A NOTRE PLATEFORME DE DEVELOPPEMENT. LES CHAPITRES 5 ET 6 PROPOSENT DES OPTIMISATIONS ALGORITHMIQUES POUR PERMETTRE UNE EXPLOITATION EFFICACE DE LA PLATEFORME. ENFIN, LE CHAPITRE 6 DECRIT UNE INTEGRATION DES MAILLAGES DANS UNE SOLUTION DE CODAGE H26L. GRACE AUX OPTIMISATIONS DEVELOPPEES, ON A DEMONTRE QUE DES PERFORMANCES QUASI TEMPS-REELLES SONT ENVISAGEABLES. DE PLUS, LES HYBRIDATIONS AVEC UN CODEUR ROBUSTE CONFIRMENT LEURS CAPACITES SOUS-JACENTES A REDUIRE LES COUTS DE CODAGE ET A AMELIORER LA QUALITE PERÇUE DES VIDEOS.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Ye, Zakaria. "Analyse de Performance des Services de Vidéo Streaming Adaptatif dans les Réseaux Mobiles." Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0219/document.

Повний текст джерела
Анотація:
Le trafic vidéo a subi une augmentation fulgurante sur Internet ces dernières années. Pour pallier à cette importante demande de contenu vidéo, la technologie du streaming adaptatif sur HTTP est utilisée. Elle est devenue par ailleurs très populaire car elle a été adoptée par les différents acteurs du domaine de la vidéo streaming. C’est une technologie moins couteuse qui permet aux fournisseurs de contenu, la réutilisation des serveurs web et des caches déjà déployés. En plus, elle est exempt de tout blocage car elle traverse facilement les pare-feux et les translations d’adresses sur Internet. Dans cette thèse, nous proposons une nouvelle méthode de vidéo streaming adaptatif appelé “Backward-Shifted Coding (BSC)”. Il se veut être une solution complémentaire au standard DASH, le streaming adaptatif et dynamique utilisant le protocole HTTP. Nous allons d’abord décrire ce qu’est la technologie BSC qui se base sur le codec (encodeur décodeur) à multi couches SVC, un algorithme de compression extensible ou évolutif. Nous détaillons aussi l’implémentation de BSC dans un environnement DASH. Ensuite,nous réalisons une évaluation analytique de BSC en utilisant des résultats standards de la théorie des files d’attente. Les résultats de cette analyse mathématique montrent que le protocole BSC permet de réduire considérablement le risque d’interruption de la vidéo pendant la lecture, ce dernier étant très pénalisant pour les utilisateurs. Ces résultats vont nous permettre de concevoir des algorithmes d’adaptation de qualité à la bande passante en vue d’améliorer l’expérience utilisateur. Ces algorithmes permettent d’améliorer la qualité de la vidéo même étant dans un environnement où le débit utilisateur est très instable.La dernière étape de la thèse consiste à la conception de stratégies de caching pour optimiser la transmission de contenu vidéo utilisant le codec SVC. En effet, dans le réseau, des serveurs de cache sont déployés dans le but de rapprocher le contenu vidéo auprès des utilisateurs pour réduire les délais de transmission et améliorer la qualité de la vidéo. Nous utilisons la programmation linéaire pour obtenir la solution optimale de caching afin de le comparer avec nos algorithmes proposés. Nous montrons que ces algorithmes augmentent la performance du système tout en permettant de décharger les liens de transmission du réseau cœur
Due to the growth of video traffic over the Internet in recent years, HTTP AdaptiveStreaming (HAS) solution becomes the most popular streaming technology because ithas been succesfully adopted by the different actors in Internet video ecosystem. Itallows the service providers to use traditional stateless web servers and mobile edgecaches for streaming videos. Further, it allows users to access media content frombehind Firewalls and NATs.In this thesis we focus on the design of a novel video streaming delivery solutioncalled Backward-Shifted Coding (BSC), a complementary solution to Dynamic AdaptiveStreaming over HTTP (DASH), the standard version of HAS. We first describe theBackward-Shifted Coding scheme architecture based on the multi-layer Scalable VideoCoding (SVC). We also discuss the implementation of BSC protocol in DASH environment.Then, we perform the analytical evaluation of the Backward-Sihifted Codingusing results from queueing theory. The analytical results show that BSC considerablydecreases the video playback interruption which is the worst event that users can experienceduring the video session. Therefore, we design bitrate adaptation algorithms inorder to enhance the Quality of Experience (QoE) of the users in DASH/BSC system.The results of the proposed adaptation algorithms show that the flexibility of BSC allowsus to improve both the video quality and the variations of the quality during thestreaming session.Finally, we propose new caching policies to be used with video contents encodedusing SVC. Indeed, in DASH/BSC system, cache servers are deployed to make contentsclosed to the users in order to reduce network latency and improve user-perceived experience.We use Linear Programming to obtain optimal static cache composition tocompare with the results of our proposed algorithms. We show that these algorithmsincrease the system overall hit ratio and offload the backhaul links by decreasing thefetched content from the origin web servers
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Leny, Marc. "Analyse et enrichissement de flux compressés : application à la vidéo surveillance." Thesis, Evry, Institut national des télécommunications, 2010. http://www.theses.fr/2010TELE0031/document.

Повний текст джерела
Анотація:
Le développement de réseaux de vidéosurveillance, civils ou militaires, pose des défis scientifiques et technologiques en termes d’analyse et de reconnaissance des contenus des flux compressés. Dans ce contexte, les contributions de cette thèse portent sur : - une méthode de segmentation automatique des objets mobiles (piétons, véhicules, animaux …) dans le domaine compressé, - la prise en compte des différents standards de compression les plus couramment utilisés en surveillance (MPEG-2, MPEG-4 Part 2 et MPEG-4 Part 10 / H.264 AVC), - une chaîne de traitement multi-flux optimisée depuis la segmentation des objets jusqu’à leur suivi et description. Le démonstrateur réalisé a permis d’évaluer les performances des approches méthodologiques développées dans le cadre d’un outil d’aide à l’investigation, identifiant les véhicules répondant à un signalement dans des bases de données de plusieurs dizaines d’heures. En outre, appliqué à des corpus représentatifs des différentes situations de vidéosurveillance (stations de métro, carrefours, surveillance de zones en milieu rural ou de frontières ...), le système a permis d’obtenir les résultats suivants : - analyse de 14 flux MPEG-2, 8 flux MPEG-4 Part 2 ou 3 flux AVC en temps réel sur un coeur à 2.66 GHZ (vidéo 720x576, 25 images par seconde), - taux de détection des véhicules de 100% sur la durée des séquences de surveillance de trafic, avec un taux de détection image par image proche des 95%, - segmentation de chaque objet sur 80 à 150% de sa surface (sous ou sur-segmentation liée au domaine compressé). Ces recherches ont fait l’objet du dépôt de 9 brevets liés à des nouveaux services et applications rendus opérationnels grâce aux approches mises en oeuvre. Citons entre autres des outils pour la protection inégale aux erreurs, la cryptographie visuelle, la vérification d’intégrité par tatouage ou l’enfouissement par stéganographie
The increasing deployment of civil and military videosurveillance networks brings both scientific and technological challenges regarding analysis and content recognition over compressed streams. In this context, the contributions of this thesis focus on: - an autonomous method to segment in the compressed domain mobile objects (pedestrians, vehicles, animals …), - the coverage of the various compression standards commonly used in surveillance (MPEG-2, MPEG-4 Part 2, MPEG-4 Part 10 / H.264 AVC), - an optimised multi-stream processing chain from the objects segmentation up to their tracking and description. The developed demonstrator made it possible to bench the performances of the methodological approaches chosen for a tool dedicated to help investigations. It identifies vehicles from a witness description in databases of tens of hours of video. Moreover, while dealing with corpus covering the different kind of content expected from surveillance (subway stations, crossroads, areas in countryside or border surveillance …), the system provided the following results: - simultaneous real time analysis of up to 14 MPEG-2 streams, 8 MPEG-4 Part 2 streams or 3 AVC streams on a single core (2.66 GHz; 720x576 video, 25 fps), - 100% vehicles detected over the length of traffic surveillance footages, with a image per image detection near 95%, - a segmentation spreading over 80 to 150% of the object area (under or over-segmentation linked with the compressed domain). These researches led to 9 patents linked with new services and applications that were made possible thanks to the suggested approaches. Among these lie tools for Unequal Error Protection, Visual Cryptography, Watermarking or Steganography
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Goeller, Adrien. "Contribution à la perception augmentée de scènes dynamiques : schémas temps réels d’assimilation de données pour la mécanique du solide et des structures." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC013/document.

Повний текст джерела
Анотація:
Dans le monde industriel comme dans le monde scientifique, le développement de capteurs a toujours répondu à la volonté d’observer l’inobservable. La caméra rapide fait partie de ceux-là puisqu’elle permet de dévoiler des dynamiques invisibles, de la formation de fissure au vol du moustique. Dans un environnement extrêmement concurrentiel, ces caméras sont principalement limitées par le nombre d’images acquises par seconde. Le but de cette thèse est d’augmenter la capacité de dévoiler la dynamique invisible en enrichissant l’acquisition initiale par des modèles dynamiques. La problématique consiste alors à élaborer des méthodes permettant de relier en temps réel un modèle et la perception d’un système réel. Les bénéfices de cette utilisation offrent ainsi la possibilité de faire de l’interpolation, de la prédiction et de l’identification. Cette thèse est composée de trois parties. La première est axée sur la philosophie du traitement vidéo et propose d’utiliser des modèles élémentaires et génériques. Un algorithme d’estimation de grands mouvements est proposé mais l’approche actuellement proposée n’est pas assez générique pour être exploitée dans un contexte industriel. La deuxième partie propose d’utiliser des méthodes d’assimilation de données séquentielle basées sur la famille des filtres de Kalman afin d’associer un modèle avec des observations par caméras rapides pour des systèmes mécaniques. La troisième partie est une application à l’analyse modale expérimentale non linéaire. Deux schémas d’assimilation temps réel multicapteurs sont présentés et leur mise en œuvre est illustrée pour de la reconstruction 3D et de la magnification
The development of sensors has always followed the ambition of industrial and scientific people to observe the unobservable. High speed cameras are part of this adventure, revealing invisible dynamics such as cracks formation or subtle mosquito flight. Industrial high speed vision is a very competitive domain in which cameras stand out through their acquisition speed. This thesis aims to broaden their capacity by augmenting the initial acquisition with dynamic models. This work proposes to develop methods linking in real time a model with a real system. Aimed benefits are interpolation, prediction and identification. Three parts are developed. The first one is based on video processing and submits to use kinematic elementary and generic models. An algorithm of motion estimation for large movements is proposed but the generic nature does not allow a sufficient knowledge to be conclusive. The second part proposes using sequential data assimilation methods known as Kalman filters. A scheme to assimilate video data with a mechanical model is successfully implemented. An application of data assimilation in modal analysis is developed. Two multi sensors real time assimilation schemes for nonlinear modal identification are proposed. These schemes are integrated in two applications on 3D reconstruction and motion magnification
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Selmi, Mouna. "Reconnaissance d’activités humaines à partir de séquences vidéo." Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0029/document.

Повний текст джерела
Анотація:
Cette thèse s’inscrit dans le contexte de la reconnaissance des activités à partir de séquences vidéo qui est une des préoccupations majeures dans le domaine de la vision par ordinateur. Les domaines d'application pour ces systèmes de vision sont nombreux notamment la vidéo surveillance, la recherche et l'indexation automatique de vidéos ou encore l'assistance aux personnes âgées. Cette tâche reste problématique étant donnée les grandes variations dans la manière de réaliser les activités, l'apparence de la personne et les variations des conditions d'acquisition des activités. L'objectif principal de ce travail de thèse est de proposer une méthode de reconnaissance efficace par rapport aux différents facteurs de variabilité. Les représentations basées sur les points d'intérêt ont montré leur efficacité dans les travaux d'art; elles ont été généralement couplées avec des méthodes de classification globales vue que ses primitives sont temporellement et spatialement désordonnées. Les travaux les plus récents atteignent des performances élevées en modélisant le contexte spatio-temporel des points d'intérêts par exemple certains travaux encodent le voisinage des points d'intérêt à plusieurs échelles. Nous proposons une méthode de reconnaissance des activités qui modélise explicitement l'aspect séquentiel des activités tout en exploitant la robustesse des points d'intérêts dans les conditions réelles. Nous commençons par l'extractivité des points d'intérêt dont a montré leur robustesse par rapport à l'identité de la personne par une étude tensorielle. Ces primitives sont ensuite représentées en tant qu'une séquence de sac de mots (BOW) locaux: la séquence vidéo est segmentée temporellement en utilisant la technique de fenêtre glissante et chacun des segments ainsi obtenu est représenté par BOW des points d'intérêt lui appartenant. Le premier niveau de notre système de classification séquentiel hybride consiste à appliquer les séparateurs à vaste marge (SVM) en tant que classifieur de bas niveau afin de convertir les BOWs locaux en des vecteurs de probabilités des classes d'activité. Les séquences de vecteurs de probabilité ainsi obtenues sot utilisées comme l'entrées de classifieur séquentiel conditionnel champ aléatoire caché (HCRF). Ce dernier permet de classifier d'une manière discriminante les séries temporelles tout en modélisant leurs structures internes via les états cachés. Nous avons évalué notre approche sur des bases publiques ayant des caractéristiques diverses. Les résultats atteints semblent être intéressant par rapport à celles des travaux de l'état de l'art. De plus, nous avons montré que l'utilisation de classifieur de bas niveau permet d'améliorer la performance de système de reconnaissance vue que le classifieur séquentiel HCRF traite directement des informations sémantiques des BOWs locaux, à savoir la probabilité de chacune des activités relativement au segment en question. De plus, les vecteurs de probabilités ont une dimension faible ce qui contribue à éviter le problème de sur apprentissage qui peut intervenir si la dimension de vecteur de caractéristique est plus importante que le nombre des données; ce qui le cas lorsqu'on utilise les BOWs qui sont généralement de dimension élevée. L'estimation les paramètres du HCRF dans un espace de dimension réduite permet aussi de réduire le temps d'entrainement
Human activity recognition (HAR) from video sequences is one of the major active research areas of computer vision. There are numerous application HAR systems, including video-surveillance, search and automatic indexing of videos, and the assistance of frail elderly. This task remains a challenge because of the huge variations in the way of performing activities, in the appearance of the person and in the variation of the acquisition conditions. The main objective of this thesis is to develop an efficient HAR method that is robust to different sources of variability. Approaches based on interest points have shown excellent state-of-the-art performance over the past years. They are generally related to global classification methods as these primitives are temporally and spatially disordered. More recent studies have achieved a high performance by modeling the spatial and temporal context of interest points by encoding, for instance, the neighborhood of the interest points over several scales. In this thesis, we propose a method of activity recognition based on a hybrid model Support Vector Machine - Hidden Conditional Random Field (SVM-HCRF) that models the sequential aspect of activities while exploiting the robustness of interest points in real conditions. We first extract the interest points and show their robustness with respect to the person's identity by a multilinear tensor analysis. These primitives are then represented as a sequence of local "Bags of Words" (BOW): The video is temporally fragmented using the sliding window technique and each of the segments thus obtained is represented by the BOW of interest points belonging to it. The first layer of our hybrid sequential classification system is a Support Vector Machine that converts each local BOW extracted from the video sequence into a vector of activity classes’ probabilities. The sequence of probability vectors thus obtained is used as input of the HCRF. The latter permits a discriminative classification of time series while modeling their internal structures via the hidden states. We have evaluated our approach on various human activity datasets. The results achieved are competitive with those of the current state of art. We have demonstrated, in fact, that the use of a low-level classifier (SVM) improves the performance of the recognition system since the sequential classifier HCRF directly exploits the semantic information from local BOWs, namely the probability of each activity relatively to the current local segment, rather than mere raw information from interest points. Furthermore, the probability vectors have a low-dimension which prevents significantly the risk of overfitting that can occur if the feature vector dimension is relatively high with respect to the training data size; this is precisely the case when using BOWs that generally have a very high dimension. The estimation of the HCRF parameters in a low dimension allows also to significantly reduce the duration of the HCRF training phase
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Zipstein, Marc. "Les Méthodes de compression de textes : algorithmes et performances." Paris 7, 1990. http://www.theses.fr/1990PA077107.

Повний текст джерела
Анотація:
La compression de textes a pour but de réduire le nombre de symboles nécessaires à la représentation d'un texte. L'objet de cette thèse est l'étude, la mise au point et la comparaison de méthodes de compression universelles, c'est-à-dire capables de traiter de manière efficace n'importe quel type de textes. Nous montrons que l'utilisation d'automates permet d'augmenter l'efficacité des méthodes de compression classiques et nous présentons une nouvelle méthode basée sur l'utilisation de l'automate des facteurs. Nous présentons les deux grandes classes d'algorithmes de compression de données : les algorithmes de codages statistiques et les algorithmes de codage par facteurs. Les algorithmes de codage statistique traitent les textes par blocs de longueur fixe, un bloc fréquent ayant une traduction courte. Nous présentons les codages de Huffman statique et adaptatif ainsi que le codage arithmétique. Nous proposons une représentation du codage arithmétique à l'aide d'un transducteur ce qui garantit un traitement en temps réel. Les codages par facteur traduisent les textes en utilisant leurs propres facteurs. Nous présentons les algorithmes de codage dus à Ziv et Lempel, et nous décrivons une nouvelle méthode basée sur l'utilisation de l'automate des facteurs. Ce travail se termine par la comparaison des performances des algorithmes décrits
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Beaudoin, Jean-Michel. "Étude comportementale de l'intérêt des porcs à l'engraissement envers des objets d'enrichissement et évaluation de l'utilisation d'une analyse automatisée basée sur des données d'accélérométrie comparativement à l'analyse vidéo." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27943.

Повний текст джерела
Анотація:
Dans un premier temps, ce projet visait à évaluer la possibilité d'utiliser des accéléromètres pour automatiser l'analyse comportementale des porcs à l'engraissement envers des objets d'enrichissement. Les accéléromètres ont été placés dans sept différents objets qui ont été mis à la disponibilité de 328 porcs logés en groupes, dans des parcs entièrement lattés et sans litière, sur des périodes de cinq jours. Les analyses des données d'accéléromètres ont été effectuées à l'aide d'un algorithme de classification basé sur des seuils de vélocité et de durée de déplacement. Chacun des parcs était muni d'une caméra vidéo pour comparer les résultats d'analyse d'accélérométrie et d'analyse vidéo de référence, toutes les deux basées sur la fréquence et le temps d'interactions avec les objets. Les comparaisons par objet montrent que la correspondance des deux types d'analyses dépend de la mobilité et de la disposition des objets, mais que pour l'instant, elle n'atteint en aucun cas un niveau satisfaisant pour baser une analyse comportementale sur les données d'accélérométrie. Néanmoins, certaines modifications des paramètres des accéléromètres pourraient apporter un plus haut taux de fiabilité. Ce projet de recherche visait également à évaluer l'intérêt des porcs à l'engraissement envers différents types d'objets d'enrichissement placés dans leur parc. L'effet de la propreté des objets ou de leur renouvellement quotidien sur l'intérêt des porcs à l'engraissement a aussi été déterminé. Les porcs ont un intérêt supérieur pour les objets faits de matériaux flexibles, destructibles et qui sont aisément manipulables avec la gueule ou le groin. Les porcs ne semblent pas avoir de préférence pour les objets qui sont lavés (objets de plastique ou de caoutchouc) ou renouvelés (objets destructibles) quotidiennement, sur une période de cinq jours, comparativement aux mêmes objets intouchés.
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Hassan, Hassan. "Modélisation et analyse de performances du trafic multimédia dans les réseaux hétérogènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00130060.

Повний текст джерела
Анотація:
Ces travaux concernent la modélisation et l'analyse de performances du trafic et des applications multimédia dans les réseaux hétérogènes. Le trafic IP agrégé et les applications audio, vidéo et données sont étudiés. Cette étude nous conduit à proposer un modèle générique et hiérarchique pour la représentation des sources de trafics multimédia qui permet de décrire les applications multimédia d'une façon simple, précise et générique. Le modèle générique est implémenté et constitue le noyau d'un outil de modélisation et simulation des sources de trafics. Une caractérisation du trafic IP issu d'applications multimédia est conduite en utilisant les modèles développés avec cet outil. Particulièrement, la problématique de la modélisation des sources de trafics agrégées est adressée, et des modèles agrégés simples sont déduites pour la superposition des sources de trafics audio, vidéo et données. Le trafic agrégé de type TCP présente des propriétés statistiques variables en fonction du taux de pertes de paquets sur le réseau à cause du contrôle en boucle fermée imposé par TCP. Un nouveau modèle analytique du protocole TCP basé sur la théorie différentielle du trafic est ensuite proposé. Ce modèle permet une représentation fiable du trafic TCP tout en étant très performant sur les réseaux à grande échelle. Finalement, une extension de l'architecture du protocole SIP est présentée afin de permettre une gestion de la qualité d service au niveau session. Les mécanismes proposés reposent sur l'ordonnancement stochastique des sessions et l'allocation de la bande passante par des approches d'évaluation de bande passante équivalente. Cette dernière technique rend possible l'utilisation des formules d'Erlang dans les réseaux à commutation de paquets
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Mathonat, Romain. "Rule discovery in labeled sequential data : Application to game analytics." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI080.

Повний текст джерела
Анотація:
Exploiter des jeux de données labelisés est très utile, non seulement pour entrainer des modèles et mettre en place des procédures d'analyses prédictives, mais aussi pour améliorer la compréhension d'un domaine. La découverte de sous-groupes a été l'objet de recherches depuis deux décennies. Elle consiste en la découverte de règles couvrants des ensembles d'objets ayant des propriétés intéressantes, qui caractérisent une classe cible donnée. Bien que de nombreux algorithmes de découverte de sous-groupes aient été proposés à la fois dans le cas des données transactionnelles et numériques, la découverte de règles dans des données séquentielles labelisées a été bien moins étudiée. Dans ce contexte, les stratégies d'exploration exhaustives ne sont pas applicables à des cas d'application rééls, nous devons donc nous concentrer sur des approches heuristiques. Dans cette thèse, nous proposons d'appliquer des modèles de bandit manchot ainsi que la recherche arborescente de Monte Carlo à l'exploration de l'espace de recherche des règles possibles, en utilisant un compromis exploration-exploitation, sur différents types de données tels que les sequences d'ensembles d'éléments, ou les séries temporelles. Pour un budget temps donné, ces approches trouvent un ensemble des top-k règles decouvertes, vis-à-vis de la mesure de qualité choisie. De plus, elles ne nécessitent qu'une configuration légère, et sont indépendantes de la mesure de qualité utilisée. A notre connaissance, il s'agit de la première application de la recherche arborescente de Monte Carlo au cas de la fouille de données séquentielles labelisées. Nous avons conduit des études appronfondies sur différents jeux de données pour illustrer leurs plus-values, et discuté leur résultats quantitatifs et qualitatifs. Afin de valider le bon fonctionnement d'un de nos algorithmes, nous proposons un cas d'utilisation d'analyse de jeux vidéos, plus précisémment de matchs de Rocket League. La decouverte de règles intéressantes dans les séquences d'actions effectuées par les joueurs et leur exploitation dans un modèle de classification supervisée montre l'efficacité et la pertinence de notre approche dans le contexte difficile et réaliste des données séquentielles de hautes dimensions. Elle permet la découverte automatique de techniques de jeu, et peut être utilisée afin de créer de nouveaux modes de jeu, d'améliorer le système de classement, d'assister les commentateurs de "e-sport", ou de mieux analyser l'équipe adverse en amont, par exemple
It is extremely useful to exploit labeled datasets not only to learn models and perform predictive analytics but also to improve our understanding of a domain and its available targeted classes. The subgroup discovery task has been considered for more than two decades. It concerns the discovery of rules covering sets of objects having interesting properties, e.g., they characterize a given target class. Though many subgroup discovery algorithms have been proposed for both transactional and numerical data, discovering rules within labeled sequential data has been much less studied. In that context, exhaustive exploration strategies can not be used for real-life applications and we have to look for heuristic approaches. In this thesis, we propose to apply bandit models and Monte Carlo Tree Search to explore the search space of possible rules using an exploration-exploitation trade-off, on different data types such as sequences of itemset or time series. For a given budget, they find a collection of top-k best rules in the search space w.r.t chosen quality measure. They require a light configuration and are independent from the quality measure used for pattern scoring. To the best of our knowledge, this is the first time that the Monte Carlo Tree Search framework has been exploited in a sequential data mining setting. We have conducted thorough and comprehensive evaluations of our algorithms on several datasets to illustrate their added-value, and we discuss their qualitative and quantitative results. To assess the added-value of one or our algorithms, we propose a use case of game analytics, more precisely Rocket League match analysis. Discovering interesting rules in sequences of actions performed by players and using them in a supervised classification model shows the efficiency and the relevance of our approach in the difficult and realistic context of high dimensional data. It supports the automatic discovery of skills and it can be used to create new game modes, to improve the ranking system, to help e-sport commentators, or to better analyse opponent teams, for example
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Eseholi, Tarek Saad Omar. "Optimisation des techniques de compression d'images fixes et de vidéo en vue de la caractérisation des matériaux : applications à la mécanique." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0047.

Повний текст джерела
Анотація:
Cette thèse porte sur l’optimisation des techniques de compression d'images fixes et de vidéos en vue de la caractérisation des matériaux pour des applications dans le domaine de la mécanique, et s’inscrit dans le cadre du projet de recherche MEgABIt (MEchAnic Big Images Technology) soutenu par l’Université Polytechnique Hauts-de-France. L’objectif scientifique du projet MEgABIt est d’investiguer dans l’aptitude à compresser de gros volumes de flux de données issues d’instrumentation mécanique de déformations à grands volumes tant spatiaux que fréquentiels. Nous proposons de concevoir des algorithmes originaux de traitement dans l’espace compressé afin de rendre possible au niveau calculatoire l’évaluation des paramètres mécaniques, tout en préservant le maximum d’informations fournis par les systèmes d’acquisitions (imagerie à grande vitesse, tomographie 3D). La compression pertinente de la mesure de déformation des matériaux en haute définition et en grande dynamique doit permettre le calcul optimal de paramètres morpho-mécaniques sans entraîner la perte des caractéristiques essentielles du contenu des images de surface mécaniques, ce qui pourrait conduire à une analyse ou une classification erronée. Dans cette thèse, nous utilisons le standard HEVC (High Efficiency Video Coding) à la pointe des technologies de compression actuelles avant l'analyse, la classification ou le traitement permettant l'évaluation des paramètres mécaniques. Nous avons tout d’abord quantifié l’impact de la compression des séquences vidéos issues d’une caméra ultra-rapide. Les résultats expérimentaux obtenus ont montré que des taux de compression allant jusque 100 :1 pouvaient être appliqués sans dégradation significative de la réponse mécanique de surface du matériau mesurée par l’outil d’analyse VIC-2D. Finalement, nous avons développé une méthode de classification originale dans le domaine compressé d’une base d’images de topographie de surface. Le descripteur d'image topographique est obtenu à partir des modes de prédiction calculés par la prédiction intra-image appliquée lors de la compression sans pertes HEVC des images. La machine à vecteurs de support (SVM) a également été introduite pour renforcer les performances du système proposé. Les résultats expérimentaux montrent que le classificateur dans le domaine compressé est robuste pour la classification de nos six catégories de topographies mécaniques différentes basées sur des méthodologies d'analyse simples ou multi-échelles, pour des taux de compression sans perte obtenus allant jusque 6: 1 en fonction de la complexité de l'image. Nous avons également évalué les effets des types de filtrage de surface (filtres passe-haut, passe-bas et passe-bande) et de l'échelle d'analyse sur l'efficacité du classifieur proposé. La grande échelle des composantes haute fréquence du profil de surface est la mieux appropriée pour classer notre base d’images topographiques avec une précision atteignant 96%
This PhD. thesis focuses on the optimization of fixed image and video compression techniques for the characterization of materials in mechanical science applications, and it constitutes a part of MEgABIt (MEchAnic Big Images Technology) research project supported by the Polytechnic University Hauts-de-France (UPHF). The scientific objective of the MEgABIt project is to investigate the ability to compress large volumes of data flows from mechanical instrumentation of deformations with large volumes both in the spatial and frequency domain. We propose to design original processing algorithms for data processing in the compressed domain in order to make possible at the computational level the evaluation of the mechanical parameters, while preserving the maximum of information provided by the acquisitions systems (high-speed imaging, tomography 3D). In order to be relevant image compression should allow the optimal computation of morpho-mechanical parameters without causing the loss of the essential characteristics of the contents of the mechanical surface images, which could lead to wrong analysis or classification. In this thesis, we use the state-of-the-art HEVC standard prior to image analysis, classification or storage processing in order to make the evaluation of the mechanical parameters possible at the computational level. We first quantify the impact of compression of video sequences from a high-speed camera. The experimental results obtained show that compression ratios up to 100: 1 could be applied without significant degradation of the mechanical surface response of the material measured by the VIC-2D analysis tool. Then, we develop an original classification method in the compressed domain of a surface topography database. The topographical image descriptor is obtained from the prediction modes calculated by intra-image prediction applied during the lossless HEVC compression of the images. The Support vector machine (SVM) is also introduced for strengthening the performance of the proposed system. Experimental results show that the compressed-domain topographies classifier is robust for classifying the six different mechanical topographies either based on single or multi-scale analyzing methodologies. The achieved lossless compression ratios up to 6:1 depend on image complexity. We evaluate the effects of surface filtering types (high-pass, low-pass, and band-pass filter) and the scale of analysis on the efficiency of the proposed compressed-domain classifier. We verify that the high analysis scale of high-frequency components of the surface profile is more appropriate for classifying our surface topographies with accuracy of 96 %
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Picot, Antoine. "Détection d'hypovigilance chez le conducteur par fusion d'informations physiologiques et vidéo." Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00440959.

Повний текст джерела
Анотація:
L'hypovigilance correspond à la transition entre la veille et le sommeil durant laquelle l'organisme voit ses facultés d'observation et d'analyse fortement réduites. Elle est responsable de nombreux accidents sur la route. Le but de cette thèse est de proposer un système de détection de cette phase accidentogène à partir de l'analyse conjointe de l'activité cérébrale (électroencéphalogramme ou EEG) et d'une vidéo du conducteur. Dans un premier temps, une méthode non-supervisée de détection d'hypovigilance fonctionnant à l'aide d'un unique canal EEG a été proposée. Cette méthode, qui met en oeuvre différentes techniques de traitement du signal et de diagnostic, obtient de bonnes performances sur un ensemble de conducteurs, sans qu'il soit nécessaire de régler de paramètres. Dans un deuxième temps, nous nous sommes intéressés à la caractérisation des signes visuels de l'hypovigilance par une analyse vidéo des clignements. Une comparaison entre l'approche vidéo développée et l'approche traditionnelle par électro-oculogramme (EOG) a permis d'étudier dans quelle mesure la vidéo peut remplacer l'EOG pour la caractérisation des clignements. Elle a également permis de souligner la nécessité d'utiliser d'une caméra rapide (pouvant aller jusqu'à 200fps) pour caractériser les clignements. Un algorithme de détection d'hypovigilance à partir de la caractérisation vidéo des clignements a ainsi été développé. Pour finir, un algorithme de détection d'hypovigilance fusionnant, à l'aide de logique floue, les informations obtenues par les approches physiologique et vidéo est présenté. Toutes ces méthodes ont été testées et validées sur une base de données conséquente de conduite en état d'hypovigilance, la base de données ayant été expertisée par un spécialiste.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Devanne, Maxime. "3D human behavior understanding by shape analysis of human motion and pose." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10138/document.

Повний текст джерела
Анотація:
L'émergence de capteurs de profondeur capturant la structure 3D de la scène et du corps humain offre de nouvelles possibilités pour l'étude du mouvement et la compréhension des comportements humains. Cependant, la conception et le développement de modules de reconnaissance de comportements à la fois précis et efficaces est une tâche difficile en raison de la variabilité de la posture humaine, la complexité du mouvement et les interactions avec l'environnement. Dans cette thèse, nous nous concentrons d'abord sur le problème de la reconnaissance d'actions en représentant la trajectoire du corps humain au cours du temps, capturant ainsi simultanément la forme du corps et la dynamique du mouvement. Le problème de la reconnaissance d'actions est alors formulé comme le calcul de similitude entre la forme des trajectoires dans un cadre Riemannien. Les expériences menées sur quatre bases de données démontrent le potentiel de la solution en termes de précision/temps de latence de la reconnaissance d'actions. Deuxièmement, nous étendons l'étude aux comportements plus complexes en analysant l'évolution de la forme de la posture pour décomposer la séquence en unités de mouvement. Chaque unité de mouvement est alors caractérisée par la trajectoire de mouvement et l'apparence autour des mains, de manière à décrire le mouvement humain et l'interaction avec les objets. Enfin, la séquence de segments temporels est modélisée par un classifieur Bayésien naïf dynamique. Les expériences menées sur quatre bases de données évaluent le potentiel de l'approche dans différents contextes de reconnaissance et détection en ligne de comportements
The emergence of RGB-D sensors providing the 3D structure of both the scene and the human body offers new opportunities for studying human motion and understanding human behaviors. However, the design and development of models for behavior recognition that are both accurate and efficient is a challenging task due to the variability of the human pose, the complexity of human motion and possible interactions with the environment. In this thesis, we first focus on the action recognition problem by representing human action as the trajectory of 3D coordinates of human body joints over the time, thus capturing simultaneously the body shape and the dynamics of the motion. The action recognition problem is then formulated as the problem of computing the similarity between shape of trajectories in a Riemannian framework. Experiments carried out on four representative benchmarks demonstrate the potential of the proposed solution in terms of accuracy/latency for a low-latency action recognition. Second, we extend the study to more complex behaviors by analyzing the evolution of the human pose shape to decompose the motion stream into short motion units. Each motion unit is then characterized by the motion trajectory and depth appearance around hand joints, so as to describe the human motion and interaction with objects. Finally, the sequence of temporal segments is modeled through a Dynamic Naive Bayesian Classifier. Experiments on four representative datasets evaluate the potential of the proposed approach in different contexts, including recognition and online detection of behaviors
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Codreanu, Tatiana. "Analyse des comportements et expérience utilisateurs d'une plateforme de visioconférence pour l'enseignement des langues : Le cas de la phase 1.0 de VISU." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO20048.

Повний текст джерела
Анотація:
Cette recherche a pour objet l’étude des comportements des utilisateurs d’une plateforme de visioconférence poste à poste. Les utilisateurs de la plateforme sont deux groupes de tuteurs et leurs étudiantes ; le groupe de tuteurs est constitué de tuteurs en formation (de futurs enseignants en formation universitaire professionnalisante) et d’enseignants de FLE utilisant les outils du web 2.0. Cette recherche a pour cadre l’enseignement du FLE à destination d’un groupe d'étudiantes américaines de l’université de Californie Berkeley donné de janvier à mars 2010 sur une plateforme d’apprentissage vidéographique synchrone. La plateforme VISU, a été développé suivant une démarche originale, la conception d’une plateforme destinée a l’enseignement/apprentissage des langues. La particularité de ce projet réside dans le fait qu’un équipe de chercheurs et de développeurs ont accompagné les tuteurs et les étudiantes lors de cette expérimentation afin d’améliorer l’utilisabilté de VISU d’une séance sur l’autre. À travers une analyse de deux tâches dans les configurations qui placent un tuteur devant deux étudiantes, deux tuteurs devant deux étudiantes et un tuteur devant une étudiante, et d’une micro-analyse portant sur la transmission des consignes, nous tentons d’observer le discours et la mimo-gestualité témoignant de leur expérience utilisateur au contact de la technologie utilisée. Nous étudions également l’utilisation qu’ils font des différents outils textuels de communication, des ressources présentes sur la plateforme, ainsi que celle de la caméra. Nous discutons les résultats qualitatifs en vue de mettre au jour leurs comportements d’utilisateurs d’une plateforme en cours de construction. La méthode s’appuie sur la triangulation des données. Aux échanges en ligne du corpus multimodal est appliquée une analyse de la mimo-gestualité, ainsi qu’analyse de discours et des interactions. Des entretiens, des questionnaires et les perceptions des étudiantes et des tuteurs viennent éclairer l’analyse de leur vécu et de leur ressenti. Ce travail de recherche tente donc à travers la description de la communication pédagogique synchrone de mieux comprendre les différentes pratiques, principalement discursives et mimo-gestuelles, des tuteurs et des étudiantes engagés dans une formation en ligne
This research studies the behavior of users of a desktop videoconferencing platform VISU (designed to deliver online courses), through the multimodal pedagogical communication of two groups of teachers: trainee tutors and experienced teachers based in different locations who taught French as a Foreign Language to a group of students from UC Berkeley in 2010. A team of researchers and developers worked together with the tutors in this experiment to improve the usability of the platform, which was under construction during the course of the study. In understanding the experience of users while using the tool, due to the performance limitations of the tool under construction, a new method of analysing data was devised in which user behavior was studied through discourse analysis, mimogestuality and the usage of tools including chat and webcam. Specifically, we analysed the usage of different tools (text based tools) as well as the webcam’s effects on user behavior. Then, through a micro analysis of the pedagogical instruction, we identified the role of these different communication tools used by the tutors in conveying the meaning of the task to be carried out. Interviews, questionnaires and perceptions of students and tutors were gathered to inform the analysis of their experiences and their feelings. This research therefore attempts, through the description of the synchronous teaching communication, to better understand the different practices, mainly discursive and mimo-gestural, of tutors and students engaged in the multimodal learning. In addition, a key significance of this study is that it demonstrates the value of considering user experience (UX) in studies involving language learning through technology. At the same time, it also indicates the value of including discourse analysis and mimogestuality in user experience research involving interactive pedagogical tools
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Schmoll, Laurence. "Concevoir un scénario de jeu vidéo sérieux pour l'enseignement-apprentissage des langues ou comment dominer un oxymore." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAC014.

Повний текст джерела
Анотація:
Cette recherche étudie l‘utilisation du jeu vidéo pour l’apprentissage des langues étrangères en classe. L’étude porte sur l’intégration de ce support issu de pratiques informelles au contexte formel de la classe de langue. A la fois ludique et à visée d’apprentissage, le ‘jeu vidéo d’apprentissage’ incarne un oxymore, point de tension entre deux pôles, celui du scolaire et celui du jeu. Ce travail se concentre plus spécifiquement sur la notion de ludique. Comment, par le jeu vidéo d’apprentissage, activer une attitude ludique hypothétiquement porteuse d’une implication accrue de l’apprenant, celle-ci menant possiblement à une augmentation et une complexification des productions / interactions en langue étrangère ? Cette recherche s’inscrit dans le cadre du projet Eveil-3D et elle analyse l’accueil fait par un échantillon d’apprenants à deux jeux vidéo d’apprentissage partageant le même scénario mais conçus selon deux modèles différents. Elle a pour objectif d’aboutir tant à un modèle de conception qu’à un modèle de scénario, pensés spécifiquement pour l’apprentissage des langues médiatisées par le jeu vidéo
This research examines the use of video games in foreign language classrooms. It investigates the integration of this digital medium, originating as an informal leisure activity, in a formal language learning classroom setting. The ‘learning video game’, which refers to both the act of learning and the act of play, can be seen as an oxymoron encompassing seriousness as well as fun. This work focuses on the fun aspect. This work is motivated by the following research question: how can the use of a learning video game foster a playful attitude, hypothetically conducive to a greater involvement of the learner, while also potentially leading to increaseand complexification in student foreign language production and interaction? As a part of the Eveil 3D-project, this study analyses reception from a sample of learners to two learning games which have the same scenario but were completed according to two different game design models. The findings provide both a game design model and a scenario template in order to support foreign language learning through the use of the video game
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Lozano, Espinosa Rafael. "Intégration de données vidéo dans un SGBD à objets." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10050.

Повний текст джерела
Анотація:
La video est une donnee qui pose de nombreux problemes de stockage, de modelisation, d'interrogation et de presentation. Une maniere d'aborder ces problemes consiste a exploiter les fonctionnalites des systemes de gestion de bases de donnees (sgbd). L'integration de la donnee video dans un sgbd passe par sa cohabitation avec les autres types de donnees, et ce a tous les niveaux. Par ailleurs, elle impose d'etendre le sgbd tout en preservant ses proprietes structurelles et fonctionnelles. Un modele dans le contexte d'un sgbd a une motivation principale, celle d'offrir un environnement qui renforce la reutilisabilite des donnees. Nous presentons dans cette these un modele pour la donnee video permettant de capturer l'information derivee de sa semantique (au travers de l'utilisation d'annotations) et de son organisation (au travers de l'utilisation d'une structure du type hierarchique). Ce modele fournit egalement des elements aidant a l'exploitation des donnees video. Une telle exploitation necessite le developpement d'outils pour : (i) formuler des requetes qui prennent en consideration la nature de la video (interrogation), (ii) composer une video en utilisant le resultat des requetes (composition), (iii) feuilleter de facon intelligente cette video (generation de resumes video). Nous avons aussi etendu un sgbd a objets 02 afin de montrer la faisabilite ainsi que la pertinence de notre approche.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Alibay, Manu. "Fusion de données capteurs étendue pour applications vidéo embarquées." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0032/document.

Повний текст джерела
Анотація:
Le travail réalisé au cours de cette thèse se concentre sur la fusion des données d'une caméra et de capteurs inertiels afin d'effectuer une estimation robuste de mouvement pour des applications vidéos embarquées. Les appareils visés sont principalement les téléphones intelligents et les tablettes. On propose une nouvelle technique d'estimation de mouvement 2D temps réel, qui combine les mesures visuelles et inertielles. L'approche introduite se base sur le RANSAC préemptif, en l'étendant via l'ajout de capteurs inertiels. L'évaluation des modèles de mouvement se fait selon un score hybride, un lagrangien dynamique permettant une adaptation à différentes conditions et types de mouvements. Ces améliorations sont effectuées à faible coût, afin de permettre une implémentation sur plateforme embarquée. L'approche est comparée aux méthodes visuelles et inertielles. Une nouvelle méthode d'odométrie visuelle-inertielle temps réelle est présentée. L'interaction entre les données visuelles et inertielles est maximisée en effectuant la fusion dans de multiples étapes de l'algorithme. A travers des tests conduits sur des séquences acquises avec la vérité terrain, nous montrons que notre approche produit des résultats supérieurs aux techniques classiques de l'état de l'art
This thesis deals with sensor fusion between camera and inertial sensors measurements in order to provide a robust motion estimation algorithm for embedded video applications. The targeted platforms are mainly smartphones and tablets. We present a real-time, 2D online camera motion estimation algorithm combining inertial and visual measurements. The proposed algorithm extends the preemptive RANSAC motion estimation procedure with inertial sensors data, introducing a dynamic lagrangian hybrid scoring of the motion models, to make the approach adaptive to various image and motion contents. All these improvements are made with little computational cost, keeping the complexity of the algorithm low enough for embedded platforms. The approach is compared with pure inertial and pure visual procedures. A novel approach to real-time hybrid monocular visual-inertial odometry for embedded platforms is introduced. The interaction between vision and inertial sensors is maximized by performing fusion at multiple levels of the algorithm. Through tests conducted on sequences with ground-truth data specifically acquired, we show that our method outperforms classical hybrid techniques in ego-motion estimation
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Diot, Fabien. "Graph mining for object tracking in videos." Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET4009/document.

Повний текст джерела
Анотація:
Détecter et suivre les objets principaux d’une vidéo est une étape nécessaire en vue d’en décrire le contenu pour, par exemple, permettre une indexation judicieuse des données multimédia par les moteurs de recherche. Les techniques de suivi d’objets actuelles souffrent de défauts majeurs. En effet, soit elles nécessitent que l’utilisateur désigne la cible a suivre, soit il est nécessaire d’utiliser un classifieur pré-entraîné à reconnaitre une classe spécifique d’objets, comme des humains ou des voitures. Puisque ces méthodes requièrent l’intervention de l’utilisateur ou une connaissance a priori du contenu traité, elles ne sont pas suffisamment génériques pour être appliquées aux vidéos amateurs telles qu’on peut en trouver sur YouTube. Pour résoudre ce problème, nous partons de l’hypothèse que, dans le cas de vidéos dont l’arrière-plan n’est pas fixe, celui-ci apparait moins souvent que les objets intéressants. De plus, dans une vidéo, la topologie des différents éléments visuels composant un objet est supposée consistante d’une image a l’autre. Nous représentons chaque image par un graphe plan modélisant sa topologie. Ensuite, nous recherchons des motifs apparaissant fréquemment dans la base de données de graphes plans ainsi créée pour représenter chaque vidéo. Cette approche nous permet de détecter et suivre les objets principaux d’une vidéo de manière non supervisée en nous basant uniquement sur la fréquence des motifs. Nos contributions sont donc réparties entre les domaines de la fouille de graphes et du suivi d’objets. Dans le premier domaine, notre première contribution est de présenter un algorithme de fouille de graphes plans efficace, appelé PLAGRAM. Cet algorithme exploite la planarité des graphes et une nouvelle stratégie d’extension des motifs. Nous introduisons ensuite des contraintes spatio-temporelles au processus de fouille afin d’exploiter le fait que, dans une vidéo, les objets se déplacent peu d’une image a l’autre. Ainsi, nous contraignons les occurrences d’un même motif a être proches dans l’espace et dans le temps en limitant le nombre d’images et la distance spatiale les séparant. Nous présentons deux nouveaux algorithmes, DYPLAGRAM qui utilise la contrainte temporelle pour limiter le nombre de motifs extraits, et DYPLAGRAM_ST qui extrait efficacement des motifs spatio-temporels fréquents depuis les bases de données représentant les vidéos. Dans le domaine du suivi d’objets, nos contributions consistent en deux approches utilisant les motifs spatio-temporels pour suivre les objets principaux dans les vidéos. La première est basée sur une recherche du chemin de poids minimum dans un graphe connectant les motifs spatio-temporels tandis que l’autre est basée sur une méthode de clustering permettant de regrouper les motifs pour suivre les objets plus longtemps. Nous présentons aussi deux applications industrielles de notre méthode
Detecting and following the main objects of a video is necessary to describe its content in order to, for example, allow for a relevant indexation of the multimedia content by the search engines. Current object tracking approaches either require the user to select the targets to follow, or rely on pre-trained classifiers to detect particular classes of objects such as pedestrians or car for example. Since those methods rely on user intervention or prior knowledge of the content to process, they cannot be applied automatically on amateur videos such as the ones found on YouTube. To solve this problem, we build upon the hypothesis that, in videos with a moving background, the main objects should appear more frequently than the background. Moreover, in a video, the topology of the visual elements composing an object is supposed consistent from one frame to another. We represent each image of the videos with plane graphs modeling their topology. Then, we search for substructures appearing frequently in the database of plane graphs thus created to represent each video. Our contributions cover both fields of graph mining and object tracking. In the first field, our first contribution is to present an efficient plane graph mining algorithm, named PLAGRAM. This algorithm exploits the planarity of the graphs and a new strategy to extend the patterns. The next contributions consist in the introduction of spatio-temporal constraints into the mining process to exploit the fact that, in a video, the motion of objects is small from on frame to another. Thus, we constrain the occurrences of a same pattern to be close in space and time by limiting the number of frames and the spatial distance separating them. We present two new algorithms, DYPLAGRAM which makes use of the temporal constraint to limit the number of extracted patterns, and DYPLAGRAM_ST which efficiently mines frequent spatio-temporal patterns from the datasets representing the videos. In the field of object tracking, our contributions consist in two approaches using the spatio-temporal patterns to track the main objects in videos. The first one is based on a search of the shortest path in a graph connecting the spatio-temporal patterns, while the second one uses a clustering approach to regroup them in order to follow the objects for a longer period of time. We also present two industrial applications of our method
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Fagette, Antoine. "Détection de foule et analyse de comportement par analyse vidéo." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066709.

Повний текст джерела
Анотація:
Cette thèse porte sur la similitude entre un fluide et une foule et sur l'adaptation de l’algorithme de Particle Video pour le suivi et l'analyse de foule, ce qui aboutit à la conception d'un système complet pour l'analyse de la foule. Cette thèse en étudie trois aspects : la détection de la foule, l'estimation de sa densité et le tracking des flux afin d'obtenir des caractéristiques de comportement.L’algorithme de détection de la foule est une méthode totalement non supervisée pour la détection et la localisation des foules denses dans des images non-contextualisées. Après avoir calculé des vecteurs de features multi-échelles, une classification binaire est effectuée afin d'identifier la foule et l'arrière-plan.L'algorithme d'estimation de densité s'attaque au problème de l'apprentissage de modèles de régression dans le cas de larges foules denses. L'apprentissage est alors impossible sur données réelles car la vérité terrain est indisponible. Notre méthode repose donc sur l'utilisation de données synthétiques pour la phase d'apprentissage et prouve que le modèle de régression obtenu est valable sur données réelles.Pour notre adaptation de l’algorithme de Particle Video nous considérons le nuage de particules comme statistiquement représentatif de la foule. De ce fait, chaque particule possède des propriétés physiques qui nous permettent d'évaluer la validité de son comportement en fonction de celui attendu d'un piéton et d’optimiser son mouvement guidé par le flot optique. Trois applications en découlent : détection des zones d’entrée-sortie de la foule, détection des occlusions dynamiques et mise en relation des zones d'entrée et de sortie selon les flux de piétons
This thesis focuses on the similarity between a fluid and a crowd and on the adaptation of the particle video algorithm for crowd tracking and analysis. This interrogation ended up with the design of a complete system for crowd analysis out of which, this thesis has addressed three main problems: the detection of the crowd, the estimation of its density and the tracking of the flow in order to derive some behavior features.The contribution to crowd detection introduces a totally unsupervised method for the detection and location of dense crowds in images without context-awareness. After retrieving multi-scale texture-related feature vectors from the image, a binary classification is conducted to identify the crowd and the background.The density estimation algorithm is tackling the problem of learning regression models when it comes to large dense crowds. In such cases, the learning is impossible on real data as the ground truth is not available. Our method relies on the use of synthetic data for the learning phase and proves that the regression model obtained is valid for a use on real data.Our adaptation of the particle video algorithm leads us to consider the cloud of particles as statistically representative of the crowd. Therefore, each particle has physical properties that enable us to assess the validity of its behavior according to the one expected from a pedestrian, and to optimize its motion guided by the optical flow. This leads us to three applications: the detection of the entry and exit areas of the crowd in the image, the detection of dynamic occlusions and the possibility to link entry areas with exit ones, according to the flow of the pedestrians
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Ruiloba, Rosario I. "Analyse et description du montage vidéo numérique." Paris 6, 2001. http://www.theses.fr/2001PA066528.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Cámara, Chávez Guillermo. "Analyse du contenu vidéo par apprentissage actif." Cergy-Pontoise, 2007. http://www.theses.fr/2007CERG0380.

Повний текст джерела
Анотація:
L’objet de cette thèse est de proposer un système d’indexation semi-automatique et de recherche interactive pour la vidéo. Nous avons développé un algorithme de détection des plans automatique sans paramètre, ni seuil. Nous avons choisi un classifieur SVM pour sa capacité à traiter des caractéristiques de grandes dimensions tout en préservant des garanties de généralisation pour peu d’exemples d’apprentissage. Nous avons étudié plusieurs combinaisons de caractéristiques et de fonctions noyaux et présenté des résultats intéressants pour la tâche de détection de plan de TRECVID 2006. Nous avons proposé un système interactif de recherche de contenu vidéo : RETINVID, qui permet de réduire le nombre d’images à annoter par l’utilisateur. Ces images sont sélectionnées pour leur capacité à accroître la connaissance sur les données. Nous avons effectué de nombreuses simulations sur les données de la tâche de concepts haut-niveaux de TRECVID 2005
This thesis presents work towards a unified framework for semi-automated video indexing and interactive retrieval. To create an efficient index, a set of representative key frames are selected from the entire video content. We developed an automatic shot boundary detection algorithm to get rid of parameters and thresholds. We adopted a SVM classifier due to its ability to use very high dimensional feature spaces while at the same time keeping strong generalization guarantees from few training examples. We deeply evaluated the combination of features and kernels and present interesting results obtained, for shot extraction TRECVID 2006 Task. We then propose an interactive video retrieval system: RETINVID, to significantly reduce the number of key frames annotated by the user. The key frames are selected based on their ability to increase the knowledge of the data. We perform an experiment against the 2005 TRECVID benchmark for high-level task
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Tapu, Ruxandra Georgina. "Segmentation and structuring of video documents for indexing applications." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00843596.

Повний текст джерела
Анотація:
Recent advances in telecommunications, collaborated with the development of image and video processing and acquisition devices has lead to a spectacular growth of the amount of the visual content data stored, transmitted and exchanged over Internet. Within this context, elaborating efficient tools to access, browse and retrieve video content has become a crucial challenge. In Chapter 2 we introduce and validate a novel shot boundary detection algorithm able to identify abrupt and gradual transitions. The technique is based on an enhanced graph partition model, combined with a multi-resolution analysis and a non-linear filtering operation. The global computational complexity is reduced by implementing a two-pass approach strategy. In Chapter 3 the video abstraction problem is considered. In our case, we have developed a keyframe representation system that extracts a variable number of images from each detected shot, depending on the visual content variation. The Chapter 4 deals with the issue of high level semantic segmentation into scenes. Here, a novel scene/DVD chapter detection method is introduced and validated. Spatio-temporal coherent shots are clustered into the same scene based on a set of temporal constraints, adaptive thresholds and neutralized shots. Chapter 5 considers the issue of object detection and segmentation. Here we introduce a novel spatio-temporal visual saliency system based on: region contrast, interest points correspondence, geometric transforms, motion classes' estimation and regions temporal consistency. The proposed technique is extended on 3D videos by representing the stereoscopic perception as a 2D video and its associated depth
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Jerbi, Khaled. "Synthese matérielle haut niveau des programmes flot de données." Rennes, INSA, 2012. https://tel.archives-ouvertes.fr/tel-00827163.

Повний текст джерела
Анотація:
L’evolution des algorithmes de traitement de la video a implique l’apparition de plusieurs standards. Ces standards presentent plusieurs algorithmes communs. Cependant, il n’est pas facile de reutiliser ces algorithmes a cause du monolithisme des codes. Pour resoudre ces problemes, la communaute iso/iec mpeg a cree le standard « reconfigurable video coding » (rvc) base sur le principe que les algorithmes peuvent etre definis sous la forme d’une librairie de composants separes. Ainsi, les composants sont normalises au lieu du decodeur entier. Mpeg-rvc propose une specification haut-niveau unifiee des technologies mpeg utilisant un langage oriente flot de donnees appele cal (cal actor language) et une plateforme de compilation sur des cibles logicielles et materielles. Le probleme est que les compilateurs hardware ne sont pas capables de compiler les structures haut-niveau du cal qui sont omnipresents dans la majorite des designs rvc-cal evolues. Dans cette these, le langage cal est utilise pour le developpement du codec d’image fixe lar. Le probleme de la generation materielle a ensuite ete resolu en utilisant des transformations automatiques des structures haut-niveau vers leur equivalent en bas-niveau. Ces transformation ont ete testees et validees sur differents designs rvc-cal
The evolution of video processing algorithms involved the advent of several standards. These standards present many common algorithms but designers are not able to reuse them because of their monolithic description. To solve this problem, iso/iec mpeg committee created the reconfigurable video coding (rvc) standard based on the idea that processing algorithms can be defined as a library of components that can be updated separately. Thus, these components of the modular library are standardized instead of the whole decoder. Mpeg rvc framework aims at providing a unified high-level specification of current mpeg coding technologies using a dataflow language called cal actor language (cal). Rvc presents also a compilation framework of the cal for hardware and software targets, but hardware compilers cannot compile high-level features which are omnipresent in most advanced designs. In this thesis, the cal language is used to develop a baseline of the lar still image coder. The problem of hardware generation is later resolved using automatic transformations of the high-level features into their equivalent low-level ones. These transformations are validated using different designs
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Cagnazzo, Marco. "CODAGE DES DONNÉES VISUELLES : EFFICACITÉ, ROBUSTESSE, TRANSMISSION." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00859677.

Повний текст джерела
Анотація:
Après l'obtention de mon doctorat (2005), mes travaux ont porté initialement sur deux des axes de recherche de la thèse, notamment sur le codage vidéo scalable et sur le codage d'images par ondelettes adaptées à la forme (OAF). J'ai en particulier étudié la mise en place d'un codeur vidéo scalable basé sur la transformée en ondelettes par schémas lifting compensés en mouvement et allocation optimale des ressources de codage. En suite j'ai abordé le problème du critère optimal pour l'estimation de mouvement pour ce type de codeur : des meilleures performances débit-distorsion peuvent être atteintes au prix d'une augmentation de la complexité de l'estimation de mouvement. Par rapport au codage d'images par OAF, j'ai travaillé sur les conditions qui permettent à cette approche d'être compétitif avec les méthodes traditionnelles, et ensuite sur l'utilisation conjointe de la transformée en OAF avec la quantification vectorielle arborescente et avec la transformée de Karhunen-Loéve par classes pour la compression d'images multi-spectrales. J'ai aussi considéré la relation entre distorsion sur les coefficients et distorsion perceptuelle ou non-perceptuelle sur l'image résultante. Ensuite j'ai travaillé sur l'amélioration d'un codeur vidéo standard par une représentation efficace du mouvement : un premier travail, visant une très bonne précision, a abouti à une nouvelle méthode de codage sans pertes basée sur l'information mutuelle ; une deuxième approche utilise la quantification des vecteurs de mouvement, permettant de réduire le débit pour la même qualité. J'ai ensuite travaillé sur le codage vidéo distribué (CVD). Dans le contexte du CVD, la corrélation entre deux images consécutives (ou entre deux vues voisines dans le cas de vidéo multi-vues) est exploité uniquement au décodeur, tandis que les deux images sont codées séparément. Il est alors fondamental que le décodeur soit capable de construire une bonne estimation de l'image manquante : dans ce cas le codeur devra envoyer seulement quelques bits de parité d'un code à correction d'erreurs pour améliorer l'estimation jusqu'à avoir une qualité acceptable. Dans ce cadre, mes travaux ont visé surtout à améliorer l'estimation de l'image manquante, par une description précise du mouvement : un premier axe est basé sur la représentation dense des champs de vecteurs de mouvement ; un deuxième sur la modélisation des trajectoires des objets ; les méthodes basées sur les hash, de raffinement successif et de fusion du mouvement global avec le mouvement local ont également donné des bons résultats. Ces techniques d'estimation peuvent être utilisées dans le cadre du codage par descriptions multiples : les images paires et impaires d'une séquence vidéo sont codées dans deux flux séparés avec un codeur standard, et le décodeur peut reproduire le taux original d'images par seconde même s'il reçoit un seul flux : les techniques de CVD permettent de reconstruire l'image manquante. Le CVD permet également de gérer efficacement le compromis entre degré d'interactivité, occupation d'espace de stockage et besoins de bande passante lors du streaming interactif de vidéos multi-vues. Le CVD de la vidéo 3D comporte des problématiques liées au codage des cartes de profondeur à la détection et la gestion des occlusions, et à la fusion des estimations temporelles et inter-vues. Finalement je me suis aussi occupé de la relation entre qualité de l'estimation de l'image manquante et le débit de codage total associé. Même en dehors du cadre du CVD, la compression vidéo 3D, ou plus précisément, de la vidéo multi-vues (VMV) et de la vidéo multi-vues avec profondeur (MVP) est également un domaine majeur de mon activité de recherche. Je me suis intéressé aux méthodes d'estimation dense de disparité, au codage de cartes de profondeur et au codage par Don't Care Regions (DCR) c'est à dire, en considérant les erreurs sur l'image synthétisé avec la carte de profondeur plutôt que la carte de profondeur elle-même. Le dernier domaine de recherche concerne la distribution de la vidéo sur réseau. Dans le cas de réseau filaire, j'ai travaillé sur une approche network-aware pour la distribution coopérative de vidéo. Dans le cas de réseau sans fils, je me suis intéressé à un protocole cross-layer qui minimise le nombre de message échangé, tout en garantissant à tous les nœuds la réception de la vidéo. Ce protocole a ensuite été amélioré pour prendre en compte les compromis entre distorsion et congestion sur le réseau. Ce protocole peut être utilisé conjointement au codage réseau pour maximiser le throughput du réseau et pour améliorer la robustesse de la communication. Les techniques de codage réseau peuvent également être utilisées avec le codage à descriptions multiples pour ultérieurement améliorer la robustesse, et avec le codage de la vidéo multi-vues pour optimiser (en sens débit-distorsion) la planification d'envoi des paquets vidéo.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Allaert, Benjamin. "Analyse des expressions faciales dans un flux vidéo." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I021/document.

Повний текст джерела
Анотація:
De nos jours, dans des domaines tels que la sécurité et la santé, une forte demande consiste à pouvoir analyser le comportement des personnes en s'appuyant notamment sur l'analyse faciale. Dans cette thèse, nous explorons de nouvelles approches à destination de systèmes d’acquisition peu contraints. Plus spécifiquement, nous nous intéressons à l'analyse des expressions faciales en présence de variation d'intensité et de variations de pose du visage. Notre première contribution s'intéresse à la caractérisation précise des variations d'intensité des expressions faciales. Nous proposons un descripteur innovant appelé LMP qui s'appuie sur les propriétés physiques déformables du visage afin de conserver uniquement les directions principales du mouvement facial induit par les expressions. La particularité principale de notre travail est de pouvoir caractériser à la fois les micro et les macro expressions, en utilisant le même système d'analyse. Notre deuxième contribution concerne la prise en compte des variations de pose. Souvent, une étape de normalisation est employée afin d'obtenir une invariance aux transformations géométriques. Cependant, ces méthodes sont utilisées sans connaître leur impact sur les expressions faciales. Pour cela, nous proposons un système d'acquisition innovant appelé SNaP-2DFe. Ce système permet de capturer simultanément un visage dans un plan fixe et dans un plan mobile. Grâce à cela, nous fournissons une connaissance du visage à reconstruire malgré les occultations induites par les rotations de la tête. Nous montrons que les récentes méthodes de normalisation ne sont pas parfaitement adaptées pour l'analyse des expressions faciales
Facial expression recognition has attracted great interest over the past decade in wide application areas, such as human behavior analysis, e-health and marketing. In this thesis we explore a new approach to step forward towards in-the-wild expression recognition. Special attention has been paid to encode respectively small/large facial expression amplitudes, and to analyze facial expressions in presence of varying head pose. The first challenge addressed concerns varying facial expression amplitudes. We propose an innovative motion descriptor called LMP. This descriptor takes into account mechanical facial skin deformation properties. When extracting motion information from the face, the unified approach deals with inconsistencies and noise, caused by face characteristics. The main originality of our approach is a unified approach for both micro and macro expression recognition, with the same facial recognition framework. The second challenge addressed concerns important head pose variations. In facial expression analysis, the face registration step must ensure that minimal deformation appears. Registration techniques must be used with care in presence of unconstrained head pose as facial texture transformations apply. Hence, it is valuable to estimate the impact of alignment-related induced noise on the global recognition performance. For this, we propose a new database, called SNaP-2DFe, allowing to study the impact of head pose and intra-facial occlusions on expression recognition approaches. We prove that the usage of face registration approach does not seem adequate for preserving the features encoding facial expression deformations
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Etievent, Emmanuel. "Assistance à l'indexation vidéo par analyse du mouvement." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0015/these.pdf.

Повний текст джерела
Анотація:
Cette étude s'inscrit dans un projet multidisciplinaire sur le thème de l'indexation de séquences audiovisuelles, en particulier dans le cadre des archives de télévision. L'objectif était de permettre des recherches dans les bases de documents audiovisuels, comme les archives de télévision, en se fondant sur le contenu sémantique et visuel des vidéos. Dans ce cadre, nous proposons des outils semi-automatiques d'analyse d'image en vue d'assister la tâche du documentaliste chargé de l'indexation. Ainsi, nous avons expérimenté une méthode d'analyse du mouvement dans le but de simplifier la tâche d'indexation des objets présents dans la vidéo. Notre approche se fonde sur le suivi de primitives appelées points d'intérêt, à l'aide d'une méthode de type multi-hypothèses. Nous avons tout d'abord donné un aperçu de l'importance actuelle des bases audiovisuelles. Nous avons ensuite considéré le rôle que l'analyse d'image peut jouer dans le domaine de l'indexation selon le double aspect du contenu des vidéos, visuel et sémantique. Dans ce cadre, nous avons identifié quelles étaient les diverses applications de l'analyse du mouvement. Concernant notre approche, une expérimentation préalable nous a permis de vérifier la stabilité des points d'intérêt dans des vidéos compressées. L'expérimentation principale a porté simultanément sur le suivi et la détection des points d'intérêt. Nous avons évalué notre approche dans la perspective de l'assistance à l'indexation des objets, en utilisant des séquences réelles issues d'archives de télévision. Nous nous sommes intéressés d'une part à la question du paramétrage de l'algorithme de suivi, pour déterminer s'il pouvait être utilisé par des non spécialistes, et d'autre part à la répartition des points d'intérêt dans l'image, qui est apparue très importante pour pouvoir détecter les principaux objets présents. Enfin, nous avons considéré l'intégration des outils d'analyse d'image dans un système d'indexation complet, en particulier du point de vue de l'interaction avec le documentaliste.
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Marine, Cadoret. "Analyse factorielle de données de catégorisation. : Application aux données sensorielles." Rennes, Agrocampus Ouest, 2010. http://www.theses.fr/2010NSARG006.

Повний текст джерела
Анотація:
En analyse sensorielle, les approches holistiques, dans lesquelles les objets sont considérés comme un tout, sont de plus en plus utilisées pour recueillir des données. Leur intérêt vient d'une part du fait qu'elles permettent d'acquérir d'autres types d'informations que celles obtenues par les méthodes de profil classiques et d'autre part du fait qu'elles ne demandent aucune compétence particulière, ce qui les rend réalisable par tous types de sujets. La catégorisation (ou tri libre) dans laquelle la tâche demandée aux sujets est de fournir une partition des objets, fait partie de ces approches. Cette thèse se concentre dans une première partie sur les données de catégorisation. Après avoir vu que cette méthode de recueil de données est pertinente, nous nous intéressons au traitement statistique de ces données à travers la recherche de représentations euclidiennes. La méthodologie proposée qui consiste à utiliser des méthodes factorielles telles que l'Analyse des Correspondances Multiple (ACM) ou l'Analyse Factorielle Multiple (AFM) est également enrichie d'éléments de validité. Cette méthodologie est ensuite illustrée par l'analyse de deux jeux de données obtenus à partir de bières d'une part et de parfums d'autre part. La deuxième partie est consacrée à l'étude de deux modes de recueil de données liés à la catégorisation : le Napping® catégorisé et le tri hiérarchique. Pour ces deux recueils, nous nous intéressons également au traitement des données en adoptant une démarche similaire à celle utilisée pour les données de catégorisation. Enfin, la dernière partie est consacrée à l'implémentation dans le logiciel R de différentes fonctions permettant de traiter les trois types de données que sont les données issues de catégorisation, Napping® catégorisé et tri hiérarchique
In sensory analysis, holistic approaches in which objects are considered as a whole are increasingly used to collect data. Their interest comes on a one hand from their ability to acquire other types of information as the one obtained by traditional profiling methods and on the other hand from the fact they require no special skills, which makes them feasible by all subjects. Categorization (or free sorting), in which subjects are asked to provide a partition of objects, belongs to these approaches. The first part of this work focuses on categorization data. After seeing that this method of data collection is relevant, we focus on the statistical analysis of these data through the research of Euclidean representations. The proposed methodology which consists in using factorial methods such as Multiple Correspondence Analysis (MCA) or Multiple Factor Analysis (MFA) is also enriched with elements of validity. This methodology is then illustrated by the analysis of two data sets obtained from beers on a one hand and perfumes on the other hand. The second part is devoted to the study of two data collection methods related to categorization: sorted Napping® and hierarchical sorting. For both data collections, we are also interested in statistical analysis by adopting an approach similar to the one used for categorization data. The last part is devoted to the implementation in the R software of functions to analyze the three kinds of data that are categorization data, hierarchical sorting data and sorted Napping® data
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Derathé, Arthur. "Modélisation de la qualité de gestes chirurgicaux laparoscopiques." Thesis, Université Grenoble Alpes, 2020. https://thares.univ-grenoble-alpes.fr/2020GRALS021.pdf.

Повний текст джерела
Анотація:
La chirurgie laparoscopique est une pratique de plus en plus communément utilisée dans différentes spécialités chirurgicales, du fait des grands avantages pour le patient en termes de complications et de temps d’hospitalisation. En revanche, cette pratique est très différente de la chirurgie dite « ouverte », et présente ses propres difficultés, notamment dans la manipulation des instruments chirurgicaux, et la maîtrise de l’espace opératoire. Une meilleure compréhension du geste chirurgical en laparoscopie permettrait d’améliorer les outils utilisés pour la formation des jeunes chirurgiens.L’objectif de ce travail était de développer et valider une méthode visant à expliquer certains aspects clés de la pratique du geste chirurgical en termes cliniques, à partir d’une approche algorithmique. La compréhension du contexte clinique de cette thèse étant essentielle, un important travail d’explicitation et de formalisation des connaissances du chirurgien a été effectué. La deuxième partie de ce travail a consisté à développer une méthode algorithmique visant à prédire la qualité du geste chirurgical et le chirurgien pratiquant. Enfin à travers l’analyse de données décrivant la qualité et la pratique du geste chirurgical, nous avons étudié et validé la pertinence clinique de nouveaux éléments de connaissances cliniques.Nous avons travaillé sur une cohorte de 30 patients opérés par gastrectomie longitudinale au sein du département de chirurgie digestive du CHU de Grenoble. Cette technique chirurgicale est aujourd’hui communément utilisé pour traiter les patients atteints d’obésité morbide ou accompagné de comorbidités. Grâce à une réflexion commune avec notre partenaire chirurgien, nous avons pu formaliser les notions importantes de cette procédure chirurgicale. Pour chacune des chirurgies de la cohorte, nous avons effectué trois annotations distinctes : une annotation de la procédure et des actions des mains du chirurgien, une évaluation de la qualité d’exposition de la scène chirurgicale à chaque geste de dissection effectué par le chirurgien, et enfin la segmentation complète de l’image associée à chacun des gestes de dissection évalués. L’annotation de la procédure et la segmentation ont rendu possible l’extraction de métriques caractéristiques du geste et de la scène chirurgicale.Ensuite, nous avons développé un algorithme dont l’objectif était la prédiction de la qualité d’exposition à partir des métriques. Nous avons également développé un environnement dédié à l’optimisation des hyper-paramètres de notre algorithme pour maximiser les performances en prédiction. L’intérêt de cet environnement était notamment de gérer les spécificités de notre jeu de données.Dans un troisième temps, nous avons mis en place une méthode permettant de confronter l’analyse algorithmique quantitative de nos données à l’expertise clinique des chirurgiens ayant effectué les chirurgies. Pour ce faire, nous avons d’abord extrait les variables les plus importantes pour notre tâche de prédiction. Puis nous avons traduit l’information portée par ces variables sous forme d’énoncés présentant une signification clinique. Enfin nous avons extrait des échantillons vidéos représentatifs de chacun de ces énoncés. A partir de ces énoncés accompagnés de leurs échantillons vidéos, nous avons pu construire un questionnaire de validation, et le présenter à nos partenaires chirurgiens. Nous avons ainsi mené une validation clinique visant à recueillir leur avis quant à la pertinence clinique de notre approche.Nous avons donc proposé une méthode d'analyse quantitative explicitant le lien entre des observations visuelles et temporelles et des critères cliniques relatifs à des chirurgies laparoscopiques. Une meilleure compréhension de ces liens permettrait, à terme, de proposer des systèmes d'aide à la formation des chirurgiens sur cette pratique complexe.hick up
Sous cœlioscopie, le traitement chirurgical permet une meilleure prise en charge du patient, et sa pratique est de plus en plus fréquente en routine clinique. Cette pratique présente néanmoins ses difficultés propres pour le chirurgien, et nécessite une formation prolongée pendant l’internat et en post-internat. Pour faciliter cette formation, il est notamment possible de développer des outils d’évaluation et d’analyse de la pratique chirurgicale.Dans cette optique, l’objectif de ce travail de thèse est d’étudier la faisabilité d’une méthodologie proposant, à partir d’un traitement algorithmique, des analyses à portée clinique pertinente pour le chirurgien. J’ai donc traité les problèmes suivants : Il m’a fallu recueillir et annoter un jeu de données, implémenter un environnement d’apprentissage dédié à la prédiction d’un aspect spécifique de la pratique chirurgicale, et proposer une approche permettant de traduire mes résultats algorithmiques sous une forme pertinente pour le chirurgien. Dès que cela était possible, nous avons cherché à valider ces différentes étapes de la méthodologie
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Käs, Christian. "Analyse et indexation des flux vidéos dans le domaine compressé H. 264." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14012/document.

Повний текст джерела
Анотація:
Dans cet étude, nous nous concentrons sur l'analyse et l'indexation automatique des séquences vidéo. Cela permet une récupération et un accès efficace aux données. Les vidéos étant généralement stockées et transmises sous forme encodées, notre approche se base sur l'analyse dans le domaine compressé. Ce domaine présente un compromis raisonnable entre cout de calcul et qualité des résultats. Les informations les plus pertinentes encodées dans le flux H.264 sont les vecteurs de mouvement (VM). Ces vecteurs sont associés aux macroblocs dans les images prédites (de type B et P). Nous présentons diverses techniques non-supervisés pour déterminer le mouvement de la caméra, détecter et suivre les objets en mouvement dans les vidéos. Ces analyses sont basées sur les champs de VM. Nous démontrons le potentiel de l'analyse dans le domaine compressé avec plusieurs exemples d'applications, notamment la surveillance de trafic routier et la détection de copies
The amount of generated audiovisual content continues to increase. In this work, we concentrate on the challenge of automatic video analysis and indexing, which builds the basis for efficient information access and retrieval. Taking advantage of the fact that video in most cases is stored and transmitted in encoded form, we pursue the approach of compressed domain processing, which represents a reasonable trade-off between computational complexity and quality of analysis results. The most valuable information encoded in H.264 streams is the motion vectors (MVs) that are associated with macroblocks in temporally predicted frames of type B and P. We present a number of completely unsupervised techniques to determine the camera motion and to detect and track moving objects from the extracted MV fields. We furthermore present the potential of compressed domain processing through several example applications, including traffic surveillance and video copy detection
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Gomes, Da Silva Alzennyr. "Analyse des données évolutives : application aux données d'usage du Web." Phd thesis, Université Paris Dauphine - Paris IX, 2009. http://tel.archives-ouvertes.fr/tel-00445501.

Повний текст джерела
Анотація:
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Gomes, da Silva Alzennyr. "Analyse des données évolutives : Application aux données d'usage du Web." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090047.

Повний текст джерела
Анотація:
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme, commerce électronique et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée
Nowadays, more and more organizations are becoming reliant on the Internet. The Web has become one of the most widespread platforms for information change and retrieval. The growing number of traces left behind user transactions (e. G. : customer purchases, user sessions, etc. ) automatically increases the importance of usage data analysis. Indeed, the way in which a web site is visited can change over time. These changes can be related to some temporal factors (day of the week, seasonality, periods of special offer, etc. ). By consequence, the usage models must be continuously updated in order to reflect the current behaviour of the visitors. Such a task remains difficult when the temporal dimension is ignored or simply introduced into the data description as a numeric attribute. It is precisely on this challenge that the present thesis is focused. In order to deal with the problem of acquisition of real usage data, we propose a methodology for the automatic generation of artificial usage data over which one can control the occurrence of changes and thus, analyse the efficiency of a change detection system. Guided by tracks born of some exploratory analyzes, we propose a tilted window approach for detecting and following-up changes on evolving usage data. In order measure the level of changes, this approach applies two external evaluation indices based on the clustering extension. The proposed approach also characterizes the changes undergone by the usage groups (e. G. Appearance, disappearance, fusion and split) at each timestamp. Moreover, the refereed approach is totally independent of the clustering method used and is able to manage different kinds of data other than usage data. The effectiveness of this approach is evaluated on artificial data sets of different degrees of complexity and also on real data sets from different domains (academic, tourism, e-business and marketing)
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Aguirre, Francisco. "Trajectographie sous-marine par analyse de séquences d'images vidéo." Brest, 1990. http://www.theses.fr/1990BRES2009.

Повний текст джерела
Анотація:
Cette these decrit une methode pour calculer la trajectoire d'un sous-marin a partir d'images du fond marin fournies par une camera video. Notre approche pour identifier le mouvement dans la sequence est d'etablir des correspondances entre un ensemble de points, appeles traceurs, deux images successives grace a une transformee de hough generalisee. La detection des traceurs est faite avec un detecteur de contour par sobel. L'extraction des traceurs est accomplie en utilisant un seuil variable de binarisation, cette procedure retient 10% des points appartenant aux elements du contour. Cinq traceurs sont selectionnes. La transformee de hough generalisee thg est ensuite appliquee pour etablir la correspondance entre points de deux traceurs successifs. Le deplacement en translation est obtenu pour chaque traceur en detectant le pic de chaque matrice d'accumulation. De plus un facteur de confiance pour l'estimation est calcule qui depend de l'amplitude du pic et du nombre de points de contours utilise dans la thg et qui permet de ponderer l'estimation afin de la rendre plus robuste. Le filtre de kalman utilise permet de connaitre la trajectoire quand aucun traceur ne peut etre trouve dans l'image et de predire les parametres du mouvement ce qui peut etre utilise a la thg. Des simulations ont ete faites sur des sequences d'images reelles fournies par ifremer. La premiere est une sequence d'epave (250 images). La seconde est une sequence de sable et de roches (100 images). Dans les deux sequences la trajectoire a pu etre obtenue avec suffisamment de precision
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Decombas, Marc. "Compression vidéo très bas débit par analyse du contenu." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0067/document.

Повний текст джерела
Анотація:
L’objectif de cette thèse est de trouver de nouvelles méthodes de compression sémantique compatible avec un encodeur classique tel que H.264/AVC. . L’objectif principal est de maintenir la sémantique et non pas la qualité globale. Un débit cible de 300 kb/s a été fixé pour des applications de sécurité et de défense Pour cela une chaine complète de compression a dû être réalisée. Une étude et des contributions sur les modèles de saillance spatio-temporel ont été réalisées avec pour objectif d’extraire l’information pertinente. Pour réduire le débit, une méthode de redimensionnement dénommée «seam carving » a été combinée à un encodeur H.264/AVC. En outre, une métrique combinant les points SIFT et le SSIM a été réalisée afin de mesurer la qualité des objets sans être perturbée par les zones de moindre contenant la majorité des artefacts. Une base de données pouvant être utilisée pour des modèles de saillance mais aussi pour de la compression est proposée avec des masques binaires. Les différentes approches ont été validées par divers tests. Une extension de ces travaux pour des applications de résumé vidéo est proposée
The objective of this thesis is to find new methods for semantic video compatible with a traditional encoder like H.264/AVC. The main objective is to maintain the semantic and not the global quality. A target bitrate of 300 Kb/s has been fixed for defense and security applications. To do that, a complete chain of compression has been proposed. A study and new contributions on a spatio-temporal saliency model have been done to extract the important information in the scene. To reduce the bitrate, a resizing method named seam carving has been combined with the H.264/AVC encoder. Also, a metric combining SIFT points and SSIM has been created to measure the quality of objects without being disturbed by less important areas containing mostly artifacts. A database that can be used for testing the saliency model but also for video compression has been proposed, containing sequences with their manually extracted binary masks. All the different approaches have been thoroughly validated by different tests. An extension of this work on video summary application has also been proposed
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Liu, Ming. "Analyse et optimisation du système asiatique de diffusion terrestre et mobile de la télévision numérique." Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00662247.

Повний текст джерела
Анотація:
Cette thèse a pour objectif l'analyse du système de télévision numérique chinois (DTMB) et l'optimisation de sa fonction d'estimation de canal. Tout d'abord, une analyse approfondie de ce système est effectuée en comparaison du système DVB-T en termes de spécifications, d'efficacité spectrale et de performances. Ensuite, la fonction d'estimation de canal basée sur la séquence pseudo-aléatoire du système est étudiée dans les domaines temporel et fréquentiel, et plusieurs améliorations sont apportées aux méthodes typiques afin de notamment gérer les canaux très dispersifs en temps. Enfin, de nouveaux procédés itératifs aidés par les données et peu complexes sont proposés pour raffiner les estimés de canal. Les fonctions de décodage de canal et d'entrelacement sont exclues de la boucle et des fonctions de filtrage temps/fréquence sont étudiées pour fiabiliser les estimations. Ces nouveaux algorithmes démontrent leur efficacité par rapport aux méthodes courantes de la littérature.
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Weber, Jonathan. "Segmentation morphologique interactive pour la fouille de séquences vidéo." Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00643585.

Повний текст джерела
Анотація:
Nous observons actuellement une augmentation importante du volume de données vidéo disponibles. L'utilisation efficace de cette masse de données nécessite d'en extraire de l'information. Dans cette thèse, nous proposons d'utiliser les méthodes de fouille de données et de les appliquer sur les objets-vidéo d'intérêt afin de combler le fossé sémantique en impliquant l'utilisateur dans le processus. Extraire ces objets à partir des pixels nécessite de manipuler un grand volume de données, induisant un traitement coûteux (en temps et en mémoire) peu compatible avec une implication interactive de l'utilisateur. Ainsi, nous proposons d'appliquer le processus interactif de segmentation sur une réduction des données, les zones quasi-plates. N'étant définies que pour les images fixes, nous proposons une extension des zones quasi-plates aux séquences vidéo ainsi qu'une nouvelle méthode de filtrage. La segmentation est effectuée interactivement par l'utilisateur qui dessine des marqueurs sur les objets d'intérêt afin de guider la fusion des zones quasi-plates composant ces objets. Elle est effectuée sur un graphe d'adjacence de régions représentant les zones quasi-plates spatiotemporelles ainsi que leurs relations d'adjacence. L'utilisation de cette structure assure un faible temps de calcul. Les objets-vidéo obtenus sont ensuite utilisés dans un processus de fouille interactif guidé par des descripteurs extraits automatiquement de la video et des informations données par l'utilisateur. La forte interactivité avec l'utilisateur, à la fois lors de l'étape de segmentation puis lors de l'étape de fouille favorise la synergie entre données numériques et interprétation humaine.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Périnel, Emmanuel. "Segmentation en analyse de données symboliques : le cas de données probabilistes." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090079.

Повний текст джерела
Анотація:
Les méthodes de segmentation, ou d'arbre de décision, sont des techniques permettant d'expliquer une partition à priori d'une population d'objets décrite par des variables explicatives. Elles ont connu ces dernières années un net regain d'intérêt, aussi bien dans le domaine de la statistique que dans celui de l'apprentissage automatique en intelligence artificielle. Toutefois, ces méthodes sont souvent reconnues sensibles à une information dite imparfaite telle que, des erreurs de mesures, des imprécisions ou incertitudes, des jugements experts, ce phénomène résulte principalement du manque de flexibilité des langages de représentations employés pour décrire les objets étudiés, d'une part, et de la rigidité même du processus d'apprentissage (partitionnement récursif), d'autre part. Dans ce travail, nous proposons une méthodologie générale de construction d'arbre de décision appliquée à des données de nature probabiliste. Celles-ci sont représentées par des assertions probabilistes dans le contexte de l'analyse des données symboliques. Son langage de description, en offrant une représentation plus riche et complexe des objets étudiés, nous permet d'introduire plus de flexibilité dans le processus de segmentation. Le développement de l'arbre repose sur un critère de découpage basé sur la notion générale d'information ou de vraisemblance. La nature imprécise ou incertaine des données conduit, de façon naturelle, à la notion d'appartenance probabiliste des objets aux différents nœuds de l'arbre. La construction de l'arbre se présente alors sous la forme d'une succession de problèmes de mélange de lois de probabilité que l'on résout à l'aide d'un algorithme de type EM (espérance / maximisation). Nous faisons également le lien, dans un cadre probabiliste, entre la notion d'appartenance probabiliste précédente et celle consécutive à l'emploi d'une coupure souple ou floue. L'approche est illustrée sur un jeu de données médicales relatives à l'utilisation de marqueurs biologiques sur des types cellulaires, et dans l'objectif de caractériser le concept de système neuroendocrinien.
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Sibony, Eric. "Analyse mustirésolution de données de classements." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0036/document.

Повний текст джерела
Анотація:
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs
This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Bouabdallah, Amine. "Contributions à la fiabilisation du transport de la vidéo." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2010. http://tel.archives-ouvertes.fr/tel-01068061.

Повний текст джерела
Анотація:
Les applications vidéo rencontrent un franc succes dans les nouveaux réseaux de communication. Leur utilisation dans des contextes de plus en plus difficiles : réseaux de paquets non fiables (internet), diffusion vers des récepteurs mobiles via des canaux sans fil, ont requis le développement de nouvelles solutions plus efficaces et mieux adaptées. Les travaux de cette thèse sont une tentative de réponse à ces besoins. Les solutions qui ont été développées peuvent être regroupées en deux ensembles : des solutions issues de travaux nouveaux développés dans un contexte d'utilisation ordinaire et des solutions issues de l'amélioration et l'optimisation de travaux existants développés pour des contextes extrêmes.Le canal de Bernoulli a représenté pour nous le cadre de travail pour le développement des nouvelles solutions. Ainsi pour les applications de diffusion vidéo, nous avons ciblé la protection inégale et avons développé un mécanisme à protection inégale des données vidéo (DA-UEP). Ce mécanisme se situe à proximité de la source vidéo et adapte le niveau de protection des données à leur degré d'importance. Son originalité réside dans sa manière d'intégrer la particularité d'interdépendances des données vidéo dans le générateur de la protection inégale. Dans un travail d'approfondissement et d'exploration, nous avons combiné la protection inégale des couches hautes produite par DA-UEP avec de la protection inégale de la couche physique produite par de la modulation hiérarchique. L'optimisation de ce système a permis d'obtenir des gains significatifs et a validé le bien fondé de cette piste de recherche. Pour les communications vidéo interactives, nous avons évalué les performances du mécanisme Tetrys pour les communications vidéo. Ce mécanisme de codage à la volée avec intégration des acquittements a permis d'obtenir des résultats à la hauteur de ceux obtenus par la protection inégale dans un cadre de diffusion. Ces résultats ont aussi permis de mettre en avant tout le potentiel de ce mécanisme.Pour les canaux satellites mobiles, nous nous sommes intéressés à la diffusion vidéo vers des récepteurs mobiles. Dans ce cadre, nous avons évalué des mécanismes tels que les codes correcteurs d'erreurs, les entrelaceurs de la couche physique et de la couche liaison et les codes à effacement de niveau intermédiaire. Nous avons travaillé sur un canal réaliste en prenant en compte les contraintes pratiques telles que les temps de zapping et la vitesse de déplacement des récepteurs. Nous avons révélé les relations qui existent entre vitesse de déplacement, étalement spatial et qualité de réception. Ainsi, nous avons pu mettre en évidence les combinaisons de mécanismes qui permettent d'obtenir les meilleurs résultats en termes de fiabilité et de temps de zapping dans ce contexte particulier.
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Cammas, Nathalie. "Codage vidéo scalable par maillages et ondelettes t+2D." Rennes 1, 2004. https://hal.archives-ouvertes.fr/tel-01131881.

Повний текст джерела
Анотація:
Cette thèse s'incrit dans le cadre de la transmission de données vidéo sur réseaux. L'objectif de notre étude est d'étudier des technologies innovantes permettant d'offrir un codage vidéo hautement scalable et compétitif en terme de compression avec les standards de codage vidéo actuels non scalables. Pour cela, nous utilisons un schéma de codage vidéo basé sur une approche analyse-synthèse qui utilise une représentation du mouvement par maillages et un codage par ondelettes t+2D. La première partie de notre étude s'intéresse à l'exploitation du mouvement dans la transformée en ondelettes temporelles et à la définition des trajectoires de mouvement le long desquelles est appliquée la transformation temporelle. La deuxième partie de notre étude propose une amélioration de ce schéma en gérant le problème des occlusions engendrés par les discontinuités du mouvement.
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Ramadan, Wassim. "Amélioration de la transmission de contenus vidéo et de données dans les réseaux sans-fil." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00802909.

Повний текст джерела
Анотація:
Cette thèse traite de l'amélioration du transfert de données, d'une part sur les réseaux sans-fils et d'autre part pour des données continues telles que la vidéo. Pour améliorer les transmissions sur les réseaux sans-fils nous nous sommes intéressés au contrôle de congestion des protocoles de transport mais nous avons également proposé une méthode pratique d'adaptation de la vidéo aux conditions du réseau.Cette thèse contient donc deux volets. La première porte sur la différenciation de pertes entre les pertes de congestion et les pertes sur le réseau sans fil. Il est connu que lors d'une perte, les protocoles de transport actuels réduisent le débit (par deux par exemple). Or, pour les pertes sans fil, cela n'a pas d'intérêt. Pour différencier ces pertes sur l'émetteur des données, nous proposons une méthode originale qui utilise à la fois ECN (Explicit Congestion Notification) et le changement sur le RTT du paquet qui suit la perte. La seconde propose une méthode originale d'adaptation vidéo au niveau de la couche application sur l'émetteur. Avec l'arrivée des vidéos à bitrate élevés (HD, 3D) et l'augmentation constante mais irrégulière des bandes passantes réseau, la qualité vidéo à l'utilisateur reste à la traîne : elle est non-optimale (bitrate beaucoup plus petit ou plus grand que le débit disponible) et non adaptable (aux conditions dynamiques du réseau). Nous proposons une méthode très simple à implémenter, puisqu'elle ne requiert qu'une modification côté émetteur au niveau de la couche application. Elle adapte en permanence le bitrate de la vidéo aux conditions du réseau, autrement dit elle fait un contrôle de congestion sur l'émetteur. La visioconférence est un cas d'application idéal. Cette méthode fonctionne au-dessus de tout protocole de transport avec contrôle de congestion (TCP, DCCP), ce qui lui confère aussi la propriété de TCP-friendliness.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Goavec-Merou, Gwenhael. "Générateur de coprocesseur pour le traitement de données en flux (vidéo ou similaire) sur FPGA." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2056/document.

Повний текст джерела
Анотація:
L’utilisation de matrice de portes logiques reconfigurables (FPGA) est une des seules solutionspour traiter des flux de plusieurs 100 MÉchantillons/seconde en temps-réel. Toutefois, ce typede composant présente une grande difficulté de mise en oeuvre : au delà d’un type langage spécifique,c’est tout un environnement matériel et une certaine expérience qui sont requis pourobtenir les traitements les plus efficaces. Afin de contourner cette difficulté, de nombreux travauxont été réalisés dans le but de proposer des solutions qui, partant d’un code écrit dans unlangage de haut-niveau, vont produire un code dans un langage dédié aux FPGAs. Nos travaux,suivant l’approche d’assemblage de blocs et en suivant la méthode du skeleton, ont visé à mettreen place un logiciel, nommé CoGen, permettant, à partir de codes déjà développés et validés,de construire des chaînes de traitements en tenant compte des caractéristiques du FPGA cible,du débit entrant et sortant de chaque bloc pour garantir l’obtention d’une solution la plus adaptéepossible aux besoins et contraintes. Les implémentations des blocs de traitements sont soitgénérés automatiquement soit manuellement. Les entrées-sorties de chaque bloc doivent respecterune norme pour être exploitable dans l’outil. Le développeur doit fournir une descriptionconcernant les ressources nécessaires et les limitations du débit de données pouvant être traitées.CoGen fournit à l’utilisateur moins expérimenté une méthode d’assemblage de ces blocsgarantissant le synchronisme et cohérence des flux de données ainsi que la capacité à synthétiserle code sur les ressources matérielles accessibles. Cette méthodologie de travail est appliquéeà des traitements sur des flux vidéos (seuillage, détection de contours et analyse des modespropres d’un diapason) et sur des flux radio-fréquences (interrogation d’un capteur sans-fils parméthode RADAR, réception d’un flux modulé en fréquence, et finalement implémentation deblocs de bases pour déporter le maximum de traitements en numérique)
Using Field Programmable Gate Arrays (FPGA) is one of the very few solution for real time processingdata flows of several hundreds of Msamples/second. However, using such componentsis technically challenging beyond the need to become familiar with a new kind of dedicateddescription language and ways of describing algorithms, understanding the hardware behaviouris mandatory for implementing efficient processing solutions. In order to circumvent these difficulties,past researches have focused on providing solutions which, starting from a description ofan algorithm in a high-abstraction level language, generetes a description appropriate for FPGAconfiguration. Our contribution, following the strategy of block assembly based on the skeletonmethod, aimed at providing a software environment called CoGen for assembling various implementationsof readily available and validated processing blocks. The resulting processing chainis optimized by including FPGA hardware characteristics, and input and output bandwidths ofeach block in order to provide solution fitting best the requirements and constraints. Each processingblock implementation is either generated automatically or manually, but must complywith some constraints in order to be usable by our tool. In addition, each block developer mustprovide a standardized description of the block including required resources and data processingbandwidth limitations. CoGen then provides to the less experienced user the means to assemblethese blocks ensuring synchronism and consistency of data flow as well as the ability to synthesizethe processing chain in the available hardware resources. This working method has beenapplied to video data flow processing (threshold, contour detection and tuning fork eigenmodesanalysis) and on radiofrequency data flow (wireless interrogation of sensors through a RADARsystem, software processing of a frequency modulated stream, software defined radio)
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Aaron, Catherine. "Connexité et analyse des données non linéaires." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2005. http://tel.archives-ouvertes.fr/tel-00308495.

Повний текст джерела
Анотація:
On s'intéresse dans cette thèse, à la mise en évidence des propriétés de connexité dans les données à analyser. Dans le cas de l'analyse des données ”classique” (i.e. linéaire), comme les surfaces de séparation des classes sont des hyperplans (des droites en dimension 2), la notion topologique sous-jacente est presque toujours la convexité. Au contraire dans tout ce qui suit, on cherche en priorité à segmenter les données en sous-ensembles (classes) connexes.
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Darlay, Julien. "Analyse combinatoire de données : structures et optimisation." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00683651.

Повний текст джерела
Анотація:
Cette thèse porte sur des problèmes d'exploration de données avec le point de vue de la recherche opérationnelle. L'exploration de données consiste en l'apprentissage de nouvelles connaissances à partir d'observations contenues dans une base de données. La nature des problèmes rencontrés dans ce domaine est proche de celle des problèmes de la recherche opérationnelle: grandes instances, objectifs complexes et difficulté algorithmique. L'exploration de données peut aussi se modéliser comme un problème d'optimisation avec un objectif partiellement connu. Cette thèse se divise en deux parties. La première est une introduction à l'exploration de données. Elle présente l'Analyse Combinatoire de Données (ACD), une méthode d'exploration de données issue de l'optimisation discrète. Cette méthode est appliquée à des données médicales originales et une extension aux problèmes d'analyse de temps de survie est proposée. L'analyse de temps de survie consiste à modéliser le temps avant un événement (typiquement un décès ou une rechute). Les heuristiques proposées utilisent des techniques classiques de recherche opérationnelle telles que la programmation linéaire en nombres entiers, la décomposition de problème, des algorithmes gloutons. La seconde partie est plus théorique et s'intéresse à deux problèmes combinatoires rencontrés dans le domaine de l'exploration de données. Le premier est un problème de partitionnement de graphes en sous-graphes denses pour l'apprentissage non supervisé. Nous montrons la complexité algorithmique de ce problème et nous proposons un algorithme polynomial basé sur la programmation dynamique lorsque le graphe est un arbre. Cet algorithme repose sur des résultats de la théorie des couplages. Le second problème est une généralisation des problèmes de couverture par les tests pour la sélection d'attributs. Les lignes d'une matrice sont coloriées en deux couleurs. L'objectif est de trouver un sous-ensemble minimum de colonnes tel que toute paire de lignes avec des couleurs différentes restent distinctes lorsque la matrice est restreinte au sous-ensemble de colonnes. Nous montrons des résultats de complexité ainsi que des bornes serrées sur la taille des solutions optimales pour différentes structures de matrices.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Operto, Grégory. "Analyse structurelle surfacique de données fonctionnelles cétrébrales." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30060.

Повний текст джерела
Анотація:
Les images fonctionnelles par résonance magnétique contiennent une mesure de l'activité cérébrale en chaque point du cerveau. Si de nombreuses méthodes existent, l'analyse automatique de ces données reste un problème ouvert. Notamment, la très grande majorité des méthodes considère ces données de façon volumique, dans le domaine 3D d'acquisition. Pourtant, l'essentiel de l'activité a lieu dans le cortex, qui peut être considéré comme une surface. Considérer les données sur la surface corticale présente beaucoup d'avantages : d'une part sa géométrie peut être prise en compte dans toutes les étapes de traitement, d'autre part la prise en compte de l'ensemble du volume réduit le pouvoir de détection des tests statistiques généralement employés. Cette thèse propose ainsi une extension du champ d'application des méthodes volumiques vers le domaine surfacique en abordant la projection des données sur la surface, l'analyse multi-sujets ainsi que l'estimation de la validité des résultats
Functional data acquired by magnetic resonance contain a measure of the activity in every location of the brain. If many methods exist, the automatic analysis of these data remains an open problem. In particular, the huge majority of these methods consider these data in a volume-based fashion, in the 3D acquisition space. However, most of the activity is generated within the cortex, which can be considered as a surface. Considering the data on the cortical surface has many advantages : on one hand, its geometry can be taken into account in every processing step, on the other hand considering the whole volume reduces the detection power of usually employed statistical tests. This thesis hence proposes an extension of the application field of volume-based methods to the surface-based domain by adressing problems such as projecting data onto the surface, performing surface-based multi-subjects analysis, and estimating results validity
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Le, Béchec Antony. "Gestion, analyse et intégration des données transcriptomiques." Rennes 1, 2007. http://www.theses.fr/2007REN1S051.

Повний текст джерела
Анотація:
Dans le cadre de l'étude des mécanismes moléculaires impliqués dans les processus biologiques liés aux pathologies, la transcriptomique permet d’étudier l’expression de plusieurs milliers de gènes en une seule expérience. Les standards internationaux permettent actuellement de gérer la grande quantité de données générées par cette technologie et de nombreux algorithmes permettent le traitement et l’analyse des données d’expression. Le grand défi d’aujourd’hui réside dans l’interprétation des données, notamment par l’intégration de connaissances biologiques supplémentaires permettant la création d’un contexte d’étude aidant à la compréhension des mécanismes biologiques. Afin de répondre aux besoins liés à l’exploitation de ces données transcriptomiques, un environnement complet et évolutif a été développé, M@IA (Micro@rray Integrated Application), permettant de gérer les expériences de puces à ADN mais également traiter et analyser les données d’expression. Une méthode de biologie intégrative combinant de multiples sources de données a été conçue pour exploiter des listes de gènes différentiellement exprimés par l’interprétation de réseaux de gènes représentés sous forme de graphes d’interaction. Egalement, une méthode de méta-analyse de données d’expression de gènes issues de la bibliographie a permis de sélectionner et combiner des études similaires associées à la progression tumorale du foie. En conclusion, ces travaux s’intègrent totalement à l’actuel développement de la biologie intégrative, indispensable à la résolution des mécanismes physiopathologiques
Aiming at a better understanding of diseases, transcriptomic approaches allow the analysis of several thousands of genes in a single experiment. To date, international standard initiatives have allowed the utilization of large quantity of data generated using transcriptomic approaches by the whole scientific community, and a large number of algorithms are available to process and analyze the data sets. However, the major challenge remaining to tackle is now to provide biological interpretations to these large sets of data. In particular, their integration with additional biological knowledge would certainly lead to an improved understanding of complex biological mechanisms. In my thesis work, I have developed a novel and evolutive environment for the management and analysis of transcriptomic data. Micro@rray Integrated Application (M@IA) allows for management, processing and analysis of large scale expression data sets. In addition, I elaborated a computational method to combine multiple data sources and represent differentially expressed gene networks as interaction graphs. Finally, I used a meta-analysis of gene expression data extracted from the literature to select and combine similar studies associated with the progression of liver cancer. In conclusion, this work provides a novel tool and original analytical methodologies thus contributing to the emerging field of integrative biology and indispensable for a better understanding of complex pathophysiological processes
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії