To see the other types of publications on this topic, follow the link: Reconnaissance de gestes en temps réel.

Dissertations / Theses on the topic 'Reconnaissance de gestes en temps réel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Reconnaissance de gestes en temps réel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Barnachon, Mathieu. "Reconnaissance d'actions en temps réel à partir d'exemples." Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-00820113.

Full text
Abstract:
Le développement de l'image numérique et des outils associés ces dernières années a entraîné une évolution dans les attentes des utilisateurs et des changements dans leurs habitudes de travail. Cette évolution apporte de nouvelles possibilités d'utilisation ouvrant l'usage à un public très large, allant des interactions gestuelles aux jeux vidéo, en passant par le suivi d'activités à domicile, la surveillance, ... Pour qu'elles puissent être performantes et attractives, ces nouvelles technologies nécessitent la mise en œuvre d'outils de reconnaissance et d'interprétation des gestes humains, par des méthodes efficaces, rapides et ouvertes. Actuellement, les méthodes proposées en reconnaissance d'actions peuvent être regroupées en trois catégories principales : les approches de type apprentissage automatique (Machine Learning), les modélisations stochastique ou encore les méthodes utilisant le paradigme des examplars. Les travaux développés dans cette thèse se rattachent à cette dernière catégorie : " méthodes à base d'exemples " (examplar-based) où l'apprentissage peut être fait à partir de quelques instances représentatives. Nous avons fait le choix d'une démarche qui limite le recours à des grandes bases de données, et qui permet la reconnaissance d'action de façon anticipée, c'est-à-dire avant que cette dernière ne soit finie. Pour ce faire, nos travaux ont été menés selon deux visions complémentaires, avec le soucis constant d'aboutir à des traitements qui soient temps réel, précis et ouverts à la reconnaissance de nouvelles actions
APA, Harvard, Vancouver, ISO, and other styles
2

Coupeté, Eva. "Reconnaissance de gestes et actions pour la collaboration homme-robot sur chaîne de montage." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM062/document.

Full text
Abstract:
Les robots collaboratifs sont de plus en plus présents dans nos vies quotidiennes. En milieu industriel, ils sont une solution privilégiée pour rendre les chaînes de montage plus flexibles, rentables et diminuer la pénibilité du travail des opérateurs. Pour permettre une collaboration fluide et efficace, les robots doivent être capables de comprendre leur environnement, en particulier les actions humaines.Dans cette optique, nous avons décidé d’étudier la reconnaissance de gestes techniques afin que le robot puisse se synchroniser avec l’opérateur, adapter son allure et comprendre si quelque chose d’inattendu survient.Pour cela, nous avons considéré deux cas d’étude, un cas de co-présence et un cas de collaboration, tous les deux inspirés de cas existant sur les chaînes de montage automobiles.Dans un premier temps, pour le cas de co-présence, nous avons étudié la faisabilité de la reconnaissance des gestes en utilisant des capteurs inertiels. Nos très bons résultats (96% de reconnaissances correctes de gestes isolés avec un opérateur) nous ont encouragés à poursuivre dans cette voie.Sur le cas de collaboration, nous avons privilégié l’utilisation de capteurs non-intrusifs pour minimiser la gêne des opérateurs, en l’occurrence une caméra de profondeur positionnée avec une vue de dessus pour limiter les possibles occultations.Nous proposons un algorithme de suivi des mains en calculant les distances géodésiques entre les points du haut du corps et le haut de la tête. Nous concevons également et évaluons un système de reconnaissance de gestes basé sur des Chaînes de Markov Cachées (HMM) discrètes et prenant en entrée les positions des mains. Nous présentons de plus une méthode pour adapter notre système de reconnaissance à un nouvel opérateur et nous utilisons des capteurs inertiels sur les outils pour affiner nos résultats. Nous obtenons le très bon résultat de 90% de reconnaissances correctes en temps réel pour 13 opérateurs.Finalement, nous formalisons et détaillons une méthodologie complète pour réaliser une reconnaissance de gestes techniques sur les chaînes de montage
Collaborative robots are becoming more and more present in our everyday life. In particular, within the industrial environment, they emerge as one of the preferred solution to make assembly line in factories more flexible, cost-effective and to reduce the hardship of the operators’ work. However, to enable a smooth and efficient collaboration, robots should be able to understand their environment and in particular the actions of the humans around them.With this aim in mind, we decided to study technical gestures recognition. Specifically, we want the robot to be able to synchronize, adapt its speed and understand if something unexpected arises.We considered two use-cases, one dealing with copresence, the other with collaboration. They are both inspired by existing task on automotive assembly lines.First, for the co-presence use case, we evaluated the feasibility of technical gestures recognition using inertial sensors. We obtained a very good result (96% of correct recognition with one operator) which encouraged us to follow this idea.On the collaborative use-case, we decided to focus on non-intrusive sensors to minimize the disturbance for the operators and we chose to use a depth-camera. We filmed the operators with a top view to prevent most of the potential occultations.We introduce an algorithm that tracks the operator’s hands by calculating the geodesic distances between the points of the upper body and the top of the head.We also design and evaluate an approach based on discrete Hidden Markov Models (HMM) taking the hand positions as an input to recognize technical gestures. We propose a method to adapt our system to new operators and we embedded inertial sensors on tools to refine our results. We obtain the very good result of 90% of correct recognition in real time for 13 operators.Finally, we formalize and detail a complete methodology to realize technical gestures recognition on assembly lines
APA, Harvard, Vancouver, ISO, and other styles
3

Cassel, Ryan. "Analyse du mouvement humain par un système de vision : une approche globale pour l'analyse et la reconnaissance en temps réel de mouvements acrobatiques." Paris 11, 2005. http://www.theses.fr/2005PA112282.

Full text
Abstract:
L'acrobatie est un domaine sportif exigeant en analyse et en reconnaissance de gestes. Elle est constituée de rotations du corps dans l'espace faisant intervenir deux axes distincts, rendant les mouvements complexes et rapides. On retrouve l'acrobatie dans de nombreuses disciplines comme la gymnastique, le trampoline, le ski, le plongeon. . . Les dispositifs de capture du mouvement à base de marqueurs et de multiples caméras pour analyser le mouvement pose des problèmes à l'entraînement et sont inexploitable en compétition. On peut exploiter une caméra mais la complexité du mouvement rend difficile l'utilisation des approches classiques de vision par machine, sans marqueur, pour effectuer cette analyse. Notre approche propose un système monoculaire d'analyse et de reconnaissance de mouvements acrobatiques en temps réel en se basant sur des mesures globales. Les informations liées aux mouvements de l'acrobate, sans identifier les parties du corps, constituent nos mesures globales. Ainsi, nous avons développé un modèle de mouvement basé sur les caractéristiques de l'acrobatie et sur ces mesures globales extraites de séquences d'images. D'autre part, nous présentons un système capable d'analyser le mouvement acrobatique pour l'amélioration de la performance sportive, ou de reconnaître le niveau de pratique d'un acrobate. Les analyses et la reconnaissance se basent sur les mesures du mouvement provenant de l'extraction et du suivi de l'acrobate
Acrobatics is an area of athletics that is exacting in terms of gesture analysis and recognition. It comprises body rotations along two separate axes that result in fast and complex movements. Acrobatics intervene in multiple disciplines such as gymnastics, trampoline, ski, and diving. Devices for capturing movements based on markers and multiple cameras for movement analysis are problematic to implement in the context of training and are not exploitable in competition. A single camera may be used but the movement's complexity makes it very difficult to use traditional machine vision techniques without markers to carry out the analysis. Our approach offers a monocular system of analysis and recognition of acrobatic movements in real time, based on global measurements. Information relating to the acrobat's movements-without identifying specific body parts-constitutes our global measurements. Thus, we have developed movement models based on acrobatics characteristics and on global measurements extracted from image sequences. Moreover, we present a system capable of analyzing acrobatic movements with a view toward improvements of athletic performance, or for identifying the performance level of an acrobat. Analysis and recognition are based on measures of the movements identified by extracting and tracking the acrobat
APA, Harvard, Vancouver, ISO, and other styles
4

Granger, Nicolas. "Deep-learning for high dimensional sequential observations : application to continuous gesture recognition." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL002/document.

Full text
Abstract:
Cette thèse a pour but de contribuer à améliorer les interfaces Homme-machine. En particulier, nos appareils devraient répliquer notre capacité à traiter continûment des flux d'information. Cependant, le domaine de l’apprentissage statistique dédié à la reconnaissance de séries temporelles pose de multiples défis. Nos travaux utilisent la reconnaissance de gestes comme exemple applicatif, ces données offrent un mélange complexe de poses corporelles et de mouvements, encodées sous des modalités très variées. La première partie de notre travail compare deux modèles temporels de l’état de l’art pour la reconnaissance continue sur des séquences, plus précisément l’hybride réseau de neurones -- modèle de Markov caché (NN-HMM) et les réseaux de neurones récurrents bidirectionnels (BD-RNN) avec des unités commandées par des portes. Pour ce faire, nous avons implémenté un environnement de test partagé qui est plus favorable à une étude comparative équitable. Nous proposons des ajustements sur les fonctions de coût utilisées pour entraîner les réseaux de neurones et sur les expressions du modèle hybride afin de gérer un large déséquilibre des classes de notre base d’apprentissage. Bien que les publications récentes semblent privilégier l’architecture BD-RNN, nous démontrons que l’hybride NN-HMM demeure compétitif. Cependant, ce dernier est plus dépendant de son modèle d'entrées pour modéliser les phénomènes temporels à court terme. Enfin, nous montrons que les facteurs de variations appris sur les entrées par les deux modèles sont inter-compatibles. Dans un second temps, nous présentons une étude de l'apprentissage dit «en un coup» appliqué aux gestes. Ce paradigme d'apprentissage gagne en attention mais demeure peu abordé dans le cas de séries temporelles. Nous proposons une architecture construite autour d’un réseau de neurones bidirectionnel. Son efficacité est démontrée par la reconnaissance de gestes isolés issus d’un dictionnaire de langage des signes. À partir de ce modèle de référence, nous proposons de multiples améliorations inspirées par des travaux dans des domaines connexes, et nous étudions les avantages ou inconvénients de chacun
This thesis aims to improve the intuitiveness of human-computer interfaces. In particular, machines should try to replicate human's ability to process streams of information continuously. However, the sub-domain of Machine Learning dedicated to recognition on time series remains barred by numerous challenges. Our studies use gesture recognition as an exemplar application, gestures intermix static body poses and movements in a complex manner using widely different modalities. The first part of our work compares two state-of-the-art temporal models for continuous sequence recognition, namely Hybrid Neural Network--Hidden Markov Models (NN-HMM) and Bidirectional Recurrent Neural Networks (BDRNN) with gated units. To do so, we reimplemented the two within a shared test-bed which is more amenable to a fair comparative work. We propose adjustments to Neural Network training losses and the Hybrid NN-HMM expressions to accommodate for highly imbalanced data classes. Although recent publications tend to prefer BDRNNs, we demonstrate that Hybrid NN-HMM remain competitive. However, the latter rely significantly on their input layers to model short-term patterns. Finally, we show that input representations learned via both approaches are largely inter-compatible. The second part of our work studies one-shot learning, which has received relatively little attention so far, in particular for sequential inputs such as gestures. We propose a model built around a Bidirectional Recurrent Neural Network. Its effectiveness is demonstrated on the recognition of isolated gestures from a sign language lexicon. We propose several improvements over this baseline by drawing inspiration from related works and evaluate their performances, exhibiting different advantages and disadvantages for each
APA, Harvard, Vancouver, ISO, and other styles
5

Poupet, Victor. "Automates cellulaires : temps réel et voisinages." Lyon, École normale supérieure (sciences), 2006. http://www.theses.fr/2006ENSL0390.

Full text
Abstract:
Dans cette thèse nous nous sommes intéressés à l'importance du choix du voisinage sur les capacités algorithmiques des automates cellulaires. Nous avons travaillé en dimension quelconque en nous concentrant sur les classes de complexité correspondant au temps réel (plus petit temps nécessaire pour que l'automate ait lu le mot en entrée) et temps réel plus une constante. En effet il est connu que les voisinages sont équivalents en temps linéaire et il est donc nécessaire de considérer des temps inférieurs. Nous avons obtenu plusieurs résultats d'équivalences de voisinages au sens du temps réel (des classes de voisinages tels que les automates fonctionnant sur ces voisinages reconnaissent les mêmes langages) et des résultats d'accélérations linéaires ou constantes selon les voisinages
In this thesis we have worked on the impact of the choice of a neighborhood on the algorithmic abilities of cellular automata. We have specifically studied the lower complexity classes such as the real time (that corresponds to the shortest time necessary for a cellular automaton to read all the letters of the input word) and the real time plus a constant. It is indeed known that neighborhoods are equivalent in linear time and it is therefore necessary to consider shorter times. We have obtained neighborhood equivalence results with respect to the real time (neighborhood classes such that cellular automata working on any of those neighborhoods can recognize the same languages in real time) and linear or constant speed-up theorems for many classes of neighborhoods
APA, Harvard, Vancouver, ISO, and other styles
6

Grandjean, Anaël. "Reconnaissance de langage en temps réel sur automates cellulaires 2D." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT331/document.

Full text
Abstract:
Les automates cellulaires sont un modèle de calcul massivement parallèle introduit dans les années 50. De nombreuses variantes peuvent être considérées par exemple en faisant varier la dimension de l’espace de calcul, ou les possibilités de communication entre les différentes cellules. En effet, chaque cellule ne peut communiquer qu’avec un nombre fini d’autres cellules que l’on appelle son voisinage. Mes travaux s’intéressent principalement à l’impact du choix du voisinage sur les capacités algorithmiques de ce modèle. Cet impact étant bien compris en une dimension, mes travaux portent majoritairement sur les automates cellulaires bidimensionnels. J’ai tout d’abord essayé de généraliser des propriétés classiques de certaines classes de complexité au plus de voisinages possibles. On arrive notamment à un théorème d’accélération linéaire valable pour tous les voisinages. J’ai ensuite étudié les différences entre les classes de faibles complexités en fonction du voisinage choisi. Ces travaux ont permis d’exhiber des voisinages définissant des classes incomparables, ainsi que des ensembles de voisinages définissant exactement les mêmes classes de complexité. Enfin, je présente aussi des travaux sur les différences de puissance de calcul entre les automates de dimensions différentes
Cellular automata were introduced in the 50s by J. von Neumann and S. Ulamas an efficient way of modeling massively parallel computation. Many variations of the model can be considered such as varying the dimension of the computation space or the communication capabilities of the computing cells. In a cellular automaton each cell can communicate only with a finite number of other cells called its neighbors. My work focuses on the impact of the choice of the neighbors on the algorithmic properties of the model. My first goal was to generalize some classical properties of computation models to the widest possible class of neighborhoods, in particular I prove a linear speedup theorem for any two dimensional neighborhood. I then study the difference between the complexity classes defined by different neighborhoods, show the existence of neighborhoods defining incomparable classes, and some sets of neighborhoods defining identical classes. Finally, I also discuss the impact of the dimension of the automata on their computational power
APA, Harvard, Vancouver, ISO, and other styles
7

Malasné, Nicolas. "Localisation et reconnaissance de visages en temps réel : algorithmes et architectures." Dijon, 2002. http://www.theses.fr/2002DIJOS045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Borello, Alex. "Reconnaissance de langages en temps réel par des automates cellulaires avec contraintes." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10127.

Full text
Abstract:
Dans cette thèse, on s'intéresse aux automates cellulaires en tant que modèle de calcul permettant de reconnaître des langages. Dans un tel domaine, il est toujours difficile d'établir des résultats négatifs, typiquement de prouver qu'un langage donné n'est pas reconnu en une certaine fonction de temps par une certaine classe d'automates. On se focalisera en particulier sur les classes de faible complexité comme le temps réel, au sujet desquelles de nombreuses questions restent ouvertes.Dans une première partie, on propose plusieurs manières d'affaiblir encore les classes de langages étudiées, permettant ainsi d'obtenir des exemples de résultats négatifs. Dans une seconde partie, on montre un théorème d'accélération par automate cellulaire d'un modèle séquentiel, les automates finis oublieux. Ce modèle est une version a priori affaiblie, mais non triviale, des automates finis à plusieurs têtes de lecture
This document deals with cellular automata as a model of computation used to recognise languages. In such a domain, it is always difficult to provide negative results, that is, typically, to prove that a given language is not recognised in some function of time by some class of automata. The document focuses in particular on the low-complexity classes such as real time, about which a lot of questions remain open since several decades.In a first part, several techniques to weaken further still these classes of languages are investigated, thereby bringing examples of negative results. A second part is dedicated to the comparison of cellular automata with another model language recognition, namely multi-head finite automata. This leads to speed-up theorem when finite automata are oblivious, which makes them a priori weaker than in the general case but leaves them a nontrivial power
APA, Harvard, Vancouver, ISO, and other styles
9

Lahaye, Jean-Claude. "Etude et réalisation d'un système de vision temps réel par reconnaissance d'éléments rectilignes." Grenoble INPG, 1986. http://www.theses.fr/1986INPG0129.

Full text
Abstract:
Ce travail, en vision par ordinateur, concerne plus particulierement la reconnaissance des alignements de pels, frequents dans les images de contours des scenes artificielles ou industrielles. Cette etape de la modelisation des objets est effectuee par une methode statistique classique, la transformee de hough, determinant avec precision, meme sur des images complexes ou bruitees, les parametres des droites porteuses de ces alignements. L'inconvenient en est le temps de calcul, aussi nous avons implante cette fonction sur un processeur cable temps reel specialise. Cet element est insere dans un systeme de vision d'architecture "heterarchique" possedant une fonction de pre-traitement programmable en cours d'analyse, en fonction de connaissances a priori ou acquises. Puis, l'image a l'issue de cette phase est traduite, par transformee de hough, en une description de haut niveau directement interpretable.
APA, Harvard, Vancouver, ISO, and other styles
10

Ménier, Clément. "Système de vision temps-réel pour les intéractions." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0041.

Full text
Abstract:
Nous nous intéressons à l'acquisition temps réel d'informations tridimensionnelles sur une scène à partir de plusieurs caméras dans le contexte des applications interactives. Nous proposons un système de vision complet allant de l'acquisition des images à la modélisation des formes et du mouvement de l'utilisateur. La distribution des tâches sur une grappe de PC, et en particulier la parallélisation de plusieurs algorithmes d'extraction de la géométrie de la scène, permet un fonctionnement temps-réel avec une faible latence. De nombreuses applications sont développées et valident la mise en oeuvre réalisée de ce système. Une approche nouvelle de la modélisation du mouvement est aussi proposée. Celle-ci permet de suivre et d'identifier les membres de l'utilisateur sans connaissance a priori sur la forme de ce dernier
This thesis focuses on the the real time acquisition of 3D information on a scene from multiple camera in the context of interactive applications. A complete vision system from image acquisition to motion and shape modeling is presented. The distribution of tasks on a PC cluster, and more precisely the parallelization of different shape modeling algorithms, enables a real time execution with a low latency. Several applications are developped and validate the practical implementation of this system. An original approach of motion modeling is lso presented. It allows for limbs tracking and identification white not requiring prior information on the shape of the user
APA, Harvard, Vancouver, ISO, and other styles
11

Dupont, Marc. "Reconnaissance gestuelle par gant de données pour le contrôle temps réel d’un robot mobile." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS437/document.

Full text
Abstract:
Alors que les systèmes de reconnaissance gestuelle actuels privilégient souvent un usage intérieur, nous nous intéressons à la conception d'un système dont l'utilisation est possible en environnement extérieur et en mobilité. Notre objectif est le contrôle temps-réel d'un robot mobile dont l'usage est destiné aux fantassins débarqués. La contribution principale de cette thèse est le développement d'une chaîne de reconnaissance gestuelle temps réel, qui peut être entraînée en quelques minutes avec: un faible nombre d'exemples ("small data"); des gestes choisis par l'utilisateur; une résilience aux gestes mal réalisés; ainsi qu'une faible empreinte CPU. Ceci est possible grâce à deux innovations clés: d'une part, une technique pour calculer des distances entre séries temporelles en flux, basée sur DTW; d'autre part, une rétro-analyse efficace du flux d'apprentissage afin de déterminer les hyperparamètres du modèle sans intervention de l'utilisateur. D'autre part, nous avons construit notre propre gant de données et nous l'utilisons pour confirmer expérimentalement que la solution de reconnaissance gestuelle permet le contrôle temps réel d'un robot en mobilité. Enfin, nous montrons la flexibilité de notre technique en ce sens qu'elle permet de contrôler non seulement des robots, mais aussi des systèmes de natures différentes
Although gesture recognition has been studied for several decades, much research stays in the realm of indoors laboratory experiments. In this thesis, we address the problem of designing a truly usable, real- world gesture recognition system, focusing mainly on the real-time control of an outdoors robot for use by military soldiers. The main contribution of this thesis is the development of a real-time gesture recognition pipeline, which can be taught in a few minutes with: very sparse input ("small data"); freely user-invented gestures; resilience to user mistakes during training; and low computation requirements. This is achieved thanks to two key innovations: first, a stream-enabled, DTW-inspired technique to compute distances between time series; and second, an efficient stream history analysis procedure to automatically determine model hyperparameters without user intervention. Additionally, a custom, hardened data glove was built and used to demonstrate successful gesture recognition and real-time robot control. We finally show this work's flexibility by furthermore using it beyond robot control to drive other kinds of controllable systems
APA, Harvard, Vancouver, ISO, and other styles
12

Zouari-Ben, Letaïfa Leila. "Vers le temps réel en transcription automatique de la parole grand vocabulaire." Paris,ENST, 2007. http://www.theses.fr/2007ENST0024.

Full text
Abstract:
Cette thèse porte sur la réduction du temps de calcul des systèmes de transcription en vue de permettre leur utilisation dans des contextes réels. Une telle optimisation est particulièrement intéressante lors du calcul des probabilités d'émission des états, tâche occupant souvent plus de la moitié du temps de traitement. Vu que ce calcul dépend du nombre de gaussiennes et que seules quelques gaussiennes ont un réel impact sur la reconnaissance, on s'est intéressé à la sélection de ces gaussiennes. Les méthodes existantes sont basées sur la classification. Pour améliorer cette classification, nous avons proposé un partitionnement hiérarchique par état basé sur la similarité entre les distributions gaussiennes. Chaque niveau de l'arbre de classification obtenu donne lieu à une sélection de gaussiennes. Les distributions choisies sont à l'intersection de toutes les sélections. Les mélanges de distributions correspondent à des contextes d'apparition différents. Malheureusement, les méthodes de sélection existantes ne prennent pas en compte ces différents contextes, puisque lorsque le nombre de gaussiennes par état est faible, toutes les distributions sont mélangées avant d'être regroupées. Ainsi, nous avons développé une méthode de sélection contextuelle des gaussiennes. Les méthodes de sous-quantification vectorielle sont apparues comme une alternative aux approches basées sur la sélection des gaussiennes. En regroupant toutes les distributions, elles mélangent certains contextes. Ainsi, nous avons introduit une sousquantification vectorielle contextuelle. Les résultats obtenus sont intéressants et dépassent certaines méthodes existantes
Large vocabulary speech recognition systems based on hidden Markov models (HMM) make use of many tens of thousands of Gaussian distributions to achieve improved recognition. Hence, the computation of the state likelihood is time consuming. As the performance and the speed of such recognition systems are closely related to the number of HMM Gaussians, reducing the number of Gaussians without decreasing the system performance is of major interest. Assuming that only a few Gaussians dominate the state likelihood, Gaussian selection techniques have been developed to detect them. These techniques are based on classification and can be divided into two categories: state and model based methods. In order to improve the state-based Gaussian selection we propose an original clustering and a multi-level Gaussian selection. The clustering algorithm use a new Gaussian similarity distance. In model based methods the classification is applied to the Gaussian distributions of all the models. The contextuel information is lost du to merging distributions of the different contexts. So we introduce a contextual Gaussian selection. In recent years, as an alternative to the Gaussian selection, sub-vector quantization was successfully used to reduce the acoustic models complexity. Unfortunally, these techniques make use of the classification by merging different contexts. Hence we investigate a contextual sub-vector quantization. The proposed algorithms are evaluated within a framework of large vocabulary continuous speech recognition. Results outperform some existing methods
APA, Harvard, Vancouver, ISO, and other styles
13

Petreto, Andrea. "Débruitage vidéo temps réel pour systèmes embarqués." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS060.

Full text
Abstract:
Pour beaucoup d'applications, la présence de bruit dans les vidéos peut être un problème majeur. Des algorithmes de débruitage existent, la plupart sont qualitativement très efficaces mais au prix d'un temps de traitement trop important pour pouvoir envisager une implémentation temps réel embarquée. D'autres méthodes, plus rares, peuvent être exécutées en temps réel mais gèrent mal les forts niveaux de bruit. Pour bon nombre d'applications, il est cependant important de conserver une bonne qualité d'images en toutes conditions avec parfois d'importantes contraintes d'embarquabilité. Dans ces travaux, nous cherchons à proposer une solution de débruitage vidéo qui permet un traitement en direct sur des systèmes embarqués. La solution proposée doit rester efficace même pour de forts niveaux de bruit. Ici, nous nous limitons à l'utilisation de CPU embarqués d'une consommation inférieure à 30W. Les travaux menés dans le cadre de cette thèse ont permis la mise en place d'une chaîne de débruitage nommée RTE-VD (Real-Time Embedded Video Denoising). RTE-VD se décompose en trois étapes : stabilisation, recalage temporel par flot optique et filtrage spatio-temporel. Sur un CPU embarqué (Jetson AGX), RTE-VD permet de traiter à une cadence de 30 images par seconde, des vidéos au format qHD (960x540 pixels). Afin de pouvoir atteindre ces performances, de nombreux compromis et optimisations ont dû être faits. Nous comparons RTE-VD à d'autres méthodes de référence de la littérature à la fois en termes de qualité du débruitage et de vitesse d'exécution. Nous montrons que RTE-VD apporte un nouveau positionnement pertinent au niveau du rapport qualité/vitesse
In many applications, noisy video can be a major problem. There are denoising methods with highly effective denoising capabilities but at the cost of a very high computational complexity. Other faster methods are limited in their applications since they does not handle high levels of noise correctly. For many applications, it is however very important to preserve a good image quality in every situation with sometimes strong embedding constraints. In this work, the goal is to propose an embedded solution for live video denoising. The method needs to remain efficient with even under high level of noise. We limit our work to embedded CPU under 30W of power consumption. This work led to a new video denoising algorithm called RTE-VD: Real-Time Embedded Video Denoising. RTE-VD is composed of 3 steps: stabilization, movement compensation by dense optical flow estimation and spatio-temporal filtering. On an embedded CPU (Jetson AGX), RTE-VD runs at 30 frame per seconds on qHD videos (960x580 pixels). In order to achieve such performance, many compromises and optimizations had to be done. We compare RTE-VD to other state-of-the-art methods in both terms of denoising capabilities and processing time. We show that RTE-VD brings a new relevant tradeoff between quality and speed
APA, Harvard, Vancouver, ISO, and other styles
14

Brazey, Denis. "Reconnaissance de formes et suivi de mouvements en 4D temps-réel : Restauration de cartes de profondeur." Thesis, Rouen, INSA, 2014. http://www.theses.fr/2014ISAM0019.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à plusieurs problématiques liées au traitement de données 3D. La première concerne la détection et le suivi de personnes dans des séquences d'images de profondeur. Nous proposons une amélioration d'une méthode existante basée sur une étape de segmentation, puis de suivi des personnes. La deuxième problématique abordée est la détection et la modélisation de têtes dans un nuage de points 3D. Pour cela, nous adoptons une approche probabiliste basée sur un nouveau modèle de mélange sphérique. La dernière application traitée est liée à la restauration d'images de profondeur présentant des données manquantes. Nous proposons pour cela d'utiliser une méthode d'approximation de surface par Dm-splines d'interpolation avec changements d'échelle pour approximer et restaurer les données. Les résultats présentés illustrent l'efficacité des algorithmes développés
In this dissertation, we are interested in several issues related to 3D data processing. The first one concerns people detection and tracking in depth map sequences. We propose an improvement of an existing method based on a segmentation stage followed by a tracking module. The second issue is head detection and modelling in 3D point clouds. In order to do this, we adopt a probabilistic approach based on a new spherical mixture model. The last considered application deals with the restoration of deteriorated depth maps. To solve this problem, we propose to use a surface approximation method based on interpolation Dm-splines with scale transforms to approximate and restore the image. Presented results illustrate the efficiency of the developed algorithms
APA, Harvard, Vancouver, ISO, and other styles
15

Pétillot, Y. "Vers une implantation de corrélateurs optiques temps réel : applications a divers problèmes de reconnaissance des formes." Brest, 1996. http://www.theses.fr/1996BRES2015.

Full text
Abstract:
L’étude présentée dans ce mémoire a été réalisée dans le cadre d'un projet européen. Elle s'articule suivant deux axes principaux. D’une part, nous avons participé à la réalisation d'un corrélateur conjoint non linéaire temps réel à cristaux liquides ferroélectriques, et nous l'avons caractérise. D’autre part, bien que l'utilisation de cristaux liquides ferroélectriques permette de réaliser des systèmes optiques ayant des cadences de fonctionnement importantes, leur capacité de codage est extrêmement limitée, ce qui réduit le champ d'application des systèmes qui les utilisent. Le point clé de notre travail a consisté à prendre en compte les limitations dues à ces composants. Dans ce cadre, deux méthodes ont été particulièrement étudiées : une méthode de synthèse de filtres composites dans le cadre des architectures monovoies, et une méthode fondée sur l'utilisation d'arbres de décision binaires, dans le cas des architectures multivoies. La deuxième solution est fondée sur l'extraction de primitives par corrélation.
APA, Harvard, Vancouver, ISO, and other styles
16

Tancrez, Pierre-Marie. "Un système de vision linéaire pour l'inspection et la caractérisation en temps réel de produits plats en défilement continu." Lille 1, 1989. http://www.theses.fr/1989LIL10119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Bordieu, Christophe. "Utilisation des réseaux de neurones artificiels pour la détection et la reconnaissance des gaz en temps réel." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10562.

Full text
Abstract:
L'association de reseaux de neurones artificiels, les perceptrons multicouches, a une technique de reconnaissance de forme en temps reel, les fenetres glissantes, a permis le developpement de systemes de detection et de quantification de gaz, et de filtrage numerique. Leur caracterisation partielle vis-a-vis des parametres qui les constituent a ete effectuee et a conduit a l'optimisation de leur integration et de leur commodite de calibration. Des applications a la detection de dioxyde d'azote et de composes organophosphores au moyen de capteurs a ondes acoustiques de surface ainsi qu'une application a la quantification de composes organosoufres par un reseau de capteurs a oxydes semi-conducteurs sont presentees. Afin de rendre le systeme portable et de faciliter l'acquisition et le traitement des reponses des capteurs, un demonstrateur a ete realise.
APA, Harvard, Vancouver, ISO, and other styles
18

Ramaux, Nicolas. "Supervision de systèmes dynamiques par reconnaissance de scénarios." Compiègne, 1998. http://www.theses.fr/1998COMP1126.

Full text
Abstract:
Nous présentons une méthode originale de supervision de systèmes dynamiques, fondée sur la reconnaissance de scénarios temporels. Un scénario temporel ne modélise que l'évolution attendue d'un système sans se soucier des relations existant entre les différents paramètres utilisés. Notre technique s'inscrit dans le cadre du diagnostic à base de modèles, dès lors que les scénarios temporels sont considérés comme tels. L'originalité de notre technique réside dans le concept de session et la représentation que nous en faisons. La session est la représentation par graphe de contraintes numériques entre instants (TCSP) de l'évolution constatée du système supervisé. Notre technique repose sur une comparaison en temps réel des scénarios et de la session permettant de qualifier l'évolution du système supervisé. Nous détaillons tout d'abord la construction de la session par des mécanismes d'abstraction symbolique, à partir d'informations provenant de capteurs ou de calculs en ligne mais également d'agents humains communiquant de façon asynchrone avec le superviseur. Nous présentons ensuite une théorie et des algorithmes adaptés à la comparaison en temps réel de la session et des scénarios lorsqu'ils sont représentés sous forme de graphes de contraintes entre instants. Notre algorithmique autorise l'incomplétude potentielle du flot de données ainsi que le non ordonnancement et une datation relative et imprécise des évènements. Nous validons notre approche par une application en contrôle de la ventilation de patients placés en unités de soins intensifs, à l'hôpital Henri Mondor à Créteil, en collaboration avec l'INSERM.
APA, Harvard, Vancouver, ISO, and other styles
19

Bennegadi, Karim. "Étude et réalisation d'opérateurs câblés pour le traitement d'images en temps réel." Compiègne, 1990. http://www.theses.fr/1990COMPD263.

Full text
Abstract:
Afin de permettre une réalisation aisée d'opérateurs de traitement d'image câblés, un environnement autonome matériel et logiciel a été développé. Pour intégrer ces opérateurs dans un seul système, pour en faciliter la maintenance et pour normaliser les extensions pour d'autres opérateurs, un bus image matériel a été mis au point, reliant les sources possibles d'images que sont une carte d'acquisition vidéo ainsi que le bus d'un ordinateur hôte, à l'ensemble des opérateurs câblés. Un ensemble de routines logicielles groupées sous forme de deux librairies, l'une présentant une interface utilisateur graphique évoluée, capable de se superposer à l'image, et l'autre comprenant une boîte à outils logiciels permettant de faciliter l'intégration de nouveaux traitements, l'extension du langage interprété déjà disponible pour l'environnement ainsi que la méthodologie de câblage d'un opérateur logiciel. L'environnement matériel basé sur le bus image permet des débits élevés grâce à un fonctionnement synchrone. La partie logicielle a été écrite en langage C pour en faciliter la portabilité et la modularité
In order to facilitate the realisation of the hardware processing units in image analysis and pattern recognition, an autonomous environment was designed. To group these hardware units in a single system, to ease their extension and to normalize them for modularity purpose, a hardware image bus was designed, creating the link between different image sources as video digitizing cards or computer buses, and the set of hardware processing units. A full software package that consists in two libraries, complete the hardware part. The first library presents an enhanced user interface that can overlay the image, and the second is a software toolbox used to ease new routines integration, user interface extension and provides a methodology to translate algorithms from software form to hardware form. The hardware bus based part, provides a high data transfer rate using synchronous mode, and the software part is written in C language for modularity and portability purposes
APA, Harvard, Vancouver, ISO, and other styles
20

Minault, Sophie. "Sibylle : un système expert pour l'interprétation en temps réel de signaux monodimensionnels : application au signal vocal." Paris 11, 1987. http://www.theses.fr/1987PA112099.

Full text
Abstract:
Ce mémoire présente un outil d'aide à la construction de systèmes de traitement et d'interprétation de signaux. Cet outil se compose de trois parties : un système expert ; un compilateur ; un système procédural fonctionnant en temps réel. Le système expert permet au concepteur d'introduire sa connaissance sur le signal étudié. Cette connaissance doit être formalisée sous la forme de règles de récriture (ou règles syntaxiques) opérant sur des prédicats ; elle est introduite à l'aide d'une interface interactive. Le compilateur effectue une compilation de la base de connaissance (ensemble des règles) et génère de façon automatique un système procédural équivalent au système expert. Le système procédural généré est un système figé. Il présente cependant l’avantage d'être beaucoup plus rapide que le système expert et de fonctionner en temps réel. Le système expert est utilisé en phase de mise au point sur un petit corpus de données la base de connaissances est alors testée et éventuellement modifiée grâce à l'interface interactive. Une fois La base de règles suffisamment stabilisée, le système procédural est généré et testé sur un plus grand corpus de données. Ceci permet d'effectuer des études statistiques significatives, ce qui entraînera généralement des corrections au niveau du système expert. Cet ensemble constitue un outil qui concilie la souplesse des systèmes experts avec la rapidité es systèmes procéduraux. Il a permis la construction d'un ensemble de modules de règles de reconnaissance sur le signal vocal module de détection son-silence module de segmentation voisé-non voisé -module de détection synchrone du cycle de voisement. Une étude de faisabilité a été réalisée pour l'application aux électrocardiogrammes.
APA, Harvard, Vancouver, ISO, and other styles
21

Dousson, Christophe. "Suivi d'évolutions et reconnaissance de chroniques." Toulouse 3, 1994. http://www.theses.fr/1994TOU30264.

Full text
Abstract:
Le systeme de reconnaissance de chroniques est destine a donner une interpretation de l'evolution du monde au vu d'evenements dates. Il accepte en entree un flot d'evenements dates ; il suit et reconnait des instances de modeles de chroniques au fur et a mesure de leur evolution. En sortie, il produit des evenements deduits ou declenche des actions. Ce systeme s'appuie essentiellement sur un raisonnement temporel, il est predictif dans la mesure ou il prevoit et maintient a jour les fenetres temporelles des evenements attendus par les chroniques en cours. Sa principale qualite est de reconnaitre efficacement et en ligne des schemas temporels d'evolutions complexes. Ce systeme a ete teste pour la surveillance d'un environnement par une machine de perception multi-sensorielle, ainsi que pour la supervision d'un processus dynamique. Le memoire decrit la representation adoptee, les algorithmes mis en place, la complexite et les performances pratiques du systeme ainsi qu'une approche possible pour la gestion des deductions de la reconnaissance et pour l'apprentissage automatique des modeles de chroniques. Un exemple detaille ainsi que deux applications illustrent l'ensemble
APA, Harvard, Vancouver, ISO, and other styles
22

Filion, Julien. "Reconnaissance de plan probabiliste par exploration partielle des hypothèses." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/8005.

Full text
Abstract:
La capacité à reconnaître les intentions d’un agent est un élément important de l’analyse de la situation. Connaître ces intentions est souvent un facteur clé de la prise de décision dans plusieurs domaines tels que la robotique, les jeux vidéo, la sécurité informatique et l’analyse du renseignement. Une des approches algorithmiques souvent utilisées pour reconnaître les intentions d’un agent suppose une connaissance préalable de tous les plans exécutables par l’agent observé. À partir de ces plans et des données d’observation, on peut alors prédire les comportements et les intentions de l’agent observé simplement en générant les modèles d’exécution de plans cohérents avec les données d’observation. Ces modèles d’exécution constituent en quelque sorte les hypothèses sur le plan et le but poursuivi par l’agent observé. Ainsi, la probabilité que l’agent observé poursuive un but particulier est établie comme étant la proportion des modèles cohérents avec ce but. Cette approche existe depuis une dizaine d’années et fait partie des approches les plus étudiées en ce moment. Cependant, elle comporte des lacunes fondamentales, notamment une explosion combinatoire de la taille de l’espace d’hypothèses. Ce mémoire de maîtrise propose un algorithme permettant d’aborder ce dernier problème en contrôlant l’exploration de l’espace d’hypothèse. Avec ce nouvel algorithme, on peut approximer la probabilité du but, de sorte que la précision de l’approximation s’améliore graduellement avec le temps de calcul. Cette approche a été publiée dans l’une des deux plus prestigieuses conférences scientifiques sur l’intelligence artificielle : International Joint Conference on Artificial Intelligence (IJCAI), en 2013.
APA, Harvard, Vancouver, ISO, and other styles
23

Bouabdallaoui, Benyounes. "Reconnaissance électrochimique directe et en temps réel d’oligonucléotides, à base de polypyrrole fonctionnalisé : application aux puces à ADN." Paris, CNAM, 2006. http://www.theses.fr/2006CNAM1026.

Full text
Abstract:
La reconnaissance de séquences d’ADN dans le contexte du procédé des puces à ADN suscite un très large intérêt pour ses nombreuses applications potentielles. Ce procédé fait appel à un réseau de simples brins d’ADN sondes associés à un transducteur physique dont les propriétés sont modifiées par la suite de l’hybridation entre ces ODN sondes et leurs ODN cibles complémentaires. Le signal transposé peut-être de nature optique (fluorescence), gravimétrique ou électrique. Bien que sensible, la fluorescence nécessite un marquage chimique préalable de la cible, qui interdit toute analyse directe du processus de connaissance. Dans cette thèse, une méthode de transduction directe et en temps réel est présentée, basée sur la réponse électrochimique d’un polymère conducteur. Un film de polypyrrole, portant des ODN sondes, subit une modification de sa signature électrochimique par la suite de la réaction de l’hybridation. Cette modification est suivie en temps réel par voltamétrie cyclique. L’affinité élevée des bases appariées assure la grande sélectivité de ce processus de reconnaissance. Les travaux réalisés ont permis de définir le mode de fonctionnement de ces biocomposants. Nous avons pu définir en particulier les paramètres qui contrôlent la valeur de seuil de détection qui se situe dans le domaine du femtomolaire. Ceci confirme l’intérêt potentiel de l’utilisation du polymère conjugué qui constitue à la fois la matrice hôte des ODN sondes greffés sur ses chaînes macromoléculaires, et également l’élément transducteur du phénomène de l’hybridation
DNA biosensors have raised an increasing interest for their very wide potential applications. The miniaturization achieved for these biosensors has led to the terminology of DNA chips. The basic operating process of DNA biosensors involves an array of single stranded DNA probe grafed on a physical transducer, whose properties are modified upon hybridization of the DNA probe with a complementary single stranded DNA target. Up to recently, indirect transducing techniques have been mainly proposed. In this work, a direct real-time transducing method is presented based on the electrochemical response of a conjugated polymer. A polypyrrole film, bearing ODN probes, undergoes a modification of its electrochemical signature upon hybridization of the grafted ODN probes with their complementary ODN targets. This modification is monitored in real-time by performing cyclic voltammetry, and the higt affinity of base pairing ensures the very higt selectivity of the recognition process. With the aim of improving the sensibility of these polypyrrole-basedDNA chips, we report in this work the analysis of the mode of operation of these biodevices, and particularly of the parameters which control their detection threshold. A detection threshold in the femtomolar range has been experimentally obtained, which confirms the interesting potential of using electroactive conjugated polymers both as matrix for grafted ODN probes and also as physical transducers of the biological recognition process
APA, Harvard, Vancouver, ISO, and other styles
24

Bisson, Francis. "La reconnaissance de plan des adversaires." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5764.

Full text
Abstract:
Ce mémoire propose une approche pour la reconnaissance de plan qui a été conçue pour les environnements avec des adversaires, c'est-à-dire des agents qui veulent empêcher que leurs plans soient reconnus. Bien qu'il existe d'autres algorithmes de reconnaissance de plan dans la littérature, peu sont adaptés pour de tels environnements. L'algorithme que nous avons conçu et implémenté (PROBE, Provocation for the Recognition of Opponent BEhaviours ) est aussi capable de choisir comment provoquer l'adversaire, en espérant que la réaction de ce dernier à la provocation permette de donner des indices quant à sa véritable intention. De plus, PROBE utilise des machines à états finis comme représentation des plans, un formalisme différent de celui utilisé par les autres approches et qui est selon nous mieux adapté pour nos domaines d'intérêt. Les résultats obtenus suite à différentes expérimentations indiquent que notre algorithme réussit généralement à obtenir une bonne estimation des intentions de l'adversaire dès le départ et que cette estimation s'améliore lorsque de nouvelles actions sont observées. Une comparaison avec un autre algorithme de reconnaissance de plan démontre aussi que PROBE est plus efficace en temps de calcul et en utilisation de la mémoire, sans pourtant sacrifier la qualité de la reconnaissance. Enfin, les résultats montrent que notre algorithme de provocation permet de réduire l'ambiguïté sur les intentions de l'adversaire et ainsi améliorer la justesse du processus de reconnaissance de plan en sélectionnant une provocation qui force l'adversaire, d'une certaine façon, à révéler son intention.
APA, Harvard, Vancouver, ISO, and other styles
25

Farabet, Clément. "Analyse sémantique des images en temps-réel avec des réseaux convolutifs." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00965622.

Full text
Abstract:
Une des questions centrales de la vision informatique est celle de la conception et apprentissage de représentations du monde visuel. Quel type de représentation peut permettre à un système de vision artificielle de détecter et classifier les objects en catégories, indépendamment de leur pose, échelle, illumination, et obstruction. Plus intéressant encore, comment est-ce qu'un tel système peut apprendre cette représentation de façon automatisée, de la même manière que les animaux et humains parviennent à émerger une représentation du monde qui les entoure. Une question liée est celle de la faisabilité calculatoire, et plus précisément celle de l'efficacité calculatoire. Étant donné un modèle visuel, avec quelle efficacité peut-il être entrainé, et appliqué à de nouvelles données sensorielles. Cette efficacité a plusieurs dimensions: l'énergie consommée, la vitesse de calcul, et l'utilisation mémoire. Dans cette thèse je présente trois contributions à la vision informatique: (1) une nouvelle architecture de réseau convolutif profond multi-échelle, permettant de capturer des relations longue distance entre variables d'entrée dans des données type image, (2) un algorithme à base d'arbres permettant d'explorer de multiples candidats de segmentation, pour produire une segmentation sémantique avec confiance maximale, (3) une architecture de processeur dataflow optimisée pour le calcul de réseaux convolutifs profonds. Ces trois contributions ont été produites dans le but d'améliorer l'état de l'art dans le domain de l'analyse sémantique des images, avec une emphase sur l'efficacité calculatoire. L'analyse de scènes (scene parsing) consiste à étiqueter chaque pixel d'une image avec la catégorie de l'objet auquel il appartient. Dans la première partie de cette thèse, je propose une méthode qui utilise un réseau convolutif profond, entrainé à même les pixels, pour extraire des vecteurs de caractéristiques (features) qui encodent des régions de plusieurs résolutions, centrées sur chaque pixel. Cette méthode permet d'éviter l'usage de caractéristiques créées manuellement. Ces caractéristiques étant multi-échelle, elles permettent au modèle de capturer des relations locales et globales à la scène. En parallèle, un arbre de composants de segmentation est calculé à partir de graphe de dis-similarité des pixels. Les vecteurs de caractéristiques associés à chaque noeud de l'arbre sont agrégés, et utilisés pour entrainé un estimateur de la distribution des catégories d'objets présents dans ce segment. Un sous-ensemble des noeuds de l'arbre, couvrant l'image, est ensuite sélectionné de façon à maximiser la pureté moyenne des distributions de classes. En maximisant cette pureté, la probabilité que chaque composant ne contienne qu'un objet est maximisée. Le système global produit une précision record sur plusieurs benchmarks publics. Le calcul de réseaux convolutifs profonds ne dépend que de quelques opérateurs de base, qui sont particulièrement adaptés à une implémentation hardware dédiée. Dans la deuxième partie de cette thèse, je présente une architecture de processeur dataflow dédiée et optimisée pour le calcul de systèmes de vision à base de réseaux convolutifs--neuFlow--et un compilateur--luaFlow--dont le rôle est de compiler une description haut-niveau (type graphe) de réseaux convolutifs pour produire un flot de données et calculs optimal pour l'architecture. Ce système a été développé pour faire de la détection, catégorisation et localisation d'objets en temps réel, dans des scènes complexes, en ne consommant que 10 Watts, avec une implémentation FPGA standard.
APA, Harvard, Vancouver, ISO, and other styles
26

Cloup, Pascal. "Etude et réalisation d'un système d'analyse gestuelle en trois dimensions par traitement d'images en temps réel." Valenciennes, 1989. https://ged.uphf.fr/nuxeo/site/esupversions/e2ada66a-822b-40d9-864e-973d4f37cc07.

Full text
Abstract:
Développement d'un système d'analyse gestuelle en 3D et de sa partie automatisée. Détection à l'aide de caméra vidéo, des positions de marqueurs reflechissants dont les trajectoires spatiales sont déterminées grâce aux techniques de la stéréovision. Applications en sport, rééducation et ergonomie.
APA, Harvard, Vancouver, ISO, and other styles
27

Vercruysse, Michel. "Mesure en temps réel de l'orthogonalité des fils de trame d'un tissu en défilement et son traitement automatique." Lille 1, 1991. http://www.theses.fr/1991LIL10034.

Full text
Abstract:
Cette thèse est un ensemble de travaux visant à résoudre les problèmes de la mesure de l'orthogonalité des fils de trame par rapport aux fils de chaîne d'un tissu en défilement. Cette mesure est nécessaire pour réguler la position des fils de trame des tissus qui subissent des déformations lors des opérations d'ennoblissement. L'origine des problèmes est due à la très grande diversité des tissus. Pour solutionner l'ensemble de ces problèmes, nous avons introduit une technique entièrement numérique et procédé en plusieurs étapes commuées en chapitres dans la thèse. Dans un premier temps, nous avons établi une base de données dont la constitution a nécessité l'étude et la réalisation d'un analyseur temps réel. Après étude statistique de cette base, un modèle mathématique du signal observé ainsi que les traitements théoriques optimaux ont pu être définis. Dans un deuxième temps, nous avons développé un mesureur prototype contenant ces traitements, en tenant compte du mode d'exploitation sur site du mesureur, ainsi que de l'environnement de mesure qui transforme le modèle du signal en une fonction de deux variables aléatoires non-stationnaires. Nous avons abouti à l'étude et à la mise au point d'un filtrage numérique auto-adaptatif ainsi qu'aux développements d'un opérateur de reconnaissance structurelle de formes et d'une reconnaissance par modélisation. L'ensemble de ces traitements est architecturé pour former un plan matriciel des états du système sur lequel sont prises les décisions de mesure. Les différentes fonctions ont été implémentées sur des processeurs numériques de signaux afin de satisfaire le critère du temps réel. Parallélement aux traitements numériques, nous avons développé un traitement optique, consistant à introduire un procédé de mesure par réflexion. Avant notre étude, 75% des tissus étaient considérés mesurables, nous estimons que plus de 95% le sont maintenant. Ce résultat obtenu avec le prototype confirme la justesse des principes et des concepts avancés
APA, Harvard, Vancouver, ISO, and other styles
28

Boulay, Bernard. "Human posture recognition for behaviour understanding." Nice, 2007. http://www.theses.fr/2007NICE4000.

Full text
Abstract:
During this thesis, we have proposed a real-time, generic, and operational approach to recognising human posture with one static camera. The approach is fully automatic and independent from the view point of the camera. Human posture recognition from a video sequence is a difficult task. This task is part of the more general problem of video sequence interpretation. The proposed approach takes as input information provided by vision algorithms such as the silhouette of the observed person (a binary image representing the person and the background), or her/his position in the scene. The first contribution is the modeling of a 3D posture avatar. This avatar is composed of a human model (defining the relations between the different body parts), a set of parameters (defining the position of the body parts) and a set of body primitives (defining the visual aspect of the body parts). The second contribution is the proposed hybrid approach to recognise human posture. This approach combines the use of 3D posture avatar and 2D techniques. The 3D avatars are used in the recognition process to acquire a certain independence from the camera view point. The 2D techniques represent the silhouettes of the observed person to provide a real-time processing. The proposed approach is composed of two main parts: the posture detection which recognises the posture of the detected person by using information computed on the studied frame, and the posture temporal filtering which filters the posture by using information about the posture of the person on the previous frames A third contribution is the comparison of different 2D silhouette representations. The comparison is made in terms of computation time and dependence on the silhouette quality. Four representations have been chosen: geometric features, Hu moments, skeletonisation, and the horizontal and vertical projections. A fourth contribution is the characterisation of ambiguous postures. Ambiguities can happen by using only one camera. An ambiguous posture is defined as a posture which has visually similar silhouettes rather an other posture. Synthetic data are generated to evaluate the proposed approach for different point of view. The approach has also been evaluated on real data by proposing a ground truth model adapted to the posture recognition purpose. A fifth contribution has been proposed by applying the results of the recognition to human action detection. A method based on a finite state machine has been proposed to recognise self-action (action where only one person acts). Each state v of the machine is composed of one or several postures. This method has been successfully applied to detect falling and walking actions. The human posture recognition approach gives good results. However, the approach has some limitation. The main limitation, is that we are limited in terms of postures of interest for computation time and discrimination reasons. The second limitation is the computation time of the 3D posture avatar generation. By using information about the movement of the observed person in the scene, the approach is able to treat 5-6 frames by second. Some improvement can be done to solve these limitations. In particular, the set of interest postures can be adapted automatically at each frame by considering the previously recognised postures to decrease the number of 3D posture silhouette to extract
Durant cette thèse nous avons proposé une approche temps réel, générique et fonctionnelle pour reconnaître la posture des personnes filmées par une caméra statique. Notre approche est conçue pour être complètement automatique et indépendante du point de vue de la caméra. La reconnaissance de posture à partir de séquence vidéo est un problème difficile. Ce problème s'inscrit dans le champ de recherche plus général de l'interprétation de séquence vidéo. L'approche proposée prend en entrée des informations provenant d'algorithmes de vision telles que la silhouette de la personne observée (une image binaire où une couleur représente la personne et l'autre le fond) ou sa position dans la scène. La première contribution est la modélisation d'un avatar 3D de posture. Un avatar 3D de posture est composé d'un modèle 3D humain (définissant les relations entre les différentes parties du corps), d'un ensemble de paramètre (définissant les positions des différentes parties du corps) et d'un ensemble de primitive (définissant l'aspect visuel des parties du corps). La seconde contribution est la proposition d'une approche hybride combinant l'utilisation de modèles 3D et de techniques 2D. Les avatars 3D de postures sont utilisés dans le processus de reconnaissance pour avoir une certaine indépendance du point de vue de la caméra. Les techniques 2D représentent les silhouettes des personnes détectées pour garder un temps réel de calcul. Cette thèse montre comment les avatars 3D peuvent être utilisés pour obtenir une approche générique et fonctionnelle pour reconnaître les postures. Cette approche est composée de deux parties : la détection de postures qui reconnaît la posture de la personne détectée en utilisant seulement l'information calculée sur l'image considérée, et le filtrage temporel de posture qui reconnaît la posture en utilisant l'information provenant des images précédentes. Une troisième contribution a été faite en comparant différentes représentations 2D des silhouettes au niveau du temps de calcul nécessaire et de leur dépendance à la qualité de la silhouette. Quatre représentations ont été retenues : une représentation combinant différentes valeurs géométriques, les moment de Hu, la skeletonisation et les projections horizontale et verticale. Une quatrième contribution est la caractérisation des cas ambigus. Des ambiguïtés au niveau de la reconnaissance peuvent se produire en utilisant seulement une caméra statique. Une posture ambiguë est définie par plusieurs postures vii qui ont des silhouettes visuellement similaires. Des données de synthèse sont générées pour évaluer l'approche proposée pour différents points de vue. Ainsi, les postures ambiguës sont identifiées en considérant la posture et son orientation. L'approche est aussi évaluée pour des données réelles en proposant un modèle de vérité terrain pour la reconnaissance de posture. Une cinquième contribution a été proposée en appliquant le résultat de notre approche à la reconnaissance d'action. Une méthode utilisant des machines à états finis a ainsi été proposée pour reconnaître des actions faisant intervenir une seule personne. Chaque état de la machine est composé d'une ou plusieurs postures. Cette méthode est appliquée avec succès pour détecter les chutes et la marche. Bien que notre approche donne de très bon taux de reconnaissance, il subsiste quelques limitations. La principale limitation de l'approche est qu'elle est limitée en nombre de postures d'intérêt pour des raisons de temps de calcul et de discrimination entre les postures considérées. La seconde limitation est le temps nécessaire à la génération des silhouettes des avatars 3D de posture. En utilisant l'information sur le déplacement de la personne dans la scène, l'algorithme de reconnaissance de posture traite entre 5 et 6 images par seconde. Des améliorations peuvent être faites pour résoudre ces limitations. En particulier, nous pourrions adapter automatiquement l'ensemble des postures d'intérêt au cas considéré, en utilisant par exemple la posture reconnue précédemment pour restreindre les postures 3D dont nous voulons extraire les silhouettes
APA, Harvard, Vancouver, ISO, and other styles
29

Ghorayeb, Hicham. "Conception et mise en oeuvre d'algorithmes de vision temps réel pour la vidéo surveillance intelligente." Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1463.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME
In this dissertation, we present our research work held at the Center of Robotics (CAOR) of the Ecole des Mines de Paris which tackles the problem of intelligent video analysis. The primary objective of our research is to prototype a generic framework for intelligent video analysis. We optimized this framework and configured it to cope with specific application requirements. We consider a people tracker application extracted from the PUVAME project. This application aims to improve people security in urban zones near to bus stations. Then, we have improved the generic framework for video analysis mainly for background subtraction and visual object detection. We have developed a library for machine learning specialized in boosting for visual object detection called LibAdaBoost. To the best of our knowledge LibAdaBoost is the first library in its kind. We make LibAdaBoost available for the machine learning community under the LGPL license. Finally we wanted to adapt the visual object detection algorithm based on boosting so that it could run on the graphics hardware. To the best of our knowledge we were the first to implement visual object detection with sliding technique on the graphics hardware. The results were promising and the prototype performed three to nine times better than the CPU. The framework was successfully implemented and integrated to the RTMaps environment. It was evaluated at the final session of the project PUVAME and demonstrated its fiability over various test scenarios elaborated specifically for the PUVAME project
APA, Harvard, Vancouver, ISO, and other styles
30

Ziani, Ahmed. "Interprétation en temps réel de séquence vidéo par exploitation des modèles graphiques probabilistes." Littoral, 2010. http://www.theses.fr/2010DUNK0271.

Full text
Abstract:
Le travail de recherche concerne l'étude et la mise en oeuvre de systèmes de reconnaissance de scénarios dans des séquences d'images de vidéosurveillance. Les couches hautes du système de reconnaissance exploitent principalement les approches graphiques probabilistes (réseaux bayésiens et les modèles de Markov Cachés et leurs extensions) qui permettent de gérer de manière efficace les incertitudes au sein du système d'interprétation. Un premier algorithme de reconnaissance de séquences d'événements, combinant deux extensions de modèles de Markov cachés (hiérarchique et semi-markovien) a été proposé. Il permet de modéliser des scénarios complexes basés sur une structure hiérarchisée intégrant des contraintes temporelles sur la durée de chaque événement. Ensuite, nous avons étudié une approche de reconnaissance de trajectoire d'objets en utilisant les modèles de Markov cachés semi-continus. Nous avons adapté une méthode de quantification permettant d'obtenir automatiquement les états du modèle. Dans le but d'accélérer le comportement du système de reconnaissance, nous avons proposé une technique de prédiction basée sur la reconnaissance des débuts de trajectoires et qui permet rapidement d'écarter les modèles ne pouvant être compatibles avec les observations. La dernière partie du travail a été le développement d'une structure globale et modulaire d'un système de reconnaissance de scénarios. L'intérêt principal de cette architecture est de pouvoir exploiter des techniques probabilistes tout en intégrant des capacités de raisonnement temporel. L'architecture logique du système exploite une approche multi agents organisée selon trois couches. Afin de gérer les contraintes temps réel de l'application, la stratégie de contrôle du système de reconnaissance active un nombre minimal 'agents en fonction de ses décisions internes. Les agents de la première couche ont pour rôle de mettre en évidence les événements élémentaires et sont construits principalement à base de réseaux bayésiens ou de modèles de Markov cachés. Les agents temporels de la deuxième couche sont construits également à partir d'une structure spécifique de type réseau bayésien. Ils ont pour rôle de modéliser de manière explicite les relations temporelles entre événements mis en évidence à partir de la première couche. Les agents du troisième niveau interviennent dans l'étape finale de décision en exploitant l'ensemble des décisions des agents intermédiaires. Les différentes approches de reconnaissance de scénarios ont été testées sur divers séquences réelles en environnement extérieur et intérieur
The research covers the design and implementation of systems for recognition of scenarios in video image sequences. The upper layers of the recognition system operating primarily graphical probabilistic approaches (Bayesian networks and Hidden Markov models and their extensions) that can effectively handle uncertainties in the interpretation system. A first algorithm for recognition of sequences of events, combining two extensions of HMM (hierarchical and semi-Markov) was proposed. It allows to model complex scenarios based on a hierarchical structure integrating temporal constraints on the duration of each event. Then, we proposed a prediction technique based on the recognition of early tracks and allows quick to dismiss the models may be consistent with the observations. The last part of the work was the development of a global structure and a modular recognition system scenarios. The main advantage of this architecture is to use probabilistic techniques while integrating temporal reasoning capabilities. The logical architecture of the system uses a multi agents. In order to manage real-time constraints of the application, the control strategy of the recognition systems enables a minimum number of agents according to its internal decisions. The agents of the first layer has a role to highlight the basic events and are constructed mainly of Bayesian networks or hidden Markov models. The agents of the second temporal layer are also built from a specific structure type Bayesian network. Their role is to model explicitly the temporal relationships between events highlighted from the first layer. The third level officials involved in the final stage of decision using all of the decisions of intermediate agents. Different approaches to recognition of scenarios were tested on various real images in external and internal environment
APA, Harvard, Vancouver, ISO, and other styles
31

Meynard, Jean-Baptiste. "Réalisation et évaluation d'un système de surveillance en temps réel pour les forces armées en opérations." Aix-Marseille 2, 2007. http://www.theses.fr/2007AIX20690.

Full text
Abstract:
Les objectifs que je devais atteindre dans le cadre de cette Thèse étaient de réaliser un démonstrateur de surveillance en temps réel au sein des forces armées et de pratiquer son évaluation, afin de répondre à la question qui m’était posée de la faisabilité et de l’intérêt de ce type de surveillance en milieu militaire. A partir de ce travail, je devais fournir des propositions pour la généralisation du concept à l’ensemble des forces projetées. J’ai imaginé et participé au développement du système de surveillance spatiale des épidémies au sein des forces armées en Guyane « 2SE FAG », avec l’IMTSSA et différents partenaires depuis 2002, ce qui permettait de répondre à un nouvel objectif de l’Etat-Major des Armées, fixé après un sommet de Défense de l’OTAN. J’ai pris en compte des aspects médicaux, technologiques, humains et organisationnels pour développer ce prototype. 2SE FAG a été conçu comme un procédé de surveillance épidémiologique mis en oeuvre à l’aide d’une communauté de services réseaux basés en Guyane et en métropole. Son développement s’inscrivait dans le cadre d’un arrangement technique franco-britannique, auquel j’ai participé en effectuant entre autres un séjour de 6 mois dans les armées britanniques. J’ai réalisé le déploiement de 2SE FAG en Guyane en octobre 2004 et le système a fonctionné sans discontinuité depuis. La juxtaposition des réseaux a permis de produire des données épidémiologiques opérationnelles qui ont fait la preuve de leur utilité, en particulier au moment de l’épidémie de dengue du premier semestre 2006. L’alerte précoce déclenchée à cette occasion plusieurs semaines avant le système de surveillance réglementaire des forces armées a certainement joué un rôle dans le contrôle de l’épidémie en milieu militaire alors que celle-ci explosait en milieu civil. L’évaluation représentait un travail fondamental pour fournir un retour d’expérience utile et j’ai réalisé différentes études en collaboration avec des organismes extérieurs (SACT de Norfolk, ISPED de Bordeaux, LSTM de Liverpool, Cire Antilles Guyane). Cette démarche permettait à la fois d’apporter des modifications à 2SE FAG mais aussi de faire évoluer positivement l’ensemble des projets du type 2SE du système ASTER. A partir de ces travaux, j’ai pu développer et proposer une nouvelle méthode d’évaluation des systèmes de surveillance militaires destinés à l’alerte précoce pour les forces en opérations extérieures. J’ai identifié des améliorations qui sont encore à apporter au système, mais les différents objectifs ont été considérés comme atteints, à savoir la preuve de la faisabilité de la surveillance en temps réel dans les armées, du bénéfice apporté par un tel système et de son caractère interopérable. L’intérêt de ces travaux a déjà été souligné par des hautes instances nationales et internationales. J’ai réalisé avec les autres co-inventeurs du système une demande de dépôt de brevet au niveau de l’INPI le 25 août 2006. La surveillance épidémiologique en temps réel reste un défi d’avenir pour les armées modernes. Les enseignements acquis grâce à 2SE FAG constituent déjà un retour d’expérience unique au sein des armées de l’OTAN. Mais je pense que l’effort de recherche et de développement doit rester important, dans une dynamique internationale maîtrisée afin de déboucher sur la production d’un système opérationnel et interopérable, adapté aux contraintes actuelles de déploiement des forces et en particulier aux missions multinationales. C’est à ce prix que la surveillance en temps réel pourra participer activement en tous temps et en tous lieux à la préservation de la capacité opérationnelle des forces armées.
APA, Harvard, Vancouver, ISO, and other styles
32

Leyrit, Laetitia. "Reconnaissance d'objets en vision artificielle : application à la reconnaissance de piétons." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00626492.

Full text
Abstract:
Ce mémoire présente les travaux réalisés dans le cadre de ma thèse. Celle-ci a été menée dans le groupe GRAVIR (1) du LASMEA (2) au sein de l'équipe ComSee (3) qui se consacre à la vision par ordinateur. Ces travaux s'inscrivent dans le cadre d'un projet de l'Agence Nationale pour la Recherche s'intitulant " Logiciels d'Observation des Vulnérables ". Son but est de concevoir des logiciels détectant des piétons en danger et d'améliorer ainsi la sécurité routière. Ma thèse a pour but de détecter et de reconnaître les piétons dans les images. Celles-ci proviennent d'une caméra embarquée dans un véhicule circulant en milieu urbain. Ce cahier des charges implique de nombreuses contraintes. Il faut notamment obtenir un système fonctionnant en temps réel pour être capable de détecter les piétons avant un éventuel impact. De plus, ces piétons peuvent être sujets à de nombreuses variations (taille, type de vêtements...), ce qui rend la tâche de reconnaissance d'autant plus ardue. La caméra étant mobile, aucune information ne pourra être extraite du fond. Dans ma thèse, nous mettons en oeuvre différentes méthodes de vision par ordinateur, toutes basées apprentissage, qui permettent de répondre à ces attentes. Le problème se traite en deux phases. Dans un premier temps, une étape de traitement hors ligne nous permet de concevoir une méthode valide pour reconnaître des piétons. Nous faisons appel à une base d'apprentissage. Tout d'abord, un descripteur d'images est employé pour extraire des informations des images.Puis, à partir de ces informations, un classifieur est entraîné à différencier les piétons des autres objets. Nous proposons l'utilisation de trois descripteurs (ondelettes de Haar, histogrammes de gradients et descripteur binaire). Pour la classification, nous avons recours à un algorithme de Boosting (AdaBoost) et à des méthodes à noyaux (SVM, RVM, moindres carrés). Chaque méthode a été paramétrée, testée et validée, tant au niveau description d'images que classification.La meilleure association de toutes ces méthodes est également recherchée. Dans un second temps, nous développons un système embarqué temps réel, qui soit capable de détecter les piétons avant une éventuelle collision. Nous exploitons directement des images brutes en provenance de la caméra et ajoutons un module pour segmenter l'image, afin de pouvoir intégrer les méthodes de description et classification précédentes et ainsi répondre à la problématique initiale.1. acronyme de " Groupe d'Automatique, VIsion et Robotique ".2. acronyme de " LAboratoire des Sciences et Matériaux Et d'Automatique ".3. acronyme de " Computers that See ".
APA, Harvard, Vancouver, ISO, and other styles
33

Stoutenburg, Tardieu Cody. "Une comparaison d’algorithmes de reconnaissance de plan à l’aide d’observations in situ." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/7525.

Full text
Abstract:
Ce mémoire présente une comparaison de deux algorithmes de reconnaissance de plan, soit YAPPR (Yet Another Probabilistic Plan Recognizer) et PR-Plan (Plan Recognizer as Planning). Afin de comparer les algorithmes, nous avons voulu utiliser un domaine plus complexe et réaliste que ceux utilisés jusqu’à présent. Pour ce faire, nous avons établi un protocole de comparaison en utilisant le concept d’observation in situ. Nous avons utilisé le jeu de stratégie en temps réel StarCraft comme environnement de simulation. Puis, nous avons créé un agent jouant à StarCraft qui utilise la reconnaissance de plan comme élément central pour le système de prise de décision. Pour valider que notre principe d’observation in situ fonctionne, nous avons créé des agents témoins et exécuté de nombreuses simulations.
APA, Harvard, Vancouver, ISO, and other styles
34

Didelet, Elisabeth. "Les arbres de neurones avec rejet d'ambiguïté : application au diagnostic pour le pilotage en temps réel du réseau téléphonique français." Compiègne, 1992. http://www.theses.fr/1992COMPD520.

Full text
Abstract:
L’objectif de la thèse était de développer un outil original de reconnaissance des formes statistique, pouvant être appliqué à un problème de diagnostic comme le diagnostic de perturbations sur le réseau téléphonique français. J’ai proposé d'utiliser, pour ce problème, les arbres de neurones développés par J. A. Sirat et J. P. Nadal. Les travaux ont été divisés en deux parties : 1) développer les arbres de neurones au sein du laboratoire et 2) développer un prototype de diagnostic de perturbations sur le réseau téléphonique français en utilisant les arbres de neurones. Dans le cadre de la première partie, j'ai proposé plusieurs modifications aux arbres de neurones : 1) utiliser des neurones continus à la place des perceptrons, ce qui permet d'employer un algorithme de descente de gradient à la place de l'algorithme du pocket, pour la mise au point de chaque neurone, 2) laisser la possibilité à l'utilisateur d'employer des neurones d'ordre supérieur, c'est-à-dire des frontières de décision non linéaires dans l'espace de représentation du problème et 3) ajouter le rejet en ambiguïté aux arbres de neurones : pendant la phase de classification, la notion de rejet permet de traiter de façon différente les échantillons qui sont trop proches des frontières de décision. Dans le cadre de la seconde partie, j'ai proposé de développer un prototype de diagnostic sur le réseau téléphonique à deux niveaux, compte tenu du grand nombre de variables observées (environ 20000). 1) le premier niveau constitue un ensemble d'arbres de neurones, où chaque arbre réalise un diagnostic local sur un autocommutateur de transit du réseau et 2) le second niveau constitue un ensemble de règles qui traitent l'ensemble des diagnostics locaux pour inférer un diagnostic global sur le réseau. Le prototype a été relié à un simulateur du réseau téléphonique afin de réaliser un certain nombre d'essais : le pourcentage d'erreurs de diagnostic a été estimé à 1. 5%
APA, Harvard, Vancouver, ISO, and other styles
35

Ghorayeb, Hicham. "Conception et mise en œuvre d'algorithmes de vision temps-réel pour la vidéo surveillance intelligente." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003064.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME.
APA, Harvard, Vancouver, ISO, and other styles
36

Paumard, José. "Reconnaissance multiéchelle d'objets dans des scènes." Cachan, Ecole normale supérieure, 1996. http://www.theses.fr/1996DENS0025.

Full text
Abstract:
Nous étudions dans cette thèse la possibilité de reconnaitre des objets dans des images compressées, sans les reconstruire. L'algorithme de compression le plus adapte semble celui fonde sur l'extraction des contours multi échelle quinconce des images. Le problème de la reconnaissance nous amène à introduire un nouvel outil de comparaison d'images binaires: la distance de Hausdorff censurée. Cet outil s'est avéré robuste et rapide à calculer. Ces deux points sont étudiés avec soin. Cette distance est enfin utilisée pour reconnaitre et localiser des objets spécifiques dans des scènes de grande taille. Nous proposons trois approches multi échelles pour résoudre ce problème, qui prennent en compte le fait que l'objet recherché peut être en partie caché, ou qu'il peut être vu sous un angle différent de son modèle. L'algorithme que nous avons développé est rapide sur station de travail classique. Sa robustesse a été étudiée soigneusement. Sa parallélisation nous permet d'atteindre le temps réel dans un cadre opérationnel raisonnable
APA, Harvard, Vancouver, ISO, and other styles
37

Sémani-Delmi, Dahbia. "Une méthode supervisée de sélection et de discrimination avec rejet : application au projet Aqu@thèque." La Rochelle, 2004. http://www.theses.fr/2004LAROS113.

Full text
Abstract:
Notre travail s'inscrit dans le cadre du projet Aqu@thèque dont l'objectif essentiel consiste à concevoir un système de reconnaissance automatique d'espèces de poissons évoluants dans un aquarium. La première partie de ce travail a concerné l'étude des méthodes de discrimination avec double option de rejet (rejet de distance et rejet d'ambiguïté). Nous avons ainsi défini une stratégie et des règles de classement originales pour l'implantation des mécanismes de rejet. Notre stratégie est fondée sur une mesure d'ambigui͏̈té que nous avons défini à partir d'opérateurs de fusion d'étiquettes combinant des normes et conormes triangulaires. La seconde partie de ce travail concerne l'étude des méthodes de sélection de variables. Nous nous sommes particulièrement intéressés aux critères d'évaluation d'un sous-ensemble devariables. Nous avons ainsi défini un nouveau critère d'évaluation fondé sur la mesure d'ambiguïté proposée. Nous avons ensuite associé notre critère à un algorithme de recherche efficace pour définir une nouvelle méthode de sélection de variables. La dernière partie de notre travail est consacrée à la présentation de notre système de reconnaissance de poissons en temps réel. Il s'agit de reconnaître des objets mobiles (poissons) dans des séquences vidéo. Nous sommes donc confrontés aux difficultés inhérentes au traitement d'images réelles, plus particulièrement des problèmes d'éclairage et des problèmes liés à la complexité de la scène. Nous avons résolu les problèmes d'éclairage par une méthode de correction chromatique visant à diminuer l'effet de la dominante couleur due au milieu aquatique. Une méthode de segmentation par détection de mouvement est appliquée pour extraire les poissons du fond. Des attributs de formes, de couleur et de texture sont calculés sur les régions extraites. Nous avons enfin utilisé notre méthode de sélection de variables et notre règle de classement avec rejet pour construire un discriminateur capable d'identifier les espèces avec un très bon taux de reconnaissance (89\% sans rejet et 92\% avec rejet)
Our work is a part of the Aqu@thèque project, of which the principal goal is to elaborate an automatique and real-time fish recognition system. In the first part of this work, we study the classification methods with reject options (ambiguity reject and distance reject). We proposed a new strategy and an original rules of classification for the implementation of the reject options. Our strategy is based on an ambiguity measure which is a combination of fuzzy aggregation operators. The second part of this study deals with the feature selection problem. We focus on the study of the evaluation criteria which measure the goodness of feature subsets. A new evaluation criterion is proposed. It is based on the proposed ambiguity measure and is used with an efficient search algorithm to define an new feature selection method. Finally, we present our automatic and real-time fish recognition system. Our feature selection method and our classification method with reject options are used to define an efficient classifier able to recognize the species of fish with a very good recognition rate (89\% without reject, 92\% with reject option)
APA, Harvard, Vancouver, ISO, and other styles
38

Cron, Geneviève. "Diagnostic par reconnaissance des formes floue d'un système dynamique et réparti : Application à la gestion en temps réel du trafic téléphonique français." Compiègne, 1999. http://www.theses.fr/1999COMP1231.

Full text
Abstract:
Ces travaux sont lies à l'étude du trafic du réseau téléphonique français. Pour réaliser le diagnostic du réseau, nous utilisons des méthodes de reconnaissance des formes floue. En reconnaissance des formes floue, un état du système est représenté par un ensemble flou. Ainsi, pour apprendre une classe, il est nécessaire d'utiliser une méthode permettant d'apprendre un ensemble flou. La méthode sur laquelle nous nous basons a été proposée par Mandal en 1992. Cette méthode encadre les données par un hypercube qui est ensuite fuzzyfié. Lorsque les états sont dépendants du temps, il est alors possible de les représenter par des ensembles flous dépendants du temps. Notons que cette notion permet aussi d'étudier les changements d'état, le temps représentant alors la proportion de chemin parcourue entre l'état de départ et l'état d'arrivée. L'ensemble de ces deux notions peut être appelé état non stationnaire. L'apprentissage de ce type d'état nous amène à une problématique de type régression floue. La méthode que nous proposons est une régression floue qui généralise la méthode de Mandal dans le cas non stationnaire. A partir de cet apprentissage, il suffit d'utiliser une méthode de décision classique pour réaliser un diagnostic et prendre une décision. Le chapitre suivant s'intéresse à la fusion ou l'agrégation pondérée de degrés d'appartenance, la pondération devant pouvoir être appliquée a tout operateur d'agrégation, car il est parfois imposé par le contexte. A partir de conditions limites connues, nous avons obtenu une solution unique pour ce problème. Cette solution vérifie des conditions qui ont été définies par d'autres auteurs. Le seconde partie de ce manuscrit est dédiée à l'application des méthodes précédemment décrites dans l'optique de réaliser un diagnostic en temps réel du réseau téléphonique français. Ainsi, la méthode de régression floue est appliquée au diagnostic local du réseau, aussi bien dans le cas d'état dépendants du temps que dans le cas du changement d'état. La méthode de fusion pondérée est appliquée au diagnostic global du réseau téléphonique français.
APA, Harvard, Vancouver, ISO, and other styles
39

Bégard, Julien. "Reconnaissance de formes dans des séquences vidéo : application à la vidéo-surveillance." Paris 6, 2008. http://www.theses.fr/2008PA066538.

Full text
Abstract:
Cette thèse aborde le problème de la détection de personnes dans des images. L’objectif est d’aboutir à un système performant de détection de piétons dans un contexte automobile en milieu urbain. Nous avons abordé ce sujet sur deux fronts principaux. Le premier a été de concevoir une représentation discriminante de la forme des objets. De part la grande diversité des apparences des piétons, celle-ci doit être assez riche pour capturer les caractéristiques nécessaires pour les reconnaître. Nous avons construit cette description à partir de l’information du gradient calculé dans l’image et sa magnitude: les Histogrammes d’Orientation du Gradient enrichis de la Magnitude. Calculés de façon dense dans une région de l’image, ces descripteurs forment des vecteurs définissant finement la forme des objets. Nous comparons ces descripteurs avec des règles de décision formés à partir de méthodes d’apprentissage automatique. Notre système est basé sur l’algorithme AdaBoost auquel nous avons apporté des modifications pour obtenir un algorithme utilisant plus efficacement l’information fournie. Ces modifications ont donné deux algorithmes aux les performances complémentaires. Nous avons conçu une méthode pour combiner ces algorithmes et obtenir de meilleurs résultats. Nous avons structuré notre système en une cascade de sous-détecteurs de plus en plus complexes. Le but de cette structure est d’éliminer le plus tôt possible les mauvais candidats. Ainsi, seuls les bons candidats atteignent le sommet de la cascade, constitué des règles de décisions les plus complexes et les plus coûteuses en temps. Nous avons évalué et validé cette méthodologie sur des données couleurs et infrarouges
This thesis addresses the problem of detecting people in pictures. The objective is to achieve an efficient system for detecting pedestrians in an automotive context in urban areas. We discussed this issue on two main fronts. The first was to design a discriminant representation of the form of the objects. Due to the wide variety of appearances of pedestrians, it must be rich enough to capture the characteristics necessary to recognize them. We built this description from the information of the gradient calculated in the image and its magnitude: Histograms of Orientation Gradient fortified with the Magnitude. Calculated densely in regions of the image, these descriptors forms vectors that define finely the shape of objects. We compare these descriptors with decision rules formed from machine learning methods. Our system is based on AdaBoost algorithm that we have made changes to get an algorithm using more effectively the information provided. These changes gave two algorithms with comparable performance. We have designed a method to combine these algorithms and get better results. We structured our system in a cascade of sub-detectors that are increasingly complex. The purpose of this structure is to eliminate as soon as possible wrong candidates. Thus, only the right candidates reaching the top of the cascade, consisting of the most complex and time-costly rules decisions. We evaluated and validated this methodology on color and infrared data
APA, Harvard, Vancouver, ISO, and other styles
40

Cablé, Baptiste. "Vers la gestion de scénarios pour la reconnaissance et l'anticipation de situations dynamiques." Troyes, 2011. http://www.theses.fr/2011TROY0007.

Full text
Abstract:
Cette étude est dédiée à la reconnaissance et l’anticipation des situations dynamiques à des fins d’assistance. Certains outils comme les Modèles de Markov Cachés ou les Réseaux de Petri sont déjà utilisés dans ce contexte mais pour pouvoir fonctionner en temps-réel, le concepteur doit préciser au préalable les différentes situations possibles. Nous proposons un algorithme générique qui acquiert lui-même les connaissances du système dynamique observé. Il s’adapte à l’utilisateur et aux situations rencontrées pour effectuer des prédictions. Nous représentons le déroulement des situations dynamiques sous forme de scénarios. Un scénario correspond à une période temporelle où les évènements ont une influence les uns sur les autres. Il est constitué d’une succession d’états et d’actions sous forme de symboles. Cet algorithme est inspiré du Raisonnement à Partir de Cas. Il a été imaginé et développé dans un souci de rapidité et pour une bonne gestion de l’évolution temporelle. La validation est effectuée par application à deux domaines indépendants. La première consiste à assister l’utilisateur d’un fauteuil roulant électrique. Sans connaissance initiale de l’environnement et après avoir appris les trajets habituellement effectués, l’algorithme décharge l’utilisateur d’une partie des commandes. Dans la seconde application, l’expérience de tous les utilisateurs d’un jeu multi-joueurs est collectée pour assister les joueurs débutants : la prédiction de l’issue du combat en cours leur est indiquée
Our study deals with the problem of recognition and anticipation of dynamic situations for user assistance. Existing tools like Hidden Markov Models or Petri Nets are already used in this context. However, learning this kind of models is complicated and slow. Thus, the de-signer has to specify every model of situation so that the program can work in real-time. Our solution is a generic algorithm which build itself the representation of the dynamic system. It adapts to the user and the situation in order to make predictions. Dynamic situations are modeled by scenarios. A scenario corresponds to a period during which every event has an influence on other. It is made of an ordered series of states and actions in the form of symbols. The algorithm is a kind of Case-Based Reason-ing method but some modifications are made. Representations and computations are oriented towards simplicity and speed. Moreover, the algorithm is suitable for problems which evolve in time. The approach is applied to two distinct fields. The first application consists in assisting the user of a powered wheelchair. Without knowing initially the environment, the algorithm memorizes the usual paths of the user. This knowledge is used to drive automatically the wheelchair during usual paths. The second ap-plication is dedicated to the assistance of novice players in a multi-player online game. Experience of dynamic situations is learned from all the players and is used to predict the consequences of every battle
APA, Harvard, Vancouver, ISO, and other styles
41

Fasquel, Jean-Baptiste. "Une méthode opto-informatique de détection et de reconnaissance d'objets d'intérêt : Application à la détection des lésions cancéreuses du foie et à la vérification en temps-réel des signatures manuscrites." Université Louis Pasteur (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR13234.

Full text
Abstract:
Compte tenu des récents progrès technologiques, les processeurs optiques s'avèrent plus rapides que des processeurs numériques spécialisés, principalement dans le cas de traitements fondés sur des filtrages linéaires. L'objectif de cette thèse est de montrer, dans un cadre applicatif, le potentiel du couplage optimisé d'un dispositif numérique spécialisé à un corrélateur optique de Vander Lugt en proposant une méthode hybride " opto-informatique " originale de détection et de reconnaissance d'objets d'intérêt. La méthode originale de détection repose sur une recombinaison statistique numérique d'une série de lissages optiques, au sein de régions d'intérêt préalablement détectées par des techniques hybrides rapides. Nous montrons que cette méthode hybride permet la détection non supervisée d'objets d'intérêt bruités et de tailles variables. Des résultats expérimentaux montrent son potentiel pour la détection rapide des lésions cancéreuses du foie. La méthode originale de reconnaissance, dédiée à la vérification rapide des signatures manuscrites, consiste à fusionner plusieurs classifieurs statistiques. Chacun d'eux repose sur une série de filtrages spécifiques implémentables optiquement et permettant de mesurer la ressemblance entre des structures constitutives de la signature analysée et de signatures de référence. Les différentes décisions ainsi que leur fusion sont effectuées par voie numérique. Les résultats expérimentaux valident la méthode hybride proposée
Due to recent technological advances, optical processors become faster than specialized digital processors, essentially for linear filterings. The purpose of this thesis is to point out, for two applications, the potential of the coupling of a specialized digital processor with a Vander Lugt optical correlator, by developping an original hybrid " opto-electronic " method for object detection and recognition. The proposed object detection method is based on the digital statistical recombination of a set of optical smoothings, within regions of interest which are previously detected using a fast hybrid technique. It is shown that this hybrid method allows the unsupervised detection of noisy objects of varying sizes. Experimental results validate its potential for the fast detection of liver tumors. The proposed object recognition method, dedicated to the fast verification of handwritten signatures, consists in several statistical classifiers. Each one is based on a set of specific optical filterings allowing to measure the similarity between underlying structures of the signature to be verified and the reference signatures. The different decisions and their fusion are performed with a digital processor. Experimental results validate the proposed hybrid object recognition method
APA, Harvard, Vancouver, ISO, and other styles
42

Jaber, Jamal. "Définition et validation d'une architecture électronique rapide de caractérisation et d'étiquetage d'objets dans une image." Nancy 1, 1993. http://www.theses.fr/1993NAN10332.

Full text
Abstract:
Dans cette thèse nous proposons une architecture électronique rapide de caractérisation et d'étiquetage d'objets dans une image. La caractérisation se fait par la détermination de certains paramètres. Dans le cadre d'une exécution rapide le choix du paramètre est lié à la possibilité de le déterminer rapidement. Nous caractérisons l'objet par estimation de la surface et du périmètre grâce à des calculs récursifs rapides. Pour ce faire, nous proposons des algorithmes de détection de contour aussi bien sur une image provenant de camera hors standard que sur une image tramée. Ils sont basés sur des traitements combinatoires locaux utilisant un voisinage 33. En présence de plusieurs objets l'individualisation de la caractérisation est obtenue par une procédure d'étiquetage. Une architecture pipe line permet d'intégrer en parallèle les algorithmes de détection et d'étiquetage. Ainsi, nous aboutissons à une caractérisation séparée des objets de l'image sans connaissance préalable de son contenu. L'architecture est organisée autour de circuits f. P. G. A. Associés à des mémoires f. I. F. O. L'implantation de l'ensemble des algorithmes représente un equi de 9000 portes logiques. Le caractère combinatoire des traitements autorise des fréquences de travail intéressantes, ils sont réalisés à la volée sur le signal vidéo avec un retard de deux lignes plus deux cycles d'horloge par rapport à la ligne courante. Cette performance de rapidité permet de traiter en temps réel certains problèmes de reconnaissance de formes et d'étude de mouvements, un autre intérêt réside dans l'utilisation de circuits entièrement programmables
APA, Harvard, Vancouver, ISO, and other styles
43

Bigué, Laurent. "Reconnaissance des formes en temps réel par voie optique : étude comparative d'implantations optiques de filtres de corrélation : application au corrélateur optique à transformée de Fourier conjointe." Mulhouse, 1996. http://www.theses.fr/1996MULH0445.

Full text
Abstract:
Nous proposons de mettre en oeuvre un prototype de corrélateur optique temps - réel destiné à la reconnaissance des formes. Nous dressons d'abord une revue bibliographique de l'état de l'art en ce qui concerne la reconnaissance des formes par voie optique, la corrélation et les modulateurs spatiaux de lumière (SLM), éléments - clés pour la mise en oeuvre optique de la corrélation. Nous abordons ensuite les problèmes liés à cette mise en oeuvre, en particulier dans le cas d'un corrélateur à transformée de Fourier conjointe (JTC). Nous proposons l'implantation de filtres synthétiques discriminants (SDF) au sein d'un tel corrélateur: elle s'avère concluante, permettant d'assurer une invariance au moins partielle au problème de la rotation planaire. Nous proposons d'implanter des filtres SDF à compromis optimal entre résistance au bruit, finesse de pic et efficacité optique au sein d'un JTC. Nous développons pour ce faire une technique inspirée de celles utilisées pour le calcul des éléments optiques diffractifs. Cette technique nous permet ensuite d'opérer la caractérisation multi - critères du JTC, c'est à dire d'établir une comparaison des performances fournies par les domaines de codage des différents SLM. Nous comparons ensuite notre technique d'implantation de filtres de corrélation à des techniques plus traditionnelles, et proposons enfin une technique d'estimation de paramètres
APA, Harvard, Vancouver, ISO, and other styles
44

Hamdi, Hamza. "Plate-forme multimodale pour la reconnaissance d'émotions via l'analyse de signaux physiologiques : Application à la simulation d'entretiens d'embauche." Phd thesis, Université d'Angers, 2012. http://tel.archives-ouvertes.fr/tel-00997249.

Full text
Abstract:
La reconnaissance des émotions est un aspect important de l'informatique affective dont l'un des objectifs est l'étude et le développement d'interactions comportementales et émotionnelles entre humains et agents conversationnels animés. Dans ce contexte, un point également important concerne les dispositifs d'acquisition et les outils de traitement des signaux, conduisant à une estimation de l'état émotionnel de l'utilisateur. Le travail présenté dans ce manuscrit repose sur le développement d'une plate-forme multimodale d'acquisition et de traitement de signaux physiologiques (PACE). Cette plate-forme peut être considérée comme un middleware modulaire et générique permettant de mesurer, en temps réel, l'état émotionnel de l'utilisateur via l'estimation d'un vecteur d'état. Elle s'intègre dans le cadre de la mise en place d'un simulateur innovant destiné à la simulation d'entretiens d'embauche (Projet PISE : Plate-forme Immersive de Simulation d'Entretien). Cet outil permettra aux personnes en phase d'insertion ou de réinsertion, une meilleure gestion de leurs compétences comportementales et émotionnelles. L'approche que nous avons développée se fonde sur les résultats expérimentaux obtenus et sur une méthodologie originale impliquant différents modèles mathématiques. Différents protocoles expérimentaux, basés sur deux techniques d'induction de stimuli (images IAPS et séquences vidéo de Schaeffer) ont été proposés. Ils permettent la détermination de la corrélation entre les états émotionnels et les signaux physiologiques (EEG, ECG, etc.) issus des capteurs proposés. Trois méthodes de classification (SVM, naïve bayésienne, régression logistique) ont été comparées sur plusieurs critères d'évaluation. Nous avons proposé, à partir des résultats obtenus, une méthodologie permettant l'extraction en temps réel des émotions via les modèles proposés. Une étude expérimentale a également été menée avec pour objectif de valider la plate-forme PACE via la reconnaissance d'états émotionnels lors de séquences vidéo développées à l'Université d'Angers. L'approche multimodale proposée a donné de meilleurs résultats que les approches uni-modales précédentes. Enfin, notre plate-forme a été intégrée au simulateur PISE, et évaluée de manière subjective et objective lors de simulations d'entretiens. Les résultats ont permis de valider partiellement le simulateur.
APA, Harvard, Vancouver, ISO, and other styles
45

Mazeau, Jean-Paul. "De la vidéo virtuelle à la compréhension de l'image en temps réel par l'analyse des composantes chromatiques : des applications dans le domaine de la réalité virtuelle." Paris 8, 1992. http://www.theses.fr/1992PA080698.

Full text
Abstract:
Cette these se decompose en deux parties. La premiere traite de la problematique du montage virtuel a partir de sequences video enregistrees sur divers supports. Apres l'analyse nous proposons une machine et des logiciels capables d'exploiter sequentiellement ou en parallele l'ensemble des supports de la configuration. Cette premiere phase s'accompagne de diverses applications qui touchent aux domaines: de l'experimentation, de la formation, du ludique, etc. . . La deuxieme phase traite de la generalisation de la video virtuelle, elle depasse le cadre de l'utilisation de la video comme support d'images visibles. Elle introduit le concept de donnee iconique et propose une architecture de machine, capable de traiter l'image directement a partir de ces donnees. Cette architecture parallele specifique utilise le concept silisiumauteur qui permet de specialiser le silicium en fonction d'une application, afin de traiter, au travers d'un ensemble de regles, toutes les relations entre les images a comprendre et les "images" qui servent a comprendre. Cette architecture realise des traitements au cycle de la trame d'information, ici 25 fois par seconde. Le temps de traitement ne depend ni: du nombre de plans video a comprendre, ni de la complexite des relations etablies entre ces plans. Nous traitons une panoplie d'exemples qui illustrent quelques champs applicatifs dans les domaines de: la robotique, la comprehension d'images, l'interactivite par le mouvement, la mesure, etc. .
This thesis is divided into 2 parts. The first one deals with the problems of the virtual montage of video sequences recorded on various supports. After the analysis we propose a serial or parallel processing machine capable of accessing all available supports. This first step includes various applications in the fields of experimentation. Teaching, games, etc. The second step deals with the generalization of virtual video beyond the limits of the use of video as a support of visible images. It introduces the concept of (iconicdata) and offers a machine architecture designed to process the image directlyfrom such data, on the basis of the signal. This specific parallel architecture uses the concept of (authorsilicium) which allows for application cnstrained silicium, so as to process, through a set of rules all the relations between the images to be understood and the images that help to understand. This architecture operates on an information frame cycle, i. E. 25 times per second. Processing time depend neither on the number of video patterns to be understood nor on, the complexity of the relations between theses patterns. We consider a set of examples from suitable applications domain such as: robotics, image comprehension, interactive movement, virtual reality
APA, Harvard, Vancouver, ISO, and other styles
46

Rahmani, Naïm Mohamed. "Instrumentation pour le traitement numérique du signal électroencéphalographique : Application à la reconnaissance automatique, temps réel, des différents stades de sommeil et de veille chez le rat." Nancy 1, 1990. http://docnum.univ-lorraine.fr/public/SCD_T_1990_0336_RAHMANI.pdf.

Full text
Abstract:
L'origine physiologique de certains signaux leur donne des caractéristiques complexes difficiles à interpréter. L'il expert de l'operateur humain peut interpréter tel ou tel signal, non sans se tromper dans son jugement de temps à autre. En effet, la reconnaissance de forme de signaux electrophysiologiques par l'operateur humain, puis la décision restent très subjectives et peuvent varier d'un operateur à un autre. Ce travail a donc, pour objectif de présenter une approche méthodologique globale au problème de traitement automatique des signaux electrophysiologiques, autour d'une instrumentation pour la reconnaissance automatique, temps réel, des différents stades de sommeil et de veille chez le rat à partir du traitement d'un signal electroencephalographique cortical: à partir d'un enregistrement du signal EEG, reconnu par un expert, on a élaboré des représentations-modèles des différents stades auxquelles on a associé des procédures de reconnaissance de forme en temps réel.
APA, Harvard, Vancouver, ISO, and other styles
47

Jeanne, Florian. "Métaphore d’interaction gestuelle en environnement virtuel : application à l’apprentissage de gestes." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2398/document.

Full text
Abstract:
Au cours de nos travaux, nous nous sommes intéressés à l’apprentissage de gestes techniques en environnement virtuel. Ces environnements permettent en effet de se former à un geste réalisable dans un environnement réel, en ayant des aides qui ne seraient quant à elle pas disponibles, comme la trace en trois dimensions du geste par exemple, ou la possibilité de voir son geste d’un point de vue différent. Toutefois dans le cadre du guidage de geste, il s’avère que la plupart des métaphores visuelles usuelles ne tiennent pas ou peu compte du problème de dépendance qu’elles génèrent. L’hypothèse de guidage issue des théories sur l’apprentissage moteur, stipule en effet que l’utilisation continue d’aides pendant l’apprentissage génère une dépendance de l’apprenant vis-à-vis de ces aides. Ce dernier n’est alors plus capable de reproduire correctement le geste ou la tâche demandée sans l’aide de ces aides. Néanmoins, en réalité virtuelle l’utilisation d’aides d’apprentissage reste nécessaire pour la formation. Pour répondre à cette problématique nous proposons une nouvelle métaphore dynamique d’interaction 3D en environnement virtuel, basée sur la modalité visuelle. Notre approche consiste à axer l’apprentissage sur le ressenti de l’utilisateur, en nous basant sur une pédagogie essai-erreur dans le cadre théorique du paradigme de l’énaction. Notre métaphore indique à l’apprenant ses erreurs de trajectoire en temps réel, l’incitant implicitement à se corriger. Notre hypothèse est que lorsque l’aide n’est plus affichée, l’apprenant est capable de reproduire le geste convenablement en se basant sur ses sensations passées. Nous avons conduit une première expérimentation afin de vérifier que notre métaphore permet bien de reproduire un geste présenté au préalable tout en corrigeant les erreurs de trajectoire. Puis, dans un second temps une deuxième expérimentation a démontré que la métaphore permettait d’obtenir de meilleures performances et qu’elle réduisait davantage la dépendance que des métaphores usuelles de guidage
In the light of our work, we were interested in precise gesture learning in virtual environment. In these environments, learners can train in safer and longer training sessions than in real environments, using augmented feedback that wouldn’t be available otherwise—such as a 3D trace of canonical movements or the opportunity to see your gesture from a different point of view. However, in the context of gesture guidance, most of the usual visual metaphors do not tackle the dependency they generate. The guidance hypothesis, from motor learning theories, states that the continuous use of feedback during early phases of learning leads to a dependency on the feedback. Learners are no longer able to properly reproduce the requested gesture or task without the help of this feedback. However, in virtual environments the use of augmented feedback remains necessary for training. To deal with this issue, we propose a new dynamic metaphor for 3D interaction in virtual environments, based on the visual modality. Our approach is focus users’ training on their intrinsic feedback, by using a trial-and-error strategy. Our metaphor shows users’ trajectory errors in real time, implicitly spurring them to correct these errors. We assume that when the metaphor is no longer visible, learners are able to properly reproduce the gesture using their past experiences. We conducted a first experiment to evaluate the capacity of our metaphor to properly guide learners during gesture training. Then, a second experiment showed that the metaphor allowed learners to improve their performance and that it further reduced the dependency than usual guiding metaphors
APA, Harvard, Vancouver, ISO, and other styles
48

Zemour, Aurélie. "Gestes, espaces et temps funéraires au début du Néolithique (6ème millénaire et 1ère moitié du 5ème millénaire cal-BC) en Italie et en France méridionale : reconnaissance des témoins archéologiques de l'après-mort." Thesis, Nice, 2013. http://www.theses.fr/2013NICE2021.

Full text
Abstract:
Cette étude renouvelle en profondeur notre perception des pratiques funéraires des premiers agro-pasteurs vivant en Italie et en France méridionale au début du Néolithique. L’hypothèse de leur uniformité, qui n’avait jusqu’ici jamais été véritablement questionnée, est désormais invalidée.Au contraire, l’essence même de l’idéologie funéraire portée et pérennisée durant plus d’un millénaire par ces groupes est la diversité des pratiques mortuaires. La variabilité des pratiques qui incluent différentes formes de dépôts du cadavre (primaire, secondaire, individuel, pluriel) a livré néanmoins des codes qui varient d’une culture à une autre, d’un groupe à un autre, d’un site à un autre et d’un individu à un autre, formant un système diversifié, mais cohérent. Cette étude a aussi dévoilé des pratiques symboliques exploitant des restes humains et en a révélé les modalités.En s’appuyant sur une vision raisonnée des processus de néolithisation et de la nature du complexe Impresso-cardial, ma réflexion aborde également le rôle de la sphère funéraire du début du Néolithique dans la complémentarité polymorphe existant entre les sites et le caractère innovant des gestes funéraires, dont l’ascendance mésolithique apparaît limitée. Adopter une approche archéothanotologique et mobiliser un large panel de témoins archéologiques de l’après morts ur un corpus étendu (45 sites, 87 unités funéraires, 128 individus) a donc permis non seulement, de cerner le système funéraire des groupes étudiés, mais plus largement d’étudier et de décrire le(s) comportement(s) qu’ils ont adopté(s) face à un cadavre et face à la Mort
This study deeply renews our understanding of the funerary practices of the first farmers living in Italy and in southern France at the dawn of Neolithic. The hypothesis of their uniformity, which has been not truly questioned so far, is now invalidated. On the contrary, the very essence of the funerary ideology, that was spread and perpetuated by these societies during more than one millennium, is the diversity of the funerary practices. Indeed, this variability including variousforms of corpse deposits (primary, secondary, individual, plural) nevertheless displays codesvarying from a culture to another, a group to another, a site to another and from an individual toanother, creating a diverse but coherent system. This study has also highlighted symbolic practices exploiting human remains, and revealed their procedures. Relying on a reasoned visionof the neolithisation process and on the nature of the Impresso-cardial complex, this approach also reaches the role occupied by the funerary system within the multifaceted complementarity between sites as well as the innovation degree of burial gestures, whose Mesolithic origin appears limited. Following an archaeothanatological approach and mobilizing a broad panel of after-death archaeological testimonies on a wide corpus (45 sites, 87 funerary units, 128 individuals) has therefore not only allowed accessing the funerary system of the considered societies, but on the top of that, studying and describing the behaviours they adopted in regard of the corpse and towards Death
APA, Harvard, Vancouver, ISO, and other styles
49

Sheng, Yunlong. "Processeur optique de traitement en temps réel d'images vidéo : Application au calcul optique des moments bidimensionnels des images." Besançon, 1986. http://www.theses.fr/1986BESA2032.

Full text
Abstract:
Dispositif optique de calcul analogique des moments d'images en éclairage incohérent. Calcul en parallèle des dix premiers moments bidimensionnels de l'image grâce a une matrice de masques photographiques codant optiquement les noyaux des différentes intégrales de moments. Un microordinateur effectue les opérations de reconnaissance de formes sur ce petit nombre de caractéristiques statistiques extraites optiquement. Le processeur optique réalise est enfin utilise pour l'identification de pages manuscrites saisies en temps réel par camera vidéo et classées par un microordinateur gérant les moments des pages calculées optiquement
APA, Harvard, Vancouver, ISO, and other styles
50

Girondel, Vincent. "Contribution à l'analyse et à l'interprétation du mouvement humain : application à la reconnaissance de postures." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00156572.

Full text
Abstract:
Le travail de recherche présenté dans ce mémoire de thèse est dédié à l'analyse et à l'interprétation du mouvement humain avec application à la reconnaissance de postures. L'analyse et l'interprétation du mouvement humain en vision par ordinateur ont de nombreux domaines d'applications tels que la vidéosurveillance, les applications de réalité mixte et les interfaces homme-machine avancées. Nous proposons ici un système temps-réel permettant une analyse et une interprétation du mouvement humain.

L'analyse du mouvement humain fait intervenir plusieurs processus de traitement d'images tels que la segmentation d'objets en mouvement, le suivi temporel, la détection de peau, les modèles de corps humain et la reconnaissance d'actions ou de postures. Nous proposons une méthode de suivi temporel en deux étapes permettant de suivre au cours du temps une ou plusieurs personnes même si elles s'occultent entre elles. Cette méthode est basée sur un calcul d'intersection de boîtes englobantes rectangulaires et sur un filtrage partiel de Kalman. Puis nous explicitons une méthode de détection de peau par une approche couleur afin de localiser leurs visages et leurs mains. Toutes ces étapes préliminaires donnent accès à de nombreuses informations bas-niveau. Dans une dernière partie, nous utilisons une partie de ces informations pour reconnaître les postures statiques de personnes parmi les quatre postures suivantes: debout, assis, accroupi et couché. De nombreux résultats illustrent les avantages et les limitations des méthodes proposées, ainsi que leur efficacité et robustesse.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography