Дисертації з теми "Détection de forme planaire"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Détection de forme planaire.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Détection de forme planaire".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Labouré, Iooss Marie-José. "Faisabilité d'une carte électronique d'opérateurs de seuillage : déformation d'objets plans lors de transformations de type morphologique." Saint-Etienne, 1987. http://www.theses.fr/1987STET4014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude de la segmentation d'une image et plus particulièrement du seuillage d'une image. Classification de formes planes. De nombreux algorithmes sont présentés. La plupart sont fondés sur la connaissance de l'histogramme des niveaux de gris. Une carte électronique de seuillage a été développée. Des méthodes originales de détection de contours sont aussi explicitées. Dans une deuxième partie, une étude sur les déformations d'objets plans après dilatations successives est présentée
2

Mousse, Ange Mikaël. "Reconnaissance d'activités humaines à partir de séquences multi-caméras : application à la détection de chute de personne." Thesis, Littoral, 2016. http://www.theses.fr/2016DUNK0453/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La vision artificielle est un domaine de recherche en pleine évolution. Les nouvelles stratégies permettent d'avoir des réseaux de caméras intelligentes. Cela induit le développement de beaucoup d'applications de surveillance automatique via les caméras. Les travaux développés dans cette thèse concernent la mise en place d'un système de vidéosurveillance intelligente pour la détection de chutes en temps réel. La première partie de nos travaux consiste à pouvoir estimer de façon robuste la surface d'une personne à partir de deux (02) caméras ayant des vues complémentaires. Cette estimation est issue de la détection de chaque caméra. Dans l'optique d'avoir une détection robuste, nous avons fait recours à deux approches. La première approche consiste à combiner un algorithme de détection de mouvements basé sur la modélisation de l'arrière plan avec un algorithme de détection de contours. Une approche de fusion a été proposée pour rendre beaucoup plus efficiente le résultat de la détection. La seconde approche est basée sur les régions homogènes de l'image. Une première ségmentation est effectuée dans le but de déterminer les régions homogènes de l'image. Et pour finir, nous faisons la modélisation de l'arrière plan en se basant sur les régions. Une fois les pixels de premier plan obtenu, nous faisons une approximation par un polygone dans le but de réduire le nombre d'informations à manipuler. Pour l'estimation de cette surface nous avons proposé une stratégie de fusion dans le but d'agréger les détections des caméras. Cette stratégie conduit à déterminer l'intersection de la projection des divers polygones dans le plan de masse. La projection est basée sur les principes de l'homographie planaire. Une fois l'estimation obtenue, nous avons proposé une stratégie pour détecter les chutes de personnes. Notre approche permet aussi d'avoir une information précise sur les différentes postures de l'individu. Les divers algorithmes proposés ont été implémentés et testés sur des banques de données publiques dans le but de juger l'efficacité des approches proposées par rapport aux approches existantes dans l'état de l'art. Les résultats obtenus et qui ont été détaillés dans le présent manuscrit montrent l'apport de nos algorithmes
Artificial vision is an involving field of research. The new strategies make it possible to have some autonomous networks of cameras. This leads to the development of many automatic surveillance applications using the cameras. The work developed in this thesis concerns the setting up of an intelligent video surveillance system for real-time people fall detection. The first part of our work consists of a robust estimation of the surface area of a person from two (02) cameras with complementary views. This estimation is based on the detection of each camera. In order to have a robust detection, we propose two approaches. The first approach consists in combining a motion detection algorithm based on the background modeling with an edge detection algorithm. A fusion approach has been proposed to make much more efficient the results of the detection. The second approach is based on the homogeneous regions of the image. A first segmentation is performed to find homogeneous regions of the image. And finally we model the background using obtained regions
3

Yu, Mulin. "Reconstruction et correction de modèles urbains à l'aide de structures de données cinétiques." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4077.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles numériques 3D compacts et précis de bâtiments sont couramment utilisés par les praticiens pour la visualisation d'environnements existants ou imaginaires, les simulations physiques ou la fabrication d'objets urbains. La génération de tels modèles prêts à l'emploi est cependant un problème difficile. Lorsqu'ils sont créés par des designers, les modèles 3D contiennent généralement des erreurs géométriques dont la correction automatique est un défi scientifique. Lorsqu'ils sont créés à partir de mesures de données, généralement des balayages laser ou des images multivues, la précision et la complexité des modèles produits par les algorithmes de reconstruction existants n'atteignent souvent pas les exigences des praticiens. Dans cette thèse, j'aborde ce problème en proposant deux algorithmes : l'un pour réparer les erreurs géométriques contenues dans les formats spécifiques de modèles de bâtiments, et l'autre pour reconstruire des modèles compacts et précis à partir de nuages ​​de points générés à partir d'un balayage laser ou d'images stéréo multivues. Le composant clé de ces algorithmes repose sur une structure de données de partitionnement d'espace capable de décomposer l'espace en cellules polyédriques de manière naturelle et efficace. Cette structure de données permet à la fois de corriger les erreurs géométriques en réassemblant les facettes de modèles 3D chargés de défauts, et de reconstruire des modèles 3D à partir de nuages ​​de points avec une précision et complexité proche de celles générées par les outils interactifs de Conception Assistée par Ordinateur.Ma première contribution est un algorithme pour réparer différents types de modèles urbains. Les travaux antérieurs, qui reposent traditionnellement sur une analyse locale et des heuristiques géométriques sur des maillages, sont généralement conçus sur-mesure pour des formats 3D et des objets urbains spécifiques. Nous proposons une méthode plus générale pour traiter différents types de modèles urbains sans réglage fastidieux des paramètres. L'idée clé repose sur la construction d'une structure de données cinétiques qui décompose l'espace 3D en polyèdres en étendant les facettes du modèle d'entrée imparfait. Une telle structure de données permet de reconstruire toutes les relations entre les facettes de manière efficace et robuste. Une fois construites, les cellules de la partition polyédrique sont regroupées par classes sémantiques pour reconstruire le modèle de sortie corrigé. Je démontre la robustesse et l'efficacité de l'algorithme sur une variété de modèles réels chargés de défauts et montre sa compétitivité par rapport aux techniques traditionnelles de réparation de maillage à partir de données de modélisation des informations du bâtiment (BIM) et de systèmes d'information géographique (SIG). Ma deuxième contribution est un algorithme de reconstruction inspiré de la méthode Kinetic Shape Reconstruction, qui améliore cette dernière de différentes manières. En particulier, je propose une technique pour détecter des primitives planaires à partir de nuages ​​de points 3D non organisés. Partant d'une configuration initiale, la technique affine à la fois les paramètres du plan continu et l'affectation discrète de points d'entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. La solution est trouvée par un mécanisme d'exploration guidé par une fonction énergétique à objectifs multiples. Les transitions dans le grand espace des solutions sont gérées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Je démontre son potentiel, non seulement sur des bâtiments, mais sur une variété de scènes, des formes organiques aux objets fabriqués par l'homme
Compact and accurate digital 3D models of buildings are commonly used by practitioners for the visualization of existing or imaginary environments, the physical simulations or the fabrication of urban objects. Generating such ready-to-use models is however a difficult problem. When created by designers, 3D models usually contain geometric errors whose automatic correction is a scientific challenge. When created from data measurements, typically laser scans or multiview images, the accuracy and complexity of the models produced by existing reconstruction algorithms often do not reach the requirements of the practitioners. In this thesis, I address this problem by proposing two algorithms: one for repairing the geometric errors contained in urban-specific formats of 3D models, and one for reconstructing compact and accurate models from input point clouds generated from laser scanning or multiview stereo imagery. The key component of these algorithms relies upon a space-partitioning data structure able to decompose the space into polyhedral cells in a natural and efficient manner. This data structure is used to both correct geometric errors by reassembling the facets of defect-laden 3D models, and reconstruct concise 3D models from point clouds with a quality that approaches those generated by Computer-Aided-Design interactive tools.My first contribution is an algorithm to repair different types of urban models. Prior work, which traditionally relies on local analysis and heuristic-based geometric operations on mesh data structures, is typically tailored-made for specific 3D formats and urban objects. We propose a more general method to process different types of urban models without tedious parameter tuning. The key idea lies on the construction of a kinetic data structure that decomposes the 3D space into polyhedra by extending the facets of the imperfect input model. Such a data structure allows us to re-build all the relations between the facets in an efficient and robust manner. Once built, the cells of the polyhedral partition are regrouped by semantic classes to reconstruct the corrected output model. I demonstrate the robustness and efficiency of the algorithm on a variety of real-world defect-laden models and show its competitiveness with respect to traditional mesh repairing techniques from both Building Information Modeling (BIM) and Geographic Information Systems (GIS) data.My second contribution is a reconstruction algorithm inspired by the Kinetic Shape Reconstruction method, that improves the later in different ways. In particular, I propose a data fitting technique for detecting planar primitives from unorganized 3D point clouds. Departing from an initial configuration, the technique refines both the continuous plane parameters and the discrete assignment of input points to them by seeking high fidelity, high simplicity and high completeness. The solution is found by an exploration mechanism guided by a multi-objective energy function. The transitions within the large solution space are handled by five geometric operators that create, remove and modify primitives. I demonstrate its potential, not on buildings only, but on a variety of scenes, from organic shapes to man-made objects
4

Liozon, Fabrice. "Méthodes semi-automatiques de détection du contour ventriculaire en scintigraphie cardiaque planaire." Paris 12, 1997. http://www.theses.fr/1997PA120074.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En medecine nucleaire la determination de la fonction ventriculaire gauche necessite une detection de contour ventriculaire et sa precision depend de l'exactitude de ce contour. Les images des cavites cardiaques doivent etre filtrees avant tout traitement, dans cette etude, nous avons utilise le filtre de wiener. Nous avons developpe deux outils d'aide a la detection (methodes semi-automatiques) visant a aider l'operateur dans son trace du contour ventriculaire et lui eviter des erreurs liees a la repetitivite. Pour le premier, appele algorithme adaptatif, nous partons des traces tele-systolique et tele-diastolique etablis par l'operateur. Nous recherchons secteur par secteur la methode de detection de contour qui minimise l'erreur quadratique de position avec le contour trace par l'operateur. Pour chaque secteur, la methode retenue est alors utilisee pour tracer le contour de toutes les images du cycle cardiaque. Pour la deuxieme methode proposee, appelee algorithme des contours actifs, nous cherchons a reduire la part de l'operateur. Nous partons d'un modele developpe dans la litterature que nous avons ameliore en rendant ces parametres de reglage plus explicites en terme d'image. L'operateur place autour de la zone ventriculaire gauche une ellipse ideale ; ce contour initial subit des deformations par l'action d'un potentiel d'attraction pour se stabiliser sur les bords ventriculaires. Nous avons valide les deux algorithmes au moyen de contours manuels executes par des experts. Ces deux algorithmes permettent d'annuler les erreurs de reproductibilite inter et intra-individuelles. Notre etude est en faveur de l'utilisation de l'algorithme adaptatif, car il donne une erreur quadratique de position plus faible que le deuxieme algorithme. De meme les parametres de la fonction ventriculaire sont plus proches des valeurs de reference. Nous concluons egalement que l'algorithme des contours actifs doit etre reserve aux images de contraste eleve.
5

Frabolot, Ferdinand. "Optimisation de forme avec détection automatique de paramètres." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2182/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail de thèse est de pouvoir intégrer totalement l’optimisation de forme des raidisseurs de capot dans un processus de conception industrielle et cela afin d’optimiser la forme et la distribution des raidisseurs dans un contexte multi-objectif (voire multi-disciplinaire) d’une structure 3D surfacique. Pour ce faire, nous avons tout d’abord établi un aperçu de l’état de l’art dans l’optimisation de forme des structures en classifiant les différentes méthodes de paramétrage de forme, en trois catégories ; les méthodes basées sur la géométrie (telle la paramétrisation d’un modèle de type CAO), les méthodes basées sur une grille fixe (telles que les méthodes d’optimisation topologique) et les méthodes basées sur le maillage (telles que les méthodes de régularisation du maillage). Toutefois, aucune de ces méthodes ne satisfait pleinement aux objectifs posés. Nous introduisons ainsi dans cette thèse la méthode FEM-CsG : Finite Element Mesh - Constructive surface Geometry. Imprégnée d’un fort contexte industriel, cette méthode propose une réponse à des contraintes telles que la possibilité de représenter la solution optimale par un ensemble de paramètres CAO, la possibilité d’adapter le modèle EF à l’analyse souhaitée et la garantie d’une représentation géométrique et d’un maillage robuste. En proposant d’intégrer des formes élémentaires paramétrées et prémaillées issues d’une bibliothèque de formes dans une structure coque 3D maillée par l’utilisation des variables issues de la CAO, la méthode FEM-CsG permet une évolution constante de la topologie guidée par l’optimisation. Ainsi, même si la topologie est modifiée la forme résultante reste conforme avec une représentation CAO par construction, correspondant davantage à la réalité des optimisations réalisées en avant-projet. La méthode FEM-CsG a été validée sur deux études de cas, de complexité variable, permettant de mettre en avant la robustesse de cette dernière. Ainsi, avec un choix intelligent et cohérent des variables de formes, les problèmes d’optimisation peuvent avec un nombre restreint de variables explorer un nombre important de topologies ou de formes. Les changements de topologies s’effectuent de manière continue, validant ainsi la méthode à tout type d’analyse souhaitée
The objective of this thesis work is to be able to completely integrate shape optimization of car inner hood stiffeners in a complex industrial process, in order to fully optimize the shape and distribution of the stiffeners in a multi-objective approach (or even multi-disciplinary) of a 3D surfacic structure. To this end, we established, at the outset, an insight of the state-of-the-art in shape optimization of structures by classifying the different shape parametrizations in three distinct categories : geometry-based methods (a shape parametrization such as a CAD model), grid-based methods (such as topology optimization methods) and mesh-based methods (such as morphing methods or mesh regulation). However, none of these methods fully satisfies the set objectives. Thus, we will introduce in this work the FEM-CsG method : Finite Element Mesh - Constructive surface Geometry. Bolstered by its strong industrial context, this method offers a response to such constraints, i.e. the possibility to represent the optimal solution by a system of CAD parameters, the possibility to adapt the FE model to the wanted analysis and the guarantee of a robust geometrical representation and mesh stability. We offer to incorporate premeshed parameterized elementary forms into a 3D sheet meshed structures. Hence, these forms are arising from a CAD parameterized elementary form library. Furthermore, the FEM-CsG method uses a set of operators acting on the mesh allowing a constant evolution of the topology guided by optimization. Therefore, even if the topology may vary, the resulting shapes comply with CAD representations by construction, a solution better reflecting the reality of optimizations performed during the preliminary development stage. The FEM-CsG method has been validated on two simple case studies in order to bring forward its reliability. Thus, with an intelligent and coherent choice of the design variables, shape optimization issues may, with a restrictive number of variables, explore an important number of shapes and topologies. Topology changes are accomplished in a continuous manner, therefore validating the FEM-CsG method to any desired analysis
6

Beaslas, Olivier. "DÉTECTION DES LIPIDES ALIMENTAIRES SOUS FORME DE COMPLEXES MICELLAIRES PAR LES ENTÉROCYTES." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00811592.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'intestin assure l'absorption des lipides alimentaires et doit faire face aux variations d'apport en lipides, entre les périodes inter-prandiales et post-prandiales. J'ai donc étudié dans les cellules Caco-2/TC7, la réponse des entérocytes à différents modes d'apports en lipides. Par une approche transcriptomique, j'ai montré que les lipides modulent l'expression de nombreux gènes entérocytaires. Les profils géniques obtenus diffèrent entre l'apport luminal ou sérique en lipides. La comparaison des apports apicaux de micelles inter- ou post-prandiales (MPP) a montré que les MPP modulent spécifiquement l'expression de 46 gènes majoritairement impliqués dans la transduction de signaux, le métabolisme lipidique, et l'architecture cellulaire. Ces résultats, s'ajoutant aux effets spécifiques des MPP obtenus dans l'équipe, suggéraient une détection entérocytaire des lipides alimentaires apportés par ces MPP. J'ai alors montré que les MPP se lient à une protéine dont le poids moléculaire correspond à celui du récepteur SR-BI, induisant sa clusterisation à la membrane apicale et son adressage vers les rafts. Seules les MPP induisent, le trafic de l'apoB, de la membrane apicale vers les compartiments sécrétoires et l'activation de kinases. Ces effets sont abolis quand SR-BI est bloqué par un de ses ligands ou invalidé par ARN interférence. Ces travaux montrent pour la première fois que les entérocytes sont capables de détecter spécifiquement les lipides alimentaires sous forme micellaire. Cette détection implique SR-BI et induit des voies de signalisation aboutissant à la mise en place de paramètres morphologiques et fonctionnels nécessaires au transfert des lipides alimentaires.
7

Béaslas, Olivier. "Détection des lipides alimentaires sous forme de complexes micellaires par les entérocytes." Paris 6, 2008. https://tel.archives-ouvertes.fr/tel-00811592.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'intestin assure l'absorption des lipides alimentaires et doit faire face aux variations d’apport en lipides, entre les périodes inter-prandiales et post-prandiales. J'ai donc étudié dans les cellules Caco-2/TC7, la réponse des entérocytes à différents modes d'apports en lipides. Par une approche transcriptomique, j'ai montré que les lipides modulent l'expression de nombreux gènes entérocytaires. Les profils géniques obtenus diffèrent entre l’apport luminal ou sérique en lipides. La comparaison des apports apicaux de micelles inter- ou post-prandiales (MPP) a montré que les MPP modulent spécifiquement l’expression de 46 gènes majoritairement impliqués dans la transduction de signaux, le métabolisme lipidique, et l'architecture cellulaire. Ces résultats, s’ajoutant aux effets spécifiques des MPP obtenus dans l’équipe, suggéraient une détection entérocytaire des lipides alimentaires apportés par ces MPP. J'ai alors montré que les MPP se lient à une protéine dont le poids moléculaire correspond à celui du récepteur SR-BI, induisant sa clusterisation à la membrane apicale et son adressage vers les rafts. Seules les MPP induisent, le trafic de l’apoB, de la membrane apicale vers les compartiments sécrétoires et l’activation de kinases. Ces effets sont abolis quand SR-BI est bloqué par un de ses ligands ou invalidé par ARN interférence. Ces travaux montrent pour la première fois que les entérocytes sont capables de détecter spécifiquement les lipides alimentaires sous forme micellaire. Cette détection implique SR-BI et induit des voies de signalisation aboutissant à la mise en place de paramètres morphologiques et fonctionnels nécessaires au transfert des lipides alimentaires.
8

Caubet, Fabien. "Détection d'un objet immergé dans un fluide." Phd thesis, Université de Pau et des Pays de l'Adour, 2012. http://tel.archives-ouvertes.fr/tel-00716902.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le domaine des mathématiques appelé optimisation de formes. Plus précisément, nous étudions ici un problème inverse de type détection à l'aide du calcul de forme et de l'analyse asymptotique : l'objectif est de localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Les questions principales qui ont motivé ce travail sont les suivantes : peut-on détecter un objet immergé dans un fluide à partir d'une mesure effectuée à la surface du fluide ? Peut-on reconstruire numériquement cet objet, i.e. approcher sa position et sa forme, à partir de cette mesure ? Peut-on connaître le nombre d'objets présents dans le fluide en utilisant cette mesure ? Pour répondre à ces questions, le problème inverse est analysé comme un problème d'optimisation en minimisant une fonctionnelle coût, la variable étant la forme inconnue. Deux différentes approches sont considérées dans ce travail : l'optimisation géométrique (à l'aide des dérivées de forme et du gradient de forme) et l'optimisation topologique (à l'aide d'un développement asymptotique et du "gradient" topologique). Dans un premier temps, un cadre mathématique est mis en place pour démontrer l'existence des dérivées de forme d'ordre un et deux pour les problèmes de détection d'inclusions. Le problème inverse considéré est ensuite analysé à l'aide de l'optimisation géométrique de forme : un résultat d'identifiabilité est montré, le gradient de forme de plusieurs types de fonctionnelles de forme est caractérisé et l'instabilité de ce problème inverse est enfin démontrée. Ces résultats théoriques sont alors utilisés pour reconstruire numériquement des objets immergés dans un fluide à l'aide d'un algorithme de gradient régularisé par une méthode de projection. Enfin, la localisation de petites inclusions dans un fluide est étudiée à l'aide de l'optimisation topologique pour une fonctionnelle de forme de Kohn-Vogelius. L'expression théorique de la dérivée topologique est finalement utilisée pour déterminer numériquement le nombre et la localisation de petits obstacles immergés dans un fluide à l'aide d'un algorithme de gradient topologique. Les limites effectives de cette approche sont explorées : la pénétration reste faible dans ce problème stationnaire.
9

Moradkhan, Romel. "Détection des points critiques d'une forme : application à la reconnaissance de caractères manuscrits." Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La représentation de formes bidimensionnelles au moyen de leurs contours est d'un grand intérêt car beaucoup d'objets, par exemple les caractères manuscrits ou imprimés, peuvent être reconnus à partir de leur contour. La détection des points les plus significatifs (critiques) d'un contour digitalisé continue à être un domaine important de recherche du fait de sa complexité et de ces promesses. La première partie de notre travail est consacrée aux méthodes de détection des points critiques des contours digitalisés. Nous proposons deux nouvelles méthodes: la première est basée sur la notion de Co angularité; la deuxième sur la notion d'axe de symétrie. Dans la deuxième partie nous traitons du problème de la reconnaissance de caractères manuscrits à partir de leur contour. Nous avons proposé un algorithme de reconnaissance hiérarchique basé sur l'appariement structurel flexible et continu
The représentation of two-dimensional patterns by their contours is of great importance since many patterns, such as hand-written or printed characters, can be recognized by their contours. Because of its complexity the détection of dominant points of digitalized contours continues to be an important area of research. The first part of our work covers dominant point détection methods of digitalized curves (contours). After a survey of existing techniques we propose two new and efficient methods: the first is based on the notion of "co-angularity"; the second on the notion of "axis of symmetry". In the second part we focus on the problem of hand-written character récognition. We have proposed a hierarchical algorithm based on ctural matching which is both flexible and continuous
10

Sarifuddin. "Implantation sous forme de circuit spécialisé d'un algorithme de détection de contours multi-échelle." Dijon, 1995. http://www.theses.fr/1995DIJOS019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'extraction des contours d'une image discrète joue un rôle important dans une chaine de traitement d'images. Les différentes méthodes de détection de contours sont nombreuses telles que les gradients du premier ordre, du second ordre et par approche de filtrage optimal. La détection de contours multi-échelles par la transformée en ondelettes permet de retrouver d'une manière optimum tous les détails de contours présents dans une image par changement d'échelles. Elle s'effectue donc en calculant les informations de détails qui diffèrent d'une échelle à l'autre, ce qui permet d'accéder à une représentation des résultats d'une qualité meilleure. Les résultats de contours en quatre échelles différentes obtenus par la transformée en ondelettes en utilisant le filtre de Deriche optimise montrent la complémentarité entre les contours d'une échelle à l'autre. Par ailleurs on remarque que quatre échelles sont suffisantes pour assurer cette complémentarité. L'application en temps réel pour la détection de contours 2d en quatre échelles nécessite une implantation de 32 filtres récursifs d'ordre 3. Pour que l'implantation de ces filtres soit rendue possible (simplicité et limitation du cout), nous avons implanté ces filtres dans le cas particulier des quatre échelles. Cette thèse donne le détail de la conception et de l'implantation de l'algorithme de détection de contours multi-échelles dans des circuits FPGAs xc4005 (chaque FPGA contient quatre filtres récursifs d'ordre 3) ainsi que la réalisation d'une carte de système de traitement en temps réel pour la détection de contours en quatre échelles différentes. La vitesse du traitement (lissage plus détection) est de 10 mhz (25 images par seconde pour des images de 512 x 512 pixel)
11

Caubet, Fabien. "Détection d’un objet immergé dans un fluide." Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3006/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans le domaine des mathématiques appelé optimisation de formes. Plus précisément, nous étudions ici un problème inverse de détection à l’aide du calcul de forme et de l’analyse asymptotique. L’objectif est de localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Les questions principales qui ont motivé ce travail sont les suivantes :– peut-on détecter un objet immergé dans un fluide à partir d’une mesure effectuée à la surface ?– peut-on reconstruire numériquement cet objet, i.e. approcher sa position et sa forme, à partir de cette mesure ?– peut-on connaître le nombre d’objets présents dans le fluide en utilisant cette mesure ?Les résultats obtenus sont décrits dans les cinq chapitres de cette thèse :– le premier met en place un cadre mathématique pour démontrer l’existence des dérivées de forme d’ordre un et deux pour les problèmes de détection d’inclusions ;– le deuxième analyse le problème de détection à l’aide de l’optimisation géométrique de forme : un résultat d’identifiabilité est montré, le gradient de forme de plusieurs types de fonctionnelles de forme est caractérisé et l’instabilité de ce problème inverse est enfin démontrée ;– le chapitre 3 utilise nos résultats théoriques pour reconstruire numériquement des objets immergés dans un fluide à l’aide d’un algorithme de gradient de forme ;– le chapitre 4 analyse la localisation de petites inclusions dans un fluide à l’aide de l’optimisation topologique de forme : le gradient topologique d’une fonctionnelle de forme de Kohn-Vogelius est caractérisé ;– le dernier chapitre utilise cette dernière expression théorique pour déterminer numériquement le nombre et la localisation de petits obstacles immergés dans un fluide à l’aide d’un algorithme de gradient topologique
This dissertation takes place in the mathematic field called shape optimization. More precisely, we focus on a detecting inverse problem using shape calculus and asymptotic analysis. The aim is to localize an object immersed in a viscous, incompressible and stationary fluid. This work was motivated by the following main questions:– can we localize an obstacle immersed in a fluid from a boundary measurement?– can we reconstruct numerically this object, i.e. be close to its localization and its shape, from this measure?– can we know how many objects are included in the fluid using this measure?The results are described in the five chapters of the thesis:– the first one gives a mathematical framework in order to prove the existence of the shape derivatives oforder one and two in the frame of the detection of inclusions;– the second one analyzes the detection problem using geometric shape optimization: an identifiabilityresult is proved, the shape gradient of several shape functionals is characterized and the instability of thisinverse problem is proved;– the chapter 3 uses our theoretical results in order to reconstruct numerically some objets immersed in a fluid using a shape gradient algorithm;– the fourth chapter analyzes the detection of small inclusions in a fluid using the topological shape optimization : the topological gradient of a Kohn-Vogelius shape functional is characterized;– the last chapter uses this theoretical expression in order to determine numerically the number and the location of some small obstacles immersed in a fluid using a topological gradient algorithm
12

Grenaille, Sylvain. "Synthèse de filtres de dignostic pour les systèmes modélisés sous forme LPV." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13198.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de diagnostic à base de modèles pour la classe des systèmes dynamiques modélisés sous forme LPV (Linéaires à Paramètres Variants). Nous présentons une nouvelle méthode de synthèse de filtres de détection et localisation robustes. Une condition suffisante est établie pour garantir les performances en terme de sensibilité du signal indicateur de défauts vis à vis de la classe de défauts considérés. La méthode proposée permet également de formuler des contraintes de robustesse vis-à-vis des paramètres variants dans le temps et des perturbations exogènes. L'approche permet de prendre en compte la loi de commande dans la synthèse du filtre de diagnostic. Le problème de synthèse est formulé comme un problème d'optimisation convexe sous contraintes et pouvant être résolu efficacement par les techniques LMI (Inégalités Linéaires Matricielles). La méthodologie est appliquée à des exemples académiques et à un système industriel se prêtant particulièrement bie à une modélisation LPV, le circuit secondaire d'une contrale nucléaire. Les résultats obtenus montrent l'efficacité de la méthode.
13

Castaings, Anna. "Métalloporphyrines obéissantes : Détection et contrôle de la forme moléculaire dans une série de chiroporphyrines bridées." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00129098.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une série de chiroporphyrines bridées et leurs complexes métalliques, dans lesquels les substituants méso adjacents, dérivés du biocartol, sont liés deux à deux par une bride de n groupements méthylènes, a été préparée. Ces composés peuvent exister sous la forme de quatre atropoisomères (alpha-alpha-alpha-alpha, alpha-beta-alpha-beta, alpha-alpha-alpha-beta ou alpha-alpha-beta-beta) suivant que les substituants méso sont orientés au-dessus (alpha) ou en dessous (beta) du plan moyen de la porphyrine. Nous avons caractérisé la conformation de ces porphyrines chirales à l'aide de plusieurs techniques spectroscopiques : résonance magnétique nucléaire du proton, dichroïsme circulaire électronique, et dichroïsme circulaire vibrationnel. Ces deux dernières techniques se sont révélées particulièrement utiles pour la caractérisation conformationnelle des métallochiroporphyrines paramagnétiques. La chiroporphyrine comportant les brides les plus courtes (n = 8), ainsi que son complexe de zinc, peuvent être isolés à l'état solide sous la forme de l'atropoisomère alpha-alpha-alpha-alpha mais en solution ils sont soumis à des équilibres conformationnels aboutissant à des distributions d'atropoisomères qui dépendent fortement du solvant et de la concentration. L'addition de pipéridine en position axiale sur le complexe de zinc a une influence importante sur la distribution des atropoisomères. Inspirés par cette remarquable flexibilité conformationnelle, nous avons tenté de contrôler la forme moléculaire de quelques complexes métalliques dans cette série par plusieurs méthodes. Nos résultats démontrent qu'il est possible d'induire des changements conformationnels de grande ampleur (alpha-alpha-alpha-alpha ↔ alpha-beta-alpha-beta) dans les complexes de nickel(II) et de manganèse(II/III) par application d'un signal chimique ou rédox qui modifie l'occupation de l'orbitale stéréochimiquement active 3dx2-y2. Les basculements conformationnels observés sont réversibles. La bistabilité moléculaire que nous avons mise en évidence dans ces systèmes est potentiellement intéressante pour la conception de dispositifs nanoélectroniques tels que les mémoires moléculaires non volatiles.
14

Lefaudeux, Benjamin. "Détection, localisation et suivi des obstacles et objets mobiles à partir d'une plate-forme de stéréovision." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://tel.archives-ouvertes.fr/tel-00918508.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les véhicules autonomes se mouvant dans un environnement quelconque peuvent être confrontés à la présence de nombreux objets mobiles, dont la localisation et la trajectoire sont indépendantes. Cette problématique est particulièrement présente dans la thématique du transport en milieu urbain, mais sa portée est plus générale. On présente dans cette thèse une solution de perception d'un environnement dynamique, à partir d'une paire de caméra, qui vise à fournir en temps réel une cartographie en trois dimensions de l'environnement courant, ainsi que la vitesse indépendante des points suivis. Cette solution propose par ailleurs des algorithmes de détection, segmentation et suivi des objets mobiles, et fourni donc une liste des objets mobiles de l'environnement, dont les positions, dimensions et vitesses sont connues.
15

Bialas-Barthellemy, Sandrine. "Amélioration de la détection immunologique de la forme sérique de la protéine associée à la pancréatite." Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22103.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Grenaille, Sylvain. "Synthèse de filtres de diagnostic pour les systèmes modélisés sous forme LPV." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2006. http://tel.archives-ouvertes.fr/tel-00098299.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de diagnostic à base de modèles pour la classe des systèmes dynamiques modélisés sous forme LPV (Linéaires à Paramètres Variants). Nous présentons une nouvelle méthode de synthèse de filtres de détection et localisation robustes. Une condition suffisante est établie pour garantir les performances en terme de sensibilité du signal indicateur de défauts vis à vis de la classe de défauts considérés. La méthode proposée permet également de formuler des contraintes de robustesse vis-à-vis des paramètres variants dans le temps et des perturbations exogènes. L'approche permet de prendre en compte la loi de commande dans la synthèse du filtre de diagnostic. Le problème de synthèse est formulé comme un problème d'optimisation convexe sous contraintes et pouvant être résolu efficacement par les techniques LMI (Inégalités Linéaires Matricielles).
La méthodologie est appliquée à des exemples académiques et à un système industriel se prêtant particulièrement bien à une modélisation LPV, le circuit secondaire d'une centrale nucléaire. Les résultats obtenus montrent l'efficacité de la méthode.
17

Lefaudeux, Benjamin. "Détection, localisation et suivi des obstacles et objets mobiles à partir d'une plate forme de stéréo-vision." Thesis, Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0091/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans la problématique de la perception des véhicules autonomes, qui doivent notamment être capables de détecter et de positionner à tout moment les éléments fixes et mobiles de leur environnement. Les besoins sont ensuite multiples, de la détection d'obstacles à la localisation du porteur dans l'espace, et de nombreuses méthodes de la littérature s'y attellent. L'objectif de cette thèse est de reconstituer, à partir de prises de vues de stéréo-vision, une carte en trois dimensions décrivant l'environnement proche ; tout en effectuant une détection, localisation et suivi dans le temps des objets mobiles.La détection et le suivi dans le temps d'un grand nombre de points d'intérêt constitue une première étape. Après avoir effectué une comparaison exhaustive de divers détecteurs de points d'intérêt de la littérature, on propose pour réaliser le suivi de points une implémentation massivement parallélisée de l'algorithme KLT, dans une configuration redondante réalisée pendant cette thèse. Cette implémentation autorise le suivi fiable de milliers de points en temps réel, et se compare favorablement à l'état de l'art.Il s'agit ensuite d'estimer le déplacement du porteur, et de positionner ces points dans l'espace, tâche pour laquelle on propose une évolution robuste d'une procédure bien connue, dite "SVD", suivie d'un filtrage par UKF, qui nous permettent d'estimer très rapidement le mouvement propre du porteur. Les points suivis sont ensuite positionnés dans l'espace, en prenant en compte leur possible mobilité, en estimant continuellement la position la plus probable compte tenu des observations successives.La détection et le suivi des objets mobiles font l'objet d'une dernière partie, dans laquelle on propose une segmentation originale tenant compte des aspects de position et de vitesse. On exploite ainsi une des singularités de notre approche, qui conserve pour chaque point positionné un ensemble cohérent de positions dans le temps. Le filtrage et le suivi des cibles se basent finalement sur un filtre GM-PHD
This PhD work is to be seen within the context of autonomous vehicle perception, in which the detection and localisation of elements of the surroundings in real time is an obvious requirement. Subsequent perception needs are manyfold, from localisation to obstacle detection, and are the subject of a continued research interest. The goal of this work is to build, in real time and from stereovision acquisition, a 3D map of the surroundings ; while detecting and tracking moving objects.Interest point selection and tracking on picture space are a first step, which we initiate by a thorough comparison of detectors from the literature. As regards tracking, we propose a massively parallel implementation of the standard KLT algorithm, using redundant tracking to provide reliable quality estimation. This allows us to track thousands of points in real-time, which compares favourably to the state of the art.Next step is the ego-motion estimation, along with the positioning of tracked points in 3D space. We first propose an iterative variant of the well known “SVD” process followed by UKF filtering, which allows for a very fast and reliable estimation. Then the position of every followed interest point is filtered on the fly over time, in contrast to most dense approaches from the literature.We finally propose a segmentation of moving objects in the augmented position-speed space, which is made possible by our continuous estimation of feature points position. Target tracking and filtering finally use a GM-PHD approach
18

Godoy, Campbell Matias. "Sur le problème inverse de détection d'obstacles par des méthodes d'optimisation." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30220/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'étude du problème inverse de détection d'obstacle/objet par des méthodes d'optimisation. Ce problème consiste à localiser un objet inconnu oméga situé à l'intérieur d'un domaine borné connu Oméga à l'aide de mesures de bord et plus précisément de données de Cauchy sur une partie Gammaobs de thetaOmega. Nous étudions les cas scalaires et vectoriels pour ce problème en considérant les équations de Laplace et de Stokes. Dans tous les cas, nous nous appuyons sur une résultat d'identifiabilité qui assure qu'il existe un unique obstacle/objet qui correspond à la mesure de bord considérée. La stratégie utilisée dans ce travail est de réduire le problème inverse à la minimisation d'une fonctionnelle coût: la fonctionnelle de Kohn-Vogelius. Cette approche est fréquemment utilisée et permet notamment d'utiliser des méthodes d'optimisation pour des implémentations numériques. Cependant, afin de bien définir la fonctionnelle, cette méthode nécessite de connaître une mesure sur tout le bord extérieur thetaOmega. Ce dernier point nous conduit à étudier le problème de complétion de données qui consiste à retrouver les conditions de bord sur une région inaccessible, i.e. sur thetaOmega\Gammaobs, à partir des données de Cauchy sur la région accessible Gammaobs. Ce problème inverse est également étudié en minimisant une fonctionnelle de type Kohn-Vogelius. La caractère mal posé de ce problème nous amène à régulariser la fonctionnelle via une régularisation de Tikhonov. Nous obtenons plusieurs propriétés théoriques comme des propriétés de convergence, en particulier lorsque les données sont bruitées. En tenant compte de ces résultats théoriques, nous reconstruisons numériquement les données de bord en mettant en oeuvre un algorithme de gradient afin de minimiser la fonctionnelle régularisée. Nous étudions ensuite le problème de détection d'obstacle lorsque seule une mesure de bord partielle est disponible. Nous considérons alors les conditions de bord inaccessibles et l'objet inconnu comme les variables de la fonctionnelle et ainsi, en utilisant des méthodes d'optimisation de forme géométrique, en particulier le gradient de forme de la fonctionnelle de Kohn-Vogelius, nous obtenons la reconstruction numérique de l'inclusion inconnue. Enfin, nous considérons, dans le cas vectoriel bi-dimensionnel, un nouveau degré de liberté en étudiant le cas où le nombre d'objets est inconnu. Ainsi, nous utilisons l'optimisation de forme topologique afin de minimiser la fonctionnelle de Kohn-Vogelius. Nous obtenons le développement asymptotique topologique de la solution des équations de Stokes 2D et caractérisons le gradient topologique de cette fonctionnelle. Nous déterminons alors numériquement le nombre d'obstacles ainsi que leur position. De plus, nous proposons un algorithme qui combine les méthodes d'optimisation de forme topologique et géométrique afin de déterminer numériquement le nombre d'obstacles, leur position ainsi que leur forme
This PhD thesis is dedicated to the study of the inverse problem of obstacle/object detection using optimization methods. This problem consists in localizing an unknown object omega inside a known bounded domain omega by means of boundary measurements and more precisely by a given Cauchy pair on a part Gammaobs of thetaOmega. We cover the scalar and vector scenarios for this problem considering both the Laplace and the Stokes equations. For both cases, we rely on identifiability result which ensures that there is a unique obstacle/object which corresponds to the considered boundary measurements. The strategy used in this work is to reduce the inverse problem into the minimization of a cost-type functional: the Kohn-Vogelius functional. This kind of approach is widely used and permits to use optimization tools for numerical implementations. However, in order to well-define the functional, this approach needs to assume the knowledge of a measurement on the whole exterior boundary thetaOmega. This last point leads us to first study the data completion problem which consists in recovering the boundary conditions on an inaccessible region, i.e. on thetaOmega\Gammaobs, from the Cauchy data on the accessible region Gammaobs. This inverse problem is also studied through the minimization of a Kohn-Vogelius type functional. The ill-posedness of this problem enforces us to regularize the functional via a Tikhonov regularization. We obtain several theoretical properties as convergence properties, in particular when data is corrupted by noise. Based on these theoretical results, we reconstruct numerically the boundary data by implementing a gradient algorithm in order to minimize the regularized functional. Then we study the obstacle detection problem when only partial boundary measurements are available. We consider the inaccessible boundary conditions and the unknown object as the variables of the functional and then, using geometrical shape optimization tools, in particular the shape gradient of the Kohn-Vogelius functional, we perform the numerical reconstruction of the unknown inclusion. Finally, we consider, into the two dimensional vector case, a new degree of freedom by studying the case when the number of objects is unknown. Hence, we use the topological shape optimization in order to minimize the Kohn-Vogelius functional. We obtain the topological asymptotic expansion of the solution of the 2D Stokes equations and characterize the topological gradient for this functional. Then we determine numerically the number and location of the obstacles. Additionally, we propose a blending algorithm which combines the topological and geometrical shape optimization methods in order to determine numerically the number, location and shape of the objects
19

Mateu, Suau Isidre. "Systèmes de détection digitaux par traitement numérique des impulsions X-dur pour des applications spatiales." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2376/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour préparer les futures missions d'astronomie haute énergie, nous avons développé, à l'Institut de Recherche en Astrophysique et Planétologie de Toulouse, un système de détection pour l'imagerie et la spectroscopie des rayons X-durs. Celui-ci est basé sur un détecteur en Germanium haute pureté en configuration planaire, avec des électrodes segmentées par pistes, et vise une couverture en énergie allant de quelques keV jusqu'à quelques centaines de keV. En plus d'une réflexion très poussée au niveau de la conception du détecteur, ce projet se montre également innovant par l'utilisation extensive d'algorithmes de traitement numérique pour l'analyse des impulsions. C'est ce point qui constitue le sujet principal de cette thèse. L'astrophysique dans le domaine des rayons X-dur voit s'ouvrir une ère de grande évolution pour les années à venir. Des progrès technologiques dans la fabrication de miroirs permettent maintenant de focaliser les photons au delà de 10 keV, ce qui était une limite technique depuis de nombreuses années. L'observatoire NuSTAR de la NASA, lancé en 2012, et Astro-H (JAXA), qui sera lancé en 2015, sont les premières missions à exploiter ces nouveaux miroirs pour des énergies allant jusqu'à 80 keV. Cependant, des recherches récentes montrent que des optiques capables de focaliser au-delà de cette limite sont sur le point d'être réalisées. Avec cette nouvelle génération d'optiques, apparaît le besoin de nouveaux détecteurs capables de les exploiter pleinement. Une des principales caractéristiques du détecteur proposé à l'IRAP est la possibilité d'obtenir une localisation du point d'interaction des photons en volume, avec application immédiate pour la réduction de bruit de fond et le suivi des événements Compton permettant des mesures polarisation. À ce propos, nous avons implémenté un algorithme pour déterminer la position des interactions, ainsi que des méthodes pour réaliser la calibration du détecteur, gérer les déclenchements, réaliser la mise en forme et mesurer l'énergie. Afin d'obtenir une simulation complète du système, nous avons adapté MGS, un code Matlab déjà existant, pour la simulation de la collection de charge et de la réponse de notre détecteur, et nous avons utilisé Pspice pour modéliser l'électronique de lecture. Ces deux outils nous ont permis de générer des signaux réalistes pour tester les performances des algorithmes de traitement du signal pour la mesure d'énergie et la localisation de l'interaction. Finalement, nous présentons les premières mesures réalisées avec PheniX, prototype d'un système de détection conçu et réalisé dans le cadre d'une action de Recherche et Développement à l'IRAP, avec un financement CNES
Anticipating future mission opportunities in high-energy astronomy, the development of a hard X-ray detection system for imaging and spectrometry is in progress at the Institut de Recherche en Astrophysique et Planétologie of Toulouse. The system is based on a High-purity Germanium double sided strip detector and aims at energy coverage from a few keV to a few hundred keV. Besides the sophisticated detector design, the extensive use of digital signal processing algorithms for the analysis of the impulsion is another innovation in this project, and constitutes the main topic of this thesis. Astrophysics in the hard X-ray domain expect an era of major evolution in the upcoming years. Technological progress in mirror manufacturing allows now the focusing of photons well above 10 keV, which for many years had been the upper limit allowed by the technology. NASA's Nustar observatory, launched in 2012, and JAXA's Astro-H, to be launched in 2015, are the first missions to exploit the new mirrors for energies up to 80 keV. However, last research shows that focusing optics beyond this limit are to be expected soon. With this new generation of optics, a need for new detectors capable of exploiting the focusing capabilities is currently developing. One of the main features of the studied detector is the possibility to obtain a three dimensional location of the interaction of the photons in its volume, with immediate applications in background reduction and tracking of Compton events for polarimetry measurements. For this purpose, we implemented an estimator of the interaction position, which is presented in this work, together with the methods used for calibration, triggering, pulse shaping and energy measurement purposes. In order to develop a full simulation of the system, we have adapted to our particular case the MGS tool, an already existing Matlab code for the simulation of the charge collection processes and signal response provided by the detector, and we have used Pspice to model the analogue readout stage prior to the digitizer. Both tools have allowed us to generate realistic input signals for the testing of the performances of the signal processing algorithms in charge of the energy measurements and the location of the interaction position. Finally, we have completed the study with the first measurements obtained from PheniX, a laboratory prototype of the detection system which has been designed and manufactured in the framework of a Research and Technology action at IRAP, funded by the CNES
20

Shi, Yong Dan. "Méthode de détection de motifs sur des images à haute définition : mise en oeuvre sur un système multiprocesseur." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT044H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail presente est consacre a l'etude d'une methode et au developpement de materiel permettant la detection de motifs sur des images a haute definition. La methode utilise le principe de correlation associee a des techniques de compression d'informations. Le materiel est developpe autour d'un bus vme et est organise en une structure multiprocesseur completee par des elements specifiques a l'application etudiee
21

Vass, György. "Réseaux de neurones multicouches appliqués à la reconnaissance invariante des formes planes." Valenciennes, 1998. https://ged.uphf.fr/nuxeo/site/esupversions/2a32a089-db0c-4e22-8403-0399fd02eb59.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce mémoire, nous avons proposé l'utilisation des descripteurs invariants et des réseaux de neurones multicouches pour la reconnaissance des formes contours planes. Le réseau de neurones est constitué d'une ou de plusieurs couches. L'algorithme de rétropropagation permet d'effectuer l'apprentissage. Nous avons montré que dans le cas d'un réseau de neurones à une seule couche cachée le choix du nombre des neurones peut être réalisé en utilisant un critère qui ne fait intervenir que les sorties des neurones cachés et les classes d'appartenance des observations. En fonction des formes planes considérées, nous avons proposé différents types de descripteurs invariants possédant des propriétés telles que la stabilité et la complétude. Dans une application telle que la reconnaissance des formes étoilées, l'utilisation des descripteurs de Fourier basés sur une représentation radiale permet au réseau de neurones d'apprendre les formes indépendamment des transformations qu'ils ont pu subir. Par ailleurs, nous avons montré que les invariants complets et stables peuvent être utilisés efficacement dans le cadre d'un apprentissage en mode non supervisé ou auto-associatif. Les résultats obtenus sont très encourageants et nous ont permis de voir la capacité d'un réseau de neurone à générer un codage interne. Cependant, dans le cas où les contours ne sont connus que partiellement, nous avons proposé une description locale invariante au groupe des similitudes et une architecture neuronale modulaire. Les résultats obtenus sont très encourageants. Nous pensons qu'ils peuvent être améliorés en choisissant un autre algorithme d'approximation polygonale
In this thesis we propose the use of invariant descriptors and multilayer neural networks for the recognition of planar contour patterns. The neural network architecture may contain one or more layers. For training, the back-propagation algorithm is used. We have shown that in case of a single hidden layer work, the choice of the number of neurons can be realized by using a criterion where the only parameters involved are the hidden neuron outputs and the correct classes of the observations. In function of the planar shapes considered we propose different kind of invariant descriptors having the properties of stability and completeness. For applications like recognition of star-shaped patterns, the use of Fourier descriptors based on a radial representation permit the neural network to learn the patterns independently of the transformations they could undergo. Furthermore, we have shown that a complete and stable set of invariant descriptors can be effectively used in a nonsupervised, auto-associative type of training procedure. The obtained results are encouraging and allowed us to reveal the capability of the neural network to generate an internal coding scheme. However, for the case of contours only known partially we propose a local description technique which is invariant with the respect to the group of similarities, together with a modular neural architecture. The obtained results are encouraging. We believe that they can be improved by choosing a different polygonal approximation algorithm
22

De, Lepine Philippe. "Détection automatique de la voix criée en vue d'un système d'alarme." Nancy 1, 1992. http://www.theses.fr/1992NAN10410.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un parking souterrain, une centaine de microphones captent les différents bruits. Une alarme est déclenchée lorsque l'amplitude de ces sons dépasse un certain seuil. Nous proposons d'améliorer ce système en mettant au point un module qui réagirait a une manifestation spontanée lors des agressions : le cri. La détection de cris est une application particulière et originale de la reconnaissance des formes. Cette particularité réside dans le fait qu'il s'agit de reconnaitre des cris parmi d'autres signaux de nature variée, prévisibles ou imprévisibles, et d'occurrences diverses (démarrage, accélération, klaxon, crissements de pneus). A cause de la diversité des sons et de la rareté des cris, dans le contexte réel, nous avons pris le parti de développer une méthode du type template matching privilégiant la connaissance et l'identification des signaux de cris masculins et des cris féminins par rapport aux autres types de bruits mentionnés ci-dessus. La détections de la voix criée parmi les divers sons du parking nous a permis d'aboutir à une procédure de surveillance automatique plus fiable, avec une faible probabilité de fausses alarmes et un fort taux de reconnaissance des cris. Le fait remarquable est la faculté de généralisation du procède, mise en évidence par de forts taux de reconnaissance pour les sons cries absents du corpus d'apprentissage.
23

Matusiak, Stanislaw. "Description invariante et locale des formes planes : application à l'indexation d'une base d'images." Valenciennes, 1999. https://ged.uphf.fr/nuxeo/site/esupversions/7570969d-50dd-44f1-84ef-c2e50a0fa07d.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le domaine de l'indexation et de la reconnaissance des formes dans une base d'images constituées d'objets contours, par l'utilisation des invariants locaux. Notre approche permet de reconnaitre les objets, même si ceux-ci sont partiellement visibles ou observés de différents points de vue, car elle est basée sur une caractérisation invariante et locale des contours. Un des problèmes fondamentaux de l'indexation d'une base d'images réside dans le choix de la description invariante de l'image. En effet, on estime que la requête ne correspond jamais exactement à l'image recherchée, des transformations affines peuvent les séparer. C’est pourquoi la description du contour doit posséder de bonnes propriétés d'invariance afin de conférer de la robustesse au système de reconnaissance. Un cadre général permettant d'unifier différentes descriptions locales, a été élaboré. A l'issue de celui-ci, nous avons proposé deux descriptions invariantes : la première basée sur les points d'intérêts des courbes et la seconde reposant sur l'analyse multi-échelle des contours, par rapport aux transformations affines. Les descriptions invariantes proposées ont été appliques à la recherche d'objets-contours dans une base d'images. Tout d'abord, nous avons proposé une solution au problème de la recherche d'objets par le dessin. L’utilisateur dessine sa requête à l'aide d'une interface graphique : l'image requête comporte alors un contour sur fond uniforme. Sa description par les courbures multi-échelles permet d'en extraire les indexes. Ensuite, pour effectuer une recherche rapide dans une large base d'images, un mécanisme d'indexation basé sur le hachage géométrique a été développé
This Ph. D. Contributes to the subject of indexing and pattern recognition in an image database constituted of object contours, by the use of local invariant descriptions. Our approach allows to recognize objects, even if they are partially occluded or observed at different viewpoints, since it is based on a local and invariant characterization of contours. One of the fundamental problems of indexing an image database resides in the choice of the invariant description of the image. Indeed, it is agreed that the request never corresponds exactly to the research image, affine transformations can separate them. Hence the description of the contour has a possess invariance properties so as to confer robustness to the recognition system. A general framework allowing to unify different local descriptions has been elaborated. This unification lead us propose two invariant descriptions with respect to affine transformations: the first one is based on points of interest of curves and the second one on the multi-scale analysis contours. Invariant descriptions, proposed in this work, have been applied to retrieval of objects-contours in image database. First of all, we have proposed a solution to the problem of object retrieval by sketch. The user draws his request on a graphic interface: the request image is made of a contour on uniform background. Then, its description by multi-scale curvatures allows to extract indexes. Finally, to undertake a rapid retrieving from a large image database, a mechanism of indexing based on the geometric hashing has been developed
24

Maire, F. "Détection et classification de cibles multispectrales dans l'infrarouge." Phd thesis, Telecom ParisTech, 2014. http://tel.archives-ouvertes.fr/tel-01018701.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l'avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d'aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d'aéronefs satisfaisant ces contraintes. Tout d'abord, nous spécifions une méthode de détection d'anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l'image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d'identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d'un modèle statistique d'observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L'estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d'apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l'estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu'en classification, justifient l'intérêt du développement de dispositifs permettant l'acquisition d'images multispectrales. Ces méthodes nous ont également permis d'identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d'aéronefs faiblement résolus en infrarouge.
25

Mohsen, Yehya. "Conception et caractérisation d’une plate-forme microfluidique pour la détection sélective de traces d’un produit de dégradation du TNT dans l’atmosphère." Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2004/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de cette étude est de concevoir et caractériser une plate-forme micro-fluidique permettant la concentration et la séparation d’un produit de dégradation du trinitrotoluène :l’ortho-nitrotoluène (ONT) considéré comme un traceur de composés explosifs. Les capteurs àbase de dioxyde d’étain (SnO2) utilisés ici comme détecteurs présentent un réel manque desélectivité et leur sensibilité peut s’avérer insuffisante pour la détection de traces de polluantsdans l’atmosphère. L’approche originale envisagée dans cette étude consiste à travailler en amontdu capteur chimique (SnO2), en particulier, en développant d’une part un micro-préconcentrateurde gaz afin d’améliorer l’aspect sensibilité et d’autre part une micro-colonne chromatographiquepour s’affranchir du manque de sélectivité.Dans un premier temps, une série d’adsorbants ont été étudiés et caractérisés pour laconcentration de l’ONT. Les résultats obtenus ont permis de sélectionner trois types de charbonsactifs (N, KL2 et KL3) et une zéolithe hydrophobe DAY.Ensuite, les micro-systèmes fluidiques ont été réalisés sur un substrat de silicium et élaborés enutilisant la technologie silicium/verre.La dernière partie de ce travail est consacrée à l’évaluation des performances d’analyse de cetteplate-forme en termes de concentration et de séparation de l’ONT. En particulier, après avoirévalué les conditions optimales de concentration et d’élution de l’ortho-nitrotoluène, le couplageentre la plate-forme micro-fluidique et le capteur à base de dioxyde d’étain a permis d’une part demontrer que la limite de détection de l’ortho-nitrotoluène est inférieure à 365 ppb. Dans ce cas,une désorption totale de la molécule cible et un facteur de concentration constant ont été obtenusavec la zéolithe DAY. D’autre part, l’utilisation de ce type de plate-forme a permis d’obtenir unebonne performance de détection et de séparation de l’ONT en présence d’un interférent (toluène)et d’un taux d’hygrométrie élevé
The objective of this study is to develop and characterize a micro-fluidic platform allowing theconcentration and the separation of a degradation compound of trinitrotoluene: the orthonitrotoluenerecognized as an explosive taggants. Tin dioxide gas sensors (SnO2) used here asdetectors suffer from a luck of selectivity and have an insufficient sensitivity toward most ofpollutants. For that, our original approach consists to work in front of a chemical gas sensor(SnO2), in particular, by developing on the one hand a gas micro-preconcentrator to improve thesensitivity and on the other hand, a chromatographic micro-column in order to overcome the luckof selectivity.First, various adsorbents have been studied and characterized for the ONT concentration. Theobtained results allowed to select three types of activated carbons (N, KL2 and KL3) and ahydrophobic zeolite DAY. Then, the micro-system devices have been realized on a siliconsubstrate and manufactured using the silicon/glass technology.The last part of this work is devoted to the evaluation of the platform performances in terms ofconcentration and separation of ONT. In particular, after the optimization of the experimentalconditions concerning the concentration and the elution of ortho-nitrotoluene, the couplingbetween the micro-fluidic platform and a tin dioxide gas sensor allowed on the one hand to showthat the detection limit of the ONT pollutant is lower than 365 ppb. In this case, a total desorptionof the analyte and a constant concentration factor were obtained with the zeolite DAY. On theother hand, the use of this type of platform allowed to obtain a good separation and detectionperformance of ONT in presence of interferent (toluene) and at high humidity rate
26

Bouget, David. "Détection en temps-réel des outils chirurgicaux dans des vidéos 2D de neurochirurgie par modélisation de forme globale et d'apparence locale." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1B006/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Bien que devenant un environnement de plus en plus riche technologiquement, la salle opératoire reste un endroit où la sécurité des patients n'est pas assurée à 100% comme le montre le nombre toujours conséquent d'erreurs chirurgicales. La nécessité de développer des systèmes intelligents au bloc opératoire apparait comme croissante. Un des éléments clés pour ce type de système est la reconnaissance du processus chirurgical, passant par une identification précise des outils chirurgicaux utilisés. L'objectif de cette thèse a donc porté sur la détection en temps-réel des outils chirurgicaux dans des vidéos 2D provenant de microscopes. Devant l'absence de jeux de données de référence, qui plus est dans un contexte neurochirurgical, la première contribution de la thèse a donc été la création d'un nouvel ensemble d'images de chirurgies du cerveau et du rachis cervical, mis à disposition en ligne. Comme seconde contribution, deux approches différentes ont été proposées permettant de détecter des outils chirurgicaux via des techniques d'analyse d'image. Tout d'abord, le SquaresChnFtrs adapté, basé sur une des méthodes de détection de piétons les plus performantes de la littérature. Notre deuxième méthode, le ShapeDetector, est une approche à deux niveaux n'utilisant aucune contrainte ou hypothèse a priori sur le nombre, la position, ou la forme des outils dans l'image. Par rapport aux travaux précédents du domaine, nous avons choisi de représenter les détections potentielles par des polygones plutôt que par des rectangles, obtenant ainsi des détections plus précises. Pour intégration dans des systèmes médicaux, une optimisation de la vitesse de calcul a été effectuée via un usage optimal du CPU, du GPU, et de méthodes ad-hoc. Pour des vidéos de résolution 612x480 pixels, notre ShapeDetector est capable d'effectuer les détections à une vitesse maximale de 8 Hz. Pour la validation de nos méthodes, nous avons pris en compte trois paramètres: la position globale, la position de l'extrémité, et l'orientation des détections. Les méthodes ont été classées et comparées avec des méthodes de référence compétitives. Pour la détection des tubes d'aspiration, nous avons obtenu un taux de manqué de 15% pour un taux de faux positifs par image de 0.1, comparé à un taux de manqué de 55% pour le SquaresChnFtrs adapté. L'orientation future du travail devra porter sur l'intégration des informations 3D, l'amélioration de la couche de labélisation sémantique, et la classification des outils chirurgicaux. Pour finir, un enrichissement du jeu de données et des annotations de plus haute précision seront nécessaires
Despite modern-life technological advances and tremendous progress made in surgical techniques including MIS, today's OR is facing many challenges remaining yet to be addressed. The development of CAS systems integrating the SPM methodology was born as a response from the medical community, with the long-term objective to create surgical cockpit systems. Being able to identify surgical tools in use is a key component for systems relying on the SPM methodology. Towards that end, this thesis work has focused on real-time surgical tool detection from microscope 2D images. From the review of the literature, no validation data-sets have been elected as benchmarks by the community. In addition, the neurosurgical context has been addressed only once. As such, the first contribution of this thesis work consisted in the creation of a new surgical tool data-set, made freely available online. Two methods have been proposed to tackle the surgical tool detection challenge. First, the adapted SquaresChnFtrs, evolution of one of the best computer vision state-of-the-art approach for pedestrian detection. Our second contribution, the ShapeDetector, is fully data-driven and performs detection without the use of prior knowledge regarding the number, shape, and position of tools in the image. Compared to previous works, we chose to represent candidate detections with bounding polygons instead of bounding boxes, hence providing more fitting results. For integration into medical systems, we performed different code optimization through CPU and GPU use. Speed gain and accuracy loss from the use of ad-hoc optimization strategies have been thoroughly quantified to find an optimal trade-off between speed and accuracy. Our ShapeDetector is running in-between 5 and 8Hz for 612x480 pixel video sequences.We validated our approaches using a detailed methodology covering the overall tool location, tip position, and orientation. Approaches have been compared and ranked conjointly with a set of competitive baselines. For suction tube detections, we achieved a 15% miss-rate at 0.1 FPPI, compared to a 55% miss-rate for the adapted SquaresChnFtrs. Future works should be directed toward the integration of 3D feature extraction to improve detection performance but also toward the refinement of the semantic labelling step. Coupling the tool detection task to the tool classification in one single framework should be further investigated. Finally, increasing the data-set in diversity, number of tool classes, and detail of annotations is of interest
27

Mohsen, Yehya. "Conception et caractérisation d'une plate-forme microfluidique pour la détection sélective de traces d'un produit de dégradation du TNT dans l'atmosphère." Phd thesis, Université de Franche-Comté, 2013. http://tel.archives-ouvertes.fr/tel-00943211.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette étude est de concevoir et caractériser une plate-forme micro-fluidique permettant la concentration et la séparation d'un produit de dégradation du trinitrotoluène :l'ortho-nitrotoluène (ONT) considéré comme un traceur de composés explosifs. Les capteurs àbase de dioxyde d'étain (SnO2) utilisés ici comme détecteurs présentent un réel manque desélectivité et leur sensibilité peut s'avérer insuffisante pour la détection de traces de polluantsdans l'atmosphère. L'approche originale envisagée dans cette étude consiste à travailler en amontdu capteur chimique (SnO2), en particulier, en développant d'une part un micro-préconcentrateurde gaz afin d'améliorer l'aspect sensibilité et d'autre part une micro-colonne chromatographiquepour s'affranchir du manque de sélectivité.Dans un premier temps, une série d'adsorbants ont été étudiés et caractérisés pour laconcentration de l'ONT. Les résultats obtenus ont permis de sélectionner trois types de charbonsactifs (N, KL2 et KL3) et une zéolithe hydrophobe DAY.Ensuite, les micro-systèmes fluidiques ont été réalisés sur un substrat de silicium et élaborés enutilisant la technologie silicium/verre.La dernière partie de ce travail est consacrée à l'évaluation des performances d'analyse de cetteplate-forme en termes de concentration et de séparation de l'ONT. En particulier, après avoirévalué les conditions optimales de concentration et d'élution de l'ortho-nitrotoluène, le couplageentre la plate-forme micro-fluidique et le capteur à base de dioxyde d'étain a permis d'une part demontrer que la limite de détection de l'ortho-nitrotoluène est inférieure à 365 ppb. Dans ce cas,une désorption totale de la molécule cible et un facteur de concentration constant ont été obtenusavec la zéolithe DAY. D'autre part, l'utilisation de ce type de plate-forme a permis d'obtenir unebonne performance de détection et de séparation de l'ONT en présence d'un interférent (toluène)et d'un taux d'hygrométrie élevé.
28

Khammari, Ayoub. "Système embarqué de détection multi-sensorielle de véhicules : application à la gestion intelligente des interdistances." Paris, ENMP, 2005. http://www.theses.fr/2005ENMP1319.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse a pour sujet l'étude et le développement d'un système de détection de véhicules pour une conduite plus sécurisée, avec comme principale application la gestion intelligente de la distance inter véhiculaire. En effet, près d'un accident corporel sur quatre est dû à une collision arrière. Nous considérons que notre système améliore sensiblement la robustesse de la détection de véhicules par rapport à l'existant. Deux points sont à l'origine de cette amélioration. Premièrement, nous avons accordé beaucoup d'intérêt à la détection par monovision, en concevant une approche original basée sur une analyse fine du gradient et l'extraction d'attributs d'image, renforcée par l'algorithme de classification adaboost/ga. Deuxièmement, nous avons conçu un outil générique de fusion basé sur la théorie des croyances, ayant pour but de combiner les confiances en provenance de plusieurs sources différentes qu'elles soient physiques ou algorithmiques. Cela nous a permis de bâtir une architecture modulaire et souple permettant d'exploiter au mieux les ressources disponibles pour mieux distingur les véhicules des autres objets de la scène routière. Ce système est actuellement opérationnel et implémenté sur le démonstrateur lara du caor. Il aété évalué lors de la clôture du projet arcos et a prouvé sa fiabilité au cours des démonstrations sur piste sur des scénarios critiques élaborés par les architectes de la fonction "gestion des interdistances"
This ph. D. Thesis tackles the problem of improving the robustness of vehicle detection for acc applications. In fact, one corporal accident out of four is due to a rear collision. For this sake, we combine two sensors : a frontal camera and a laser scanner. The improvement of the robustness stems from two aspects. First, we addressed the visionb based detection by developing an original approach based on fine gradient analysis, enhanced with the algorithm adaboost/ga for vehicle recognition. Then, we use the theory of evidence as a fusion framework to combine confidences delivered by the sensors and algorithms in order to improve the classification "vehicle vs. Non vehicle". The final architecture of the system is not only modular but also generic and flexible, that it could be used for other detection applications. The system was successfully implemented on lara, the prototype vehicle of the robotics center. It was evaluated at the final session of the project arcos and has demonstrated its fiability over various test scenarios elaborated specifically for acc applications
29

Jibrini, Hassan. "Reconstruction automatique des bâtiments en modèles polyédriques 3-D à partir de données cadastrales vectorisées 2D et d'un couple d'images aériennes à haute résolution." Paris, ENST, 2002. http://www.theses.fr/2002ENST0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

MAIRE, Florian. "Détection et classification de cibles multispectrales dans l'infrarouge." Phd thesis, Institut National des Télécommunications, 2014. http://tel.archives-ouvertes.fr/tel-00997684.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l'avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d'aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d'aéronefs satisfaisant ces contraintes. Tout d'abord, nous spécifions une méthode de détection d'anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l'image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d'identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d'un modèle statistique d'observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L'estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d'apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l'estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu'en classification, justifient l'intérêt du développement de dispositifs permettant l'acquisition d'images multispectrales. Ces méthodes nous ont également permis d'identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d'aéronefs faiblement résolus en infrarouge
31

Gacon, Pierre. "Analyse d'images et modèles de formes pour la détection et la reconnaissance : application aux visages en multimédia." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00207391.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La segmentation de la bouche est un problème important qui trouve des applications dans plusieurs domaines du multimédia.
Dans ce travail, notre objectif est d'obtenir une détection robuste et efficace des contours des lèvres de façon à être capable de restaurer les mouvements de la parole aussi fidèlement que possible.
Nous apportons une attention particulière au contour intérieur de la bouche dans la segmentation est une tâche difficile à cause des variations non-linéaires de l'apparence.
Nous proposons une méthode basée sur un modèle statistique de la forme et de l'apparence échantillonnée faisant intervenir des descripteurs gaussiens locaux d'apparence.
Notre hypothèse est que la réponse de ces descripteurs locaux peut être prédite à partir de la forme par le biais d'un réseau de neurones non-linéaire.
Nous avons d'abord testé cette hypothèse dans un cas mono-locuteur et l'avons ensuite généralisé à un cas multi-locuteurs en tenant de la variabilité
inter-personne.
A cet effet, nous adaptons progressivement notre modèle au locuteur traité en déterminant son apparence caractéristique.
A partir de notre segmentation de la bouche, nous pouvons ensuite générer un clone de la bouche de la personne dont les mouvements seront aussi proches que possible de ceux de l'originale.
Finalement, nous avons évalué quantitativement puis qualitativement la pertinence de notre méthode en menant une expérience qui a quantifié l'apport effectif de compréhension de notre schéma d'analyse/synthèse dans le cas de numéros de téléphone en milieu bruité.
32

Maire, Florian. "Détection et classification de cibles multispectrales dans l'infrarouge." Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0007/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l’avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d’aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d’aéronefs satisfaisant ces contraintes. Tout d’abord, nous spécifions une méthode de détection d’anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l’image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d’identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d’un modèle statistique d’observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L’estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d’apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l’estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu’en classification, justifient l’intérêt du développement de dispositifs permettant l’acquisition d’images multispectrales. Ces méthodes nous ont également permis d’identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d’aéronefs faiblement résolus en infrarouge
Surveillance systems should be able to detect potential threats far ahead in order to put forward a defence strategy. In this context, detection and recognition methods making use of multispectral infrared images should cope with low resolution signals and handle both spectral and spatial variability of the targets. We introduce in this PhD thesis a novel statistical methodology to perform aircraft detection and classification which take into account these constraints. We first propose an anomaly detection method designed for multispectral images, which combines a spectral likelihood measure and a level set study of the image Mahalanobis transform. This technique allows to identify images which feature an anomaly without any prior knowledge on the target. In a second time, these images are used as realizations of a statistical model in which the observations are described as random spectral and spatial deformation of prototype shapes. The model inference, and in particular the prototype shape estimation, is achieved through a novel unsupervised sequential learning algorithm designed for missing data models. This model allows to propose a classification algorithm based on maximum a posteriori probability Promising results in detection as well as in classification, justify the growing interest surrounding the development of multispectral imaging devices. These methods have also allowed us to identify the optimal infrared spectral band regroupments regarding the low resolution aircraft IRS detection and classification
33

Bouges, Pierre. "Gestion de données manquantes dans des cascades de boosting : application à la détection de visages." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00840842.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire présente les travaux réalisés dans le cadre de ma thèse. Celle-ci a été menée dans le groupe ISPR (ImageS, Perception systems and Robotics) de l'Institut Pascal au sein de l'équipe ComSee (Computers that See). Ces travaux s'inscrivent dans le cadre du projet Bio Rafale initié par la société clermontoise Vesalis et financé par OSEO. Son but est d'améliorer la sécurité dans les stades en s'appuyant sur l'identification des interdits de stade. Les applications des travaux de cette thèse concernent la détection de visages. Elle représente la première étape de la chaîne de traitement du projet. Les détecteurs les plus performants utilisent une cascade de classifieurs boostés. La notion de cascade fait référence à une succession séquentielle de plusieurs classifieurs. Le boosting, quant à lui, représente un ensemble d'algorithmes d'apprentissage automatique qui combinent linéairement plusieurs classifieurs faibles. Le détecteur retenu pour cette thèse utilise également une cascade de classifieurs boostés. L'apprentissage d'une telle cascade nécessite une base d'apprentissage ainsi qu'un descripteur d'images. Cette description des images est ici assurée par des matrices de covariance. La phase d'apprentissage d'un détecteur d'objets détermine ces conditions d'utilisation. Une de nos contributions est d'adapter un détecteur à des conditions d'utilisation non prévues par l'apprentissage. Les adaptations visées aboutissent à un problème de classification avec données manquantes. Une formulation probabiliste de la structure en cascade est alors utilisée pour incorporer les incertitudes introduites par ces données manquantes. Cette formulation nécessite l'estimation de probabilités a posteriori ainsi que le calcul de nouveaux seuils à chaque niveau de la cascade modifiée. Pour ces deux problèmes, plusieurs solutions sont proposées et de nombreux tests sont effectués pour déterminer la meilleure configuration. Enfin, les applications suivantes sont présentées : détection de visages tournés ou occultés à partir d'un détecteur de visages de face. L'adaptation du détecteur aux visages tournés nécessite l'utilisation d'un modèle géométrique 3D pour ajuster les positions des sous-fenêtres associées aux classifieurs faibles.
34

Charni, Nadine. "Mise au point d'une méthode immunologique de détection dans les produits alimentaires de la forme végétative de Bacilius cereus, bactérie pathogène pour l'homme : Nadine Charni." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Bacillus cereus est une bactérie Gram + qui peut exister sous une forme végétative ou une forme sporulée. Sous sa forme végétative, il est responsable d'altérations de produits alimentaires et d'intoxications. Aujourd'hui, les méthodes microbiologiques classiques de détection de B. Cereus permettent de confirmer la présence de cette bactérie dans les aliments en quatre jours. Notre travail de recherche a été orienté vers la mise au point d'une méthode immunologique permettant une détection et une quantification en un jour de la forme végétative de B. Cereus dans les aliments : le système ELISA capture. Ce travail a débuté par la production et la caractérisation d'hybridomes sécrétant des anticorps monoclonaux de souris dirigés contre la cellule végétative de B. Cereus LMG 6923. Deux hybridomes produisant l'AcM 8D3 (IgG1) et l'AcM 9B7 (IgM) ont été sélectionnés par ELISA pour leur réactivité et leur spécificité vis-à-vis des cellules végétatives de B. Cereus. Les résultats obtenus par immunoblot ont montré que l'AcM 8D3 reconnaît une protéine de masse moléculaire de 22 kDa. La séquence N-terminale de cette protéine présente une homologie de 100% avec un facteur de virulence exprimé par B. Cereus : la camelysine CCMP (Casein Cleaving Membrane Proteinase). .
Bacillus cereus is a gram-positive, sporeformer bacterium. The presence of B. Cereus vegetative cells in food contributes to its deterioration and also causes foodborne illness problems. The culture technique is still the most commonly used method for detecting B. Cereus in food, and it can take as long as four days to perform. This study describes the development of a rapid (one day) method for the direct detection and quantification of vegetative cells of B. Cereus in food samples : the ELISA capture system. We produced and characterised many hybridomas which secret murine monoclonal antibodies directed against vegetative cells of B. Cereus LMG 6923. Of these, two secreted antibodies named 8D3 (IgG1) and 9B7 (IgM) were selected by ELISA for their reactivity and specificity with vegetative cells of B. Cereus. Results obtained by western blot show that MAb 8D3 recognises a protein with a molecular mass of 22 kDa. N-terminal sequence of this protein shows an homology of 100% with a virulence factor secreted by B. Cereus : camelysin CCMP (Casein Cleaving Membrane Proteinase)
35

Pardieu, Elodie. "Conception et développement d'un capteur électrochimique à base de polymères conducteurs à mémoire de forme pour la détection de petites molécules : application au cas de l'atrazine." Thesis, Paris, CNAM, 2010. http://www.theses.fr/2010CNAM0738.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les besoins d’outils d’analyse et de contrôle de plus en plus performants en termes de spécificité et sensibilité favorisent le développement des capteurs chimiques et des biocapteurs. Ce travail, s’inscrivant dans ce contexte, a conduit au développement d’un capteur électrochimique à base de polymères conducteurs dédiés à la détection de molécules de faible poids moléculaire. Celui-ci repose sur l’association entre les propriétés de reconnaissance des polymères à empreintes moléculaires et celles de conduction des polymères conducteurs obtenant ainsi un capteur à base de polymères conjugués à mémoires de forme le SMP. Le polymère est obtenu en deux étapes i) une électropolymérisation sur une électrode de platine de l’EDOT avec le pré-complexé formé par l’acide thiophène-3-acétique avec atrazine via des liaisons hydrogène ii) l’extraction de l’atrazine créant des sites à mémoire de forme. Le SMP développé présente une gamme de concentration de 2,5.10-6 M à 5.10-3 M avec un seuil de détection de l’ordre du µM et une sélectivité vis-à-vis de la famille des triazines. Afin d’améliorer les performances de ce capteur et d’élargir le choix de cibles à détecter la synthèse de terthyènyle constitués de l’EDOT de part et d’autre d’un thiophène central fonctionnalisé en β a été réalisé. Ces trimères présentant des pics d’oxydation vers les 0,7 V / Ag/AgNO3 permettent d’envisager le développement de nouvelles fonctionnalités avant ou post-polymérisation tout en ayant un contrôle de la stœchiométrie et de la répartition des groupements fonctionnels
A rapidly increasing interest is actually devoted in the literature to the design of new analytical and control devices able to form efficient chemical sensors. Thus the aim of our work was the design and the development of an electrochemical sensor based on intrinsically molecularly imprinted conducting polymer for the selective and sensitive detection of small target molecules. This goal will be achieved by the used of the recognition properties of moleculary imprinted polymer, together with the electrical conduction of conducting polymer. An original electrochemical sensor based on shape memory polymer has been constructed. This sensor has been realized following two steps: (i) a frst electropolymerisation on a platinum electrode of two co-monomers Thiophene acetic acid TAA already associated through H bonding to the atrazine target and EDOT which is intinded to play the role of conjugated link between the TAA moieties and (ii) removal of atrazine from the resulting conjugated polymer, leaving recognition sites with shape memory. The obtained sensor shows remarkable properties: a high selectivity towards the triazinic family, a large detection dynamic (2.5x10−6 to 5x10−3 M) and a low detection threshold (10−6 M). In order to increase the efficiency of this sensor and to allow the detection of a wide range molecular targets, a terthienyl, i.e. two EDOT units on both sides of the -functionalized thiophene units has been syntesized. These trimers possess an oxydation peak at about +0.7 V/ Ag/AgNO3, allowing the potential development of new pre or post polymerisation functionalities, still controling of the stoechiometry and the distributuion of functional groups
36

Taktak, Rached. "Contribution à la détection automatique des véhicules sur autoroute par vision artificielle." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL019N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le thème du travail présenté dans ce mémoire traite de la détection automatique des véhicules sur autoroute par vision artificielle. Plusieurs projets et expérimentations ont été menés dans le monde autour de ce thème de recherche, ce qui prouve l'intérêt de l'information image pour la détection des véhicules et la gestion du trafic routier. Notre contribution à pour objectif de prouver la faisabilité d'un système de détection des véhicules par vision artificielle qui soit automatique et valable sur une journée complète. Ainsi des solutions originales sont apportées dans le domaine de la modélisation de la route, la calibration automatique du système de vision et la détection des véhicules sur une journée complète. La phase de modélisation de la route permet au système de s'adapter automatiquement à la diversité des sites étudiés à travers la formation de zones de traitement connexes, permettant ainsi de limiter les traitements aux seules zones utiles de roulement. Une procédure de calibration à base de technique d'identification vient compléter cette procédure de modélisation pour former ainsi la phase d'initialisation du processus de détection des véhicules. La phase de détection est scindée en trois parties: la première traite du problème de la détection diurne. Trois méthodes de détection sont réalisées et une contribution originale pour la séparation des images des véhicules rapprochés est apportée. La seconde présente la méthode utilisée pour la détection nocturne de véhicules grâce à des techniques de reconnaissance de formes. Enfin, la détection au crépuscule (et à l'aube) permet de réaliser le lien entre les deux derniers types de détection grâce à des techniques de mise en correspondance. La validité des méthodes utilisées est prouvée sur différents sites réels et la faisabilité d'un système automatique, valable sur une journée complète est maintenant acquise
37

Rochery, Marie. "Contours actifs d´ordre supérieur et leur application à la détection de linéiques dans des images de télédétection." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00010631.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de l´introduction d´une connaissance a priori sur la géométrie de l´objet à détecter dans le cadre général de la reconnaissance de formes dans une image. L´application choisie pour illustrer ce problème est la détection de réseaux de linéiques dans des images satellitaires et aériennes. Nous nous placons dans le cadre des contours actifs et nous introduisons une nouvelle classe de contours actifs d´ordre supérieur. Cette classe permet la création de nouveaux modèles rendant possible l´incorporation d´informations géométriques fortes définissant plutôt qu´une forme spécifique, une famille générale de formes. Nous étudions un cas particulier d´énergie quadratique qui favorise des structures à plusieurs bras de largeur à peu près constante et connectés entre eux. L´énergie étudiée ainsi que des termes linéaires de longueur et d´aire sont utilisés comme termes d´a priori pour les modèles d´extraction de linéiques que nous proposons. Plusieurs termes d´attache aux données sont proposés dont un terme quadratique permettant de lier la géométrie du contour et les propriétés de l´image. Un modèle d´extraction permettant de gérer les occultations est également présenté. Pour permettre la minimisation de l´énergie, nous développons un cadre méthodologique utilisant les courbes de niveau. Les forces non locales sont calculées sur le contour extrait avant d´être étendues sur tout le domaine considéré. Finalement, afin de résoudre certaines difficultés rencontrées avec les contours actifs standards ainsi que les nouveaux modèles, nous proposons d´utiliser des modèles de champs de phase pour modéliser les régions. Cette méthodologie offre une alternative avantageuse aux techniques classiques et nous définissons des modèles d´extraction de linéiques similaires aux contours actifs d´ordre supérieur dans ce cadre. La pertinence de tous les modèles proposés est illustrée sur des images satellitaires et aériennes réelles.
38

Perez, Oramas Oliver. "Contribution à une méthodologie d'intégration de connaissances pour le traitement d'images : application à la détection de contours par règles linguistiques floues." Nancy 1, 2000. http://www.theses.fr/2000NAN10091.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce mémoire, nous proposons une contribution à une méthodologie d'intégration de connaissances dans le traitement d'images que nous appliquons à la détection de contours. Nous avons esquissé cette méthodologie sous la base de la théorie de la granulation floue de l'information récemment proposée par L. A. Zadeh. Ainsi, nous construisons pour une application de détection de contours, un modèle contextuel qui incorpore de la connaissance relative à diverses parties du système d'acquisition telles que l'environnement, le montage d'observation et le produit, tenant compte des imprécisions des contours réels. Ce modèle est ensuite inséré dans le paradigme de traitement flou des images que nous avons proposé. Ce mémoire s'articule en quatre parties : la première présente notre point de vue d'un système de vision industrielle et cible le traitement d'images auquel nous nous intéressons. Nous introduisons ensuite la modélisation linguistique, servant de base théorique au raisonnement approximatif et la théorie de la granulation floue de l'information. La deuxième partie généralise des applications de traitement d' images en utilisant la théorie des ensembles flous par le paradigme de traitement flou des images. Nous particularisons ensuite ce paradigme pour le cas d'un système à base de règles floues pour construire notre opérateur de détection de contours FRED, Fuzzy Resoning Edge Detection. Le modèle générique complet de cet opérateur est constitué de cinq modules qui définissent l'image de contours de sortie à partir d'une image numérique d'entrée: une étape d' extraction des propriétés, une étape de fuzzification, une étape de raisonnement, une étape de défuzzification et un modèle contextuel lié à la base de connaissances. Sur la base de la théorie de la granulation floue de l'information, nous avons présenté une méthodologie pour construire le modèle contextuel, impliquant les étapes de granulation, d'attribution et de valuation. La troisième partie détaille l'implémentation de deux opérateurs de détection de contours sur la base de l'opérateur générique FRED. Bien que ces deux opérateurs utilisent la même structure générique et aient le même objectif de détection de contours, ils traduisent néanmoins deux contextes différents. Les résultats de ces deux opérateurs sont alors agrégés par un opérateur de fusion que nous avons développé en fonction de critères spécifiques. Dans la dernière partie, pour valider l'implémentation de nos deux opérateurs, nous avons utilisé les critères de Fram et Deutsch sur des images de synthèse, qui reflètent la robustesse de l'opérateur vis à vis du bruit et la continuité des points du segment de contour. Cette validation est illustrée sur des angiographies rénales par une application dans le domaine bio-médical concernant l'extraction de contours de sténoses
In this thesis, we propose a contribution to a methodology for knowledge integration in image processing that we apply to edge detection. We outlined this methodology under the base of the theory of fuzzy information granulation, recently suggested by L A. Zadeh. Thus, we built a contextual model, for an edge detection application, that incorporates knowledge about the elements relating to the acquisition system and that takes into account the imprecision of real contours. This model is inserted in a fuzzy image processing paradigm. This document is articulated in four parts. First, we present our point of view about an industrial vision system. Next, we introduce linguistic modeling as the theoretical base of approximate reasoning as same as the theory of the fuzzy information granulation. Second, we start with a generalization of image processing applications using fuzzy set theory through the paradigm of fuzzy image processing. Then we particularize this paradigm for fuzzy rules system case in order to construct our edge detection operator FRED, (Fuzzy Reasoning Edge Detection). FRED consists of five modules : the extraction of properties, the fuzzification, the reasoning, the defuzzification and the contextual model related to the knowledge base. On the ground of fuzzy information granulation, we presented a methodology to construct the contextual model, implying the stages of granulation, attribution and valuation. Third, we detail the implementation of two operators of detection of contours on the basis of FRED. Although these two operators use the same generic structure and have the same objective, edge detection, they translate nevertheless two different contexts. The results of these operators are then aggregated with a specific fusion operator that we have especially developed. And fourth, we validate the implementations of our two operators\ using Fram and Deutsch criteria on computergenerated images. These criteria reflect the robustness of the operator with respect to the noise and the continuity of the contour's segment. An application concerning a renal arteriography edge detection process ends this document
39

Marache-Francisco, Simon. "Évaluation de la correction du mouvement respiratoire sur la détection des lésions en oncologie TEP." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00770662.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La tomographie par émission de positons (TEP) est une méthode d'imagerie clinique en forte expansion dans le domaine de l'oncologie. De nombreuses études cliniques montrent que la TEP permet, d'une part de diagnostiquer et caractériser les lésions cancéreuses à des stades plus précoces que l'imagerie anatomique conventionnelle, et d'autre part d'évaluer plus rapidement la réponse au traitement. Le raccourcissement du cycle comprenant le diagnostic, la thérapie, le suivi et la réorientation thérapeutiques contribue à augmenter le pronostic vital du patient et maîtriser les coûts de santé. La durée d'un examen TEP ne permet pas de réaliser une acquisition sous apnée. La qualité des images TEP est par conséquent affectée par les mouvements respiratoires du patient qui induisent un flou dans les images. Les effets du mouvement respiratoire sont particulièrement marqués au niveau du thorax et de l'abdomen. Plusieurs types de méthode ont été proposés pour corriger les données de ce phénomène, mais elles demeurent lourdes à mettre en place en routine clinique. Des travaux récemment publiés proposent une évaluation de ces méthodes basée sur des critères de qualité tels que le rapport signal sur bruit ou le biais. Aucune étude à ce jour n'a évalué l'impact de ces corrections sur la qualité du diagnostic clinique. Nous nous sommes focalisés sur la problématique de la détection des lésions du thorax et de l'abdomen de petit diamètre et faible contraste, qui sont les plus susceptibles de bénéficier de la correction du mouvement respiratoire en routine clinique. Nos travaux ont consisté dans un premier temps à construire une base d'images TEP qui modélisent un mouvement respiratoire non-uniforme, une variabilité inter-individuelle et contiennent un échantillonnage de lésions de taille et de contraste variable. Ce cahier des charges nous a orientés vers les méthodes de simulation Monte Carlo qui permettent de contrôler l'ensemble des paramètres influençant la formation et la qualité de l'image. Une base de 15 modèles de patient a été créée en adaptant le modèle anthropomorphique XCAT sur des images tomodensitométriques (TDM) de patients. Nous avons en parallèle développé une stratégie originale d'évaluation des performances de détection. Cette méthode comprend un système de détection des lésions automatisé basé sur l'utilisation de machines à vecteurs de support. Les performances sont mesurées par l'analyse des courbes free-receiver operating characteristics (FROC) que nous avons adaptée aux spécificités de l'imagerie TEP. L'évaluation des performances est réalisée sur deux techniques de correction du mouvement respiratoire, en les comparant avec les performances obtenues sur des images non corrigées ainsi que sur des images sans mouvement respiratoire. Les résultats obtenus sont prometteurs et montrent une réelle amélioration de la détection des lésions après correction, qui approche les performances obtenues sur les images statiques.
40

Jaber, Jamal. "Définition et validation d'une architecture électronique rapide de caractérisation et d'étiquetage d'objets dans une image." Nancy 1, 1993. http://www.theses.fr/1993NAN10332.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous proposons une architecture électronique rapide de caractérisation et d'étiquetage d'objets dans une image. La caractérisation se fait par la détermination de certains paramètres. Dans le cadre d'une exécution rapide le choix du paramètre est lié à la possibilité de le déterminer rapidement. Nous caractérisons l'objet par estimation de la surface et du périmètre grâce à des calculs récursifs rapides. Pour ce faire, nous proposons des algorithmes de détection de contour aussi bien sur une image provenant de camera hors standard que sur une image tramée. Ils sont basés sur des traitements combinatoires locaux utilisant un voisinage 33. En présence de plusieurs objets l'individualisation de la caractérisation est obtenue par une procédure d'étiquetage. Une architecture pipe line permet d'intégrer en parallèle les algorithmes de détection et d'étiquetage. Ainsi, nous aboutissons à une caractérisation séparée des objets de l'image sans connaissance préalable de son contenu. L'architecture est organisée autour de circuits f. P. G. A. Associés à des mémoires f. I. F. O. L'implantation de l'ensemble des algorithmes représente un equi de 9000 portes logiques. Le caractère combinatoire des traitements autorise des fréquences de travail intéressantes, ils sont réalisés à la volée sur le signal vidéo avec un retard de deux lignes plus deux cycles d'horloge par rapport à la ligne courante. Cette performance de rapidité permet de traiter en temps réel certains problèmes de reconnaissance de formes et d'étude de mouvements, un autre intérêt réside dans l'utilisation de circuits entièrement programmables
41

Fournier, Jacques. "Détection de la simulation de l'invalidité découlant de la douleur (SIDD) à l'aide de quatre échelles de validité de la forme révisée du Minnesota Multiphasic Personnality Inventory-2 (MMPI-2-RF)." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6955.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
À l’aide du modèle de recherche de la simulation connu sous le nom de « comparaison de groupes connus » (known-groups studies / criterion- groups validation studies), la présente étude visait à vérifier l’efficacité de quatre échelles de validité du MMPI-2-RF (Fs, FBS-r, RBS et HHI-r) à détecter la simulation de l’invalidité découlant de la douleur (SIDD) auprès d’une population rapportant de la douleur chronique ayant subi une évaluation psychologique. Les données provenant de patients rapportant une condition de douleur chronique (n=111) ont été recueillies à partir de dossiers archivés d’une clinique indépendante spécialisée dans l’évaluation et le traitement de cas de douleur chronique et de troubles somatoformes. Une fois sélectionnés, les sujets ont été répartis dans l’un des deux groupes connus à l’aide de critères externes prédisant la simulation de l’invalidité découlant de la douleur : les simulateurs (SIDD Probable et Certaine) et les non-simulateurs (Non SIDD). Tel que stipulé dans la littérature actuelle existant sur l’évaluation de la simulation de l’invalidité de la douleur, les résultats indiquent que les quatre échelles à l’étude sont efficaces lorsqu’on cherche à différentier les sujets simulateurs des non- simulateurs. Dans la présente étude, l’échelle RBS a été la plus efficace à différencier les deux groupes, suivie de près par l’échelle HHI-r. Les implications de ces résultats sont discutées dans la perceptive de leur utilité clinique et psycho-légale.
42

Bégard, Julien. "Reconnaissance de formes dans des séquences vidéo : application à la vidéo-surveillance." Paris 6, 2008. http://www.theses.fr/2008PA066538.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de la détection de personnes dans des images. L’objectif est d’aboutir à un système performant de détection de piétons dans un contexte automobile en milieu urbain. Nous avons abordé ce sujet sur deux fronts principaux. Le premier a été de concevoir une représentation discriminante de la forme des objets. De part la grande diversité des apparences des piétons, celle-ci doit être assez riche pour capturer les caractéristiques nécessaires pour les reconnaître. Nous avons construit cette description à partir de l’information du gradient calculé dans l’image et sa magnitude: les Histogrammes d’Orientation du Gradient enrichis de la Magnitude. Calculés de façon dense dans une région de l’image, ces descripteurs forment des vecteurs définissant finement la forme des objets. Nous comparons ces descripteurs avec des règles de décision formés à partir de méthodes d’apprentissage automatique. Notre système est basé sur l’algorithme AdaBoost auquel nous avons apporté des modifications pour obtenir un algorithme utilisant plus efficacement l’information fournie. Ces modifications ont donné deux algorithmes aux les performances complémentaires. Nous avons conçu une méthode pour combiner ces algorithmes et obtenir de meilleurs résultats. Nous avons structuré notre système en une cascade de sous-détecteurs de plus en plus complexes. Le but de cette structure est d’éliminer le plus tôt possible les mauvais candidats. Ainsi, seuls les bons candidats atteignent le sommet de la cascade, constitué des règles de décisions les plus complexes et les plus coûteuses en temps. Nous avons évalué et validé cette méthodologie sur des données couleurs et infrarouges
This thesis addresses the problem of detecting people in pictures. The objective is to achieve an efficient system for detecting pedestrians in an automotive context in urban areas. We discussed this issue on two main fronts. The first was to design a discriminant representation of the form of the objects. Due to the wide variety of appearances of pedestrians, it must be rich enough to capture the characteristics necessary to recognize them. We built this description from the information of the gradient calculated in the image and its magnitude: Histograms of Orientation Gradient fortified with the Magnitude. Calculated densely in regions of the image, these descriptors forms vectors that define finely the shape of objects. We compare these descriptors with decision rules formed from machine learning methods. Our system is based on AdaBoost algorithm that we have made changes to get an algorithm using more effectively the information provided. These changes gave two algorithms with comparable performance. We have designed a method to combine these algorithms and get better results. We structured our system in a cascade of sub-detectors that are increasingly complex. The purpose of this structure is to eliminate as soon as possible wrong candidates. Thus, only the right candidates reaching the top of the cascade, consisting of the most complex and time-costly rules decisions. We evaluated and validated this methodology on color and infrared data
43

Li, Xiaoming. "Développement d'une méthode connexionniste pour la détection et le diagnostic de défauts de systèmes de chauffage." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://tel.archives-ouvertes.fr/tel-00529470.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'accroissement des performances des systèmes de génie climatique de ces dernières années s'est accompagné d'une complexité accrue de ceux-ci. La compréhension de leur fonctionnement ainsi que !a détection et le diagnostic de leurs défauts deviennent de plus en plus difficiles pour les équipes de maintenance. Ces dernières souhaitent donc disposer d'outil performant d'aide à la détection des défauts ou dérives de fonctionnement et, éventuellement, d'aide au diagnostic des causes de ceux-ci. Cette thèse s'intéresse au développement d'un tel outil adapté aux systèmes de chauffage collectif à eau chaude. Les défauts pour lesquels il paraissait le plus utile de développer un outil de détection et de diagnostic ont d'abord été recensés. La modélisation-simulation du fonctionnement des cinq systèmes de chauffage avec et sans défauts a permis ensuite d'obtenir une base de données destinée au développement d'un outil de détection et de diagnostic. Un prototype de détection et de diagnostic basé sur la reconnaissance des formes a été développé en utilisant, comme outil de classification, un modèle connexionniste (réseaux de neurones multi-couches). Ce prototype a été testé sur les cinq systèmes simulés. Le résultat est satisfaisant avec un taux de réussite supérieur à 90% et un risque de fausse alarme inférieur à 2% pour l'ensemble des défauts des cinq systèmes simulés. Ceci bien que seules les données provenant d'un des systèmes aient été utilisées pour la phase d'apprentissage du prototype. Cette étude permet de penser que la généralisation du prototype vers des systèmes réels devrait donner des résultats intéressants. A l'issue de ce travail les principales perspectives consistent à : - valider l'outil de détection et de diagnostic ainsi développé sur des systèmes réels, - implanter celui-ci dans des systèmes de gestion technique des bâtiments en collaborant avec des industriels, - appliquer l'approche développée dans cette thèse à d'autres systèmes de génie climatique.
44

Wang, Yihong. "Détection des défauts internes et externes des noix en coque : application du traitement d'images et de la reconnaissance de formes au contrôle de qualité." Grenoble 1, 1993. http://www.theses.fr/1993GRE10098.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le triage des noix en coque a pour but d'eliminer toutes celles qui presentent des defauts externes et internes. Son automatisation permet d'en augmenter la productivite et une meilleure qualite de noix vendues. Cette automatisation repose sur un systeme d'inspection par vision artificielle. Celui-ci est constitue de deux parties: l'une relative a la prise d'images internes et externes de noix et l'autre a la qualification de la qualite des noix a partir de leurs images, laquelle fait appel aux techniques de traitement d'images et de reconnaissance de formes. Dans cette etude, un tel systeme de controle de qualite a ete elabore de facon logicielle, et cela selon un modele lineaire comportant 4 elements: capteur, bloc de traitement d'images, extracteur de parametre et classifieur. La camera optique et la radiographie par rayon x ont ete respectivement choisies comme capteurs pour la prise d'images externes et internes. Bases sur ces images, les algorithmes de traitement d'images et de reconnaissance de formes relatifs aux trois autres elements du modele ont ete developpes pour la classification des noix. L'ensemble du systeme a ete realise sur un pc 486-25 en langage c. Ce systeme a ete concu pour une application bien definie le triage automatique de noix, mais l'etude de sa generalisabilite montre qu'il peut aussi avoir d'autres applications dans les domaines industriel, medical, agricole, etc. . .
45

Lê, Hoài Nam. "Influence des défauts de forme sur le comportement des liaisons : étude expérimentale et théorique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00961201.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de l'étude est d'identifier le comportement des liaisons d'un mécanisme du point de vue des déplacements en fonction des défauts de forme et des jeux. Le sujet est abordé selon une approche théorique et une approche expérimentale.La partie théorique montre la dualité entre les deux concepts utilisés : le domaine jeu et la surface convexe des différences. Elle montre également la typologie des domaines et l'influence des incertitudes de forme sur ces domaines.En parallèle, un dispositif expérimental est développé. Il permet, non seulement, de réaliser la mesure des déplacements dans la liaison avec l'exactitude nécessaire, mais aussi, de valider les résultats par une simulation de l'assemblage à partir de la mesure 3D des surfaces en contact. L'expérimentation porte sur plusieurs couples de surfaces comportant des défauts de forme de différents types. L'influence d'un chargement mécanique est étudiée afin de quantifier les déformations locales de surfaces de contact et l'évolution des écarts de position entre les pièces.
46

Kerlau, Marie. "Nouveaux matériaux pour capteurs chimiques de gaz dans les systèmes Ga-O-N et Ta-O-N : Synthèse, caractérisation et mise en forme (couches épaisses, couches minces). Application à la détection de gaz toxiques et explosifs." Rennes 1, 2003. http://www.theses.fr/2003REN10080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a été consacré à la réalisation de nouveaux capteurs chimiques de gaz à base d'(oxy)nitrures dans les systèmes Ga-O-N et Ta-O-N. Dans un premier temps, nous avons réalisé la synthèse des matériaux. Les composés GaN, TaON et Ta3N5 ont été obtenus directement par chauffage sous courant d'ammoniac des oxydes commerciaux. Deux procédés de chimie douce ont été mis en œuvre et ont permis d'élaborer des poudres d'oxydes précurseurs de "GaON" et TaON plus réactives vis-à-vis de la nitruration que les précurseurs commerciaux. Dans un second temps, la technologie de sérigraphie en couches épaisses a été utilisée pour la mise en forme des quatre composés "GaON", GaN, TaON et Ta3N5. Parallèlement, la préparation de couches minces de composés purs TaON et Ta3N5 a été réalisée par nitruration ex situ de films de Ta2O5 déposés par ablation laser. Les caractérisations électriques des capteurs (couches épaisses) ont mis en évidence leur aptitude à détecter le monoxyde de carbone (CO) ainsi que plusieurs familles de gaz telles les hydrocarbures (C3H8), les alcools (C2H5OH) et les aldéhydes (C2H5CHO). Le comportement des capteurs en présence de différentes concentrations d'oxygène et de vapeur d'eau a été étudié dans le but de déterminer le rôle fondamental de ces deux constituants de l'air lors de la détection. Une étude de l'influence de différents paramètres tels la température de travail, l'épaisseur des couches sensibles ou encore la microstructure des matériaux, sur les performances des capteurs lors de l'exposition à plusieurs gaz, a été réalisée. Il a ainsi été démontré que les propriétés de détection des capteurs pouvaient être optimisées en contrôlant ces divers paramètres. Les caractérisations électriques des couches minces de TaON et Ta3N5, bien que préliminaires, sont très prometteuses puisqu'elles mettent en avant le potentiel de ces films comme capteurs chimiques de gaz. La détermination des espèces gazeuses issues de la réaction entre le propane et "GaON", par des mesures de désorption programmée en température couplées à la spectrométrie de masse, nous ont permis de proposer un mécanisme de détection du propane.
47

Modeley, Derek. "Etude des états doublement excités de H- et des processus de seuil dans les collisions H-/gaz rare par spectroscopie électronique à zéro degré." Paris 6, 2003. http://www.theses.fr/2003PA066458.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Mahmoudi, Saïd. "Indexation de formes planes : application à la reconnaissance multi-vues de modèles 3D." Lille 1, 2003. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2003/50376-2003-291.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le domaine de l'indexation et de la reconnaissance des formes planes dans une base constituée d'objets contours, et son application dans l'indexation multi-vues des objets tridimensionnels. Notre approche permet de reconnaître les objets 3D à partir d'une requête qui peut être une forme 2D ou une vue arbitraire d'un objet tridimensionnel. Un des problèmes fondamentaux de l'indexation d'images par la forme réside dans le choix d'une description invariante de celle-ci. Pour cela, nous proposons l'utilisation du descripteur CSS, qui s'appuie sur une analyse multi-échelle du contour. Nous proposons une organisation de l'index extrait à partir du CSS par une structure d'arbre dite M-tree, qui est totalement paramétrisée par une fonction de distance et qui permet aussi en sauvegardant les distances intermédiaires d'améliorer considérablement les temps de calculs. Nous avons aussi introduit une technique probabiliste bayésienne de recherche de ressemblance entre formes. L'application proposée représente une nouvelle méthode d'indexation de modèles 3D. Cette méthode consiste à caractériser les objets 3D par un ensemble de sept vues caractéristiques (trois principales et quatre secondaires). Les angles de prise de vues principales sont choisis par le biais d'une analyse d'information présente sous forme de nuage de points sur l'objet 3D. Les vues secondaires sont déduites à partir des vues principales. L'index du modèle 3D est calculé à partir des index correspondants aux sept vues qui le caractérisent. De ce fait, nous utilisons l'approche de reconnaissance de formes proposée pour le procédé de reconnaissance des vues. Une méthode de vote bayésienne est proposée pour la sélection des objets 3D similaires à la requête.
49

Munteanu, Sorin. "Micro électrochimie et optique couplées pour l'imagerie et l'étude de réactions chimiques de surface." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://pastel.archives-ouvertes.fr/pastel-00802004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif est de développer des méthodes permettant de suivre et de quantifier la réactivité chimique de surface à l'échelle micrométrique. Nous proposons une approche optique qui utilise une détection sans marquage basée sur un changement d'indice de réfraction. Le principe repose sur le couplage entre techniques d'imagerie, de microscopie optique et de micro-électrochimie pour étudier et cartographier en temps réel et in situ des processus (électro)chimiques interfaciaux. Les potentialités de ces techniques sont mises en évidence sur un système modèle : l'électrogreffage de films minces organiques sur des surfaces par réduction de sels de diazonium. La réactivité (bio)chimique est étudiée ex situ et in situ sur différentes surfaces d'or : des microélectrodes ou des macroélectrodes décorées par impression par microcontact ou par lithographie. La méthode est intéressante pour examiner la réactivité chimique de diverses molécules immobilisées vis-à-vis de radicaux électrogénérés. Ces microscopies opto-électrochimiques montrent que la microlithographie modifie la réactivité de surface et qu'elle doit donc être réalisée soigneusement quand on cherche à déterminer la réactivité de la surface. Finalement, ces travaux sont appliqués au développement d'une méthode analytique par microscopie électrochimique (SECM) pour détecter des mouvements mécaniques de microleviers suite à un changement de tension de surface.
50

Musé, Pablo. "Sur la définition et la reconnaissance des formes planes dans les images numériques." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00133648.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de la reconnaissance des formes dans les images numériques. Une représentation appropriée des formes est déduite de l'analyse des perturbations qui n'affectent pas la reconnaissance : changement de contraste, occlusion partielle, bruit, perspective. Les atomes de cette représentation, appelés "éléments de forme", fournissent des descriptions semi-locales des formes. L'appariement de ces éléments permet de reconnaitre des formes partielles. Les formes globales sont alors définies comme des groupes de formes partielles présentant une cohérence dans leur disposition spatiale. L'aspect fondamental de ce travail est la mise en place de seuils non-supervisés, à tous les niveaux de décision du processus de reconnaissance. Nous proposons des règles de décision pour la en correcpondance de formes partielles ainsi que pour la détection de formes globales. Le cadre proposé est basé sur une méthodologie générale de la détection dans laquelle un événement est significatif s'il n'est pas susceptible d'arriver par hasard.

До бібліографії