Academic literature on the topic 'Extraction et chaînage de contour'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Extraction et chaînage de contour.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Extraction et chaînage de contour"

1

Liu, Shu Min, Ying Ping Huang, and Ren Jie Zhang. "Contour Extraction Based on Improved Snake Model and its Application in Vehicle Identification." Applied Mechanics and Materials 391 (September 2013): 441–47. http://dx.doi.org/10.4028/www.scientific.net/amm.391.441.

Full text
Abstract:
Contour curve is an important shape feature for vehicle recognition and it is a hard work to extraction it from complex dynamic traffic video for in-vehicle detection system. Snake Model is used to automatically extract the object contour curve proposed by Kass et al, but it is inability for traffic objects. Presented here is a novel approach for extracting vehicle contour curve by combining stereo vision with Snake Model. In this paper, Stereo vision is first used to segment vehicle from traffic background, then Snake Model is adopted to obtain complete contour curve. In view of classical Snake model is easily affected by noise, here we propose a improved Snake model by combining corner detection technology with Distance Potential Snake Model. Moreover, a vehicle identification method based on contour curve is presented. The method presented here was tested on complex traffic scenes and the corresponding results prove the efficiency of our proposed method.
APA, Harvard, Vancouver, ISO, and other styles
2

Kyong, Jeong S., Sophie K. Scott, Stuart Rosen, Timothy B. Howe, Zarinah K. Agnew, and Carolyn McGettigan. "Exploring the Roles of Spectral Detail and Intonation Contour in Speech Intelligibility: An fMRI Study." Journal of Cognitive Neuroscience 26, no. 8 (August 2014): 1748–63. http://dx.doi.org/10.1162/jocn_a_00583.

Full text
Abstract:
The melodic contour of speech forms an important perceptual aspect of tonal and nontonal languages and an important limiting factor on the intelligibility of speech heard through a cochlear implant. Previous work exploring the neural correlates of speech comprehension identified a left-dominant pathway in the temporal lobes supporting the extraction of an intelligible linguistic message, whereas the right anterior temporal lobe showed an overall preference for signals clearly conveying dynamic pitch information [Johnsrude, I. S., Penhune, V. B., & Zatorre, R. J. Functional specificity in the right human auditory cortex for perceiving pitch direction. Brain, 123, 155–163, 2000; Scott, S. K., Blank, C. C., Rosen, S., & Wise, R. J. Identification of a pathway for intelligible speech in the left temporal lobe. Brain, 123, 2400–2406, 2000]. The current study combined modulations of overall intelligibility (through vocoding and spectral inversion) with a manipulation of pitch contour (normal vs. falling) to investigate the processing of spoken sentences in functional MRI. Our overall findings replicate and extend those of Scott et al. [Scott, S. K., Blank, C. C., Rosen, S., & Wise, R. J. Identification of a pathway for intelligible speech in the left temporal lobe. Brain, 123, 2400–2406, 2000], where greater sentence intelligibility was predominately associated with increased activity in the left STS, and the greatest response to normal sentence melody was found in right superior temporal gyrus. These data suggest a spatial distinction between brain areas associated with intelligibility and those involved in the processing of dynamic pitch information in speech. By including a set of complexity-matched unintelligible conditions created by spectral inversion, this is additionally the first study reporting a fully factorial exploration of spectrotemporal complexity and spectral inversion as they relate to the neural processing of speech intelligibility. Perhaps surprisingly, there was little evidence for an interaction between the two factors—we discuss the implications for the processing of sound and speech in the dorsolateral temporal lobes.
APA, Harvard, Vancouver, ISO, and other styles
3

Kuo, C. F., K. Zheng, S. Miao, L. Lu, C. I. Hsieh, C. Lin, and T. Y. Fan. "OP0062 PREDICTIVE VALUE OF BONE TEXTURE FEATURES EXTRACTED BY DEEP LEARNING MODELS FOR THE DETECTION OF OSTEOARTHRITIS: DATA FROM THE OSTEOARTHRITIS INITIATIVE." Annals of the Rheumatic Diseases 79, Suppl 1 (June 2020): 41.2–42. http://dx.doi.org/10.1136/annrheumdis-2020-eular.2858.

Full text
Abstract:
Background:Osteoarthritis is a degenerative disorder characterized by radiographic features of asymmetric loss of joint space, subchondral sclerosis, and osteophyte formation. Conventional plain films are essential to detect structural changes in osteoarthritis. Recent evidence suggests that fractal- and entropy-based bone texture parameters may improve the prediction of radiographic osteoarthritis.1In contrast to the fixed texture features, deep learning models allow the comprehensive texture feature extraction and recognition relevant to osteoarthritis.Objectives:To assess the predictive value of deep learning-extracted bone texture features in the detection of radiographic osteoarthritis.Methods:We used data from the Osteoarthritis Initiative, which is a longitudinal study with 4,796 patients followed up and assessed for osteoarthritis. We used a training set of 25,978 images from 3,086 patients to develop the textual model. We use the BoneFinder software2to do the segmentation of distal femur and proximal tibia. We used the Deep Texture Encoding Network (Deep-TEN)3to encode the bone texture features into a vector, which is fed to a 5-way linear classifier for Kellgren and Lawrence grading for osteoarthritis classification. We also developed a Residual Network with 18 layers (ResNet18) for comparison since it deals with contours as well. Spearman’s correlation coefficient was used to assess the correlation between predicted and reference KL grades. We also test the performance of the model to identify osteoarthritis (KL grade≥2).Results:We obtained 6,490 knee radiographs from 446 female and 326 male patients who were not in the training sets to validate the performance of the models. The distribution of the KL grades in the training and testing sets were shown in Table 1. The Spearman’s correlation coefficient was 0.60 for the Deep-TEN and 0.67 for the ResNet18 model. Table 2 shows the performance of the models to detect osteoarthritis. The positive predictive value for Deep-TEN and ResNet18 model classification for OA was 81.37% and 87.46%, respectively.Table 1Distribution of KL grades in the training and testing sets.KL grades01234TotalTraining set1089341.9%458218.7%611423.5%332012.8%7993.1%25,978Testing set247238.1%135320.8%169626.1%77511.9%1943.0%6,490Table 2Performance matrices of the Deep-Ten and ResNet18 models to detect osteoarthritisDeep-TENResNet18Sensitivity62.29%(95% CI, 60.42%–64.13%)59.14%(95% CI, 57.24%–61.01%)Specificity90.07%(95% CI, 89.07%–91.00%)94.09%(95% CI, 93.30%–94.82%)Positive predictive value81.37%(95% CI, 79.81%–82.84%)87.46%(95% CI, 85.96%–88.82%)Negative predictive value77.42%(95% CI, 77.64%–79.65%)76.77%(95% CI, 75.93%–77.59%)Conclusion:This study demonstrates that the bone texture model performs reasonably well to detect radiographic osteoarthritis with a similar performance to the bone contour model.References:[1]Bertalan Z, Ljuhar R, Norman B, et al. Combining fractal- and entropy-based bone texture analysis for the prediction of osteoarthritis: data from the multicenter osteoarthritis study (MOST). Osteoarthritis Cartilage 2018;26:S49.[2]Lindner C, Wang CW, Huang CT, et al. Fully Automatic System for Accurate Localisation and Analysis of Cephalometric Landmarks in Lateral Cephalograms. Sci Rep 2016;6:33581.[3]Zhang H, Xue J, Dana K. Deep TEN: Texture Encoding Network. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2017:708-17.Disclosure of Interests:None declared
APA, Harvard, Vancouver, ISO, and other styles
4

Liu, Bangquana, Shaojun Zhu, Dechao Sun, Guang Yua Zhou, Weihua Yang, Li Liu, and Kai Chen. "Magic Wand Selection Tool for 3D Model Surfaces." Recent Advances in Computer Science and Communications 13 (September 1, 2020). http://dx.doi.org/10.2174/2666255813999200901191031.

Full text
Abstract:
Introduction: segmentation of 3d shapes is a fundamental problem in computer graphics and computer-aided design. It has received much plays attention in recent years. The analysis and research methods of 3d mesh models have established reliable mathematical foundations in graphics and geometric modeling. Compared with color and texture, shape features describe the shape information of objects from geometric structure features. And it an important role in a wide range of applications, including mesh parameterization, skeleton extraction, resolution modeling, shape retrieval, character recognitio,, robot navigation, and many others. Methods: The interactive selection surface of models is mainly used for shape segmentation. The common method is boundary-based selection, which requires user input some stokes near the edge of the selected or segmented region. Chen et al.introduced an approach to join the specified points form the boundaries for region segmentation on the surface. Funkhouser et al. improve the Dijkstra algorithm to find segmentation boundary contour. The graph cut algorithm use the distance between the surface and its convex hull as the growing criteria to decompose a shape into meaningful components. The watershed algorithm, widely used for image segmentation, is a region-growing algorithm with multiple seed points. Wu and Levine use simulated electrical charge distributions over the mesh to deal with the 3D part segmentation problem. Other methods using a watershed algorithm for surface decomposition. Results: We implemented our algorithm in C++ and Open MP and conducted the experiments on a PC with a 3.07 GHz Intel(R) Core(TM) i7 CPU and 6 GB memory. Our method can get a similar region under different interaction vertices in specific regions. Figure 6a and Figure 6b are the calculation results of tolerance region selection of this algorithm in a certain region of kitten model at two different interaction points, from which we can see the obtained regions are similar from different vertices in this region. Figure 6c and figure 6d are two different interactive points in the same region, and the region selection results are obtained by Region growing technique. Discussion: In this paper, we proposed a novel magic wand selection tool to interactive select surface of 3D model. The feature vector is constructed by extracting the HKS feature descriptor and means curvature of 3D model surface, which allows users to input the feature tolerance value for region selection and improves the self-interaction of users. Many experiments show that our algorithm has obvious advantages in speed and effectiveness. The interactive generation of region boundary is very useful for many applications including model segmentation. Conclusion: In consideration of a couple of requirements including user-friendliness and effectiveness in model region selection, we propose a novel magic wand selection tool to interactive selection surface of 3D models. First, we pre-compute the heat kernel feature and mean curvature of the surface, and then form the eigenvector of the model. Then we provide two ways for region selection. One is to select the region according to the feature of tolerance value. The other is to select the region that aligns with stroke automatically. Finally, we use the geometry optimization approach to improve the performance of the computing region con-tours. Extensive experimental results show that our algorithm is efficient and effective.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Extraction et chaînage de contour"

1

Kerkeni, Naceur. "Contribution à l'unification des méthodes d'inspection automatique : applications par vision artificielle." Valenciennes, 1992. https://ged.uphf.fr/nuxeo/site/esupversions/d45e0a52-5a66-4ed5-8c23-9c668e3ccfec.

Full text
Abstract:
L'inspection automatique, branche particulière du traitement d'image est un des champs majeurs d'application industrielle de la vision artificielle. Souvent empirique, l'ingénierie en ce domaine ne résout les problèmes posés qu'au cas par cas; il lui serait profitable de disposer d'une méthodologie ouverte et systématique. Dans une première étape, nous présentons une tentative d'unification des méthodes, après une classification des types de techniques employées: une expression mathématique générale tente de caractériser la méthodologie par type et sous-type. En second lieu, trois des quatre types de systèmes sont analysés grâce à un exemple par type au travers de deux applications industrielles et d'un prototype de laboratoire. Les deux premières opérationnelles et la troisième en cours d'intégration permettent de dégager les caractéristiques générales des méthodes correspondantes et de présenter une technique originale susceptible de développer une nouvelle méthode d'extraction de contour temps réel. Enfin sont établies les caractéristiques principales d'un système-type d'inspection généralisée.
APA, Harvard, Vancouver, ISO, and other styles
2

Quantin, Matthieu. "Proposition de chaînage des connaissances historiques et patrimoniales Approche multi-échelles et multi-critères de corpus textuels." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0014.

Full text
Abstract:
Les humanités défient les capacités du numérique depuis 60 ans. Les années 90 marquent une rupture, énonçant l'espoir d'une interprétation qualitative automatique de données interopérables devenues « connaissances ». Depuis 2010, une vague de désillusion ternit ces perspectives, le foisonnement des humanités numériques s'intensifie. Au coeur de ce paysage complexe, nous proposons une méthode implémentée produisant différentes vues d'un corpus textuel pour (1) l'analyse en interaction avec les connaissances qualitatives de l'historien et (2) la documentation numérique en contexte patrimonial (musée, site) auprès d'un public avisé. Les vues du corpus sont des graphes multiples pondérés, les documents sont des sommets liés par des arêtes renseignant les proximités sémantiques, temporelles et spatiales. Cette méthode vise à co-créer des connaissances historiques. À l'utopie d'une modélisation des connaissances qualitatives de l'historien, nous préférons l'heuristique pragmatique: l'interprétation de quantifications du corpus suscite l'émergence de nouvelles certitudes et hypothèses. Par ailleurs, notre approche (type OLAP) ouvre des parcours et accès personnalisés à chaque usager pour la documentation/analyse du patrimoine numérique voire 3D. Plusieurs cas d'étude valident les méthodes proposées et ouvrent des perspectives d'applications industrielles
Humanities challenges computer sciences since 60 years. The 90’s marks a break, announcing qualitative analysis and interpretation of interoperable data, which became «knowledge». Since 2010, a disillusionment tarnishes the prospects, Digital Hmanities diversity increases. At the core of this complex background, we propose an implemented method producing various «views» of textual corpus in History. This views enable (1) interactive analysis with qualitative knowledge of the historian and (2) digital documentation of heritage on site (e.g. museum) for an advanced visitor. Corpus views are weighted multi graphs. Documents are vertices linked by edges. Each edge contains semantic, temporal or spatial proximity information. This method aims at co-creating historical knowledge. Facing the utopian modeling of qualitative knowledge in history, we designed a pragmatic process : the historian analyses quantitative data of a known corpus, this generates new hypothesis and certainties. Our approach (OLAP like) chart paths and customized access for each user to digital heritage documentation. These paths may meet 3D heritage data. Several use cases validate the proposed method and open perspectives of industrial application
APA, Harvard, Vancouver, ISO, and other styles
3

Di, Martino Jean Claude. "Intégration de connaissances dans des systèmes distribués pour l'extraction de raies spectrales dans des images sonar." Nancy 1, 1995. http://www.theses.fr/1995NAN10008.

Full text
Abstract:
Nous présentons dans cette thèse un système complet d'extraction d'indices dans des images bruitées. L’objectif est de fournir des primitives robustes et limitées en nombre aux niveaux supérieurs d'un traitement de reconnaissance de formes. Dans le cadre des systèmes sonar qui ont servi d'application à ce travail, l'information pertinente est définie sous la forme de courbes correspondant à l'évolution spectrale du signal dans le temps. Une part importante de notre travail consiste à définir les connaissances qui caractérisent les structures recherchées et à étudier leur modélisation dans les différents traitements mis en œuvre pour extraire ces primitives. Cette étude montre l'intérêt de l'apport de connaissances globales d'ordre perceptuel pour renforcer des connaissances locales parfois insuffisantes. Nous analysons chaque étape de traitement et proposons pour chacune d'elle une solution originale à partir de techniques d'intelligence artificielle (réseaux de neurones, traitements distribués, programmation dynamique) mais également à partir de techniques de traitement d'images (filtrage, détection de contours). Il ressort de cette étude que les traitements proposes de détection et d'association d'indices permettent de trouver de manière efficace les structures recherchées au détriment parfois d'une précision quant à leur localisation. Ceci nous a amène à compléter ce schéma de traitement en introduisant une étape supplémentaire originale de suivi guidée par les indices déjà extraits. Les résultats obtenus avec cette méthode montrent un gain significatif des performances en localisation des courbes extraites, pour un coût supplémentaire négligeable en temps d'exécution
APA, Harvard, Vancouver, ISO, and other styles
4

Millioz, Fabien. "Deux approches de segmentation temps-fréquence : détection par modèle statistique et extraction de contour par le champ de vecteurs de réallocation." Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00421599.

Full text
Abstract:
Les représentation temps-fréquence montrent l'évolution spectral d'un signal dans le temps. L'objectif de ces travaux de recherche est de proposer deux principes de segmentation du plan temps-fréquence, cherchant à déterminer quelles sont les zones temps-fréquence présentant un intérêt relatif au signal analysé.

La première méthode s'appuie sur une méthode statistique, modélisant le signal analysé par un signal d'intérêt à segmenter perturbé par un bruit blanc gaussien additif de variance inconnue. Le but est de déterminer le support temps-fréquence, ensemble des points sur lesquels l'énergie du signal à segmenter est répartie. Une détection de type Neyman-Pearson à probabilité de fausse alarme fixée permet de détecter les points temps-fréquence contenant du signal, à niveau de bruit connu. L'algorithme proposé est itératif, estimant le niveau de bruit à partir des points non segmentés, ce niveau de bruit servant à détecter de nouveaux points contenant du signal. Un critère basé sur le kurtosis spectral des points non segmentés permet de définir l'arrêt des itérations.

La seconde méthode est basée sur le principe de la réallocation du spectrogramme, en tant que source d'information sur le spectrogramme. La réallocation déplace l'énergie du spectrogramme sur le centre de gravité local de l'énergie. Aux frontière d'un motif temps-fréquence, l'énergie sera déplacée vers l'intérieur du motif. Ainsi, les vecteur
s de réallocation, décrivant le déplacement de l'énergie du pectrogramme par la réallocation, sont localement parallèles sur la frontière d'un motif. Nous définissons alors un « degré de parallélisme » pour chaque vecteur, égal au nombre de ses vecteurs voisins qui lui sont parallèles. Un algorithme de type suivi de crête, parcourant le plan temps-fréquence en suivant les maximums de ce degré de parallélisme, construit alors un contour entourant le motif temps-fréquence.
APA, Harvard, Vancouver, ISO, and other styles
5

ZOU, QIN. "Etude et experimentation d'un instrument de vision a fonction de transfert optique synthetisee par deux pupilles : application a l'analyse d'objets reels (extraction de contour et analyse de texture)." Paris 6, 1989. http://www.theses.fr/1989PA066531.

Full text
Abstract:
Ce travail est consacre a l'etude et l'experimentation d'un nouveau type d'instrument de vision, capable d'extraire directement les informations importantes d'un objet reel (contour, texture) et soulager ainsi le traitement informatique. Une methode de synthese par deux pupilles des fonctions de transfert optique (otf) est utilisee. Le systeme ainsi realise correspond a un systeme de filtrage incoherent des frequences spatiales dont l'otf peut etre un filtre passe-bande (reponse impulsionnelle - psf - bipolaire). Un montage avec un laser he-ne et deux modulateurs acousto-optiques et un autre avec une diode laser modulee lineairement en frequence ont ete realises. Des resultats de detection directionnelle (1d) et omnidirectionnelle (2d) des contours d'un objet reel sont presentes. Deux methodes pour mesurer l'otf sont mises en uvre. Une definition, basee sur l'otf defocalisee, est proposee pour determiner la profondeur de champ (tolerance de focalisation). Son effet dans la detection de contour est aborde. La faisabilite de l'extraction par le systeme des informations texturales d'un objet est discutee et etayee par des cas simples. Les resultats de ces travaux demontrent la faisabilite de l'acquisition de scene en frequence spatiale en alternative a l'amplitude, ouvrant ainsi la voie a des capteurs de vision specialises, pouvant permettre par exemple a terme l'analyse multi-echelle directe
APA, Harvard, Vancouver, ISO, and other styles
6

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : applications aux documents arabes." Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN23001/document.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabes anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : - Application d'un maillage automatique en utilisant le modèle de contour actif (snake). - Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. - Application de quelques règles d'extension pour trouver les zones. - Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. - Séparation de lignes se chevauchant et se connectant en utilisant la morphologie des lettres terminales arabes
The indexing of handwritten scanned documents poses the problem of lines segmentation, if it fails, disabling the following steps of words extraction and recognition. In addition, the ancient Arabic documents contain annotations in the margins, often composed of lines obliquely oriented. The detection of these lines is important as the rest and is a major challenge for the indexing of these documents. Thus, the segmentation described in this thesis involves the extraction of multi-oriented lines. For this problem, the bibliography has only rudimentary techniques based essentially on the projection of the document image along one direction, which be failed in the case of multi-oriented documents. Given this lack, we have proposed an adaptive approach that first locates the different orientation zones, then based on each local orientation to extract the lines. During my thesis, i particularly invested on the following points : - Applying an automatic paving using the active contour model (snake). - Preparation the signal of the projection profile by removing all pixels that are not needed in the orientation estimation. Then, implementation of all energy distributions of Cohen's class on the projection profile to find the best distribution that gives the orientation. - Applying some extension rules to find the oriented zones. - Extraction of lines by using an connected components follow-up algorithm. - Separation of overlapped and touched lines using the morphology of Arabic terminal letters
APA, Harvard, Vancouver, ISO, and other styles
7

Peng, Ting. "Nouveaux modèles de contours actifs d'ordre supérieur, formes «a priori» et analyse multi-échelle : leurs application à l'extraction de réseaux routiers à partir des images satellitaires à très haute résolution." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00349768.

Full text
Abstract:
L'objectif de cette thèse est de développer et de valider des approches robustes d'extraction semi-automatique de réseaux routiers en zone urbaine dense à partir d'images satellitaires optiques à très haute résolution (THR). Nos modèles sont fondés sur une modélisation par champs de phase des contours actifs d'ordre supérieur (CAOS). Le probléme est difficile pour deux raisons principales : les images THR sont intrinsèquement complexes, et certaines zones des réseaux peuvent prendre une topologie arbitraire. Pour remédier à la complexité de l'information contenue dans les images THR, nous proposons une modélisation statistique multi-résolution des données ainsi qu'un modèle multi-résolution contraint a priori. Ces derniers permettent l'intégration des résultats de segmentation de résolution brute et de résolution fine. De plus, dans le cadre particulier de la mise à jour de réseaux routiers, nous présentons un modèle de forme a priori spécifique, dérivé d'une ancienne carte numérique issue d'un SIG. Ce terme spécifique a priori équilibre l'effet de la connaissance a priori générique apportée par le modèle de CAOS, qui décrit la forme géométrique générale des réseaux routiers. Cependant, le modèle classique de CAOS souffre d'une limitation importante : la largeur des branches du réseau est contrainte à d'être similaire au maximum du rayon de courbure des branches du réseau, fournissant ainsi un modèle non satisfaisant dans le cas de réseaux aux branches droites et étroites ou aux branches fortement incurvées et larges. Nous résolvons ce problème en proposant deux nouveaux modèles : l'un contenant un terme additionnel, nonlocal, non-linéaire de CAOS, et l'autre contenant un terme additionnel, nonlocal, linéaire de CAOS. Ces deux termes permettent le contrôle séparé de la largeur et de la courbure des branches, et fournissent une meilleure prolongation pour une même largeur. Le terme linéaire a plusieurs avantages : d'une part il se calcule plus efficacement, d'autre part il peut modéliser plusieurs largeurs de branche simultanément. Afin de remédier à la difficulté du choix des paramètres de ces modèles, nous analysons les conditions de stabilité pour une longue barre d'une largeur donnée décrite par ces énergies, et montrons ainsi comment choisir rigoureusement les paramètres des fonctions d'énergie. Des expériences sur des images satellitaires THR et la comparaison avec d'autres modèles démontrent la supériorité de nos modèles.
APA, Harvard, Vancouver, ISO, and other styles
8

Kulikova, Maria. "Reconnaissance de forme pour l'analyse de scène." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00477661.

Full text
Abstract:
Cette thèse est composée de deux parties principales. La première partie est dédiée au problème de la classification d'espèces d'arbres en utilisant des descripteurs de forme, en combainison ou non, avec ceux de radiométrie ou de texture. Nous montrons notamment que l'information sur la forme améliore la performance d'un classifieur. Pour ce faire, dans un premier temps, une étude des formes de couronnes d'arbres extraites à partir d'images aériennes, en infrarouge couleur, est eectuée en utilisant une méthodologie d'analyse de formes des courbes continues fermées dans un espace de formes, en utilisant la notion de chemin géodésique sous deux métriques dans des espaces appropriés : une métrique non-élastique en utilisant la reprèsentation par la fonction d'angle de la courbe, ainsi qu'une métrique élastique induite par une représentation par la racinecarée appelée q-fonction. Une étape préliminaire nécessaire à la classification est l'extraction des couronnes d'arbre. Dans une seconde partie, nous abordons donc le problème de l'extraction d'objets de forme complexe arbitraire, à partir d'images de télédétection à très haute résolution. Nous construisons un modèle fondé sur les processus ponctuels marqués. Son originalité tient dans sa prise en compte d'objets de forme arbitraire par rapport aux objets de forme paramétrique, e.g. ellipses ou rectangles. Les formes sélectionnées sont obtenues par la minimisation locale d'une énergie de type contours actifs avec diérents a priori sur la forme incorporé. Les objets de la configuration finale (optimale) sont ensuite sélectionnés parmi les candidats par une dynamique de naissances et morts multiples, couplée à un schéma de recuit simulé. L'approche est validée sur des images de zones forestières à très haute résolution fournies par l'Université d'Agriculture de Suède.
APA, Harvard, Vancouver, ISO, and other styles
9

Benjira, Mohammed Amine. "Classification automatique des diatomées." Thèse, 2019. http://depot-e.uqtr.ca/id/eprint/9407/1/eprint9407.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Extraction et chaînage de contour"

1

Oram, Osman. "Axial Length Changes." In Complications of Glaucoma Surgery. Oxford University Press, 2013. http://dx.doi.org/10.1093/oso/9780195382365.003.0062.

Full text
Abstract:
The biometric changes of the human eye with lowered intraocular pressure (IOP), like those observed after glaucoma surgery, have been investigated by in vivo studies. Leydolt et al demonstrated IOP-dependent axial eye length changes in human eyes. An axial eye length decrease of 2 μm/mm Hg with short-term reduction of IOP was observed. They suggested that this concomitant shortening of axial length and IOP reduction could be a result of a decrease in scleral length owing to the reduced IOP or an increase in choroidal blood flow compensating the reduced ocular fundus pulsations during the increased IOP phase. In another in vivo study, Read et al showed that axial length underwent significant variation over a 24-hour period in normal human eyes, and a significant association existed between the change in axial length and the change in IOP, as measured by dynamic contour tonometry. The association observed between IOP and axial length was found to be consistent with the hypothesis of passive expansion and contraction of the globe in response to IOP. Studies on trabeculectomy patients, performed with or without cataract extraction, have shown a significant decrease of axial length after surgery, correlated with IOP reduction. Similarly, IOP lowering after tube shunt surgery may produce a decrease in axial length that is dependent on the amount of IOP lowering. Understanding how axial length changes impact clinical decisions, such as lens power choice for cataract surgery, is important for treating patients after glaucoma surgery or patients who have had previous glaucoma surgery. Table 41.1 summarizes reported axial length changes following different types of trabeculectomy procedures. Nemeth and Horoczi noted decreased axial length and increased thickness and volume of the ocular wall 4 days after trabeculectomy. In a retrospective study, Cashwell and Martin found a significant decrease in axial length (mean: 0.423 mm, range: 2.8 to +0.5 mm) after successful initial trabeculectomy in 62 patients using ultrasound biometry. Preoperative factors found to be associated with a greater decrease in axial length were young age, myopia, exposure to an antimetabolite, and a post-trabeculectomy IOP drop greater than 30 mmHg.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography