To see the other types of publications on this topic, follow the link: Reconstruction des données.

Dissertations / Theses on the topic 'Reconstruction des données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Reconstruction des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bougleux, Sébastien. "Reconstruction, Détection et Régularisation de Données Discrètes." Phd thesis, Université de Caen, 2007. http://tel.archives-ouvertes.fr/tel-00203445.

Full text
Abstract:
Cette thèse traite des problématiques de structuration et de traitement de données discrètes organisées ou non. Elle se décompose en deux parties. La première partie concerne la structuration de données représentées par des ensembles de points du plan ou de l'espace Euclidien. Dans ce contexte, nous considérons les problèmes de la reconstruction polygonale de courbes planaires et de la détection de formes géométriques 3D connues. Ces deux problèmes sont traités par des techniques de géométrie algorithmique et combinatoire, basées sur le diagramme de Voronoï et la triangulation de Delaunay. Dans le cadre de la reconstruction de courbes planaires, nous proposons une famille hiérarchique de sous-graphes du graphe de Gabriel, que nous appelons les beta-CRUSTS Locaux. Nous étudions les propriétés de cette famille, qui nous permettent de concevoir un algorithme de reconstruction des courbes simples. Ensuite, nous proposons une méthode de détection de formes géométriques connues à partir d'un ensemble de points 3D (nous nous restreignons au cas des structures linéaires et planaires), plongés dans un milieu bruité ou non. Cette méthode est basée sur une extension des alpha-formes, générées à partir de boules ellipsoïdales. Dans une deuxième partie, nous traitons le problème de la régularisation de données par des méthodes variationnelles discrètes sur graphes pondérés, de topologie quelconque. Pour cela, nous proposons une large famille de fonctionnelles discrètes, basées sur les normes L2 et Lp du gradient. Ceci conduit à des processus de diffusion linéaire ou non-linéaire sur graphes. Ce formalisme étend un certain nombre de modèles variationnels, que nous appliquons à des problèmes de restauration, de lissage, et de simplification d'images et de maillages.
APA, Harvard, Vancouver, ISO, and other styles
2

Giraudot, Simon. "Reconstruction robuste de formes à partir de données imparfaites." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4024/document.

Full text
Abstract:
Au cours des vingt dernières années, de nombreux algorithmes de reconstruction de surface ont été développés. Néanmoins, des données additionnelles telles que les normales orientées sont souvent requises et la robustesse aux données imparfaites est encore un vrai défi. Dans cette thèse, nous traitons de nuages de points non-orientés et imparfaits, et proposons deux nouvelles méthodes gérant deux différents types de surfaces. La première méthode, adaptée au bruit, s'applique aux surfaces lisses et fermées. Elle prend en entrée un nuage de points avec du bruit variable et des données aberrantes, et comporte trois grandes étapes. Premièrement, en supposant que la surface est lisse et de dimension connue, nous calculons une fonction distance adaptée au bruit. Puis nous estimons le signe et l'incertitude de la fonction sur un ensemble de points-sources, en minimisant une énergie quadratique exprimée sur les arêtes d'un graphe uniforme aléatoire. Enfin, nous calculons une fonction implicite signée par une approche dite « random walker » avec des contraintes molles choisies aux points-sources de faible incertitude. La seconde méthode génère des surfaces planaires par morceaux, potentiellement non-variétés, représentées par des maillages triangulaires simples. En faisant croitre des primitives planaires convexes sous une erreur de Hausdorff bornée, nous déduisons à la fois la surface et sa connectivité et générons un complexe simplicial qui représente efficacement les grandes régions planaires, les petits éléments et les bords. La convexité des primitives est essentielle pour la robustesse et l'efficacité de notre approche
Over the last two decades, a high number of reliable algorithms for surface reconstruction from point clouds has been developed. However, they often require additional attributes such as normals or visibility, and robustness to defect-laden data is often achieved through strong assumptions and remains a scientific challenge. In this thesis we focus on defect-laden, unoriented point clouds and contribute two new reconstruction methods designed for two specific classes of output surfaces. The first method is noise-adaptive and specialized to smooth, closed shapes. It takes as input a point cloud with variable noise and outliers, and comprises three main steps. First, we compute a novel noise-adaptive distance function to the inferred shape, which relies on the assumption that this shape is a smooth submanifold of known dimension. Second, we estimate the sign and confidence of the function at a set of seed points, through minimizing a quadratic energy expressed on the edges of a uniform random graph. Third, we compute a signed implicit function through a random walker approach with soft constraints chosen as the most confident seed points. The second method generates piecewise-planar surfaces, possibly non-manifold, represented by low complexity triangle surface meshes. Through multiscale region growing of Hausdorff-error-bounded convex planar primitives, we infer both shape and connectivity of the input and generate a simplicial complex that efficiently captures large flat regions as well as small features and boundaries. Imposing convexity of primitives is shown to be crucial to both the robustness and efficacy of our approach
APA, Harvard, Vancouver, ISO, and other styles
3

Buslig, Leticia. "Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4734/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Brishoual, Morgan. "Reconstruction de données : Application à la dosimétrie des radiotéléphones." Phd thesis, INSA de Rennes, 2001. http://tel.archives-ouvertes.fr/tel-00001750.

Full text
Abstract:
Dans le cadre de la vérification de la conformité aux normes des personnes exposées aux champs électromagnétiques des radiotéléphones, une méthodologie a été développée permettant d'évaluer les champs électriques qui ne sont pas accessibles par la mesure.

Des études ont montré qu'une large partie de la puissance absorbée est concentrée dans les tissus proches de l'antenne du radiotéléphone. Ces tissus englobant la région de l'oreille sont les plus exposés aux champs électromagnétiques. A l'interface peau - mobile, les valeurs de champs électriques sont donc importantes et décroissent rapidement à mesure que l'on s'éloigne de l'antenne du radiotéléphone et que l'on se rapproche du centre de la tête. Etant donné que dans la certification des radiotéléphones, on s'intéresse à la puissance maximale absorbée, la région proche de l'antenne est donc primordiale à caractériser.

De par la sonde de mesure du champ électrique utilisée, le point de mesure est placé à quelques millimètres du bout de la sonde et ce décalage ainsi que la fragilité de la sonde ne permettent pas d'effectuer des mesures proches des bords du fantôme utilisé pour modéliser soit une tête d'un utilisateur, soit un rat. Ainsi un schéma d'extrapolation doit être défini. De plus pour accélérer le processus d'acquisition des mesures, ces dernières sont effectuées suivant un échantillonnage grossier et un schéma d'interpolation doit être également défini pour obtenir ces mesures suivant un échantillonnage plus fin.

Cette thèse présente les ondelettes, dans le but de les utiliser dans les schémas d'extrapolation et d'interpolation. Ainsi une méthode à base d'ondelettes, habituellement utilisée en traitement d'image, a été développée dans le cas de la reconstruction de signaux unidimensionnels et étendue à des données tridimensionnelles. Une extension de cette méthode à des fonctions de base interpolatrices et non-interpolatrices a également été réalisée. Il s'est avéré qu'une meilleure précision de reconstruction est obtenue lorsque la fonction de base est une fonction de base interpolatrice de type triangle. Dans chacun des cas, cette méthode a été comparée à d'autres techniques de reconstruction de données échantillonnées, telles que polynomiales, splines, fonctions radiales, réseaux de neurones et krigeage.

Pour la reconstruction des données issues de la dosimétrie des radiotéléphones, les volumes à reconstruire sont volumineux et les techniques nommées précédemment ont un temps de calcul et/ou un coût mémoire non négligeable(s). Si bien qu'une nouvelle méthode pour interpoler et extrapoler les mesures dans un volume a été développée. Cette nouvelle méthode de reconstruction, nommée technique 2D_1D_2D, qui peut être utilisée pour de nombreuses autres applications, est très rapide et peu coûteuse en stockage mémoire. Elle sert de référence dans la norme CENELEC (Comité Européen de Normalisation ELECtrotechnique) ENV50361. Une partie des travaux de cette thèse ont donné naissance à un logiciel sous Matlab.
APA, Harvard, Vancouver, ISO, and other styles
5

Bernardes, Vieira Marcelo. "Reconstruction de surfaces à partir de données tridimensionnelles éparses." Cergy-Pontoise, 2002. http://biblioweb.u-cergy.fr/theses/02CERG0145.pdf.

Full text
Abstract:
Ce travail traite du problème de l'organisation spatiale de données éparses pour la reconstruction de surfaces. Nous proposons une variante de la méthode d'accumulation développée par Gideon Guy et améliorée par Mi-Suen Lee. Les principaux outils mathématiques de ces méthodes sont : champs spatiaux d'influence et tenseurs pour représenter des orientations. Em général, ces méthodes sont associées à des problèmes de groupement perceptuel. Cependant, nous avons remarqué que ces méthodes permettent d'estimer l'organisation spatiale de données éparses. Nous proposons donc une nouvelle stratégie pour estimer des orientations de surfaces. Nous pensons, en effet, qu'une méthode dédiée peut améliorer cette inférence, contrairement aux méthodes originales. C'est pourquoi nous avons utilisé le tenseur d'orientation pour répresenter exclusivement des surfaces et les champs d'influence pour coder des trajectoires elliptiques. Un nouveau traitement pour l'inférence initiale des orientations qui évalue l'organisation des données éparses est proposé. La présentation et la critique des travaux de Guy et de Lee ainsi que le développement méthodologique de cette thèse ont été faits à partir d'une étude épistemologique. Une évaluation qualitative des méthodes a été realisée sur des objets de forme différente. Des comparaisons quantitatives ont également été menées afin d'estimer les erreurs de reconstruction. Les résultats montrent que la méthode proposée est moins sensible au bruit et à la variabilité de la densité des données. Nous proposons aussi une méthode pour segmenter des points structurés sur des surfaces. Une évaluation comparative permet d'apprécier l'intérêt de la méthode proposée
This work approaches the problem of sparse data spatial organization inference for surface reconstruction. We propose a variant of the voting method developed by Gideon Guy and extended by Mi-Suen Lee. Tensors to represent orientations and spatial influence fields are the main mathematical instruments. These methods have been associated to perceptual grouping problems. However, we observe that their accumulation processes infer sparse data organization. From this point of view, we propose a new strategy for orientation inference focused on surfaces. In contrast with original ideas, we argue that a dedicated method may enhance this inference. The mathematical instruments are adapted to estimate normal vectors: the orientation tensor represents surfaces and influence fields code elliptical trajectories. We also propose a new process for the initial orientation inference which effectively evaluates the sparse data organization. The presentation and critique of Guy's and Lee's works and methodological development of this thesis are conducted by epistemological studies. Objects of different shapes are used in a qualitative evaluation of the method. Quantitative comparisons were prepared with error estimation from several reconstructions. Results show that the proposed method is more robust to noise and variable data density. A method to segment points structured on surfaces is also proposed. Comparative evaluations show a better performance of the proposed method in this application
APA, Harvard, Vancouver, ISO, and other styles
6

Coutand, Frédérique. "Reconstruction d'images en tomographie scintigraphique cardiaque par fusion de données." Phd thesis, Université Paris Sud - Paris XI, 1996. http://pastel.archives-ouvertes.fr/pastel-00730942.

Full text
Abstract:
La méthode proposée dans ce manuscrit consiste a utiliser la fusion de données anatomiques pour améliorer la quantification des images reconstruites en tomographie d'émission monophotonique (t.e.m.p.). Les données anatomiques (déduites d'autres modalités) sont utilisées afin d'obtenir une modélisation paramétrique (par des fonctions spline) des organes de la coupe a reconstruire. Dans la pratique, on utilise deux types d'images: premièrement des images en transmission qui servent a obtenir les contours des organes tels que le thorax et les poumons. Deuxièmement, des images en émission qui donnent une prelocalisation de l'activité et une première estimation des contours du ventricule gauche, qui sont améliorés au cours du processus de reconstruction. Le modèle géométrique nous permet de mieux caractériser la formation des données scintigraphiques et ainsi d'améliorer le problème direct. Les principales originalités de ces travaux consistent a restreindre le champ de la reconstruction uniquement aux régions actives et d'utiliser un maillage adapte aux contours des régions a reconstruire (pour éviter des erreurs de volume partiel). La réduction du nombre d'inconnus permet de mieux conditionner le problème inverse et ainsi de réduire le nombre de projections nécessaires à la reconstruction. La méthode de reconstruction qui est proposée repose sur une double estimation ; estimation de la distribution de radioactivité a l'intérieur de notre modèle géométrique, et estimation des paramètres optimaux de ce modèle. les reconstructions 2D à partir de données simulées puis enregistrées sur fantôme, ont permis de valider le principe de la méthode et montrent une nette amélioration de la quantification des images scintigraphiques
APA, Harvard, Vancouver, ISO, and other styles
7

Saguin-Sprynski, Nathalie. "Reconstruction de courbes et surfaces à partir de données tangentielles." Grenoble 1, 2007. http://www.theses.fr/2007GRE10108.

Full text
Abstract:
Le LETI développe des micro-capteurs (tels que des micro-accéléromètres ou des micro-magnétomètres) capables de se géoréférencer et de donner alors leur propre orientation dans l’espace. Ainsi, si nous posons un ensemble de capteurs sur une forme, ils nous fourniront les données tangentielles de la surface aux positions des capteurs. Le travail développé ici consiste à reconstruire la forme d'objets à partir de ces données tangentielles et de la connaissance de la répartition de ces capteurs. Nous étudierons plusieurs cas de reconstruction, en commençant par la reconstruction de courbes planes, puis de courbes gauches et enfin de surfaces. Puis nous proposerons des méthodes de capture de mouvement de formes en déformation, c'est-à-dire que nous allons équiper une courbe ou une surface de capteurs, nous allons lui appliquer des déformations, et nous devrons reconstruire la forme virtuelle associée en temps réel à partir des données fournies par les capteurs. De nombreuses applications sont envisagées (domaines de la santé, de l'aéronautique, du multimédia,. . . ), et nous élaborons en parallèle des prototypes de capture de forme afin de tester et valider nos méthodes
Micro-sensors developed at the LETI (like microaccelerometers or micromagnetometers) are able to give some information about their orientation. So if we put an array of sensors on a object, they will give data about the local tangency of the object. This work consists in reconstructing the shape of the object thanks to these sensors information. The shape can be a curve lying in a plane, or a space curve, and then a surface. Then we propose the motion capture of a shape in deformation, i. E. We will equip a curve or a surface with sensors, make movements and deformations with it, and reconstruct it in the same time via data from sensors. There is a lot of applications (medical, aeronautic, multimedia, hobbyist - do -it - yourself applications), and some materials will be experimented in the same time to test and validate these algorithms
APA, Harvard, Vancouver, ISO, and other styles
8

Blondel-Couprie, Elise. "Reconstruction et prévision déterministe de houle à partir de données mesurées." Phd thesis, Ecole centrale de nantes - ECN, 2009. http://tel.archives-ouvertes.fr/tel-00449343.

Full text
Abstract:
La prévision des états de mer est un domaine d'une extrême importance pour la planification des opérations en mer, pour des raisons évidentes de sécurité des personnels et des matériels mis en oeuvre. Les modèles de prévision actuels reposent sur une description stochastique de l'état de mer et ne prédisent pas de façon déterministe l'évolution de la houle, mais seulement celle des données spectrales dont on tire des grandeurs statistiques moyennes caractéristiques d'un état de mer. Face au besoin réel de données précises à court terme, un modèle de prévision déterministe a été développé dans le but d'améliorer l'efficacité des opérations offshore requérant une connaissance précise de la houle sur un site d'intérêt. Après avoir réalisé une étude théorique permettant de déterminer la zone spatio-temporelle de prévision disponible en fonction des caractéristiques du champ de vagues courant et des conditions de mesure, nous avons élaboré deux procédures d'assimilation de données variationnelles afin de combiner au mieux les mesures recueillies sur site et le modèle de propagation de houle choisi. Ce modèle est d'ordre deux dans le cas de houles faiblement à moyennement cambrées, ou d'ordre élevé reposant sur le modèle numérique High-Order Spectral (HOS) pour les houles cambrées non-linéaires. Les modèles à l'ordre deux étendu et à l'ordre HOS M = 3 ont été validés pour la prévision de houles 2D synthétiques et expérimentales : les erreurs moyennes de prévision obtenues sont au moins divisées par deux par rapport à une approche linéaire, l'amélioration étant d'autant plus probante que la cambrure de la houle et l'ordre du modèle sont élevés.
APA, Harvard, Vancouver, ISO, and other styles
9

Blondel-Couprie, Élise. "Reconstruction et prévention déterministe de houle à partir de données mesurées." Nantes, 2009. http://www.theses.fr/2009NANT2074.

Full text
Abstract:
La prévision des états de mer est un domaine d’une extrême importance pour la planification des opérations en mer, pour des raisons évidentes de sécurité des personnels et des matériels mis en œuvre. Les modèles de prévision actuels reposent sur une description stochastique de l’état de mer et ne prédisent pas de façon déterministe l’évolution de la houle, mais seulement celle des données spectrales dont on tire des grandeurs statistiques moyennes caractéristiques d’un état de mer. Face au besoin réel de données précises à court terme, un modèle de prévision déterministe a été développé dans le but d’améliorer l’efficacité des opérations offshore requérant une connaissance précise de la houle sur un site d’intérêt. Après avoir réalisé une étude théorique permettant de déterminer la zone spatio-temporelle de prévision disponible en fonction des caractéristiques du champ de vagues courant et des conditions de mesure, nous avons élaboré deux procédures d’assimilation de données variationnelles afin de combiner au mieux les mesures recueillies sur site et le modèle de propagation de houle choisi. Ce modèle est d’ordre deux dans le cas de houles faiblement à moyennement cambrées, ou d’ordre élevé reposant sur le modèle numérique High-Order Spectral (HOS) pour les houles cambrées non-linéaires. Les modèles à l’ordre deux étendu et à l’ordre HOS M = 3 ont été validés pour la prévision de houles 2D synthétiques et expérimentales : les erreurs moyennes de prévision obtenues sont au moins divisées par deux par rapport à une approche linéaire, l’amélioration étant d’autant plus probante que la cambrure de la houle et l’ordre du modèle sont élevés
Wave prediction is a crucial task for offshore operations from an obvious security point of view regarding working people and technical equipments or structures. The prediction tools available since now are based on a stochastic description of the sea state and are not able to predict deterministically the wave fields evolution. Only averaged statistical data representative of the sea state can be obtained from the known spectral quantities. To face the growing need of accurate short term predictions, a deterministic prediction model has been developed in order to improve the efficiency of the sea operations which require a precise knowledge of the sea surface on a specific region of interest. After achieving a theoretical study to determine the available time-space predictable domain depending on the current sea state and on the measurement conditions, we created two data assimilation process to combine the measured observations to the physics-based model. This model is a second order model for low to moderate steeped fields, or a highorder model for high crested seas, namely the High-Order Spectral numerical method. The extended second order model and the third order model using the HOS have been validated for the prediction of 2D synthetic and basin wave fields: the averaged prediction errors we obtain are more than two times less than the errors returned by a linear approach. The improvement is also more important that the steepness and the order of the prediction model are high
APA, Harvard, Vancouver, ISO, and other styles
10

Chen, Guangshuo. "Human Habits Investigation : from Mobility Reconstruction to Mobile Traffic Prediction." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX026/document.

Full text
Abstract:
La capacité à prévoir les activités humaines a des implications essentielles dans de nombreux aspects des réseaux cellulaires. En particulier, la haute disponibilité de la prédiction de la mobilité peut permettre différents scénarios d'application; une meilleure compréhension de la demande de trafic de données mobiles peut aider à améliorer la conception de solutions pour l'équilibrage de la charge du réseau. Bien que de nombreux chercheurs aient étudié le sujet de la prédiction de la mobilité humaine, il y a eu peu de discussions sur l'anticipation du trafic de données mobiles dans les réseaux cellulaires.Pour comprendre la mobilité humaine, les ensembles de données de téléphones mobiles, consistant en des enregistrements de données de taxation (CDR), constituent un choix pratique d'empreintes humaines. Comme le déploiement du réseau cellulaire est très irrégulier et que les fréquences d'interaction sont généralement faibles, les données CDR sont souvent caractérisées par une parcimonie spatio-temporelle qui, à son tour, peut biaiser les analyses de mobilité basées sur de telles données et provoquer la perte de trajectoires individuelles.Dans cette thèse, nous présentons de nouvelles solutions de reconstruction de trajectoires individuelles et de prédiction de trafic de données mobiles individuelles. Nos contributions abordent les problèmes de (1) surmonter l'incomplétude des informations de mobilité pour l'utilisation des ensembles de données de téléphonie mobile et (2) prédire la future demande de trafic de données mobiles pour le support des applications de gestion de réseau.Premièrement, nous nous concentrons sur la faille de l'information sur la mobilité dans les ensembles de données de téléphones mobiles. Nous rapportons une analyse en profondeur de son effet sur la mesure des caractéristiques de mobilité individuelles et l'exhaustivité des trajectoires individuelles. En particulier, (1) nous fournissons une confirmation des résultats antérieurs concernant les biais dans les mesures de mobilité causées par la rareté temporelle de la CDR; (2) nous évaluons le décalage géographique provoqué par la cartographie des emplacements des utilisateurs vers les tours cellulaires et révélons le biais causé par la rareté spatiale de la CDR; (3) nous fournissons une estimation empirique de l'exhaustivité des données des trajectoires CDR individuelles. (4) nous proposons de nouvelles solutions de complétion CDR pour reconstruire incomplète. Nos solutions tirent parti de la nature des modèles de mouvements humains répétitifs et des techniques d'inférence de données de pointe et surpassent les approches précédentes illustrées par des simulations axées sur les données.Deuxièmement, nous abordons la prédiction des demandes de trafic de données mobiles générées par les abonnés individuels du réseau mobile. Sur la base de trajectoires complétées par nos solutions développées et nos historiques de consommation de données extraites d'un ensemble de données de téléphonie mobile à grande échelle, (1) nous étudions les limites de prévisibilité en mesurant la prévisibilité maximale que tout algorithme peut atteindre. les approches de prédiction du trafic de données mobiles qui utilisent les résultats de l'analyse théorique de la prévisibilité. Notre analyse théorique montre qu'il est théoriquement possible d'anticiper la demande individuelle avec une précision typique de 75% malgré l'hétérogénéité des utilisateurs et avec une précision améliorée de 80% en utilisant la prédiction conjointe avec des informations de mobilité. Notre pratique basée sur des techniques d'apprentissage automatique peut atteindre une précision typique de 65% et avoir un degré d'amélioration de 1% à 5% en considérant les déplacements individuels.En résumé, les contributions mentionnées ci-dessus vont dans le sens de l'utilisation des ensembles de données de téléphonie mobile et de la gestion des opérateurs de réseau et de leurs abonnés
The understanding of human behaviors is a central question in multi-disciplinary research and has contributed to a wide range of applications. The ability to foresee human activities has essential implications in many aspects of cellular networks. In particular, the high availability of mobility prediction can enable various application scenarios such as location-based recommendation, home automation, and location-related data dissemination; the better understanding of mobile data traffic demand can help to improve the design of solutions for network load balancing, aiming at improving the quality of Internet-based mobile services. Although a large and growing body of literature has investigated the topic of predicting human mobility, there has been little discussion in anticipating mobile data traffic in cellular networks, especially in spatiotemporal view of individuals.For understanding human mobility, mobile phone datasets, consisting of Charging Data Records (CDRs), are a practical choice of human footprints because of the large-scale user populations and the vast diversity of individual movement patterns. The accuracy of mobility information granted by CDR depends on the network infrastructure and the frequency of user communication events. As cellular network deployment is highly irregular and interaction frequencies are typically low, CDR data is often characterized by spatial and temporal sparsity, which, in turn, can bias mobility analyses based on such data and cause the loss of whereabouts in individual trajectories.In this thesis, we present novel solutions of the reconstruction of individual trajectories and the prediction of individual mobile data traffic. Our contributions address the problems of (1) overcoming the incompleteness of mobility information for the use of mobile phone datasets and (2) predicting future mobile data traffic demand for the support of network management applications.First, we focus on the flaw of mobility information in mobile phone datasets. We report on an in-depth analysis of its effect on the measurement of individual mobility features and the completeness of individual trajectories. In particular, (1) we provide a confirmation of previous findings regarding the biases in mobility measurements caused by the temporal sparsity of CDR; (2) we evaluate the geographical shift caused by the mapping of user locations to cell towers and reveal the bias caused by the spatial sparsity of CDR; (3) we provide an empirical estimation of the data completeness of individual CDR-based trajectories. (4) we propose novel solutions of CDR completion to reconstruct incomplete. Our solutions leverage the nature of repetitive human movement patterns and the state-of-the-art data inference techniques and outperform previous approaches shown by data-driven simulations.Second, we address the prediction of mobile data traffic demands generated by individual mobile network subscribers. Building on trajectories completed by our developed solutions and data consumption histories extracted from a large-scale mobile phone dataset, (1) we investigate the limits of predictability by measuring the maximum predictability that any algorithm has potential to achieve and (2) we propose practical mobile data traffic prediction approaches that utilize the findings of the theoretical predictability analysis. Our theoretical analysis shows that it is theoretically possible to anticipate the individual demand with a typical accuracy of 75% despite the heterogeneity of users and with an improved accuracy of 80% using joint prediction with mobility information. Our practical based on machine learning techniques can achieve a typical accuracy of 65% and have a 1%~5% degree of improvement by considering individual whereabouts.In summary, the contributions mentioned above provide a step further towards supporting the use of mobile phone datasets and the management of network operators and their subscribers
APA, Harvard, Vancouver, ISO, and other styles
11

Agier, Marie. "De l'analyse de données d'expression à la reconstruction de réseau de gènes." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00717382.

Full text
Abstract:
Le premier aspect de ce travail concerne le pré-traitement et l'analyse de données d'expression dans le cadre de deux principaux projets dont l'objectif global est d'améliorer le diagnostic et le pronostic du cancer du sein et de mieux cibler les traitements. Un processus de pré-traitement des données d'expression optimisé a été mis en place et plusieurs analyses ont été réalisées et ont permis d'identifier des gènes permettant de mettre en evidence un profil d'expression caractéristique du statut ganglionnaire des patientes et de la réponse thérapeutique à un traitement chimiothérapeutique particulier, le doxétaxel. Une nouvelle technique de reconstruction de réseaux de gènes basée sur la notion de règles entre gènes a ensuite été proposée, l'idée étant d'offrir aux biologistes la possibilité de choisir parmi plusieurs sémantiques, le sens des règles qu'ils souhaitent générer. L'originalité de ce travail est de proposer un cadre global pouvant inclure un grand nombre de sémantiques pour les règles et d'utiliser des méthodes identiques de génération, de post-traitement et de visualisation pour toutes les sémantiques proposées. La notion de sémantiques bien-formées i.e. pour lesquelles les axiomes d'Armstrong sont justes et complets, est introduite. Un résultat est également donné permettant de savoir simplement si une sémantique est ou non bien-formée. Une visualisation des règles sous forme globaux i.e. incluant plusieurs sémantiques est proposée. Finalement, cette approche a été développée sous forme d'un module appelé RG intégré à un logiciel d'analyse de données d'expression de gènes, le logiciel MeV de TIGR. Ce travail s'inscrit dans le contexte émergent de la fouille de données d'expression de gènes. Elle s'est déroulée, dans le cadre d'un contrat CIFRE au sein de trois structures : la société Diagnogène, le LIMOS et le Centre de Lutte contre le Cancer de la Région Auvergne
APA, Harvard, Vancouver, ISO, and other styles
12

Labatut, Patrick. "Partition de complexes guidés par les données pour la reconstruction de surface." Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00844020.

Full text
Abstract:
Cette thèse introduit une nouvelle approche pour la reconstruction de surface à partir d'acquisitions de nuages de points. Cette approche construit un complexe cellulaire à partir du nuage de points puis formule la reconstruction comme un problème d'étiquetage binaire des cellules de ce complexe sous un ensemble de contraintes de visibilité. La résolution du problème se ramène alors au calcul d'une coupe minimale s-t permettant d'obtenir efficacement une surface optimale d'après ces contraintes. Dans la première partie de cette thèse, l'approche est utilisée pour la reconstruction générique de surface. Une première application aboutit à un algorithme très robuste de reconstruction de surface à partir de nuages denses issus d'acquisitions laser. Une seconde application utilise une variante de cet algorithme au sein d'une chaîne de photo-modélisation en combinaison avec un raffinement variationnel photométrique. La chaîne complète est adaptée à la reconstruction de scènes de grande échelle et obtient d'excellents résultats en terme de complétude et de précision des reconstructions. La seconde partie de cette thèse considère le problème de la reconstruction directe de modèles géométriques simples à partir de nuages de points. Un algorithme robuste est proposé pour décomposer hiérarchiquement des nuages de points denses en formes issues d'un ensemble restreint de classes de formes. Lorsque que cet ensemble de classes est réduit aux plans seulement, la reconstruction de modèles de très faible complexité est possible. Une extension à d'autres classes de formes échange cet avantage contre la gestion de nuages de points plus difficiles.
APA, Harvard, Vancouver, ISO, and other styles
13

Bauchet, Jean-Philippe. "Structures de données cinétiques pour la modélisation géométrique d’environnements urbains." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4091.

Full text
Abstract:
La modélisation géométrique d'objets urbains à partir de mesures physiques et leur représentation de manière efficace, compacte et précise est un problème difficile en vision par ordinateur et en infographie. Dans la littérature scientifique, les structures de données géométriques à l'interface entre les mesures physiques en entrée et les modèles produits en sortie passent rarement à l'échelle et ne permettent pas de partitionner des domaines fermés 2D et 3D représentant des scènes complexes. Dans cette thèse, on étudie une nouvelle famille de structures de données géométrique qui repose sur une formulation cinétique. Plus précisément, on réalise une partition de domaines fermés en détectant et en propageant au cours du temps des formes géométriques telles que des segments de droites ou des plans, jusqu'à collision et création de cellules polygonales. On propose en particulier deux méthodes de modélisation géométrique, une pour la vectorisation de régions d'intérêt dans des images, et une autre pour la reconstruction d'objets en maillages polygonaux concis à partir de nuages de points 3D. Les deux approches exploitent les structures de données cinétiques pour décomposer efficacement en cellules soit un domaine image en 2D, soit un domaine fermé en 3D. Les objets sont ensuite extraits de la partition à l’aide d’une procédure d’étiquetage binaire des cellules. Les expériences menées sur une grande variété de données en termes de nature, contenus, complexité, taille et caractéristiques d'acquisition démontrent la polyvalence de ces deux méthodes. On montre en particulier leur potentiel applicatif sur le problème de modélisation urbaine à grande échelle à partir de données aériennes et satellitaires
The geometric modeling of urban objects from physical measurements, and their representation in an accurate, compact and efficient way, is an enduring problem in computer vision and computer graphics. In the literature, the geometric data structures at the interface between physical measurements and output models typically suffer from scalability issues, and fail to partition 2D and 3D bounding domains of complex scenes. In this thesis, we propose a new family of geometric data structures that rely on kinetic frameworks. More precisely, we compute partitions of bounding domains by detecting geometric shapes such as line-segments and planes, and extending these shapes until they collide with each other. This process results in light partitions, containing a low number of polygonal cells. We propose two geometric modeling pipelines, one for the vectorization of regions of interest in images, another for the reconstruction of concise polygonal meshes from point clouds. Both approaches exploit kinetic data structures to decompose efficiently either a 2D image domain or a 3D bounding domain into cells. Then, we extract objects from the partitions by optimizing a binary labelling of cells. Conducted on a wide range of data in terms of contents, complexity, sizes and acquisition characteristics, our experiments demonstrate the scalability and the versatility of our methods. We show the applicative potential of our method by applying our kinetic formulation to the problem of urban modeling from remote sensing data
APA, Harvard, Vancouver, ISO, and other styles
14

Soulez, Ferréol. "Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation." Phd thesis, Université Jean Monnet - Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00379735.

Full text
Abstract:
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.
L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.

Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).

Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
APA, Harvard, Vancouver, ISO, and other styles
15

Pericard, Pierre. "Algorithmes pour la reconstruction de séquences de marqueurs conservés dans des données de métagénomique." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10084/document.

Full text
Abstract:
Les progrès récents en termes de séquençage d’ADN permettent maintenant d’accéder au matériel génétique de communautés microbiennes extraites directement d’échantillons environnementaux naturels. Ce nouveau domaine de recherche, appelé métagénomique, a de nombreuses applications en santé, en agro-alimentaire, en écologie, par exemple. Analyser de tels échantillons demande toutefois de développer de nouvelles méthodes bio-informatiques pour déterminer la composition taxonomique de la communauté étudiée. L’identification précise des organismes présents est en effet une étape essentielle à la compréhension des écosystèmes même les plus simples. Cependant, les technologies de séquençage actuelles produisent des fragments d’ADN courts et bruités, qui ne couvrent que partiellement les séquences complètes des gènes, ce qui pose un véritable défi pour l’analyse taxonomique à haute résolution. Nous avons développé MATAM, une nouvelle méthode bio-informatique dédiée à la reconstruction rapide et sans erreurs de séquences complètes de marqueurs phylogénétiques conservés, à partir de données brutes de séquençage. Cette méthode est composée d’une succession d’étapes qui réalisent la construction et l’analyse d’un graphe de chevauchement de lectures. Nous l’avons appliquée à l’assemblage de la petite sous-unité de l’ARN ribosomique sur des métagénomes simulés, synthétiques et réels. Les résultats obtenus sont de très bonne qualité et améliorent l’état de l’art
Recent advances in DNA sequencing now allow studying the genetic material from microbial communities extracted from natural environmental samples. This new research field, called metagenomics, is leading innovation in many areas such as human health, agriculture, and ecology. To analyse such samples, new bioinformatics methods are still needed to ascertain the studied community taxonomic composition because accurate organisms identification is a necessary step to understand even the simplest ecosystems. However, current sequencing technologies are generating short and noisy DNA fragments, which only partially cover the complete genes sequences, giving rise to a major challenge for high resolution taxonomic analysis. We developped MATAM, a new bioinformatic methods dedicated to fast reconstruction of low-error complete sequences from conserved phylogenetic markers, starting from raw sequencing data. This methods is a multi-step process that builds and analyses a read overlap graph. We applied MATAM to the reconstruction of the small sub unit ribosomal ARN in simulated, synthetic and genuine metagenomes. We obtained high quality results, improving the state of the art
APA, Harvard, Vancouver, ISO, and other styles
16

Grenet, Pierre. "Système de reconstruction cinématique corps entier : fusion et exploitation de données issues de MEMS." Poitiers, 2011. http://theses.univ-poitiers.fr/26762/2011-Grenet-Pierre-These.pdf.

Full text
Abstract:
La démocratisation des MEMS a permis l'essor des centrales d’attitude : groupement de capteurs permettant d'évaluer son orientation par rapport au repère terrestre. Il existe plusieurs types de capteurs utilisés dans de telles centrales : les accéléromètres, les magnétomètres et les gyromètres. Seule la combinaison accéléromètres – magnétomètres – gyromètres permet l'estimation de l'orientation cinématique de façon satisfaisante, sans connaître d'à priori sur le mouvement, c'est-à-dire l'estimation de l'orientation en présence d’accélération inconnue. Le sujet de la thèse est justement, dans le cadre de la captation de mouvement corps entier, d'ajouter des connaissances à priori afin de limiter le nombre de gyromètres, voire de les supprimer totalement. Ces connaissances sont l'information que les capteurs sont fixés sur un squelette et que leurs mouvements relatifs ne peuvent être que des compositions de rotations. Pour tester l'efficience de cette méthode, on l'applique d'abord sur un pendule simple à un degré de liberté, puis sur un pendule à trois degrés de liberté, ensuite sur des groupes de segments (épaule – bras – avant-bras par exemple) et sur le corps entier. Ce rapport de thèse développera les aspects théoriques ainsi que les résultats obtenus sur les différentes méthodologies de résolution
Democratization of MEMS has enabled the development of attitude control : group of sensors enabling to measure ones orientation relatively to Earth's frame. There are several types of sensors used in attitude control : accelerometers, magnetometers and gyroscopes. Only the combination accelerometers - magnetmeters - gyros allows a satisfying estimation of the kinematics orientation without any a priori knowledge on the mouvement, that is to say, the estimation of the orientation in presence of an unknown acceleration. The aim of the thesis is, within the context of whole body motion capture, to add a priori knowledge in order to reduce the number of gyroscopes used, or even to eliminate them completely. This a priori knowledge is the fact that sensors are attached to a skeleton and so that their relative motions can only be combination of rotations. To test the efficiency of this method, we first apply it to a simple pendulum with one degree of freedom, then a pendulum with three degrees of freedom, then on groups of segments (shoulder - arm - forearm for example) and finally on a whole body system. This thesis develops the theory and the results obtained for different methodologies of resolution
APA, Harvard, Vancouver, ISO, and other styles
17

Prades, Gilles. "Lissage et segmentation de données 3D structurées pour la reconstruction de surfaces de style." Valenciennes, 1999. https://ged.uphf.fr/nuxeo/site/esupversions/1ba7c2ab-239e-4d40-96df-a6ad23bc2dba.

Full text
Abstract:
La reconstruction de surfaces consiste à générer automatiquement des modèles CAO à partir d'objets physiques dont on a récupéré des informations sous forme d'ensembles de points. Cette thèse s'intéresse à la modélisation des formes de style par ce procédé, et la démarche générale dans laquelle elle s'inscrit s'appuie sur une structuration des données selon des sections orthogonales. Le travail présenté traite de la construction de courbes planes par lissage, et de son application au problème de la segmentation. La méthode de lissage proposée concerne les courbes de Bézier cubiques et procède selon deux étapes. La première consiste à caractériser la forme à reconstruire et à filtrer d'éventuelles erreurs de mesure. Au moyen d'un schéma d'approximation indépendant de toute paramétrisation a priori des données, la seconde phase construit sur les points considérés comme non-erronés, des courbes dont à la fois la précision et la qualité géométrique en termes de monotonie de courbure sont garanties. La méthode de segmentation se décompose également en deux étapes. La première consiste à extraire des sections orthogonales sur les données, et à les lisser par un réseau de courbes polynomiales dont l'examen fournit un ensemble de points caractéristiques. Dans les régions jugées intéressantes, la seconde étape permet de lier ces points par des lignes de courbure propagées sur des estimations locales de la forme. Les lignes détectées sont généralement très lisses et représentent précisément la structure de la forme.
APA, Harvard, Vancouver, ISO, and other styles
18

Laurent, François. "Détection de la fatigue mentale à partir de données électrophysiologiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00634776.

Full text
Abstract:
Trois expériences ont été réalisées pour évaluer la faisabilité d'un détecteur de fatigue mentale qui exploiterait des signaux électrophysiologiques pour discriminer des fenêtres de temps associées à un état " fatigué " de fenêtres associées à un état " pas fatigué ". Dans la première expérience, les sujets réalisaient une tâche de task switching pendant environ 2 h. Deux segments de 20 min ont été retenus pour chaque sujet. Le premier a été associé à un état " pas fatigué ", l'autre à un état " fatigué ". Puis ces segments ont été découpés en fenêtres de temps glissantes sur lesquelles les signaux électrophysiologiques (EOG, ECG et EEG) ont été quantifiés. L'usage de SVM linéaires (appris sujet par sujet) pour la classification des fenêtres de temps a permis plusieurs observations. Le taux de bonnes classifications augmentaient avec la taille des fenêtres de temps (de 4 à 30 s) mais pas assez pour que l'ITR augmentât lui aussi avec cette taille des fenêtres. Les quantifications de l'EOG se plaçaient derrière celles de l'ECG, elles-mêmes supplantées par les amplitudes moyennes de l'EEG qui elles aussi étaient dépassées par les PLV de l'EEG en termes de taux de bonnes classifications avec (pour les PLV) des taux supérieurs à 90 %. L'examen des poids SVM permît de constater que les quantifications d'EOG et en particulier d'ECG contribuaient à la classification lorsque toutes les quantifications des différentes modalités étaient utilisées ensemble, en utilisant des fenêtres de temps de 30 s. Les amplitudes moyennes de l'EEG augmentaient en 7-13 Hz et diminuaient en 13-18 Hz. En 3-7 Hz apparaissait une augmentation en FCz évoquant la négativité d'erreur. Dans une deuxième expérience avec une tâche de compatibilité spatiale, nous avons discriminé des fenêtres de 20 s entre un niveau de bonnes performances (temps moyen de réaction courts) et un niveau de moins bonnes performances, en quantifiant ces fenêtres à l'aide des amplitudes moyennes, des PLV ou des cohérences de l'EEG, au niveau du scalp et au niveau de sources reconstruites sur le cortex cérébral. Nous nous attendions à des meilleurs taux de bonnes classifications avec les sources reconstruites qu'avec les données de scalp, quelque soit la quantification, mais ce ne fût pas le cas. Nous avons également réalisé une simulation reprenant l'essentiel des analyses réalisées précédemment et en provoquant deux phénomènes, l'un à travers l'amplitude de signaux utiles à la classification, l'autre jouant sur le couplage entre deux signaux utiles. Ces simulations ont montré d'une part la complémentarité des mesures de synchronie locale, telles que l'amplitude moyenne, avec les mesures de synchronie à distance telles que la cohérence ou la PLV, et d'autre part l'apport de la reconstruction de sources en termes de taux de bonnes classifications et de localisation des motifs discriminants. Cette incompatibilité entre les résultats sur données simulées et ceux sur les données EEG réelles est interprétée ici comme la conséquence de la non-prise en compte, dans le processus de reconstruction, de sources extra-corticales comme les sources cérébrales sous-corticales et les sources extra-craniennes (yeux, muscles) qui pourraient avoir eu une contribution. La troisième étude portait sur une troisième expérience en contexte écologique cette fois-ci, impliquant les élèves-pilotes dans un simulateur de vol. La simulation durait près de 3 h et les signaux EEG ainsi que trois paramètres de vol (cap, altitude, vitesse) ont été enregistrés. Nous avons proposé une mesure comportementale quantifiant la variabilité des paramètres de vol, par fenêtres de 10 s, pour suivre la performance des pilotes avec une résolution temporelle adaptée à nos analyses. Nous avons construit deux classes, à savoir un groupe de fenêtres de temps de 10 s associé aux bonnes performances (variabilité faible) et un second groupe de fenêtres associé aux moins bonnes performances. Plutôt que d'utiliser une procédure de validation croisée, nous avons évalué les classifieurs appris sur des données postérieures aux données d'apprentissage, de manière à évaluer la capacité de la procédure de classification à déterminer la tendance générale des performances du pilote. Cette procédure permettait effectivement de déterminer si les performances des pilotes se dégradaient en fin de vol ou pas, ce pour 12 sujets sur 13. Les corrélats physiologiques exhibés ne correspondaient pas d'une expérience à une autre ce qui laissait penser que soit les différentes manières de construire les classes ne permettaient pas d'isoler un même différentiel de fatigue mentale, soit la fatigue mentale telle qu'observée à travers les techniques électrophysiologiques employées dépendait de la tâche et/ou des sujets. En revanche, la faisabilité d'une discrimination d'états mentaux proches de réalités opérationnelles a été établie.
APA, Harvard, Vancouver, ISO, and other styles
19

Yureidini, Ahmed. "Reconstruction robuste des vaisseaux sanguins pour les simulations médicales interactives à partir de données patients." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01010973.

Full text
Abstract:
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeures des simulateurs. Actuellement, les simulateurs commerciaux ne proposent pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactif, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en Angiographie Rotationnelle (RA) 3D. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des points à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est, à son tour, raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives: une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts.
APA, Harvard, Vancouver, ISO, and other styles
20

Gallon, Jonathan. "Étude et optimisation d'un algorithme de reconstruction d'horizons sismiques 3D et extension aux données nD." Pau, 2011. http://www.theses.fr/2011PAUU3009.

Full text
Abstract:
Dans le monde pétrolier, l'interprétation géophysique des données sismiques 3D est une étape indispensable pour la construction d'un modèle géologique du sous-sol. Ce modèle est constitué d'objets tels que les horizons (surfaces représentant l'interface entre deux couches géologiques) et les failles (surface modélisant les cassures dans les couches géologiques). Afin d'aider les géophysiciens, beaucoup d'outils automatiques ont été proposés afin de reconstruire ces objets, parmi lesquels le propagateur d'horizon 3D développé par Keskes et al. : cet algorithme est considéré comme le plus robuste en terme de qualité de surface reconstruite, mais avec l'augmentation permanente des volumes de données on observe une détérioration de ses temps d'exécution. L'objectif de la thèse concerne l'optimisation de cet algorithme de reconstruction d'horizons sismiques, appelé Propagateur 3D. La chute de performance calculatoire de ce propagateur est engendrée par la nécessité de faire des accès aléatoires dans le volume de données. Pour réduire l'effet de ces accès, très coûteux en temps d'exécution, nous proposons un système de cache briqué intelligent adapté aux caractéristiques de l'algorithme. La mise en place de cette gestion optimisée de la mémoire ouvre la voie vers une refonte du mode de propagation de l'algorithme pour minimiser l'empreinte mémoire : la propagation récursive. Dans la suite de la thèse, nous montrons comment étendre l'algorithme de propagation 3D aux données nD (acquisitions multi-offset, multi-azimut,. . . ) de plus en plus exploitée dans l'interprétation sismique. Deux types extensions sont proposés : la propagation libre et la contrainte. L'ajout de nouvelles dimensions entraîne une forte augmentation de la taille des données à traiter, et donc un fort ralentissement de l'algorithme. Pour chaque extension de la propagation, nous proposons une adaptation du système de cache 3D afin d'en améliorer les performances. Enfin, nous présentons et commentons sur plusieurs cas réels les résultats obtenus par la propagation nD
In the oil industrie, 3D seismic data interpretation is an essential step to build a 3D geological model of an exploration area. This model is constructed with horizons (surfaces representing the main rock interfaces) and faults (surface representing rocks' fractures). In order to facilitate interpretation, a lot of automatic tools have been developed to build these surfaces, among which the 3D horizon propagation algorithm developed by Keskes et al. : this algorithm is considered today as the most powerful in term of surface quality. However, with the continuous increasing size of seismic data, one can observe a slowdown in computation time. The purpose of this thesis concerns the optimization of this seismic horizon reconstruction algorithm. To reduce the effect of the random access required by the propagator, which is very time consuming, we propose an intelligent bricked cache system fully adapted to the algorithm. Then, we modify the original version of the algorithm with a new propagation method in order to minimize the memory usage : the recursive propagation. Then we extend the propagation algorithm to nD data (multi-offsets acquisitions, multiazimuth. . . ) increasingly used for seismic interpretation. Two extensions are then proposed : a "free" propagation and a "constrained" propagation. As the new dimensions increase the seismic data size, we adapt the optimum cache system for each propagation extension in order to improve the performance for both propagations. Finally, we present and comment results of nD propagation obtained on real data
APA, Harvard, Vancouver, ISO, and other styles
21

Ould, Dellahy Maloum Isselmou. "Reconstruction de surfaces gauches à partir de données non structurées : paramétrisation par des transformations conformes." Lyon 1, 1995. http://www.theses.fr/1995LYO10233.

Full text
Abstract:
En reconstruction de surface definie par un produit tensoriel, a partir d'un nuage de points, la parametrisation est un prealable impose par le modele. Dans la situation simple d'une grille reguliere de points, des methodes empruntees a la reconstruction de courbe peuvent etre appliquees: parametrage uniforme parametrage par longueur de corde parametrage par longueur d'arc par contre, quand le nuage de points ne degage pas d'axes privilegies, ou quand il est saisi au hasard, les methodes ci-dessus ne sont plus appropriees. Les transformations conformes constituent un outil puissant permettant de mettre en bijection l'interieur de deux contours fermes. Si l'un des contours est l'espace de parametrage et l'autre, deduit de la forme du nuage de points, on a la, un moyen d'associer deux parametres (u, v) a chacun des points du nuage. Dans la premiere partie de cette these nous presentons l'etat de l'art de la reconstruction de surface et de la parametrisation. La seconde partie est reservee a la methode de parametrisation que nous proposons. Nous y expliquons comment nous definissons une transformation conforme comme fonction de parametrage. Dans la derniere partie nous presentons une analyse des carreaux reconstruits apres parametrisation par une transformation conforme
APA, Harvard, Vancouver, ISO, and other styles
22

Demantke, Jérôme. "Reconstruction de modèles 3D photoréalistes de façades à partir de données image et laser terrestre." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1015/document.

Full text
Abstract:
On souhaite détecter puis modéliser les façades de bâtiments à partir des données acquises par le véhicule de numérisation mobile de l'ign, le Stéréopolis. Il s'agit de trouver une représentation géométrique des façades adapté aux données (signal lidar/laser et images optiques).La méthode doit être automatique et rendre possible la modélisation d'un grand nombre de façades afin de contribuer à la production de maquettes numériques de villes. Les verrous techniques proviennent de l'acquisition mobile en environnement urbain non contrôlé (géo référencement du véhicule, densité variable de points lidar...), ils proviennent du signal lidar, issu d'une technologie relativement récente et pour lequel le processus de traitement n'est pas encore consensuel : faut-il exploiter ou non la géométrie capteur ? Enfin, la quantité de données pose le problème du passage à l'échelle. Afin d'analyser la géométrie des nuages de points 3D lidar, nous avons proposé des attributs décrivant pour chaque point la forme de l'environnement local (linéaire-1D, planaire-2D ou volumique-3D).Les plans principaux des façades sont extraits automatiquement des données lidar grâce à un algorithme streamé de détection de rectangles verticaux. Nous avons développé deux modèles qui sont initialisés par ces rectangles. Une grille irrégulière dont chaque case, parallèle au plan principal peut avancer ou reculer. Une grille déformable qui est ''poussée par les rayons lasers jusqu’aux points lasers’ ‘Enfin, nous avons montré comment la grille déformable peut être rendue cohérente avec les images optiques en alignant les discontinuités géométriques de la grille avec des discontinuités radiométriques des images
One wishes to detect and model building façades from data acquired by the ign mobile scanning vehicle, the Stereopolis. It is a question of finding a geometric representation of facades appropriate to the data (lidar/laser signal and optical images).The method should be automatic and enable the modeling of a large number of facade to help the production of digital city models. Technical obstacles come from the mobile acquisition in uncontrolled urban environment (vehicle georeferencing, variable lidar point density...), they come from the lidar signal, retrieved from a relatively new technology for which the process is not yet consensus :does one operates into sensor geometry or not ? Finally, the amount of data raises the problem of scaling up. To analyze the geometry of lidar 3D point clouds, we proposed attributes describing for each point the shape of the local surroundings (linear-1D, planar-2D or volume-3D).The facade main planes are automatically extracted from lidar data through a streamed detection algorithm of vertical rectangles. We developed two models that are initialized by these rectangles. An irregular grid in which each cell, parallel to the main plane can move forward or backward. A deformable grid which is ''pushed by the laser beams toward the laser points''. Finally, we showed how the deformable grid can be made consistent with the optical images aligning the geometric discontinuities of the grid with radiometric discontinuities of the images
APA, Harvard, Vancouver, ISO, and other styles
23

Chandramouli, Pranav. "Turbulent complex flows reconstruction via data assimilation in large eddy models." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S035/document.

Full text
Abstract:
L'assimilation de données en tant qu'outil pour la mécanique des fluides a connu une croissance exponentielle au cours des dernières décennies. La possibilité de combiner des mesures précises mais partielles avec un modèle dynamique complet est précieuse et a de nombreuses applications dans des domaines allant de l'aérodynamique, à la géophysique et à l’aéraulique. Cependant, son utilité reste limitée en raison des contraintes imposées par l'assimilation de données notamment en termes de puissance de calcul, de besoins en mémoire et en informations préalables. Cette thèse tente de remédier aux différentes limites de la procédure d'assimilation pour faciliter plus largement son utilisation en mécanique des fluides. Un obstacle majeur à l'assimilation des données est un coût de calcul prohibitif pour les écoulements complexes. Une modélisation de la turbulence à grande échelle est intégrée à la procédure d'assimilation afin de réduire considérablement la coût de calcul et le temps requis. La nécessité d'une information volumétrique préalable pour l'assimilation est abordée à l'aide d'une nouvelle méthodologie de reconstruction développée et évaluée dans cette thèse. L'algorithme d'optimisation reconstruit les champs 3D à partir d'observations dans deux plans orthogonaux en exploitant l'homogénéité directionnelle. La méthode et ses variantes fonctionnent bien avec des ensembles de données synthétiques et expérimentaux fournissant des reconstructions précises. La méthodologie de reconstruction permet également d’estimer la matrice de covariance d’ébauche indispensable à un algorithme d’assimilation efficace. Tous les ingrédients sont combinés pour effectuer avec succès l'assimilation de données variationnelles d'un écoulement turbulent dans le sillage d'un cylindre à un nombre de Reynolds transitoire. L'algorithme d'assimilation est validé pour des observations volumétriques synthétiques et est évalué sur des observations expérimentales dans deux plans orthogonaux
Data assimilation as a tool for fluid mechanics has grown exponentially over the last few decades. The ability to combine accurate but partial measurements with a complete dynamical model is invaluable and has numerous applications to fields ranging from aerodynamics, geophysics, and internal ventilation. However, its utility remains limited due to the restrictive requirements for performing data assimilation in the form of computing power, memory, and prior information. This thesis attempts at redressing various limitations of the assimilation procedure in order to facilitate its wider use in fluid mechanics. A major roadblock for data assimilation is the computational cost which is restrictive for all but the simplest of flows. Following along the lines of Joseph Smagorinsky, turbulence modelling through large-eddy simulation is incorporated in to the assimilation procedure to significantly reduce computing power and time required. The requirement for prior volumetric information for assimilation is tackled using a novel reconstruction methodology developed and assessed in this thesis. The snapshot optimisation algorithm reconstructs 3D fields from 2D cross- planar observations by exploiting directional homogeneity. The method and its variants work well with synthetic and experimental data-sets providing accurate reconstructions. The reconstruction methodology also provides the means to estimate the background covariance matrix which is essential for an efficient assimilation algorithm. All the ingredients are combined to perform variational data assimilation of a turbulent wake flow around a cylinder successfully at a transitional Reynolds number. The assimilation algorithm is validated with synthetic volumetric observation and assessed on 2D cross-planar observations emulating experimental data
APA, Harvard, Vancouver, ISO, and other styles
24

Mora, Benjamin. "Nouveaux algorithmes interatifs pour la visualisation de données volumiques." Toulouse 3, 2001. http://www.theses.fr/2001TOU30192.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Serres, Barthélemy. "Acquisition, visualisation et reconstruction 3D de données anatomiques issues de dissection : application aux fibres blanches cérébrales." Phd thesis, Université François Rabelais - Tours, 2013. http://tel.archives-ouvertes.fr/tel-00881437.

Full text
Abstract:
Dans cette thèse, nous présentons un système complet permettant de sauvegarder un processus destructif tel qu'une dissection anatomique. Nous proposons une méthode depuis l'acquisition 3D des données jusqu'à la visualisation interactive et immersive, dans le but de créer une vérité terrain. L'acquisition 3D regroupe l'acquisition de la géométrie par scanner laser (maillage) ainsi que de l'information de couleur par le biais d'un appareil photo haute résolution (texture). Ce processus d'acquisition et répété au cours de la dissection du spécimen. Les différentes acquisitions du spécimen sont représentées par des surfaces 3D texturées. Elles sont ensuite recalées entre elles. Un expert anatomiste peut alors explorer ces différentes étapes de dissections modélisées dans une visualisation immersive en utilisant du matériel d'interaction (bras haptique). Un outil d'étiquetage permet une segmentation manuelle précise de régions d'intérêt visibles sur chacune des surfaces 3D. Un objet tridimensionnel peut ensuite être reconstruit et proposé à l'utilisateur sur la base des zones d'intérêt étiquetées. Le but étant de créer des vérité terrains afin de confronter des résultats issus de modalités d'acquisition volumiques (IRM). Nous montrons l'application de la méthode à la reconstruction de faisceaux de fibres blanches humaine dans le but de valider des résultats de tractographie.
APA, Harvard, Vancouver, ISO, and other styles
26

Serres, Barthélémy. "Acquisition, visualisation et reconstruction 3D de données anatomiques issues de dissection : application aux fibres blanches cérébrales." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4002/document.

Full text
Abstract:
Dans cette thèse, nous présentons un système complet permettant de sauvegarder un processus destructif tel qu'une dissection anatomique. Nous proposons une méthode depuis l'acquisition 3D des données jusqu'à la visualisation interactive et immersive, dans le but de créer une vérité terrain. L'acquisition 3D regroupe l'acquisition de la géométrie par scanner laser (maillage) ainsi que de l'information de couleur par le biais d'un appareil photo haute résolution (texture). Ce processus d'acquisition et répété au cours de la dissection du spécimen. Les différentes acquisitions du spécimen sont représentées par des surfaces 3D texturées. Elles sont ensuite recalées entre elles. Un expert anatomiste peut alors explorer ces différentes étapes de dissections modélisées dans une visualisation immersive en utilisant du matériel d'interaction (bras haptique). Un outil d'étiquetage permet une segmentation manuelle précise de régions d'intérêt visibles sur chacune des surfaces 3D. Un objet tridimensionnel peut ensuite être reconstruit et proposé à l'utilisateur sur la base des zones d'intérêt étiquetées. Le but étant de créer des vérité terrains afin de confronter des résultats issus de modalités d'acquisition volumiques (IRM). Nous montrons l'application de la méthode à la reconstruction de faisceaux de fibres blanches humaine dans le but de valider des résultats de tractographie
In this thesis, we present a system to keep track of a destructive process such as a medical specimen dissection, from data acquisition to interactive and immersive visualization, in order to build ground truth models. Acquisition is a two-step process, first involving a 3D laser scanner to get a 3D surface, and then a high resolution camera for capturing the texture. This acquisition process is repeated at each step of the dissection, depending on the expected accuracy and the specific objects to be studied. Thanks to fiducial markers, surfaces are registered on each others. Experts can then explore data using interaction hardware in an immersive 3D visualization. An interactive labeling tool is provided to the anatomist, in order to identify regions of interest on each acquired surface. 3D objects can then be reconstructed according to the selected surfaces. We aim to produce ground truths which for instance can be used to validate data acquired with MRI. The system is applied to the specific case of white fibers reconstruction in the human brain
APA, Harvard, Vancouver, ISO, and other styles
27

Gomari-Buanani, Naufal. "Identification harmonique et reconstruction de fonctions dans les classes de Hardy à partir de données partielles." Lyon 1, 2000. http://www.theses.fr/2000LYO10119.

Full text
Abstract:
Soit g un système physique linéaire. D'après les relations de Kramers-Kronig g=f+i(Hf) où H est la transformation de Hilbert. Expérimentalement, g est connu sur un intervalle donné. Sous cette forme, g est la trace d'une fonction dans l'espace de Hardy H² défini sur le demi-plan supérieur. Théoriquement, si g est connue à partir de ses données partielles, on peut la reconstruire entièrement sur l'ace réel. L'arlgorithme dû à Pahl permet d'approximer g en norme lp (1
APA, Harvard, Vancouver, ISO, and other styles
28

Sourimant, Gaël. "Reconstruction de scènes urbaines à l'aide de fusion de données de type GPS, SIG et Vidéo." Rennes 1, 2007. http://www.theses.fr/2007REN1S127.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la reconstruction tridimensionnelle de zones urbaines, à l'aide de données GPS, SIG et Vidéo. L'objectif est de raffiner des modèles 3D simples et géo-référencés de bâtiments, extraits d'une base SIG (Systèmes d'Information Géographique) en les mettant en correspondance avec des séquences d'images acquises au sol, la position de la caméra étant estimée par GPS. La mise en correspondance des données vidéo et des modèles 3D correspondants par asservissement visuel virtuel robuste est tout d'abord présentée. Le but est ici de retrouver, pour chaque image de la vidéo, la pose géo-référencée précise de la caméra d'acquisition (position et orientation), de telle façon que les modèles 3D se projettent exactement sur les images de bâtiments correspondantes. Les textures des bâtiments visibles dans la vidéo sont alors extraites. Un nouvel algorithme pour la fusion de textures de façades de bâtiments basé sur une analyse statistique de la couleur des texel est présenté. Il permet entre autres la suppression dans la texture finale de tous les objets occultants n'appartenant pas à la façade elle-même. Enfin, nous présentons une étude préliminaire sur l'extraction des détails géométriques de chaque façade. Connaissant les poses de la caméra pour toutes les images, un calcul de disparité par coupe de graphe ou flot optique est effectuée dans l'espace texture. Les micro-structures des façades peuvent alors être retrouvées en utilisant ces cartes de disparité
This thesis presents a new scheme for 3D buildings reconstruction, using GPS, GIS and Video datasets. The goal is to refine simple and geo-referenced 3D models of buildings, extracted from a GIS database (Geographic Information System). This refinement is performed thanks to a registration between these models and the video. The GPS provides rough information about the camera location. First, the registration between the video and the 3D models using robust virtual visual servoing is presented. The aim is to find, for each image of the video, the geo-referenced pose of the camera (position and orientation), such as the rendered 3D models projects exactly on the building images in the video. Next, textures of visible buildings are extracted from the video images. A new algorithm for façade texture fusion based on statistical analysis of the texels color is presented. It allows to remove from the final textures all occluding objects in front of the viewed building façades. Finally, a preliminary study on façades geometric details extraction is presented. Knowing the pose of the camera for each image of the video, a disparity computation using either graph-cuts or optical flow is performed in texture space. The micro-structures of the viewed façades can then be recovered using these disparity maps
APA, Harvard, Vancouver, ISO, and other styles
29

Belaoucha, Brahim. "Utilisation de l’IRM de diffusion pour la reconstruction de réseaux d’activations cérébrales à partir de données MEG/EEG." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4027/document.

Full text
Abstract:
Comprendre comment différentes régions du cerveau interagissent afin d’exécuter une tâche, est un défi très complexe. La magnéto- et l’électroencéphalographie (MEEG) sont deux techniques non-invasive d’imagerie fonctionnelle utilisées pour mesurer avec une bonne résolution temporelle l’activité cérébrale. Estimer cette activité à partir des mesures MEEG est un problème mal posé. Il est donc crucial de le régulariser pour obtenir une solution unique. Il a été montré que l’homogénéité structurelle des régions corticales reflète leur homogénéité fonctionnelle. Un des buts principaux de ce travail est d’utiliser cette information structurelle pour définir des a priori permettant de contraindre de manière plus anatomique ce problème inverse de reconstruction de sources. L’imagerie par résonance magnétique de diffusion (IRMd) est, à ce jour, la seule technique non-invasive qui fournisse des informations sur l’organisation structurelle de la matière blanche. Cela justifie son utilisation pour contraindre notre problème inverse. Nous utilisons l’information fournie par l’IRMd de deux manière différentes pour reconstruire les activations du cerveau : (1) via une méthode spatiale qui utilise une parcellisation du cerveau pour contraindre l’activité des sources. Ces parcelles sont obtenues par un algorithme qui permet d’obtenir un ensemble optimal de régions structurellement homogènes pour une mesure de similarité donnée sur tout le cerveau. (2) dans une approche spatio-temporelle qui utilise les connexions anatomiques, calculées à partir des données d’IRMd, pour contraindre la dynamique des sources. Ces méthodes sont appliquée à des données synthétiques et réelles
Understanding how brain regions interact to perform a given task is a very challenging task. Electroencephalography (EEG) and Magnetoencephalography (MEG) are two non-invasive functional imaging modalities used to record brain activity with high temporal resolution. As estimating brain activity from these measurements is an ill-posed problem. We thus must set a prior on the sources to obtain a unique solution. It has been shown in previous studies that structural homogeneity of brain regions reflect their functional homogeneity. One of the main goals of this work is to use this structural information to define priors to constrain more anatomically the MEG/EEG source reconstruction problem. This structural information is obtained using diffusion magnetic resonance imaging (dMRI), which is, as of today, the unique non-invasive structural imaging modality that provides an insight on the structural organization of white matter. This makes its use to constrain the EEG/MEG inverse problem justified. In our work, dMRI information is used to reconstruct brain activation in two ways: (1) In a spatial method which uses brain parcels to constrain the sources activity. These parcels are obtained by our whole brain parcellation algorithm which computes cortical regions with the most structural homogeneity with respect to a similarity measure. (2) In a spatio-temporal method that makes use of the anatomical connections computed from dMRI to constrain the sources’ dynamics. These different methods are validated using synthetic and real data
APA, Harvard, Vancouver, ISO, and other styles
30

Franceschini, Lucas. "Modeling Strategies for Aerodynamic Flow Reconstruction from partial measurements." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX092.

Full text
Abstract:
Dans un premier temps, nous nous intéresserons à la récupération du champ moyen à partir d'informations partielles ou éparses, allant des sondes de vitesse ponctuelles à la pression ou frottement de paroi. Pour le réaliser, on considère les équations de Reynolds-Averaged Navier-Stokes (RANS), complétées par un modèle, ici le Spalart-Allmaras. Ce type de modélisation a été conçu pour quelques configurations d'écoulement de référence et peut manquer de généralité, ce qui conduit à des prédictions erronées, surtout lorsqu'il y a recirculation. Nous proposons la modification de ce modèle avec un paramètre de contrôle tel que la solution qui en découle corresponde le mieux aux données de champ moyen mentionnées ci-dessus. La configuration considérée est une marche descendente à Re=28275, avec des données réelles provenant d'un DNS.Ensuite, nous nous intéressons à l'analyse linéaire de champ moyen et à son utilisation pour prédire la fluctuation non linéaire instationnaire. En particulier, nous concevons un modèle d'ordre réduit, composé de l'équation du champ moyen couplé aux modes de résolvent, qui prédit la fluctuation pour chaque fréquence existante. Les énergies de ces modes sont utilisées comme paramètres à régler par la procédure d'assimilation des données, qui nécessite généralement (très) peu de donnée, typiquement des signaux résolus en temps issus de sondes ponctuelles. Cette technique sera appliquée dans des écoulements transitoires tels que celui autour d'un cylindre à section carrée, un cas de référence pour les écoulements oscillateurs, et un pas orienté vers l'arrière, un écoulement type d'amplificateur de bruit.Nous considérons ensuite un cas turbulent correspondant à l'écoulement autour d'un cylindre à section carrée à Re=22000, ayant à la fois des caractéristiques d'oscillateur (émission périodique de vortices) et d'amplificateur de bruit (représenté par les structures Kelvin-Helmholtz). L'analyse classique de stabilité de champ moyen est utilisée pour récupérer le mode d'emission de vortex et une technique de résolvent, basée sur les équations linéarisées autour de la composante périodique, est utilisée pour récupérer la dépendance des modes Kelvin-Helmholtz avec l'emission de vortex
In a first moment we will be interested in the recovery of the mean-flow quantities from partial or sparse information, ranging from point-wise velocity probes to wall-pressure and friction. This will be achieved by considering the Reynolds-Averaged Navier-Stokes (RANS) equations, completed with a model, here the Spalart-Allmaras. This kind of modeling has been conceived for a few benchmark flow configurations and may lack generality, leading to erroneous predictions, especially when re-circulation is present. We propose the modification of this model with a tuning parameter such that its solution matches the best the aforementioned mean-flow data. The configuration considered was a Backward-Facing Step at Re=28275, with actual data stemming from a DNS.Then, we turn our attention to linear mean-flow analysis and its use to predict the nonlinear unsteady fluctuation. In particular, we design a reduced-order model, composed by the mean-flow equation coupled with the resolvent modes, predicting the fluctuation for each existing frequency. The energies of those modes are used as tuning parameters for the data-assimilation procedure, that will take as input typically (very) few point-wise time-resolved information. This technique will be applied in transitional flows such as the one around a squared-section cylinder, a benchmark case for oscillator flows, and a backward-facing-step, a typical noise-amplifier flow.We then consider a turbulent case corresponding to the flow around a squared-section cylinder at Re=22000, having both oscillator (periodic vortex-shedding) and noise-amplifier-like characteristics (represented by the Kelvin-Helmholtz structures). Classical mean-flow stability analysis is used to recover the the vortex-shedding mode and a resolvent technique, based on the linearized equations around the periodic component, is used to recover the dependency of the Kelvin-Helmholtz modes with the vortex-shedding
APA, Harvard, Vancouver, ISO, and other styles
31

Alevizos, Panagiotis. "Arrangements de rayons : application à la reconstruction de formes planes." Paris 11, 1988. http://www.theses.fr/1988PA112231.

Full text
Abstract:
Cette thèse présente un travail de recherche en Algorithmique Géométrique et en Robotique concernant les arrangements de rayons dans le plan. Un rayon est une courbe semi-infinie qui représente par, exemple, un rayon lumineux servant à mesurer un point sur le bord d'un objet (l'extrémité du rayon). En premier lieu on montre qu'on peut définir un ordre total sur l'ensemble P des points mesurés (les extrémités des rayons) si et seulement si les points de P appartiennent à un objet unique et simplement connexe. Nous développons ensuite des algorithmes qui permettent de calculer en temps optimal soit l'ordre total sur l'ensemble P (dans le cas où les points de P appartiennent à un objet unique) soit les k sous-ordres partiels (dans le cas où les points de P appartiennent à k objets). La division des points de P en k sous-ensembles ordonnés permet de relier les points voisins de chaque sous-ensemble, par des arêtes, et de construire ainsi une approximation polygonale du bord de chaque objet. De plus, on peut construire en temps optimal, une quelconque des cellules de l'arrangement des rayons. Ceci permet notamment de calculer les k plus petites régions dont on est sûr qu'elles contiennent les k objets. Nous montrons également comment la notion d'ordre permet de reconstruire de façon exacte des formes polygonales, et ceci avec un nombre minimal de mesures. On généralise ainsi la technique connue sous le nom de probing dans la littérature anglo-saxonne. En plus des résultats sur les arrangements de rayons, nous présentons un résultat combinatoire sur le nombre maximal de tétraèdres des triangulations en dimension 3
This thesis presents a research in Computational Geometry and in Robotics, concerning the arrangements of rays in the plane. A ray is a semi-infinite curve which represents, for example, a light ray intended to measure a point on the boundary of an object (the ray terminus). First we show that we can define a total order on the set P of the measured points (the rays termini), if and only if these points belong to a unique and simply connected object. Then we develop algorithms which permit to calculate in optimal time, either the total order on the set P (in the case where the points of P belong to a unique object), or the k partial sub-orders (in the case where the points of P belong to k objects). The division of the points of P in k ordered sub-sets, allows to link the adjacent points of each sub-set by edges and thus to construct a polygonal approximation of the boundary of each object. Moreover, we can construct in optimal time anyone of the cells of the rays' arrangement. This allows, in particular, to compute the k smallest regions which, for sure, contain the k objects. We show also how the order relation can be used to determine the exact shape of a polygonal object by means of a minimum number of probes. We thus generalize the technique of probing. Besides the results on rays' arrangements, we present a combinatorial result on the maximum number of tetrahedra in 3-dimensional triangulations
APA, Harvard, Vancouver, ISO, and other styles
32

Filliard, Clement. "Etude de la calibration et de la reconstruction des cartes du ciel avec les données Planck-HFI." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112126.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Jaillet, Fabrice. "Contribution à la reconstruction et à l'animation d'objets déformables définis à partir de données structurées en sections." Lyon 1, 1999. http://www.theses.fr/1999LYO10058.

Full text
Abstract:
Grace aux recents developpements des systemes d'acquisition, les donnees structurees en contours sont de plus en plus repandues. Elles comportent souvent un grand nombre de points et sont par ailleurs peu agreables a visualiser. Il etait donc interessant de proposer une methode de reconstruction de surfaces 3d lisses et compactes a partir de tels contours. La premiere partie de la these presente une approche originale basee sur le skinning des contours. Nous commencons par construire une courbe b-spline sur chaque contour. Apres une phase delicate de mise en compatibilite, nous interpolons ou approximons l'ensemble de ces courbes pour obtenir une surface b-spline definie par un produit tensoriel et possedant une forte continuite en tout point. Nous avons aussi etendu notre methode pour fermer ces surfaces en respectant des criteres de tangence. Nous avons aussi pris en compte les objets possedant des branches, en comblant les zones d'embranchement par des carreaux de coons. Cependant, dans notre application medicale, les corps reconstruits sont en mouvement et peuvent se deformer. Ce type de comportement etant difficile a prendre en compte avec les modeles b-splines, nous avons propose l'utilisation des systemes de particules. La seconde partie de la these concerne la reconstruction et l'animation des objets deformables. Nous decrivons notre methode de remplissage d'un volume par plusieurs couches de particules: des particules de grande taille donnent la forme generale, elles sont entourees par des particules de taille intermediaire qui contiennent les parametres lies au comportement, qui sont elles-memes entourees par des petites particules assurant la cohesion de l'objet ainsi que les echanges avec le monde exterieur. Ce modele permet de simuler simplement une grande variete de comportements (elasticite, plasticite, fracture).
APA, Harvard, Vancouver, ISO, and other styles
34

Avanthey, Loïca. "Acquisition et reconstruction de données 3D denses sous-marines en eau peu profonde par des robots d'exploration." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0055/document.

Full text
Abstract:
Notre planète est pour l’essentiel recouverte par les mers et les océans, or notre connaissance des fonds marins est très inférieure à celle que nous possédons sur les terres émergées. Dans ce mémoire, nous cherchons à concevoir un système dédié à la cartographie thématique à grande échelle pour obtenir à la demande un nuage de points dense représentatif d’une scène sous-marine ou subaquatique par reconstruction tridimensionnelle. Le caractère complexe de ce type de système nous amène à privilégier une approche délibérément transversale. Nous nous intéresserons en particulier aux problématiques posées par l’étude à l’échelle des individus de petites zones en eau peu profonde. Les premières concernent l’acquisition in situ efficace de couples stéréoscopiques avec une logistique adaptée à la taille des zones observées : nous proposons pour cela un microsystème agile, peu coûteux et suffisamment automatisé pour fournir des données reproductibles et comparables. Les secondes portent sur l’extraction fiable de l’information tridimensionnelle à partir des données acquises : nous exposons les algorithmes que nous avons élaborés pour prendre en compte les caractéristiques particulières du milieu aquatique (dynamisme, propagation difficile des ondes électromagnétiques, etc.). Nous abordons donc en détail dans ce mémoire les problèmes d’appariement dense, d’étalonnage, d’acquisition in situ, de recalage et de redondance des données rencontrés dans le milieu sous-marin
Our planet is mostly covered by seas and oceans. However, our knowledge of the seabed is far more restricted than that of land surface. In this thesis, we seek to develop a system dedicated to precise thematic mapping to obtain a dense point cloud of an underwater area on demand by using three-dimensional reconstruction. The complex nature of this type of system leads us to favor a multidisciplinary approach. We will examine in particular the issues raised by studying small shallow water areas on the scale of individual objects. The first problems concern the effective in situ acquisition of stereo pairs with logistics adapted to the sizes of the observed areas: for this, we propose an agile, affordable microsystem which is sufficiently automated to provide reproducible and comparable data. The second set of problems relates to the reliable extraction of three-dimensional information from the acquired data: we outline the algorithms we have developed to take into account the particular characteristics of the aquatic environment (such as its dynamics or its light absorption). We therefore discuss in detail the issues encountered in the underwater environment concerning dense matching, calibration, in situ acquisition, data registration and redundancy
APA, Harvard, Vancouver, ISO, and other styles
35

Michot, Julien. "Recherche linéaire et fusion de données par ajustement de faisceaux : application à la localisation par vision." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00626489.

Full text
Abstract:
Les travaux présentés dans ce manuscrit concernent le domaine de la localisation et la reconstruction 3D par vision artificielle. Dans ce contexte, la trajectoire d'une caméra et la structure3D de la scène filmée sont initialement estimées par des algorithmes linéaires puis optimisées par un algorithme non-linéaire, l'ajustement de faisceaux. Cette thèse présente tout d'abord une technique de recherche de l'amplitude de déplacement (recherche linéaire), ou line search pour les algorithmes de minimisation itérative. La technique proposée est non itérative et peut être rapidement implantée dans un ajustement de faisceaux traditionnel. Cette technique appelée recherche linéaire algébrique globale (G-ALS), ainsi que sa variante à deux dimensions (Two way-ALS), accélèrent la convergence de l'algorithme d'ajustement de faisceaux. L'approximation de l'erreur de reprojection par une distance algébrique rend possible le calcul analytique d'une amplitude de déplacement efficace (ou de deux pour la variante Two way-ALS), par la résolution d'un polynôme de degré 3 (G-ALS) ou 5 (Two way-ALS). Nos expérimentations sur des données simulées et réelles montrent que cette amplitude, optimale en distance algébrique, est performante en distance euclidienne, et permet de réduire le temps de convergence des minimisations. Une difficulté des algorithmes de localisation en temps réel par la vision (SLAM monoculaire) est que la trajectoire estimée est souvent affectée par des dérives : dérives d'orientation, de position et d'échelle. Puisque ces algorithmes sont incrémentaux, les erreurs et approximations sont cumulées tout au long de la trajectoire, et une dérive se forme sur la localisation globale. De plus, un système de localisation par vision peut toujours être ébloui ou utilisé dans des conditions qui ne permettent plus temporairement de calculer la localisation du système. Pour résoudre ces problèmes, nous proposons d'utiliser un capteur supplémentaire mesurant les déplacements de la caméra. Le type de capteur utilisé varie suivant l'application ciblée (un odomètre pour la localisation d'un véhicule, une centrale inertielle légère ou un système de navigation à guidage inertiel pour localiser une personne). Notre approche consiste à intégrer ces informations complémentaires directement dans l'ajustement de faisceaux, en ajoutant un terme de contrainte pondéré dans la fonction de coût. Nous évaluons trois méthodes permettant de sélectionner dynamiquement le coefficient de pondération et montrons que ces méthodes peuvent être employées dans un SLAM multi-capteur temps réel, avec différents types de contrainte, sur l'orientation ou sur la norme du déplacement de la caméra. La méthode est applicable pour tout autre terme de moindres carrés. Les expérimentations menées sur des séquences vidéo réelles montrent que cette technique d'ajustement de faisceaux contraint réduit les dérives observées avec les algorithmes de vision classiques. Ils améliorent ainsi la précision de la localisation globale du système.
APA, Harvard, Vancouver, ISO, and other styles
36

Boubertakh, Rédha. "Synthèse de Fourier régularisée : Cas des données incomplètes et application à l'IRM cardiaque rapide." Paris 11, 2002. http://www.theses.fr/2002PA112269.

Full text
Abstract:
Nous étudions le problème de reconstruction d'image en résonance magnétique nucléaire (IRM) à partir d'acquisitions rapides fournissant un faible nombre de données échantillonnées le long de trajectoires non-cartésiennes. Ces acquisitions présentent un grand intérêt, notamment en imagerie cardio-vasculaire dynamique. Les propriétés intrinsèques de l'IRM font qu'un compromis doit être réalisé entre la réduction du temps d'acquisition, la préservation de la résolution spatiale et du rapport signal sur bruit. Pour repousser ce compromis, on propose une modélisation du processus d'acquisition valable pour toute trajectoire d'échantillonnage du plan de Fourier de l'image. Ce modèle prend en compte les localisations exactes des données et n'effectue aucune estimation directe des données manquantes. La reconstruction est alors un problème de synthèse de Fourier et est réalisée par minimisation itérative d'un critère convexe composé d'un terme de fidélité aux données et d'un terme de régularisation. Une part importante du travail a consisté à optimiser le calcul du terme de fidélité aux données de façon à accélérer la reconstruction. Le terme de régularisation incorpore des a priori propres à la nature des images cardio-vasculaires qui permettent de compenser les déficits des données en terme d'information. On introduit des contraintes de douceur spatiale afin de réduire le bruit tout en préservant les discontinuités entres régions différentes. La méthode a été évaluée sur des simulations numériques et des acquisitions spirales réelles d'un fantôme et du coeur puis comparée à une méthode de reconstruction de référence. Cela a mis en évidence l'intérêt de l'approche proposée pour inverser les artefacts d'aliasing dus au sous-échantillonnage des données, améliorer le rapport signal sur bruit et préserver la résolution spatiale des images. Ces résultats permettent d'envisager la diminution du temps d'acquisition sans une dégradation notable de la qualité des images
We address the problem of image reconstruction in magnetic resonance imaging (MRI) from fast acquisitions that sample a small number of data along non Cartesian trajectories. These acquisitions are of great interest, specifically in dynamic cardiovascular imaging. Because of the intrinsic properties of the MRI, a trade-off must be made between the reduction of the acquisition time, the preservation of the spatial resolution and he signal to noise ratio. To improve this tradeoff, we propose a modelling of the acquisition process valid for any sampling trajectory in the image Fourier plane. This model takes into account the exact localisations of the data and does not carry out any direct estimation of the missing data. The reconstruction is then a Fourier synthesis problem and is carried out by an iterative minimization of a convex criterion composed of a fidelity term to the data and of a regularization term. An important part of this work consisted in optimizing the calculation of the fidelity term in order to speed-up the reconstruction. The regularization term incorporates prior information resuming some characteristics of the cardiovascular images which allow to compensate the lack in data information. We choose to introduce spatial smoothness constraints to decrease the noise while preserving the discontinuities between different areas. The developed method was evaluated on numerical simulations and real spiral acquisitions of a phantom and of the heart and compared to a reference reconstruction. The obtained results allowed to demonstrate the validity of the approach to inverse the aliasing artefacts due to data undersampling, to improve the signal to noise ratio and to preserve the spatial resolution of the images. These results show that the reduction of the acquisition time is possible without a notable degradation of the quality of the reconstructed images
APA, Harvard, Vancouver, ISO, and other styles
37

Daul, Christian. "Segmentation, recalage et reconstruction 3D de données.Traitement d'images médicales et industrielles." Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00326078.

Full text
Abstract:
Le travail de recherche relaté dans ce manuscrit présente mes activités en traitement d'images que j'ai menées successivement dans trois organismes, à savoir le Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT, UMR CNRS/Université Louis Pasteur de Strasbourg), l'Institut für Techno- und Wirtschaftsmathematik'' (Fraunhofer Institut, Kaiserslautern, Allemagne) et le Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS/Nancy Université). D'un point de vue scientifique, mes principales activités en traitement d'images concernent la segmentation d'images dont le contenu, relativement complexe, requiert des algorithmes utilisant des connaissances a priori liées aux objets à segmenter (contours actifs, méthode s'inspirant de la transformée de Hough. Le recalage de donnée 2D ou 3D et monomodales ou multimodales est un autre aspect scientifique caractérisant le travail décrit ici. Ces thèmes de recherche, ainsi que des méthodes de reconstruction et/ou de superposition de données 3D ont conduit à des solutions originales dans le cadre de problèmes industriels (reconstruction 3D de pièces manufacturées pour une mesure dimensionnelle et classification de surfaces en fonction de leur teinte et texture) ou médicaux (diagnostic précoce du cancer du sein via la reconstruction du foyer de microcalcifications, positionnement de patients en radiothérapie intra crânienne par recalage 3D multimodal, aide au diagnostic de maladies cardio-vasculaires par la superposition de données multimodales et détection du cancer de la vessie par mosaïquage d'images).
APA, Harvard, Vancouver, ISO, and other styles
38

Robinson, Cordelia. "Image data assimilation with fluid dynamics models : application to 3D flow reconstruction." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S128/document.

Full text
Abstract:
D'une part, les équations de Navier-Stokes permettent de décrire les écoulements fluides, la littérature est riche de méthodes numériques permettant la résolution de celle-ci. D'autre part, nous sommes capables de mesurer de manière non-intrusive différentes caractéristique d'un écoulement (champ de vitesse et pression, etc.). Dans le cadre de cette thèse, nous nous intéressons aux techniques d'assimilation de données qui combinent les modèles numériques avec les observations afin de déterminer une meilleure approximation du système. Cette thèse s'articule autour de l'assimilation de donnée variationnelle (4DVar) qui est plus précise par construction. Nous avons mené une première application sur la reconstruction de la hauteur et vitesse de la surface libre d'un fluide contenu dans un récipient rectangulaire à fond plat. L'écoulement est modélisé par les équations de shallow water et résolues numériquement. Les observations de l'évolution de la hauteur de la surface libre ont été prélevées par un capteur de profondeur (Kinect). Nous avons comparé les résultats de la reconstruction par 4DVar avec plusieurs version de la méthode d'assimilation hybride 4DEnVar. Enfin, nous avons appliqué la technique 4DVar à la reconstruction volumique de l'aval d'un sillage de cylindre à Reynolds 300. L'écoulement turbulent a été simulé par un code DNS parallèle Incompact3D. La reconstruction a été effectué en combinant tout d'abord des observations synthétiques en trois dimension, puis en combinant des observations de plans orthogonales en stéréo PIV
In the one hand, flow dynamics are usually described by the NavierStokes equations and the literature provides a wide range of techniques to solve such equations. On the other hand, we can nowadays measure different characteristics of a flow (velocity, pressure, temperature etc...) with non-intrusive Particle Image Velocimetry techniques. Within this thesis, we take interest in the data assimilation techniques, that combine a dynamics model with measurements to determine a better approximation of the system. This thesis focus on the classic variational assimilation technique (4DVar) which ensures a high accuracy of the solution by construction. We carry out a first application of the 4DVar technique to reconstruct the characteristics (height and velocity field) of a uni directional wave at its free surface. The fluid evolution is simulated by the shallow water equations and solved numerically. We use a simple experimental setup envolving a depth sensor (Kinect sensor) to extract the free surface height. We compared the results of the 4DVar reconstruction with different versions of the hybrid data assimilation technique 4DEnVar. Finally, we apply the 4DVar technique to reconstruct the downstream of a three dimensional cylinder wake at Reynolds 300. The turbulent flow is simulated by the high-performance multi-threading DNS code Incompact3d. This dynamics model is first combined with synthetic three dimensional observations, then with real orthogonal-plane stereo PIV observations to reconstruct the full three dimensional flow
APA, Harvard, Vancouver, ISO, and other styles
39

Trillon, Adrien. "Reconstruction de défauts à partir de données issues de capteurs à courants de Foucault avec modèle direct différentiel." Phd thesis, Ecole centrale de nantes - ECN, 2010. http://tel.archives-ouvertes.fr/tel-00700739.

Full text
Abstract:
La tomographie par courants de Foucault peut être utilisée pour évaluer la forme et le volume de défauts dans des plaques métalliques de générateur de vapeur de centrale nucléaire. L'objectif du travail présenté est de cartographier la distribution d'une grandeur représentative du défaut, ici la conductivité relative. Ce problème est difficile à résoudre car mal-posé et non-linéaire. Afin de le résoudre un modèle numérique est nécessaire. Nos travaux ont tout d'abord consisté à étudier les modèles directs existants pour choisir le plus adapté à notre cas. Il s'est avéré que les méthodes différentielles, différences finies ou éléments finis, étaient les plus adaptées à notre cas. Une fois que le modèle direct a été choisi, nous avons adapté les méthodes de type contrast source inversion (CSI) à ce modèle, puis proposé un nouveau critère à minimiser. Les méthodes de type CSI sont basées sur la minimisation de l'erreur quadratique pondérée des équations du modèle, observation et couplage. Par construction, elles autorisent une erreur sur ces équations. Il apparaît que les résultats de reconstruction s'améliorent lorsque l'erreur sur l'équation de couplage diminue. Afin de contraindre cette équation en évitant des problèmes de conditionnement, on a eu recours à une technique de Lagrangien augmenté. Enfin, le caractère mal-posé de ce problème peut être contourné en introduisant des informations a priori adéquates notamment sur la forme générale des défauts à reconstruire ainsi que sur les valeurs possibles de la conductivité relative. L'efficacité des méthodes développées est illustrée avec des cas simulés en 2D.
APA, Harvard, Vancouver, ISO, and other styles
40

Djiguiba, Antimbé Ousmane. "Segmentation et lissage de données mesurées pour la reconstruction de surfaces en CAO : apport des techniques de subdivision." Valenciennes, 2002. https://ged.uphf.fr/nuxeo/site/esupversions/0fd3487f-e76d-44a0-ac21-d0a9461e62fe.

Full text
Abstract:
La reconstruction de surfaces à partir de données mesurées d'un objet réel vise en CAO la création de modèles continus précis et de bonne qualité géométrique. Cela nécessite des étapes de segmentation et de lissage dont le succès est lié à l'élimination des erreurs et à l'extraction de formes caractéristiques sous-jacentes aux données: zones de courbure extrémale, d'inversion de courbure difficiles à localiser à cause des erreurs de mesure. La thèse traite, la problématique de prétraitement des données et d'extraction d'approximations géométriques continues à l'aide des techniques de subdivision générant des modèles continus à partir de maillages polygonaux. L'idée consiste à supposer que les données discrètes sont issues de la subdivision à l'infini soit d'un polygone (courbes) ou d'un polyèdre (surfaces) initial. Un processus itératif d'inversion des équations et des propriétés de subdivision permet d'obtenir ce polygone ou ce polyèdre. La solution s'inscrit dans le cadre de l'intégration des techniques de multirésolution en CAO
The topic of surfaces reconstruction from measured data obtained by digitising a real part in CAD is to create accurate and good geometric quality continuous models. That needs segmentation and smoothing processes whose success depends on error measurement processing and data underlying features extraction: extremal curvature, curvature changing. The thesis deals with data pre-processing and features extraction as a continuous geometrical data approximation by using subdivision techniques, which generate continuous geometric models from polygonal meshes. The idea is to assume that discrete data are the result of subdivision at infinity from an initial polygon (curve) or an initial polyhedron (surfaces). An iterative inversion process using subdivision equations and properties allows to get this polygon or polyhedron. This solution is defined in a general framework by using multiresolution techniques in CAD
APA, Harvard, Vancouver, ISO, and other styles
41

Carminati, Federico. "Conception, réalisation et exploitation du traitement de données de l’expérience ALICE pour la simulation, la reconstruction et l’analyse." Nantes, 2013. http://archive.bu.univ-nantes.fr/pollux/show.action?id=0ed58585-b62e-40b5-8849-710d1e15c6c2.

Full text
Abstract:
L'expérience ALICE (A Large Ion Collider Experiment) auprès de l'accélérateur LHC (Large Hadron Collider) du CERN (Organisation Européenne pour la Recherche Nucléaire) s'appuie sur un environnement logiciel intégré pour la conception du dispositif expérimental, l'évaluation de ses performances et le traitement des données. Cet environnement a été conçu par Federico Carminati. Il inclut des générateurs d'événements, les algorithmes de transport des particules décrivant de façon détaillée les interactions particule-matière (conçus et réalisés par Federico Carminati), les reconstructions des traces des particules et leur identification, et les analyses finales de physique
The ALICE (A Large Ion Collider Experiment) at the CERN (Conseil Européenne pour la Recherche Nucléaire) LHC (Large Hadron Collider) facility uses an integrated software framework for the design of the experimental apparatus, the evaluation of its performance and the processing of the experimental data. Federico Carminati has designed this framework. It includes the event generators and the algorithms for particle transport describing the details of the interaction particles-matter (designed and implemented by Federico Carminati), the reconstruction of the particle trajectories and the final physics analysis
APA, Harvard, Vancouver, ISO, and other styles
42

Rekik, Wafa. "Fusion de données temporelles, ou 2D+t, et spatiales, ou 3D, pour la reconstruction de scènes 3D+t et traitement d'images sphériques : applications à la biologie cellulaire." Paris 6, 2007. http://www.theses.fr/2007PA066655.

Full text
Abstract:
Dans certaines applications en vision, nous disposons de données volumiques (3D) et des séquences planaires (2D+t). Les données 3D définissent la géométrie en trois dimensions de la scène observée. Elles comportent donc des informations purement spatiales. Les séquences 2D+t sont porteuses d'informations temporelles et partiellement spatiales puisqu'elles décrivent en deux dimensions la dynamique des objets en mouvement. La fusion de ces données permet de restituer une séquence volumique (3D+t) de la scène filmée. Ces travaux s'articulent en deux volets. Le premier volet concerne une étude méthodologique de la reconstruction 3D+t par compensation du mouvent. Nous proposons deux familles d'approches : avec ou sans modèle a priori sur les structures observées dans les données. Le modèle a priori étudiée concernent des objets de géométrie sphérique. Le second volet décrit le traitement d'image multi-dimensionnels (2D, 3D, 2D+t, 3D+t) toujours dans le contexte de forme sphérique. Nous proposons alors diverses applications comme le suivi temporel sur les séquences 2D+t, la visualisation, la segmentation des données 2D ou 3D,. . . Une application possible est donnée en imagerie biologique dans le cadre de la simulation de parois cellulaires, contexte dans lequel nous observons dans diverses modalités des objets sphéroïdes.
APA, Harvard, Vancouver, ISO, and other styles
43

Pestel, Valentin. "Détection de neutrinos auprès du réacteur BR2 : analyse des premières données de l'expérience SoLid." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC238.

Full text
Abstract:
L'expérience SoLid (Search for Oscillations with a Lithium-6 detector) mesure le flux d'anti-neutrino à proximité d'un réacteur de recherche (BR2, SCK-CEN, Belgique). Le premier objectif est de sonder l'anomalie "réacteur" et de tester l'hypothèse de l'existence de neutrino(s) stérile(s) "léger(s)" (Delta m2~1eV2). En second lieu, la mesure du spectre en énergie des neutrinos induit par la fission de l'uranium 235 offrira de nouvelles contraintes. Le détecteur d'une masse de 1,6 tonne, segmenté en 12800 cubes de détection de 5x5x5 cm3, repose sur une nouvelle technologie basée sur l'utilisation de deux scintillateurs (PVT et ZnS) luent par des MPPCs.Après une mise en contexte de l'expérience et une description détaillée du détecteur, ce manuscrit décrit la procédure mise en place pour caractériser ce dernier lors de sa construction. La reconstruction des données et l'identification des interactions seront ensuite présentées. La partie suivante décrit les procédures de calibration du détecteur, se focalisant tout particulièrement sur l'évaluation de l'efficacité de détection neutron. Enfin sera décrit une première analyse permettant de valider la compréhension du bruit de fond et d'extraire le signal anti-neutrino
SoLid (Search for Oscillations with a Lithium-6 detector) is a very short baseline (≺10 m) "reactor anti-neutrino" experiment which takes data at the BR2 nuclear reactor (SCK-CEN, Belgium). The first goal is to probe the "reactor" anomaly and to test the hypothesis of the existence of "light" sterile neutrino(s) (Delta m2 ~ 1eV2). Secondarily, the measurement of the neutrino energy spectrum induced by the fission of 235U will provide new constraints. The 1.6 ton detector, segmented into 12800 detection cells of 5x5x5 cm3, is based on a new technology using two scintillators (PVT and ZnS) read by MPPCs. After contextualizing the experiment and describing the detector, this manuscript describes the procedure to characterize the detector during its construction.Than, data reconstruction and events identification will be presented. The following part describes the calibration procedures, focusing on the evaluation of neutron detection efficiency. Finally, a first analysis will validate the understanding of backgrounds and will extract the anti-neutrino signal
APA, Harvard, Vancouver, ISO, and other styles
44

Verdie, Yannick. "Modélisation de scènes urbaines à partir de données aériennes." Thesis, Nice, 2013. http://www.theses.fr/2013NICE4078.

Full text
Abstract:
L'analyse et la reconstruction automatique de scène urbaine 3D est un problème fondamental dans le domaine de la vision par ordinateur et du traitement numérique de la géométrie. Cette thèse présente des méthodologies pour résoudre le problème complexe de la reconstruction d'éléments urbains en 3D à partir de données aériennes Lidar ou bien de maillages générés par imagerie Multi-View Stereo (MVS). Nos approches génèrent une représentation précise et compacte sous la forme d'un maillage 3D comportant une sémantique de l'espace urbain. Deux étapes sont nécessaires ; une identification des différents éléments de la scène urbaine, et une modélisation des éléments sous la forme d'un maillage 3D. Le Chapitre 2 présente deux méthodes de classifications des éléments urbains en classes d'intérêts permettant d'obtenir une compréhension approfondie de la scène urbaine, et d'élaborer différentes stratégies de reconstruction suivant le type d'éléments urbains. Cette idée, consistant à insérer à la fois une information sémantique et géométrique dans les scènes urbaines, est présentée en détails et validée à travers des expériences. Le Chapitre 3 présente une approche pour détecter la 'Végétation' incluses dans des données Lidar reposant sur les processus ponctuels marqués, combinée avec une nouvelle méthode d'optimisation. Le Chapitre 4 décrit à la fois une approche de maillage 3D pour les 'Bâtiments' à partir de données Lidar et de données MVS. Des expériences sur des structures urbaines larges et complexes montrent les bonnes performances de nos systèmes
Analysis and 3D reconstruction of urban scenes from physical measurements is a fundamental problem in computer vision and geometry processing. Within the last decades, an important demand arises for automatic methods generating urban scenes representations. This thesis investigates the design of pipelines for solving the complex problem of reconstructing 3D urban elements from either aerial Lidar data or Multi-View Stereo (MVS) meshes. Our approaches generate accurate and compact mesh representations enriched with urban-related semantic labeling.In urban scene reconstruction, two important steps are necessary: an identification of the different elements of the scenes, and a representation of these elements with 3D meshes. Chapter 2 presents two classification methods which yield to a segmentation of the scene into semantic classes of interests. The beneath is twofold. First, this brings awareness of the scene for better understanding. Second, deferent reconstruction strategies are adopted for each type of urban elements. Our idea of inserting both semantical and structural information within urban scenes is discussed and validated through experiments. In Chapter 3, a top-down approach to detect 'Vegetation' elements from Lidar data is proposed using Marked Point Processes and a novel optimization method. In Chapter 4, bottom-up approaches are presented reconstructing 'Building' elements from Lidar data and from MVS meshes. Experiments on complex urban structures illustrate the robustness and scalability of our systems
APA, Harvard, Vancouver, ISO, and other styles
45

Boulch, Alexandre. "Reconstruction automatique de maquettes numériques 3D." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1099/document.

Full text
Abstract:
La maquette numérique de bâtiment est un outil nouveau et en plein essor dans les métiers de la construction. Elle centralise les informations et facilite la communication entre les acteurs : évaluation des coûts, simulations physiques, présentations virtuelles, suivis de travaux, etc. Si une maquette numérique est désormais utilisée pour les grands chantiers de bâtiments nouveaux, il n'en existe pas en revanche pour la plupart des bâtiments déjà construits. Or, avec le vieillissement du parc immobilier et le développement du marché de la rénovation, la maquette numérique serait une aide considérable pour des bâtiments anciens. Des techniques de reconstruction plus ou moins automatique ont été développées ces dernières années, à base de mesures laser ou de photogrammétrie. Les lasers, précis et denses, sont chers mais restent abordables pour les industriels, tandis que la photogrammétrie, souvent moins précise et moins fiable dans les zones uniformes (p.ex. les murs), est beaucoup plus bon marché. Mais la plupart des approches s'arrêtent à la reconstruction de surfaces, sans produire de maquettes numériques. À la géométrie doit cependant s'ajouter des informations sémantiques décrivant les éléments de la scène. L'objectif de cette thèse est de fournir un cadre de reconstruction de maquettes numériques, à la fois en ce qui concerne la géométrie et la sémantique, à partir de nuages de points. Pour cela, plusieurs étapes sont proposées. Elles s'inscrivent dans un processus d'enrichissement des données, depuis les points jusqu'à la maquette numérique finale. Dans un premier temps, un estimateur de normales pour les nuages de points est défini. Basé sur une transformée de Hough robuste, il permet de retrouver correctement les normales, y compris dans les zones anguleuses et s'adapte à l'anisotropie des données. Dans un second temps, des primitives géométriques sont extraites du nuage de points avec leur normales. Afin d'identifier les primitives identiques existantes en cas de sur-segmentation, nous développons un critère statistique robuste et général pour l'identification de formes, ne requérant qu'une fonction distance entre points et formes. Ensuite, une surface planaire par morceaux est reconstruite. Des hypothèses de plans pour les zones visibles et les parties cachées sont générées et insérées dans un arrangement. La surface est extraite avec une nouvelle régularisation sur le nombre de coins et la longueur des arêtes. L'utilisation d'une formulation linéaire permet, après relaxation continue, d'extraire efficacement une surface proche de l'optimum. Enfin, nous proposons une approche basée sur des grammaires attribuées avec contraintes pour l'enrichissement sémantique de modèles 3D. Cette méthode est bottom-up : nous partons des données pour construire des objets de complexité croissante. La possible explosion combinatoire est gérée efficacement via l'introduction d'opérateurs maximaux et d'un ordre pour l'instanciation des variables
The interest for digital models in the building industry is growing rapidly. These centralize all the information concerning the building and facilitate communication between the players of construction : cost evaluation, physical simulations, virtual presentations, building lifecycle management, site supervision, etc. Although building models now tend to be used for large projects of new constructions, there is no such models for existing building. In particular, old buildings do not enjoy digital 3D model and information whereas they would benefit the most from them, e.g., to plan cost-effective renovation that achieves good thermal performance. Such 3D models are reconstructed from the real building. Lately a number of automatic reconstruction methods have been developed either from laser or photogrammetric data. Lasers are precise and produce dense point clouds. Their price have greatly reduced in the past few years, making them affordable for industries. Photogrammetry, often less precise and failing in uniform regions (e.g. bare walls), is a lot cheaper than the lasers. However most approaches only reconstruct a surface from point clouds, not a semantically rich building model. A building information model is the alliance of a geometry and a semantics for the scene elements. The main objective of this thesis is to define a framework for digital model production regarding both geometry and semantic, using point clouds as an entry. The reconstruction process is divided in four parts, gradually enriching information, from the points to the final digital mockup. First, we define a normal estimator for unstructured point clouds based on a robust Hough transform. It allows to estimate accurate normals, even near sharp edges and corners, and deals with the anisotropy inherent to laser scans. Then, primitives such as planes are extracted from the point cloud. To avoid over-segmentation issues, we develop a general and robust statistical criterion for shape merging. It only requires a distance function from points to shapes. A piecewise-planar surface is then reconstructed. Planes hypothesis for visible and hidden parts of the scene are inserted in a 3D plane arrangement. Cells of the arrangement are labelled full or empty using a new regularization on corner count and edge length. A linear formulation allow us to efficiently solve this labelling problem with a continuous relaxation. Finally, we propose an approach based on constrained attribute grammars for 3D model semantization. This method is entirely bottom-up. We prevent the possible combinatorial explosion by introducing maximal operators and an order on variable instantiation
APA, Harvard, Vancouver, ISO, and other styles
46

Pires, Sandrine. "Application des méthodes multi-échelles aux effets de lentille gravitationnelles faibles : reconstruction et analyse des cartes de matière noire." Paris 11, 2008. http://www.theses.fr/2008PA112256.

Full text
Abstract:
La cosmologie moderne qui étudie l’Univers de manière scientifique repose sur l’existence d’un modèle qui cherche à décrire la géométrie et la dynamique de l’Univers. Ces dernières décennies, les observations ont montré que notre Univers était dominé par la présence de matière noire et d’énergie noire dont on ne connait pas la nature. L’effet de lentille gravitationnelle faible qui est directement sensible au potentiel gravitationnel est un des meilleurs outils disponibles actuellement pour cartographier la distribution de la matière noire et imposer des contraintes sur le modèle cosmologique. Un grand nombre de relevés dédiés à la mesure du cisaillement gravitationnel, de plus en plus grands et de plus en plus précis, sont déjà prévus afin de répondre à la question de la nature de la matière noire et on espère également aborder le problème de l’énergie noire. Pour cela, un effort considérable est nécessaire pour améliorer les techniques d’analyses existantes. Dans cette thèse, afin d’améliorer le traitement de ces données, nous proposons d’utiliser de nouvelles méthodes d’analyse : les méthodes multi-échelles, qui permettent de transformer le signal sous une forme permettant de mieux analyser. Nous nous sommes intéressés aux aspects de reconstruction et d’analyse des cartes de matière noire. Tout d’abord, nous proposons une méthode innovante qui permet de gérer les problèmes occasionnés par la présence de données manquantes. Ensuite, nous proposons une nouvelle méthode de filtrage qui permet de reconstruire la distribution de matière noire avec plus de précision. Enfin, nous introduisons une nouvelle statistique qui permet d’augmenter nos contraintes sur le modèle cosmologique
Modern cosmology refers to the physical study of Universe and is based on a cosmological model that deals with the structure of the Universe, its origins and its evolution. Over the last decades, observations have provide evidence for both dark matter dark energy. Universe has been found to be dominated by these two components whose composition remains a mystery. Weak gravitational lensing provides a direct way to probe dark matter can be used to map the dark matter distribution. Furthermore, weak lensing effect is believed to be the more promising tool to understand the nature of dark matter and dark energy and then to constrain the cosmological model. New weak lensing surveys, more and more accurate, are already planned that will cover a large fraction of the sky. But a significant effort should be done to improve the current analyses. In this thesis, in order to improve the weak lensing data processing, we suggest to use new methods of analysis: the multiscale methods, that make it possible to transform a signal in a way that facilitates its analysis. We have been interested in the reconstruction and analysis of the dark matter mass map. First, we have developed a new method to deal with the missing data. Second, we have suggested a new filtering method that makes the dark matter mass map reconstruction better. Last, we have introduced a new statistic to set tighter constraints in the cosmological model
APA, Harvard, Vancouver, ISO, and other styles
47

MOUCHE, Fabrice. "Etude structurale de macromolécules biologiques par cryomicroscopie électronique, reconstruction tridimensionnelle et recalage de données de cristallographie aux rayons X." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2001. http://tel.archives-ouvertes.fr/tel-00006224.

Full text
Abstract:
Parmi les disciplines représentatives de la biostructure, la cryomicroscopie électronique permet, au travers de techniques adaptées, d'atteindre de hautes résolutions. Mon travail a porté sur l'étude d'une catégorie de molécules, les particules isolées à faible degré de symétrie et entre autres sur les pigments respiratoires extracellulaires tels que les hémocyanines de céphalopodes (Vampyroteuthis infernalis, Benthoctopus species, Sepia officinalis) et une hémoglobine d'annélide (Lumbricus terrestris). Une approche empirique a été retenue, et nous a permis de différencier les informations techniques et les données biologiques. Le premier but, basé sur l'utilisation d'un matériel biologique connu, était de travailler sur les techniques d'observation de l'échantillon, d'analyse des images, de reconstruction et de correction des structures. Le deuxième but était d'apporter des réponses de type biologique, par le biais de ces améliorations techniques. Le début de ma thèse fut lié à l'utilisation d'un microscope équipé d'un cristal de LaB6, ne permettant pas de descendre significativement sous la barre des 20 Å. Néanmoins, il nous a permis de répondre à une question de type phylogénétique (Benthoctopus species et Vampyroteuthis infernalis appartiennent à des ordres frères), et de démontrer l'importance du type de microscope et de la source électronique associée. Naturellement, l'étape suivante fut d'accéder à un microscope équipé d'un canon à émission de champ. L'accès sporadique et sur de courtes périodes à ce type de microscope, dont les premiers exemplaires sont arrivés en France en 2000, ne m'ont pas permis de tester systématiquement tous les modes d'utilisation. Malgré tout, les résultats que nous avons obtenu ont validé les avantages de l'émission de champ. Certes, la barre des 6-7 Å de résolution, donnant partiellement accès aux informations relatives à la structure secondaire des protéines, n'a pas encore été atteinte, mais il apparaît que les progrès que nous avons effectués tendent vers cette valeur. Cette progression repose en partie sur l'amélioration des méthodes de collecte des images, de reconstruction et de correction de la fonction de transfert de contraste.
APA, Harvard, Vancouver, ISO, and other styles
48

Veron, Didier. "Utilisation des FADC pour la reconstruction et l'analyse des données de bruit de fond dans l'expérience neutrino de Chooz." Lyon 1, 1997. http://www.theses.fr/1997LYO10074.

Full text
Abstract:
Cette these presente un travail effectue dans le cadre de l'experience de chooz, qui recherche des oscillations de neutrinos a 1 km de deux reacteurs nucleaires. Les anti-neutrinos emis par les reacteurs sont detectes grace au positron et au neutron produits par la reaction de desintegration beta-inverse. Le neutron est observe par sa capture sur des atomes de gadolinium. Celle-ci libere en moyenne 8 mev sous forme de gammas. Une premiere partie a consiste a etudier la reconstruction du point d'interaction des evenements en utilisant le programme de simulation geant. Nous avons montre, par exemple, que des precisions de 10 cm sur le positron et de 20 cm sur le neutron etaient possibles. Puis, une analyse des donnees de calibration du detecteur, enregistrees par des flash adc, a ete menee. Cela nous a permis de verifier le bon accord des donnees et du monte-carlo, notamment sur la precision de la reconstruction, mais aussi sur deux des parametres de l'experience que sont le temps de capture moyen du neutron sur le gadolinium et la probabilite de cette capture. Enfin, une etude du bruit de fond, reacteurs arretes, a ete effectuee. Pour ce faire, nous avons choisi des coupures hors lignes, l'une d'entre elles utilise les algorithmes de localisation. Ces coupures ont ete validees grace a une source de californium mais aussi par un ensemble de neutrons cosmiques. Le bruit de fond ainsi obtenu est de 2 a 3 evenements par jour, il est donc pres de 10 fois inferieur au signal attendu. Dans cette meme analyse, nous avons tente d'expliquer la nature de ce bruit en donnant des taux de composante fortuite et correlee.
APA, Harvard, Vancouver, ISO, and other styles
49

Martin, Matthieu. "Reconstruction 3D de données échographiques du cerveau du prématuré et segmentation des ventricules cérébraux et thalami par apprentissage supervisé." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI118.

Full text
Abstract:
Environ 15 millions d’enfants naissent prématurément chaque année dans le monde. Ces patients peuvent présenter des anomalies du développement cérébral qui peuvent causer des troubles du neuro-développement : paralysie cérébrale, surdité, cécité, retard du développement intellectuel, … Des études ont montrées que la quantification du volume des structures cérébrales est un bon indicateur qui permet de réduire ces risques et de les pronostiquer pour orienter les patients dans des parcours de soins adaptés pendant l’enfance. Cette thèse a pour objectif de montrer que l’échographie 3D pourrait être une alternative à l’IRM qui permettrait de quantifier le volume des structures cérébrales chez 100 % des prématurés. Ce travail se focalise plus particulièrement sur la segmentation des ventricules latéraux (VL) et des Thalami, il apporte trois contributions principales : le développement d’un algorithme de création de données échographiques 3D à partir d’échographie transfontanellaire 2D du cerveau du prématuré, la segmentation des ventricules latéraux et des thalami dans un temps clinique et l’apprentissage par des réseaux de neurones convolutionnels (CNN) de la position anatomique des ventricules latéraux. En outre, nous avons créé plusieurs bases de données annotées en partenariat avec le CH d’Avignon. L’algorithme de création de données échographiques 3D a été validé in-vivo où une précision de 0.69 ± 0.14 mm a été obtenue sur le corps calleux. Les VL et les thalami ont été segmentés par apprentissage profond avec l’architecture V-net. Les segmentations ont été réalisées en quelques secondes par ce CNN et des Dice respectifs de 0.828 ± 0.044 et de 0.891 ± 0.016 ont été obtenus. L’apprentissage de la position anatomique des VL a été réalisée via un CPPN (Compositional Pattern Producing Network), elle a permis d’améliorer significativement la précision de V-net lorsqu’il était composé de peu de couches, faisant passer le Dice de 0.524 ± 0.076 à 0.724 ± 0.107 dans le cas d’un réseau V-net à 7 couches. Cette thèse montre qu’il est possible de segmenter automatiquement, avec précision et dans un temps clinique, des structures cérébrales de l’enfant prématuré dans des données échographiques 3D. Cela montre qu’une échographie 3D de haute qualité pourrait être utilisée en routine clinique pour quantifier le volume des structures cérébrales et ouvre la voie aux études d’évaluation de son bénéfice pour les patients
About 15 million children are born prematurely each year worldwide. These patients are likely to suffer from brain abnormalities that can cause neurodevelopmental disorders: cerebral palsy, deafness, blindness, intellectual development delay, … Studies have shown that the volume of brain structures is a good indicator which enables to reduce and predict these risks in order to guide patients through appropriate care pathways during childhood. This thesis aims to show that 3D ultrasound could be an alternative to MRI that would enable to quantify the volume of brain structures in all premature infants. This work focuses more particularly on the segmentation of the lateral ventricles (VL) and thalami. Its four main contributions are: the development of an algorithm which enables to create 3D ultrasound data from 2D transfontanellar ultrasound of the premature brain, the segmentation of thigh quality he lateral ventricles and thalami in clinical time and the learning by a convolutional neural networks (CNN) of the anatomical position of the lateral ventricles. In addition, we have created several annotated databases in partnership with the CH of Avignon. Our reconstruction algorithm was used to reconstruct 25 high-quality ultrasound volumes. It was validated in-vivo where an accuracy 0.69 ± 0.14 mm was obtained on the corpus callosum. The best segmentation results were obtained with the V-net, a 3D CNN, which segmented the CVS and the thalami with respective Dice of 0.828± 0.044 and 0.891±0.016 in a few seconds. Learning the anatomical position of the CVS was achieved by integrating a CPPN (Compositional Pattern Producing Network) into the CNNs. It significantly improved the accuracy of CNNs when they had few layers. For example, in the case of the 7-layer V-net network, the Dice has increased from 0.524± 0.076 to 0.724±0.107. This thesis shows that it is possible to automatically segment brain structures of the premature infant into 3D ultrasound data with precision and in a clinical time. This proves that high quality 3D ultrasound could be used in clinical routine to quantify the volume of brain structures and paves the way for studies to evaluate its benefit to patients
APA, Harvard, Vancouver, ISO, and other styles
50

El, hayek Nadim. "Contribution à la reconstruction de surfaces complexes à partir d'un grand flot de données non organisées pour la métrologie 3D." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0055/document.

Full text
Abstract:
Les surfaces complexes ont des applications dans divers domaines tels que ceux de la photonique, de l'énergie, du biomédical, du transport... Par contre, elles posent de véritables défis quant à leur spécification, fabrication et mesure ainsi que lors de l'évaluation de leur défaut de forme. Les processus de fabrication et de mesure de surfaces complexes sont fortement tributaires des dimensions, des tolérances et des formes spécifiées. Afin de rendre exploitable les informations données par le système de mesure, une étape importante de traitement s'impose. Il s'agit ici de la reconstruction de surfaces afin de reconstituer la géométrie et la topologie de la surface sous-jacente et d'en extraire les informations nécessaires pour des besoins de métrologie dimensionnelle (caractéristiques dimensionnelles et évaluation des défauts de forme). Dans la catégorie des surfaces asphériques pour lesquelles un modèle mathématique est associé, le processus de traitement de données géométriques, non nécessairement organisées, se fait par l'association du modèle aux données. Les résidus d'association recherchés en optique sont typiquement de l'ordre du nanomètre. Dans ce cadre, nous proposons l'utilisation de l'algorithme L-BFGS qui n'a encore jamais été utilisé en métrologie. Ce dernier permet de résoudre des problèmes d'optimisation non-linéaires, sans contraintes et d'une manière robuste, automatique et rapide. La méthode L-BFGS reste efficace pour des données contenant plusieurs millions de points. Dans la catégorie des surfaces gauches et notamment des aubes de turbines, la fabrication, la mesure et le traitement sont à une toute autre échelle, sub-micrométrique. Les surfaces gauches ne sont généralement pas définies par un modèle mathématique mais sont représentées par des modèles paramétriques de type B-Spline et/ou NURBS. Dans ce cadre, nous exposons un état de l'art détaillé et proposons une nouvelle approche itérative d'association B-Spline. L'algorithme s'affranchit de tous les problèmes liés à l'initialisation et au paramétrage initial. Par conséquent, un tel algorithme constitue une nouveauté dans ce domaine. Nous établissons une étude approfondie en évoquant les avantages et les limites actuelles de cette approche sur des exemples de courbes fermées en 2D. Nous complétons ensuite cette étude par des perspectives d'amélioration et de généralisation aux surfaces en 3D
Complex surfaces exhibit real challenges in regard to their design specification, their manufacturing, their measurement and the evaluation of their manufacturing defects. They are classified according to their geometric/shape complexity as well as to their required tolerance. Thus, the manufacturing and measurement processes used are selected accordingly. In order to transcribe significant information from the measured data, a data processing scheme is essential. Here, processing involves surface reconstruction in the aim of reconstituting the underlying geometry and topology to the points and extracting the necessary metrological information (form and/or dimensional errors). For the category of aspherical surfaces, where a mathematical model is available, the processing of the data, which are not necessarily organized, is done by fitting/associating the aspherical model to the data. The sought precision in optics is typically nanometric. In this context, we propose the L-BFGS optimization algorithm, first time used in metrological applications and which allows solving unconstrained, non-linear optimization problems precisely, automatically and fast. The L-BFGS method remains efficient and performs well even in the presence of very large amounts of data.In the category of general freeform surfaces and particularly turbine blades, the manufacturing, measurement and data processing are all at a different scale and require sub-micrometric precision. Freeform surfaces are generally not defined by a mathematical formula but are rather represented using parametric models such as B-Splines and NURBS. We expose a detailed state-of-the-art review of existing reconstruction algorithms in this field and then propose a new active contour deformation of B-Splines approach. The algorithm is independent of problems related to initialization and initial parameterization. Consequently, it is a new algorithm with promising results. We then establish a thorough study and a series of tests to show the advantages and limitations of our approach on examples of closed curves in the plane. We conclude the study with perspectives regarding improvements of the method and its extension to surfaces in 3D
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!