Academic literature on the topic 'Haute précision'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Haute précision.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Haute précision"

1

Van-Wierts, Stéfanie, Pascal Bernatchez, and Christian Larouche. "Suivi topographique côtier au moyen d’un système LiDAR mobile terrestre : exemple d’une recharge sédimentaire de plage." GEOMATICA 71, no. 4 (2017): 194–212. http://dx.doi.org/10.5623/cig2017-402.

Full text
Abstract:
L’évolution côtière est complexe, notamment par la migration de la ligne de rivage et l’apparition successive de zones d’érosion ou d’accumulation. Les suivis quantitatifs des systèmes côtiers sont largement utilisés afin de comprendre leurs évolutions temporelle et spatiale. Plusieurs méthodes d’acquisition topographiques ont été utilisées (GNSS RTK, LiDAR aéroporté et LiDAR terrestre statique ou mobile) où chaque méthode présente des avantages et des inconvénients lors de suivis d’environnements côtiers. L’objectif de cet article est de quantifier la précision d’un système LiDAR mobile (SLM) terrestre et d’évaluer s’il peut répondre aux principaux défis des levés topographiques en milieu côtier qui consistent à réaliser des levés à une haute résolution temporelle, à moindre coût, tout en assurant une bonne précision altimétrique et une bonne résolution spatiale. Les résultats montrent que la résolution spatiale est centimétrique et que la précision altimétrique est de 0,039 m (RMS calculé sur 124 points de contrôle). La haute précision altimétrique et la haute résolution spatiale permettent de maximiser la précision des calculs de volume sédimentaire et ainsi diminuer les coûts associés à l’erreur de calcul, notamment lors de projets de recharge sédimentaire de plage. Cela permet aussi d’assurer le positionnement exact de limites marégraphiques et géomorphologiques. En comparaison à des profils topographiques obtenus par méthodes clas siques, la forte densité des nuages de points observés avec un SLM permet de cartographier des formes morphologiques de faible amplitude diminuant ainsi l’erreur due à l’interpolation.
APA, Harvard, Vancouver, ISO, and other styles
2

Peignaux, K., G. Créhange, G. Truc, I. Barillot, S. Naudy, and P. Maingon. "Radiothérapie de haute précision guidée par échographie." Cancer/Radiothérapie 10, no. 5 (2006): 231–34. http://dx.doi.org/10.1016/j.canrad.2006.06.005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Hassnaoui, Yonas. "Les codes de calcul de haute précision : quand le nucléaire met au pot commun." Revue Générale Nucléaire, no. 6 (November 2020): 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Full text
Abstract:
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
APA, Harvard, Vancouver, ISO, and other styles
4

Jouglar, E., and I. Barillot. "Référentiels et techniques d’irradiation de haute précision : cancer de l’endomètre." Cancer/Radiothérapie 18, no. 5-6 (2014): 495–500. http://dx.doi.org/10.1016/j.canrad.2014.06.011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Bouyer, Philippe. ". Mesurer l’accélération avec des ondes de matière : de la gravimétrie à la navigation." Photoniques, no. 88 (September 2017): 42–44. http://dx.doi.org/10.1051/photon/20178842.

Full text
Abstract:
Refroidis proche du zéro absolu, les atomes se comportent non plus comme des particules, mais comme des ondes de matière dont la propagation peut conduire à des phénomènes d'interférence. Ces interférences peuvent être exploitées pour mesurer l’accélération avec une très haute précision. Les capteurs inertiels quantiques qui en découlent sont aujourd’hui des dispositifs prometteurs de nombreuses applications comme le guidage et la navigation, ou la gravimétrie ultra-précise.
APA, Harvard, Vancouver, ISO, and other styles
6

Renaud, Jean-Pierre. "APPORT DE MODELES NUMERIQUES DE HAUTEUR A L’AMELIORATION DE LA PRECISION D’INVENTAIRES STATISTIQUES FORESTIERS." Revue Française de Photogrammétrie et de Télédétection 1, no. 211-212 (2020): 43–51. http://dx.doi.org/10.52638/rfpt.2015.540.

Full text
Abstract:
Les besoins d’informations concernant la ressource forestière ne cessent de croître avec d’importantes exigences de précision, de résolutions spatiales, et de réduction de coûts. Ainsi, l’innovation en matière d’inventaires forestiers représente un domaine en constante évolution. Dans cette étude, nous avons évalué l’apport de modèles numériques de hauteur (MNH) comme sources de données auxiliaires en post-stratification afin d’améliorer la précision des estimations d’inventaires. Deux zones d’études ont été sélectionnées. La première zone couvre le département de la Nièvre, où une campagne récente de prises de vues aériennes (hiver 2011) a été utilisée pour générer un MNH. La seconde zone couvre les Vosges Haut-Rhinoises, où un vol LiDAR (1360 km², au printemps 2011) permettait également de calculer un MNH de haute qualité. D’autres couches d’informations telles que les grandes régions écologiques, les sylvoécorégions et les cartes forestières de composition produites par l’IGN ont également été testées comme variables auxiliaires. Les résultats obtenus montrent que pour l’estimation de deux paramètres forestiers majeurs (i.e. la superficie forestière et levolume), une efficacité relative d’un facteur variant de 1 à 8 est atteignable en utilisant les MNH ou la carte de composition forestière. Cette efficacité peut être interprétée comme le facteur, par lequel la taille d’un échantillon d’inventaire devrait être multipliée pour obtenir la même précision sans utiliser la variable auxiliaire considérée. Cette efficacité varie cependant en fonction des zones étudiées et de la qualité des données d’entrée. Dans un département composé majoritairement de forêts feuillues comme la Nièvre, les prises de vue hivernales n’ont pas permis d’obtenir un MNH de qualité, rendant impossible la quantification de l’apport véritable du MNH photogrammétrique. Par contre, sur des sections de forêts composées uniquement de conifères, ce même MNH a permis d’obtenir une efficacité relative de 1.2 à 1.7 pour l’estimation des volumes. Dans les Vosges Haut-Rhinoises, le MNH LiDAR a permis une amélioration de l’efficacité relative d’un facteur 1.8 sur l’estimation des volumes. De façon générale, les données auxiliaires testées améliorent la précision des estimations d’inventaires, d’autant plus qu’elles sont de bonne qualité et corrélées aux paramètres d’intérêt sur les zones considérées. Les MNH sont donc une source d’optimisation possible des inventaires qui doivent certainement être considérés avec attention.
APA, Harvard, Vancouver, ISO, and other styles
7

Vaudour, Emmanuelle, Paul-Emile Noirot-Cosson, and Olivier Membrive. "Apport des images satellitaires de très haute résolution spatiale Pléiades à la caractérisation des cultures et des opérations culturales en début de saison." Revue Française de Photogrammétrie et de Télédétection, no. 208 (September 5, 2014): 97–103. http://dx.doi.org/10.52638/rfpt.2014.106.

Full text
Abstract:
Cette étude s'inscrit dans des programmes de recherche visant à surveiller spatialement l'effet des apports de produits résiduaires organiques sur les stocks de carbone des sols, et nécessitant pour cela le recueil de données spatialisées sur les systèmes de culture. L'objectif de cette étude est celui d'évaluer, au niveau d'organisation spatiale des parcelles culturales, l'apport des images satellitaires de Très Haute Résolution Spatiale (THRS) Pléiades à l'identification des cultures à des stades de développement précoce d'une part, à la détection des changements d'état de surface des sols nus liés aux opérations culturales, d'autre part. La région d'étude, vaste d'environ 4000 ha, dont 2100 ha de surface agricole utile, est située à l'ouest du territoire périurbain francilien de la Plaine de Versailles et du Plateau des Alluets (PVPA) (Yvelines). Environ 100 parcelles culturales ont fait l'objet d'observations de terrain synchrones des prises de vue des deux images Pléiades acquises les 3 et 24 avril 2013 et d'une image SPOT4 acquise le 2 avril 2013. La structuration géomatique de ces données acquises sur le terrain a servi à délimiter des zones susceptibles de servir à l'entraînement ou la validation des résultats de classification assistée par machine à support de vecteurs à noyau polynomial (pSVM). La classification pSVM a été mise en œuvre sur les 4 bandes spectrales assorties du NDVI pour les images monodates, et pour les 8 bandes spectrales assorties de 2 bandes NDVI pour l'image bi-temporelle Pléiades. Pour les classifications monodates des cultures, la précision totale atteint 87% pour l'image SPOT4 du 2 avril (6 classes), 79% pour l'image Pléiades du 3 avril (6 classes) et 85% pour celle du 24 avril (7 classes). Pour la classification bitemporelle (7 classes), la précision totale est de près de 80%, avec des cultures d'hiver très bien discriminées tandis que les confusions opèrent entre l'orge de printemps aux stades 2-3 feuilles et les sols nus préparés pour les autres cultures de printemps. A la date la plus précoce (2-3 avril), l'image Pléiades discrimine bien les opérations culturales (précisions utilisateur et producteur >77%), les jachères et les prairies et renseigne sur l'hétérogénéité spatiale des stades de développement des cultures, tandis que les céréales d'hiver et le colza sont mieux détectés sur l'image SPOT4 (précisions utilisateur et producteur >70%). Les images Pléiades apportent donc des informations complémentaires à celles des images multispectrales de haute résolution spatiale.
APA, Harvard, Vancouver, ISO, and other styles
8

Cladé, Pierre, and Lucile Julien. "Les mesures atomiques de haute précision. Un outil privilégié pour tester l’électrodynamique quantique." Reflets de la physique, no. 59 (September 2018): 4–9. http://dx.doi.org/10.1051/refdp/201859004.

Full text
Abstract:
À la fin des années 1940, l'étude des niveaux d'énergie de l'atome d'hydrogène et celle de l'anomalie du rapport gyromagnétique de l'électron ont été à l'origine de l'électrodynamique quantique. Aujourd'hui encore, les mesures réalisées dans les systèmes atomiques simples, telles que celles que nous menons au laboratoire Kastler Brossel, permettent de tester les prédictions de cette théorie à un niveau de précision extrême qui, à ce jour, n'a pas réussi à la mettre en défaut.
APA, Harvard, Vancouver, ISO, and other styles
9

Solignac, Marie. "Vers une précision « haute fidélité » de l’autosurveillance glycémique: Contour®XT – Contour®Next." Médecine des Maladies Métaboliques 6, no. 4 (2012): 368. http://dx.doi.org/10.1016/s1957-2557(12)70436-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Gamraoui, S., G. Mathey, M. Debouverie, et al. "Haute précision de l’analyse des immunoglobulines G pour le diagnostic de sclérose en plaques." Revue d'Épidémiologie et de Santé Publique 65, no. 1 (2017): 86. http://dx.doi.org/10.1016/j.respe.2016.12.016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Haute précision"

1

Le, Poncin-Lafitte Christophe. "Effets relativistes en astrométrie de haute précision." Observatoire de Paris (1667-....), 2006. https://hal.science/tel-02071410.

Full text
Abstract:
Cette thèse présente une étude détaillée de la distance angulaire en astrométrie relativiste de haute précision, c'est-à-dire comment définir et calculer dans un espace-temps courbe l'angle, formé par deux sources lumineuses distinctes, tel qu'il est mesuré par un observateur en mouvement arbitraire. Tout d'abord, dans la première partie de ce travail, nous rappelons la définition d'une distance angulaire puis nous montrons qu'il est seulement nécessaire de connaître explicitement trois quantités au point d'observation : le tenseur métrique, le mouvement de l'observateur et trois rapports l̂i relatifs à la déviation des rayons lumineux. Nous construisons ensuite les outils permettant de déterminer ces rapports d'une part en utilisant la fonction d'univers de Synge, d'autre part en introduisant deux fonctions de transfert de temps. Dans la seconde partie de ce travail, nous nous intéressons à l'approximation post-newtonienne. Nous déterminons les expressions explicites de la fonction d'univers et des fonctions de transfert de temps dans le cadre du formalisme post-newtonien paramétré de Will &amp; Nordtvedt. Nous achevons cette partie par une application, où nous déterminons les rapports li dans le champ gravitationnel d'un corps à symétrie axiale. Dans la troisième partie, nous construisons la fonction d'univers et les fonctions de transfert de temps dans le cadre de l'approximation post-minkowskienne généralisée, c'est-à-dire en représentant ces fonctions par des séries de termes perturbatifs en puissances ascendantes de la constante universelle de la gravitation G. Nous montrons en particulier que les déterminations de ces termes perturbatifs s'obtiennent par un un procédé itératif où les seules données nécessaires sont les coordonnées spatio-temporelles des événements d'émission et de réception des rayons lumineux. Nous achevons ce travail par une application dans le champ gravitationnel d'un corps à symétrie sphérique jusqu'en G2/c4 où nous calculons le transfert de temps et les rapports l̂i<br>This thesis presents a detailed study of the angular distance in relativistic astrometry of high precision, i. E. How to define and calculate the angle formed by two light sources such as it is measured by a moving observer. In the first part of this work, we recall the definition of an angular distance, then we show that it is necessary to know only three quantities explicitly at the point of observation : the metric tensor, the motion of the observer and three ratios l̂i. We build the tools allowing to determine these ratios by using the Synge’s world function and by introducing two time transfer functions. In the second part of this work, we determine the expression of the world function and the time transfer functions in the parametrized post Newtonian approximation. We apply these results to the case of the gravitational field of an axisymmetric body ; in this particular situation we determine the influence of all mass multipole moments of the body on the deflection of light
APA, Harvard, Vancouver, ISO, and other styles
2

Laurens, Sophie. "Approximation de haute précision des problèmes de diffraction." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00475286.

Full text
Abstract:
Cette thèse examine deux façons de diminuer la complexité des problèmes de propagation d'ondes diffractées par un obstacle borné : la diminution des domaines de calcul à l'aide de milieux fictifs absorbants permettant l'adjonction de conditions aux limites exactes et la recherche d'une nouvelle approximation spatiale sous forme polynomiale donnant lieu à des schémas explicites où la stabilité est indépendante de l'ordre choisi. Dans un premier temps, on réduit le domaine de calcul autour de domaines non nécessairement convexes, mais propres aux problèmes de scattering (non trapping), à l'aide de la méthode des Perfectly Matched Layers (PML). Il faut alors considérer des domaines d'exhaustion difféomorphes à des convexes avec des hypothèses "presque" nécessaires. Pour les Equations de type Maxwell et Ondes, l'existence et l'unicité sont montrées dans tout l'espace et en domaine artificiellement borné, tant en fréquentiel qu'en temporel. La décroissance est analysée localement et asymptotiquement et des simulations numériques sont proposées. La deuxième partie de ce travail est une alternative à l'approximation de type Galerkin Discontinu, inspirée des résultats de régularité de J. Rauch, présentant l'avantage de conserver une condition CFL de type Volumes Finis indépendante de l'ordre d'approximation, aussi bien pour des maillages structurés que déstructurés. La convergence de cette méthode est démontrée via la consistance et la stabilité, grâce au théorème d'équivalence de Lax-Richtmyer pour des domaines structurés. En déstructuré, la consistance ne pouvant plus s'établir au moyen de la formulation de Taylor, la convergence n'est plus assurée, mais les premiers tests numériques bidimensionnels donnent d'excellents résultats.
APA, Harvard, Vancouver, ISO, and other styles
3

Gagnon, Sébastien. "Modèles de Markov cachés à haute précision dynamique." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8996.

Full text
Abstract:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
APA, Harvard, Vancouver, ISO, and other styles
4

Rudakova, Victoria. "Vers l’étalonnage interne de caméra à haute précision." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1039/document.

Full text
Abstract:
Cette thèse se concentre sur le sujet de la calibration de la camera interne et, en particulier, sur les aspects de haute précision. On suit et examine deux fils principaux: la correction d'une aberration chromatique de lentille et l'estimation des paramètres intrinsèques de la caméra. Pour la problème de l'aberration chromatique, on suit un chemin de post-traitement numérique de l'image, afin de se débarrasser des artefacts de couleur provoqués par le phénomène de dispersion du système d'objectif de la caméra, ce qui produit une désalignement perceptible des canaux couleur. Dans ce contexte, l'idée principale est de trouver un modèle de correction plus général pour réaligner les canaux de couleur que ce qui est couramment utilisé - différentes variantes du polynôme radial. Celui-ci ne peut pas être suffisamment général pour assurer la correction précise pour tous les types de caméras. En combinaison avec une détection précise des points clés, la correction la plus précise de l'aberration chromatique est obtenue en utilisant un modèle polynomial qui est capable de capter la nature physique du décalage des canaux couleur. Notre détection de points clés donne une précision allant jusqu'à 0,05 pixels, et nos expériences montrent sa grande résistance au bruit et au flou. Notre méthode de correction de l’aberration, par opposition aux logiciels existants, montre une géométrique résiduelle inférieure à 0,1 pixels, ce qui est la limite de la perception de la vision humaine. En ce qui concerne l'estimation des paramètres intrinsèques de la caméra, la question est de savoir comment éviter la compensation d'erreur résiduelle qui est inhérent aux méthodes globales d'étalonnage, dont le principe fondamental consiste à estimer tous les paramètres de la caméra ensemble - l'ajustement de faisceaux. Détacher les estimations de la distorsion de la caméra et des paramètres intrinsèques devient possible lorsque la distorsion est compensée séparément. Cela peut se faire au moyen de la harpe d'étalonnage, récemment développée, qui calcule le champ de distorsion en utilisant la mesure de la rectitude de cordes tendues dans différentes orientations. Une autre difficulté, étant donnée une image déjà corrigée de la distorsion, est de savoir comment éliminer un biais perspectif. Ce biais dû à la perspective est présent quand on utilise les centres de cibles circulaires comme points clés, et il s'amplifie avec l'augmentation de l'angle de vue. Afin d'éviter la modélisation de chaque cercle par une fonction conique, nous intégrons plutôt fonction de transformation affine conique dans la procédure de minimisation pour l'estimation de l'homographie. Nos expériences montrent que l'élimination séparée de la distorsion et la correction du biais perspectif sont efficaces et plus stables pour l'estimation des paramètres intrinsèques de la caméra que la méthode d'étalonnage globale<br>This dissertation focuses on internal camera calibration and, especially, on its high-precision aspects. Two main threads are followed and examined: lens chromatic aberration correction and estimation of camera intrinsic parameters. For the chromatic aberration problem, we follow a path of digital post-processing of the image in order to get rid from the color artefacts caused by dispersion phenomena of the camera lens system, leading to a noticeable color channels misalignment. In this context, the main idea is to search for a more general correction model to realign color channels than what is commonly used - different variations of radial polynomial. The latter may not be general enough to ensure stable correction for all types of cameras. Combined with an accurate detection of pattern keypoints, the most precise chromatic aberration correction is achieved by using a polynomial model, which is able to capture physical nature of color channels misalignment. Our keypoint detection yields an accuracy up to 0.05 pixels, and our experiments show its high resistance to noise and blur. Our aberration correction method, as opposed to existing software, demonstrates a final geometrical residual of less than 0.1 pixels, which is at the limit of perception by human vision. When referring to camera intrinsics calculation, the question is how to avoid residual error compensation which is inherent for global calibration methods, the main principle of which is to estimate all camera parameters simultaneously - the bundle adjustment. Detachment of the lens distortion from camera intrinsics becomes possible when the former is compensated separately, in advance. This can be done by means of the recently developed calibration harp, which captures distortion field by using the straightness measure of tightened strings in different orientations. Another difficulty, given a distortion-compensated calibration image, is how to eliminate a perspective bias. The perspective bias occurs when using centers of circular targets as keypoints, and it gets more amplified with increase of view angle. In order to avoid modelling each circle by a conic function, we rather incorporate conic affine transformation function into the minimization procedure for homography estimation. Our experiments show that separate elimination of distortion and perspective bias is effective and more stable for camera's intrinsics estimation than global calibration method
APA, Harvard, Vancouver, ISO, and other styles
5

Bergé, Joël. "Les lentilles gravitationnelles faibles vers la cosmologie de haute précision." Paris 11, 2007. http://www.theses.fr/2007PA112237.

Full text
Abstract:
Cette thèse analyse l’effet de lentille gravitationnelle faible dans le cadre de la cosmologie de haute précision. Nous présentons le développement d'un outil précis de mesure du cisaillement gravitationnel, basé sur le formalisme des shapelets. Nous analysons les données du CFHTLS, en utilisant pour la première fois les shapelets, et les combinons avec celles du XMM-LSS. Nous estimons la normalisation du spectre de puissance sigma8, et celle de la relation masse-température des amas de galaxies. L'analyse des données COSMOS du télescope Hubble confirme la mesure de sigma8, et introduit la tomographie. Enfin, en vue d’optimiser les futurs relevés, nous comparons les mérites individuels et combinés des dénombrements des amas de galaxies et du spectre de puissance du cisaillement cosmologique. Les relevés futurs offriront aux lentilles faibles leur place dans la cosmologie de haute précision<br>This thesis aims at studying weak gravitational lensing as a tool for high-precision cosmology. We first present the development and validation of a precise and accurate tool for measuring gravitational shear, based on the shapelets formalism. We then use shapelets on real images for the first time, we analyze CFHTLS images, and combine them with XMM-LSS data. We measure the normalisation of the density fluctuations power spectrum sigma8, and the one of the mass-temperature relation for galaxy clusters. The analysis of the Hubble space telescope COSMOS field confirms our sigma8 measurement and introduces tomography. Finally, aiming at optimizing future surveys, we compare the individual and combined merits of cluster counts and power spectrum tomography. Our results demonstrate that next generation surveys will allow weak lensing to yield its full potential in the high-precision cosmology era
APA, Harvard, Vancouver, ISO, and other styles
6

Dagobert, Tristan. "Évaluation d’algorithmes stéréoscopiques de haute précision en faible B/H." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN046/document.

Full text
Abstract:
Cette thèse étudie la précision en vision stéréo, les méthodes de détection dites a contrario et en présente une application à l'imagerie satellitaire. La première partie a été réalisée dans le cadre du projet DGA-ANR-ASTRID "STÉRÉO". Son but est de définir les limites effectives des méthodes de reconstruction stéréo quand on contrôle toute la chaîne d’acquisition à la précision maximale, que l’on acquiert des paires stéréo en rapport B/H très faible et sans bruit. Pour valider ce concept, nous créons des vérités terrains très précises en utilisant un rendeur. En gardant les rayons calculés durant le rendu, nous avons une information très dense sur la scène 3D. Ainsi nous créons des cartes d'occultations, de disparités dont l'erreur de précision est inférieure à 10e-6. Nous avons mis à la disposition de la communauté de recherche des images de synthèse avec un SNR supérieur à 500 : un ensemble de 66 paires stéréo dont le B/H varie de1/2500 à 1/50. Pour évaluer les méthodes de stéréo sur ce nouveau type de données, nous proposons des métriques calculant la qualité des cartes de disparités estimées, combinant la précision et la densité des points dont l'erreur relative est inférieure à un certain seuil. Nous évaluons plusieurs algorithmes représentatifs de l'état de l'art, sur les paires créées ainsi sur les paires de Middlebury, jusqu'à leurs limites de fonctionnement. Nous confirmons par ces analyses, que les hypothèses théoriques sur le bien-fondé du faible B/H en fort SNR sont valides, jusqu'à une certaine limite que nous caractérisons. Nous découvrons ainsi que de simples méthodes de flux optique pour l'appariement stéréo deviennent plus performantes que des méthodes variationnelles discrètes plus élaborées. Cette conclusion n'est toutefois valide que pour des forts rapports signal à bruit. L'exploitation des données denses nous permet de compléter les vérités terrain par une détection très précise des bords d'occultation. Nous proposons une méthode de calcul de contours vectoriels subpixéliens à partir d'un nuage de points très dense, basée sur des méthodes a contrario de classification de pixels. La seconde partie de la thèse est dédiée à une application du flot optique subpixélien et des méthodes a contrario pour détecter des nuages en imagerie satellitaire. Nous proposons une méthode qui n'exploite que l'information visible optique. Elle repose sur la redondance temporelle obtenue grâce au passage répété des satellites au-dessus des mêmes zones géographiques. Nous définissons quatre indices pour séparer les nuages du paysage : le mouvement apparent inter-canaux, la texture locale, l'émergence temporelle et la luminance. Ces indices sont modélisés dans le cadre statistique des méthodes a contrario qui produisent un NFA (nombre de fausses alarmes pour chacun). Nous proposons une méthode pour combiner ces indices et calculer un NFA beaucoup plus discriminant. Nous comparons les cartes de nuages estimées à des vérités terrain annotées et aux cartes nuageuses produites par les algorithmes liés aux satellites Landsat-8 etSentinel-2. Nous montrons que les scores de détection et de fausses alarmes sont supérieurs à ceux obtenus avec ces algorithmes, qui pourtant utilisent une dizaine de bandes multi-spectrales<br>This thesis studies the accuracy in stereo vision, detection methods calleda contrario and presents an application to satellite imagery. The first part was carried out within the framework of the project DGA-ANR-ASTRID"STEREO". His The aim is to define the effective limits of stereo reconstruction when controlling the entire acquisition chain at the maximum precision, that one acquires stereo pairs in very low baseline and noise-free. To validate thisconcept, we create very precise ground truths using a renderer. By keeping the rays computed during rendering, we have very dense information on the 3Dscene. Thus we create occultation and disparity maps whose precision error is less than 10e-6. We have made synthetic images available to the research community with an SNR greater than 500: a set of 66 stereo pairs whoseB/H varies from 1/2500 to 1/50. To evaluate stereo methods onthis new type of data, we propose metrics computing the quality of the estimated disparity maps, combining the precision and the density of the points whose relative error is less than a certain threshold. We evaluate several algorithmsrepresentative of the state of the art, on the pairs thus created and on theMiddlebury pairs, up to their operating limits. We confirm by these analyzesthat the theoretical assumptions about the merit of the low B/H in highSNR are valid, up to a certain limit that we characterize. We thus discover that simple optical flow methods for stereo matching become more efficient than more sophisticated discrete variational methods. This conclusion, however, is only valid for high signal-to-noise ratios. The use of the dense data allows us to complete the ground truths a subpixel detection of the occlusion edges. We propose a method to compute subpixel vector contours from a very dense cloud ofpoints, based on pixel classification a contrario methods. The second part of the thesis is devoted to an application of the subpixelian optical flowand a contrario methods to detect clouds in satellite imagery. We propose a method that exploits only visible optical information. It is based onthe temporal redundancy obtained by the repeated passages of the satellites overthe same geographical zones. We define four clues to separate the clouds fromthe landscape: the apparent inter-channel movement, Local texture, temporal emergence and luminance. These indices are modeled in the statistical framework of a contrario methods which produce an NFA (number of false alarms for each). We propose a method for combining these indices and computing a much more discriminating NFA. We compare the estimated cloud maps to annotated ground truths and the cloud maps produced by the algorithms related to the Landsat-8and Sentinel-2 satellites. We show that the detection and false alarms scores are higher than those obtained with these algorithms, which however use a dozen multi-spectral bands
APA, Harvard, Vancouver, ISO, and other styles
7

Ngolè, Mboula Fred Maurice. "Méthodes et algorithmes avancés pour l'imagerie astronomique de haute précision." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS343/document.

Full text
Abstract:
L'un des challenges majeurs de la cosmologie moderne réside en la nature même de la matière et de l'énergie noire. La matière noire peut être directement tracée à travers son effet gravitationnel sur les formes des galaxies. La mission Euclid de l'Agence Spatiale Européenne fournira précisément des données à cette fin. L'exploitation de telles données requiert une modélisation précise de la Fonction d'Étalement du Point (FEP) de l'instrument d'observation, ce qui constitue l'objectif de cette thèse.Nous avons développé des méthodes non-paramétriques permettant d'estimer de manière fiable la FEP sur l'ensemble du champ de vue d'un instrument, à partir d'images non résolues d'étoiles, ceci en tenant compte du bruit, d'un possible sous-échantillonnage des observations et de la variabilité spatiale de la FEP. Ce travail tire avantage d'outils et concepts mathématiques modernes parmi lesquelles la parcimonie. Une extension importante de ce travail serait de prendre en compte la dépendance en longueur d'onde de la FEP<br>One of the biggest challenges of modern cosmology is to gain a more precise knowledge of the dark energy and the dark matter nature. Fortunately, the dark matter can be traced directly through its gravitational effect on galaxies shapes. The European Spatial Agency Euclid mission will precisely provide data for such a purpose. A critical step is analyzing these data will be to accurately model the instrument Point Spread Function (PSF), which the focus of this thesis.We developed non parametric methods to reliably estimate the PSFs across an instrument field-of-view, based on unresolved stars images and accounting for noise, undersampling and PSFs spatial variability. At the core of these contributions, modern mathematical tools and concepts such as sparsity. An important extension of this work will be to account for the PSFs wavelength dependency
APA, Harvard, Vancouver, ISO, and other styles
8

Lambert, Sebastien. "Analyse et modélisation de haute précision pour l'orientation de la Terre." Phd thesis, Observatoire de Paris, 2003. http://tel.archives-ouvertes.fr/tel-00008856.

Full text
Abstract:
L'accroissement de la précision des techniques de géodésie spatiale et d'astrométrie globale donnant accès à l'orientation terrestre et l'amélioration des systèmes de référence céleste et terrestre requièrent, pour un meilleur profit scientifique, de réaliser une modéli-sation plus précise de la rotation de la Terre. Dans ce but, l'Union Astronomique Internationale a recommandé en août 2000 une paramétrisation plus fine de la rotation terrestre. La première partie de cette thèse est consacrée à la mise en oeuvre des recommandations, dont l'entrée en vigueur était le 1er janvier 2003 et au calcul des modèles adaptés à la nouvelle représentation astrométrique basée sur l'Origine Non-Tournante~: coordonnées célestes du pôle intermédiaire (CIP) et quantité donnant la position de l'Origine Non-Tournante dans le repère céleste (CEO). Les calculs sont basés sur le nouveau modèle de précession-nutation IAU2000A et sur les récentes estimations des paramètres de raccordement des repères de référence (Capitaine, Chapront, Lambert & Wallace 2003, A&A). Une première modélisation de la quantité $s'$ donnant le déplacement de l'origine des longitudes dans le repère terrestre est également réalisée à partir du mouvement du pôle observé (Lambert & Bizouard 2002, A&A). Les couches fluides externes (atmosphère et océans) jouent un rôle majeur dans la partie non-prédictible de la rotation de la terre. Dans la seconde partie de cette thèse, un bilan de ces effets sur les paramètres d'orientation de la Terre est réalisé à partir des données météorologiques les plus récentes. Outre la contribution moyenne de l'atmosphère et de l'océan sur les périodes de temps couvertes par les séries, nous avons étudié la variabilité temporelle de l'excitation périodique et nous montrons sa forte corrélation avec les variations des amplitudes observées dans le mouvement du pôle et la longueur du jour. L'excitation des nutations par les couches fluides reste délicate à estimer en raison de la qualité médiocre des données météorologiques dans le domaine diurne, de l'ordre de grandeur très faible de ces effets et de la forte variabilité de l'excitation. Nous montrons aussi que le moment cinétique de l'atmosphère est affecté par le moment de force lunisolaire, donnant un effet sur la précession de la Terre solide dont la valeur est supérieure à la précision des observations actuelles (Bizouard & Lambert 2001, P&SS). Dans le cadre de l'implémentation du modèle de précession-nutation IAU2000A, il est devenu nécessaire de considérer tous les effets sur l'orientation terrestre dont les amplitudes atteignent quelques dizaines de microsecondes d'arc. Parmi eux, il y a ceux provoqués sur les nutations par les variations de l'ellipticité dynamique de la Terre. Ces dernières induisent, par conservation du moment cinétique de la Terre solide, des changements dans la vitesse de rotation et sont déjà prises en compte dans le Temps Universel (UT1). Elles sont modélisées pour des modèles de Terre plus ou moins raffinés. L'effet de telles variations sur les nutations a été évalué plus récemment sous plusieurs approches présentant des résultats disparates. Dans la troisième partie de cette thèse, nous élucidons les différences et nous déterminons un modèle exhaustif pour une Terre réelle permettant de corriger les angles de nutation (Lambert & Capitaine 2004, A&A).
APA, Harvard, Vancouver, ISO, and other styles
9

Macé, Jean-Sébastien. "Modélisation du fonctionnement d’un gyrolaser He-Ne de très haute précision." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112160/document.

Full text
Abstract:
Les gyromètres laser He-Ne sont des senseurs inertiels dont la fiabilité et la précision sont reconnues depuis le milieu des années 1980. Leur grande sensibilité leur permet de mesurer des vitesses de rotation avec une précision qui atteint 10⁻³ °/ h dans le domaine aéronautique. Cependant, du fait d’un fonctionnement complexe basé sur une physique riche et variée, ses performances sont fortement dépendantes des conditions de fonctionnement et de toute modification du processus de fabrication. Dans ce cas, un travail de modélisation prend tout son sens, puisqu’il permet, outre une compréhension claire et précise des différents phénomènes physiques, un accès à des études paramétriques non envisageables expérimentalement. La modélisation globale du fonctionnement d’un gyrolaser He-Ne a ainsi été l’objectif principal de la collaboration entre la société Sagem (groupe Safran), un des leaders mondiaux dans le domaine des senseurs inertiels, et le Laboratoire de Physique des Gaz et des Plasmas (LPGP). Cette modélisation est « multiphysique » du fait de la diversité des domaines que couvre la physique du gyrolaser (Plasma, Physique Atomique, Lasers). C’est pourquoi nous avons développé trois modèles spécifiquement adaptés à chaque domaine. Le premier décrit la modélisation de la colonne positive du plasma de décharge dans une approche fluide. Ce modèle permet une description quantitative du plasma et l’accès aux grandeurs telles que la densité électronique et la fonction de distribution en énergie des électrons. Ces grandeurs sont les entrées nécessaires au second modèle qui traite la cinétique des états excités du plasma He-Ne. Un modèle collisionnel-radiatif à 1 dimension radiale (1D-CRM) a ainsi été développé. L’aspect 1D se justifie par l’importance des phénomènes de transport d’atomes et de rayonnement pouvant influer sur le profil radial de l’inversion de population du laser. Le transfert radiatif par auto-absorption des transitions radiatives résonantes a notamment été modélisé en résolvant l’équation de Holstein-Biberman à partir d’une méthode Monte-Carlo. Cet aspect constitue un élément majeur de ce travail de thèse. La diffusion des atomes excités du mélange He-Ne a également été prise en compte en résolvant l’équation de diffusion avec différentes conditions au bord à la surface du capillaire.A partir des populations et des taux cinétiques de peuplement et dépeuplement calculés par 1D-CRM, l’amplification laser dans la cavité a été modélisée dans le cadre d’une approche Maxwell-Bloch à 2 niveaux (NADIA) en incluant la saturation inhomogène du gain c’est-à-dire en tenant compte de la vitesse des atomes émetteurs dans la direction de propagation des faisceaux lasers. La cinétique de NADIA a été optimisée et les processus de transports dans l’espace des phases ont également été implémentés. Ce modèle a été utilisé pour étudier les performances du gyrolaser liées au milieu amplificateur et pour dériver les paramètres physiques nécessaires au développement d’un simulateur du gyrolaser.Dans ce simulateur, un modèle physique simplifié dérivé de NADIA, a été couplé à des modules « systèmes » dans le but de reproduire en sortie le signal opérationnel d’un gyrolaser. Ceci nous a permis de réaliser des études paramétriques sur les grandeurs caractérisant les performances d’un gyrolaser notamment le biais dynamique et le Random-Walk. Nous montrons en particulier que les performances de notre simulateur sont en bon accord avec celles observées en conditions opérationnelles. De plus, nos résultats montrent que ce simulateur est également un outil puissant pour l’analyse de données expérimentales<br>Ring laser gyros (RLG) are inertial sensors whose reliability and accuracy have been recognised since the mid-1980s. Their high sensitivity enables them to measure angular velocity with an accuracy of 10⁻³ °/ h in aeronautics. However, because of a complex functioning based on a rich and varied physics, their performances are highly dependent on the working conditions and on any modification in the manufacturing process. In this case, a numerical modelling is pertinent since it allows both a clear understanding of the ring laser physics and parametric studies which are not experimentally feasible. The global modelling of a He-Ne RLG has been the main objective of the collaboration between Sagem (Safran group), which is one of the world leader in the inertial sensors field, and the Gas and Plasma Physics Laboratory (LPGP).This modelling is “multi-physics” since RLG physics involves several disciplines (plasma, atomic and laser physics). Therefore we have developed three models specifically adapted to each field. The first one describes the modelling of the positive column of the glow discharge following a fluid approach. This model allows a quantitative description of the plasma and gives access to fundamental quantities like the electron density or the electron energy distribution function. These quantities are the required inputs for the second model which treats the kinetics of the excited states inside the He-Ne plasma. For this, a collisional-radiative model in a radial geometry (1D-CRM) has been developed. The radial geometry is justified by the importance of the transport processes of atoms and radiations which can influence the radial profile of the population inversion. Notably, the radiative transfer by self-absorption of the resonant radiative transitions has been modelled by solving the Holstein-Biberman equation by a Monte-Carlo method. This aspect is a major component of this PhD work. Diffusion of excited atoms inside the plasma has also been taken into account by solving the diffusion equation with different boundary conditions at the capillary surface. From the populations and the kinetic rates computed by 1D-CRM, the laser amplification inside the cavity has been modelled using a two-level Maxwell-Bloch approach (NADIA) taking into account the inhomogeneous gain saturation, which means to consider the thermal speed of the atoms in the direction of propagation of the laser beams. The kinetics of NADIA has been optimized and transport processes in the phase space have also been implemented. This model has been used to study the performances of the RLG linked to the amplifying medium and to derive the physical parameters needed for the development of a simulator.Concerning this simulator, a simplified physical model from NADIA has been coupled to system modules in order to reproduce the operating signal of a RLG. This allows to conduct parametric studies on the quantities defining the RLG performance in particular the dynamic bias and the so-called “Random Walk”. We showed notably that the results of our simulator are in good agreement with experimental measurements in operating conditions. Moreover, our results show that this simulator is a powerful tool for analysing experimental data
APA, Harvard, Vancouver, ISO, and other styles
10

Lambert, Sébastien. "Analyse et modélisation de haute précision pour l'orientation de la Terre." Observatoire de Paris, 2003. http://www.theses.fr/2003OBSPA002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Conference papers on the topic "Haute précision"

1

Vialla, R. "Spectromètre de haute résolution, fort contraste, haute précision." In Optique instrumentale. EDP Sciences, 1997. http://dx.doi.org/10.1051/sfo/1997012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

DELORT, Eric. "Le Shadows, un sonar de haute précision permettant une cartographie marine." In Conférence Méditerranéenne Côtière et Maritime - Coastal and Maritime Mediterranean Conference. Editions Paralia, 2009. http://dx.doi.org/10.5150/cmcm.2009.069-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Baranes, M., and T. Fortin. "Planification et chirurgie guidée - Avis d’experts : Apports des nouvelles technologies en implantologie : de la planification à la réalisation de la prothèse provisoire immédiate." In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601011.

Full text
Abstract:
Les dernières technologies informatiques ainsi que le développement des imprimantes 3D ouvrent des perspectives intéressantes en terme de diagnostic et de thérapeutique en implantologie (1). Le plan de traitement prothétique doit guider le choix du nombre et du positionnement des implants. Les logiciels de planification implantaire permettent de superposer les fichiers DICOM (Digital Imaging and Communications in Medicine) de limagerie tridimensionnelle issue du CBCT et les données numériques de surface issues d’empreintes optiques ou de la numérisation de modèles conventionnels (2). Les modélisations occlusales peuvent être elles aussi réalisées virtuellement en statique et dynamique via l’utilisation darticulateurs virtuels (3,4). Un guide chirurgical est alors imprimé permettant de positionner les implants selon la planification virtuelle. Dans certains cas, la restauration provisoire peut être prévue à l’avance et mise en place à lissue de lintervention (5,6). Bien quil soit établit que la chirurgie guidée soit plus précise que la chirurgie à main levée (7), son utilisation en pratique quotidienne a été ralentie en grande partie à cause du coût de fabrication élevé. Le développement récent dimprimantes 3D de bureau de haute précision (8,9) et la multiplicité des logiciels de planification implantaire ont permis le développement de la chirurgie guidée. Cependant, à chaque étape du flux numérique, des imprécisions peuvent se cumuler pouvant aboutir à des erreurs de positionnement ayant des conséquences potentiellement graves : proximité avec les racines adjacentes, perforation des racines, lésion nerveuse. La précision des guides chirurgicaux sté- réolithographiques dépend de nombreux paramètres : lempreinte, l’impression du guide, le matériau utilisé, la nature du support, lexpérience du praticien. Les empreintes optiques réalisées avec des scanners intra-oraux de plus en plus puissants présentent de nombreux avantages par rapport aux techniques conventionnelles en terme de rapidité, de précision et de reproductibilité. (10-14). Les guides peuvent être à appui osseux, muqueux, dentaire ou mixte. Une revue systématique de la littérature de Gallardo et coll. en 2017 (15) compare la précision des guides chirurgicaux en fonction du type de support. Cette revue conclut que les guides à appui osseux présentent le plus de déviation au niveau de langle, du point dentrée et de la localisation de lapex de l’implant par rapport aux guides à appuis dentaires. Les guides à appuis muqueux montrent moins de déviation par rapport aux guides à appuis osseux. Les auteurs nont pas trouvé de différence statistiquement significative entre les guides à appuis dentaires et muqueux. Selon L’étude de Cassetta publiée en 2017 (16), lexpérience du praticien influence la précision du positionnement des implants en chirurgie guidée. Un praticien novice en implantologie présente plus de déviation sur le positionnement des implants avec lutili- sation d’un guide chirurgical stéréolithographique quun praticien expérimentée. La chirurgie implantaire guidée reste un outil et nécessite une expérience chirurgicale. Le flux numérique en implantologie peut aujourdhui se réaliser de la prise d’empreintes d’étude à la fabrication de la restauration prothétique implantaire en passant par la conception et l’impression d’un guide chirurgi- cal. Ce flux est une aide précieuse en terme de communication avec le patient mais aussi avec le prothésiste, il permet daugmenter la reproductibilité des résultats et daboutir à une restauration prothétique esthétique et fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography