Academic literature on the topic 'Synchronisation de caméras'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Synchronisation de caméras.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Synchronisation de caméras"

1

Gademer, Antoine, Loïca Avanthey, Laurent Beaudouin, Michel Roux, and Jean-Paul Rudant. "Micro-charges utiles dédiées à l'acquisition de données par drone pour l'étude des zones naturelles." Revue Française de Photogrammétrie et de Télédétection, no. 213 (March 31, 2017): 19–31. http://dx.doi.org/10.52638/rfpt.2017.192.

Full text
Abstract:
Les dernières années ont montré l'intérêt croissant de la télédétection basse altitude (TBA) pour l'étude de zones na-turelles. Mais au-delà de la problématique d'accès au milieu, la cartographie de ces zones à grande échelle pose denombreuses contraintes sur la partie capteurs d'acquisition. En effet, ce sont des milieux difficiles pour les algorithmesclassiques de traitement d'images : intrinsèquement en mouvement (aux échelles d'observations des individus), com-posés d'objets difficilement discernables, ces milieux présentent des conditions météorologiques variables, voir hostiles(éclairage, humidité, température, etc.). Cette cartographie se place généralement dans une étude thématique qui ra-joute ses propres contraintes opérationnelles (besoin d'information 3D comme le relief ou la rugosité, signature spectralespécifique, prises de vues obliques pour simplifier l'identification visuelle par les experts, etc.). Par ailleurs, l'utilisationen télédétection basse altitude de porteurs légers, comme les micro-drones, limite fortement les ressources disponiblespour les capteurs : puissance de calcul embarquée, encombrement, poids, etc.. Nous présenterons dans cet article deuxcapteurs : le capteur tri-caméras et le banc stéréoscopique uEye. Le capteur tri-caméras a été développé en 2009 pour l'ac-quisition d'images stéréoscopiques ou obliques à basse altitude. En analysant l'expérience tirée des campagnes terrainseffectuées, nous soulignerons l'importance cruciale de la synchronisation précise des prises de vues. Nous présenteronsalors notre nouveau banc stéréoscopique amphibie en développement depuis 2013, et qui vise la possibilité d'acquisitionsstéréoscopiques parfaitement synchronisées, ce qui en fait un outil idéal pour l'étude des zones littorales (pour la télédé-tection basse altitude ou in situ à faible profondeur). Nous terminerons par une présentation des premiers résultats obtenusavec ce nouveau banc.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Synchronisation de caméras"

1

Chang, Richard. "Etude des réseaux de caméras non synchronisées ou non calibrées." Paris 6, 2009. http://www.theses.fr/2009PA066024.

Full text
Abstract:
Les systèmes de vision multi-caméras sont de plus en plus utilisées afin notamment de couvrir des scènes larges. La multiplication du nombre de capteurs introduit alors de nouvelles contraintes pour les traitements de vision par ordinateur. Les réseaux de caméras sont généralement considérés comme une simple combinaison des données provenant de capteurs. Notre approche permet d’exploiter le réseau comme un capteur unique. Une méthode de synchronisation entre les images des séquences, basée un objet non-déformable de la scène, est présentée. L’utilisation d’un vocabulaire commun entre les caméras permet de déterminer la topologie globale du réseau. Une nouvelle représentation des caméras simplifie la gestion du réseau en le réduisant à différentes informations codifiées. Cette représentation est calculée à partir d'une structure multi-couches permettant d’extraire les informations principales et de caractériser la trajectoire des objets de la scène.
APA, Harvard, Vancouver, ISO, and other styles
2

Nguyen, Thanh-Tin. "Auto-calibration d'une multi-caméra omnidirectionnelle grand public fixée sur un casque." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC060/document.

Full text
Abstract:
Les caméras sphériques et 360 deviennent populaires et sont utilisées notamment pour la création de vidéos immersives et la génération de contenu pour la réalité virtuelle. Elles sont souvent composées de plusieurs caméras grand-angles/fisheyes pointant dans différentes directions et rigidement liées les unes aux autres. Cependant, il n'est pas si simple de les calibrer complètement car ces caméras grand public sont rolling shutter et peuvent être mal synchronisées. Cette thèse propose des méthodes permettant de calibrer ces multi-caméras à partir de vidéos sans utiliser de mire de calibration. On initialise d'abord un modèle de multi-caméra grâce à des hypothèses appropriées à un capteur omnidirectionnel sans direction privilégiée : les caméras ont les mêmes réglages (dont la fréquence et l'angle de champs de vue) et sont approximativement équiangulaires. Deuxièmement, sachant que le module de la vitesse angulaire est le même pour deux caméras au même instant, nous proposons de synchroniser les caméras à une image près à partir des vitesses angulaires estimées par structure-from-motion monoculaire. Troisièmement, les poses inter-caméras et les paramètres intrinsèques sont estimés par structure-from-motion et ajustement de faisceaux multi-caméras avec les approximations suivantes : la multi-caméra est centrale, global shutter ; et la synchronisation précédant est imposée.Enfin, nous proposons un ajustement de faisceaux final sans ces approximations, qui raffine notamment la synchronisation (à précision sous-trame), le coefficient de rolling shutter et les autres paramètres (intrinsèques, extrinsèques, 3D). On expérimente dans un contexte que nous pensons utile pour des applications comme les vidéos 360 et la modélisation 3D de scènes : plusieurs caméras grand public ou une caméra sphérique fixée(s) sur un casque et se déplaçant le long d'une trajectoire de quelques centaines de mètres à quelques kilomètres
360 degree and spherical multi-cameras built by fixing together several consumer cameras become popular and are convenient for recent applications like immersive videos, 3D modeling and virtual reality. This type of cameras allows to include the whole scene in a single view.When the goal of our applications is to merge monocular videos together into one cylinder video or to obtain 3D informations from environment,there are several basic steps that should be performed beforehand.Among these tasks, we consider the synchronization between cameras; the calibration of multi-camera system including intrinsic and extrinsic parameters (i.e. the relative poses between cameras); and the rolling shutter calibration. The goal of this thesis is to develop and apply user friendly method. Our approach does not require a calibration pattern. First, the multi-camera is initialized thanks to assumptions that are suitable to an omnidirectional camera without a privileged direction:the cameras have the same setting (frequency, image resolution, field-of-view) and are roughly equiangular.Second, a frame-accurate synchronization is estimated from instantaneous angular velocities of each camera provided by monocular Structure-from-Motion.Third, both inter-camera poses and intrinsic parameters are refined using multi-camera Structure-from-Motion and bundle adjustment.Last, we introduce a bundle adjustment that estimates not only the usual parameters but also a subframe-accurate synchronization and the rolling shutter. We experiment in a context that we believe useful for applications (3D modeling and 360 videos):several consumer cameras or a spherical camera mounted on a helmet and moving along trajectories of several hundreds of meters or kilometers
APA, Harvard, Vancouver, ISO, and other styles
3

Zara, Henri. "Système d'acquisition vidéo rapide : application à la mécanique des fluides." Saint-Etienne, 1997. http://www.theses.fr/1997STET4012.

Full text
Abstract:
Les systèmes de vision sont aujourd'hui largement employés pour les études expérimentales en mécanique des fluides. Les techniques d'acquisition d'images se heurtent cependant à une limitation technologique concernant la cadence et la résolution des images. De nouveaux capteurs d'images électroniques rapides, mais également certaines méthodes d'exposition permettent d'apporter des solutions à ce problème. Nous présentons dans ce mémoire un système d'acquisition vidéo rapide élaboré autour d'une plate-forme expérimentale de mécanique des fluides. Ce système est constitué en particulier : d'une camera CCD numérique (8bits) de résolution 512x512 pixels avec une cadence de 100 i/s ; d'un système de synchronisation qui assure les différents modes d'exposition des images ainsi que la synchronisation des éléments de la plate-forme. L'ensemble est commandé par un ordinateur PC, pour la configuration des paramètres ainsi que pour le stockage des images. La technique d'éclairage mise en oeuvre est la tomographie laser. Un choix technologique original nous a conduit au couplage de la camera à un intensificateur de lumière. Ce choix permet l'utilisation de sources laser continues de faible puissance. Il offre également de larges possibilités d'exposition des images par la commande de la porte optique de l'intensificateur. Dans une première partie nous présentons une étude détaillée des capteurs d'images à semi-conducteur, ainsi que des intensificateurs d'images. Les descriptions techniques concernant la réalisation de la caméra et du système de synchronisation sont ensuite exposées. L'ensemble d'acquisition vidéo final met en oeuvre deux cameras synchronisées permettant l'enregistrement d'une séquence de paires d'images d'occurrence très proche (50 ns). Quelques exemples expérimentaux permettent de confirmer les possibilités de notre système
APA, Harvard, Vancouver, ISO, and other styles
4

Benrhaiem, Rania. "Méthodes d’analyse de mouvement en vision 3D : invariance aux délais temporels entre des caméras non synchronisées et flux optique par isocontours." Thèse, 2016. http://hdl.handle.net/1866/18469.

Full text
Abstract:
Cette thèse porte sur deux sujets de vision par ordinateur axés sur l’analyse de mouvement dans une scène dynamique vue par une ou plusieurs caméras. En premier lieu, nous avons travaillé sur le problème de la capture de mouvement avec des caméras non synchronisées. Ceci entraı̂ne généralement des erreurs de mise en correspondance 2D et par la suite des erreurs de reconstruction 3D. En contraste avec les solutions matérielles déjà existantes qui essaient de minimiser voire annuler le délai temporel entre les caméras, nous avons proposé une solution qui assure une invariance aux délais. En d’autres termes, nous avons développé une méthode qui permet de trouver la bonne mise en correspondance entre les points à reconstruire indépendamment du délai temporel. En second lieu, nous nous sommes intéressés au problème du flux optique avec une approche différente des méthodes proposées dans l’état de l’art. Le flux optique est utilisé pour l’analyse de mouvement en temps réel. Il est donc important qu’il soit calculé rapidement. Généralement, les méthodes existantes de flux optique sont classées en deux principales catégories: ou bien à la fois denses et précises mais très exigeantes en calcul, ou bien rapides mais moins denses et moins précises. Nous avons proposé une alternative qui tient compte à la fois du temps de calcul et de la précision du résultat. Nous avons proposé d’utiliser les isocontours d’intensité et de les mettre en correspondance afin de retrouver le flux optique en question. Ces travaux ont amené à deux principales contributions intégrées dans les chapitres de la thèse.
In this thesis we focused on two computer vision subjects. Both of them concern motion analysis in a dynamic scene seen by one or more cameras. The first subject concerns motion capture using unsynchronised cameras. This causes many correspondence errors and 3D reconstruction errors. In contrast with existing material solutions trying to minimize the temporal delay between the cameras, we propose a software solution ensuring an invariance to the existing temporal delay. We developed a method that finds the good correspondence between points regardless of the temporal delay. It solves the resulting spatial shift and finds the correct position of the shifted points. In the second subject, we focused on the optical flow problem using a different approach than the ones in the state of the art. In most applications, optical flow is used for real-time motion analysis. It is then important to be performed in a reduced time. In general, existing optical flow methods are classified into two main categories: either precise and dense but computationally intensive, or fast but less precise and less dense. In this work, we propose an alternative solution being at the same time, fast and precise. To do this, we propose extracting intensity isocontours to find corresponding points representing the related optical flow. By addressing these problems we made two major contributions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography