To see the other types of publications on this topic, follow the link: Modèles 2D de Roesser.

Dissertations / Theses on the topic 'Modèles 2D de Roesser'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles 2D de Roesser.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rigaud, Alexandre. "Analyse des notions de stabilité pour les modèles 2D de Roesser et de Fornasini-Marchesini." Thesis, Poitiers, 2022. http://www.theses.fr/2022POIT2307.

Full text
Abstract:
Cette thèse présente les résultats de travaux sur lLes différentes notions de stabilité utilisées dans la littérature des systèmes dynamiques multidimensionnels. Plus précisément, dans le cadre des modèles 2D de Roesser et de Fornasini-Marchesini, nous analysons les notions de stabilité au sens de Lyapunov, stabilité asymptotique, stabilité(s) exponentielle(s) et stabilité structurelle, ainsi que les relations entre ces différentes propriétés. Le premier chapitre de ce mémoire effectue un certain nombre de rappels concernant les définitions de stabilité et les liens qui existent entre celles-ci, dans le but d'établir un cadre solide en vue d'étendre ces notions du cas 1D au cas 2D. Une fois ces rappels établis, nous présentons les modèles 2D que nous étudions. Le deuxième chapitre dresse la liste des définitions de stabilité utilisées pour les modèles 2D de Roesser et de Fornasini-Marchesini et établit les liens entre ces différentes définitions. Au cours du troisième chapitre, nous proposons une condition nécessaire et suffisante de stabilité asymptotique pour une certaine classe de modèles de Fornasini-Marchesini 2D discrets linéaires. Le quatrième et dernier chapitre propose une étude détaillée d'un modèle 1D non-linéaire qui possède la particularité rare d'être à la fois attractif et instable, et nous généralisons ce modèle particulier au cas 2D afin d'établir quelles propriétés se conservent ou non lorsque l'on passe du cas 1D au cas 2D
This thesis presents the results of research work on different notions of stability used in the literature of multidimensional dynamical systems. More precisely, within the framework of the 2D Roesser and Fornasini-Marchesini models, we analyze the notions of stability in the sense of Lyapunov, asymptotic stability, exponential stability(ies) and structural stability, as well as the relations between these different properties. The first chapter of this thesis carries out a certain number of reminders concerning the definitions of stability and the links which exist between them, with the aim of establishing a solid framework in order to extend these notions from the 1D case to the 2D case. Once these reminders have been established, we present the 2D models that we are studying. The second chapter lists the stability definitions used for the 2D Roesser and Fornasini-Marchesini models and establishes the links between these different definitions. In the third chapter, we propose a necessary and sufficient condition of asymptotic stability for a certain class of linear discrete 2D Fornasini-Marchesini models. The fourth and last chapter proposes a detailed study of a non-linear 1D model which has the rare characteristic of being both attractive and unstable, and we generalize this particular model to the 2D case in order to establish which properties are conserved. or not when passing from the 1D case to the 2D case
APA, Harvard, Vancouver, ISO, and other styles
2

Filali, Ansary Tarik. "Indexation de modèles 3D à partir de vues 2D." Evry, Institut national des télécommunications, 2006. http://www.theses.fr/2006TELE0006.

Full text
Abstract:
La gestion de grandes bases de données de modèles tridimensionnels ( utilisés dans les applications de CAD/CAO, de visualisation, de jeux , etc. ) est un domaine de grande importance. En effet, pouvoir caractériser les modèles et les retrouver facilement sont des problèmes essentiels pour les concepteurs comme pour les utilisateurs. Dans ce cadre, deux grandes approches existent : la recherche par l'exemple d'un modèle tridimensionnel et la recherche par des vues. C'est ce dernier point que nous abordons dans cette thèse. Nous nous sommes intéressés à la détermination de l'ensemble des vues caractéristiques " optimal" pour réprésenter un modèle tridimensionnel et à l'indexaion de ces modèles, à partir de ces vues. Dans cette thèse, nous avons crée une nouvelle méthode de sélection des vues carctéristiques " optimales" basée sur le critère informationnel BIC ( Bayesian information criteria). Partant du principe que toutes les vues d'un modèle 3D ne contiennent pas la même quantité d'informations, nous avons ensuite présenté un modèle probabiliste bayésien pour l'indexation qui prend en compte la probabilité d'apparition des vues et des modèles 3D. Les expériences effectuées sur la base de données de 5000 modèles 3D fournies par Renault, dans le cadre du projet RNRT SEMANTIC-3D ont démontré les bons résultats de notre méthode sur des objets mécaniques. Nous avons ensuite comparé notre méthode aux méthodes d'indexation 3D le splus récentes et les plus perfomantes sur la base de données standard de "Princeton shape benchmarck". Ces expérimentations ont mis en évidence les trés bons résultats de notre méthode comparée aux autres approches. Nous avons ensuite mis en oeuvre un moteur de recherche 3D ( accessible publiquement sur internet, via un PC ou un PDA) pour la recherche d'objets 3D à partir d'un modèle exemple, d'un dessin ou d'une ou plusieurs photos
The management of big databases of three-dimensional models ( used in CAD applications, visualization, games, etc. ) is very important domain. The ability to characterize and easily retrieve 3D models is a key issue for the designers and the final users. In this frame, two main appoaches exist : search by example of a 3D model, and search by a 2D view or photo. In this thesis we focus ont he characterization of a 3D model by a set of views ( called characteristic views), and on the indexing process of the 3D models using theses characteristic views. In this thesis, we propose a new method for the selection of the " optimal" characteristic views set based on an informational criterion ( Bayesian information criteria). Starting from fact that all the views of a model 3D do not contain the same quantity of information about 3D model, we present a new bayesian approach for the indexing of the 3D models using their views. Our approach takes into account the probability of appreance of a 3D model and the importance of each of its view. Experiments carried on a database of 5000 3D models provided by Renault, within the framework of the RNRT SEMANTIC-D, show the good results of our method on mechanical objects. We compared our method with the most recent and relevant 3D models indexing methods using the standard database " Princeton Shape Benchmark". These experiments highlighted the very good results of our method compared with the ither approaches. To access our results and permit the test of our method, we made 3D search engine available online accessible using a PC or a PDA. Our searche engine permit the search for 3D objects using an example 3D model, a drawing or one or more photographs
APA, Harvard, Vancouver, ISO, and other styles
3

Aron, Christine. "Processus d'accrétion océanique et circulation hydrothermale : modélisation numérique 2D." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30079.

Full text
Abstract:
L'accretion oceanique est le resultat de l'interaction complexe de processus volcaniques, tectoniques et hydrothermaux. Durant les 20 dernieres annees, les systemes hydrothermaux actifs ont ete etudies par modelisation numerique, en utilisant generalement la configuration classique de la couche poreuse rectangulaire, homogene et chauffee a la base. De recents resultats, issus de l'exploration et des forages de la croute oceanique, nous permettent de contraindre plus precisement les structures au sein desquelles la circulation hydrothermale s'effectue. En particulier, les distributions temporelles et spatiales des processus d'accretion impliquent que la partie superieure de la croute oceanique peut etre schematisee par un domaine triangulaire orthogonal a l'axe de la ride, incline de quelques degres vers ce meme axe, heterogene, anisotrope, soumis a des flux de chaleur a la base et le long de l'axe de la ride, et ouvert a la penetration d'eau de mer au fond de l'ocean. Les simulations numeriques realisees au sein d'un tel domaine nous ont permis de mettre en evidence que les structures subverticales favorisent la circulation de fluides, et donc le transfert de chaleur, permettant ainsi un refroidissement plus efficace du domaine que les structures subhorizontales. De plus, la confrontation de nos resultats avec les donnees issues de la petrologie de l'alteration des basaltes dans la partie superieure de la croute oceanique, indique qu'il est peu probable que les nombres de rayleigh excedent 400 (flux a l'axe2 352 mw. M#-#2), ou soient inferieurs a 150 (flux a l'axe882 mw. M#-#2), dans les structures isotropes. Du fait des pendages vers l'axe de la ride, de la geometrie triangulaire et des conditions limites, un etat stable est atteint pour des nombres de rayleigh aussi grands que 600 dans le cas isotrope, repoussant l'existence de processus fluctuants dans le temps. Enfin, les pendages de la structure ne sont pas un facteur cle dans le controle du developpement des mineraux d'alteration, puisque les champs de temperature sont tres peu affectes par un changement de l'angle de pendage. Par la suite, un domaine heterogene anisotrope representant la structure mise en place lors de deux sequences volcaniques successives a ete pris en compte. Cette approche permet de mettre en evidence que l'energie cinetique et les temperatures obtenues dans la partie inferieure de ce domaine varient de facon significative en fonction de la permeabilite du domaine superieur, mais que l'inverse n'est pas vrai
APA, Harvard, Vancouver, ISO, and other styles
4

Indelicato, Giuliana. "Modèles mécaniques de réseaux de fibres 2D et de textiles." Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL009N/document.

Full text
Abstract:
Ce travail aborde trois problèmes fondamentaux liés au comportement mécanique de matériaux tissés. Dans une première partie, le modèle de Wang et Pipkin pour des tissés, décrits comme des réseaux de fibres inextensibles comportant une résistance au cisaillement et à la flexion, est généralisé en un modèle prenant en compte la résistance à la torsion des fibres. Une application au comportement d’une coque cylindrique constituée de fibres hélicoïdales est traitée. Dans une deuxième partie, nous analysons l’impact de la géométrie de l’armure du tissé sur les propriétés de symétrie de l’énergie de déformation. Pour des réseaux constitués de deux familles de fibres, quatre configurations distinctes d’armure existent, selon l’angle entre les fibres et les propriétés mécaniques des fibres. Les propriétés de symétrie de l’armure déterminent le groupe de symétrie matérielle du réseau, sous l’action duquel la densité d’énergie est invariante. Dans ce contexte, des représentations des énergies de déformation d’un tissé invariantes par le groupe de symétrie matérielle du réseau sont établies. La relation entre les invariants du groupe et la courbure des fibres est analysée. Dans une troisième partie, des modèles de textiles considérés comme des surfaces dotées d’une microstructure sont élaborés, à partir d’une modification des modèles classiques de coques de Cosserat, dans lesquels la microstructure décrit les ondulations des fils à l’échelle microscopique. A partir d’une représentation du fil comme un elastica d’Euler, une expression explicite de l’énergie élastique microscopique est obtenue, qui permet d’établir un modèle simple du comportement mécanique macroscopique de tissés
In this work, we discuss three basic problems related to the mechanical behavior of textile materials. First, we extend the model of Wang and Pipkin for textiles, described as networks of inextensible fibers with resistance to shear and bending, to a model in which resistance to twist of the individual fibers is taken into account, by including torsion contributions in the elastic stored energy. As an example, we study the behaviour of a cylindrical shell made of helical fibers. Second, we study how the geometry of the weave pattern affects the symmetry properties of the deformation energy of a woven fabric. For networks made by two families of fibers, four basic types of weave patterns are possible, depending on the angle between the fibers and on their material properties. The symmetry properties of the pattern determine the material symmetry group of the network, under which the stored energy is invariant. In this context, we derive representations for the deformation energy of a woven fabric that are invariant under the symmetry group of the network, and discuss the relation of the resulting group invariants with the curvature of the fibers. Third, we develop a model for textiles viewed as surfaces with microstructure, using a modification of the classical Cosserat model for shells, in which the microstructure accounts for the undulations of the threads at the microscopic scale. Describing the threads as Euler's elastica, we derive an explicit expression for the microscopic elastic energy that allows to set up a simple model for the macroscopic mechanical behavior of textiles
APA, Harvard, Vancouver, ISO, and other styles
5

Sebbahi, Ali. "Segmentation 2D et 3D par modèles déformables en imagerie cardio-vasculaire." Paris 12, 1995. http://www.theses.fr/1995PA120040.

Full text
Abstract:
Nous placons notre etude dans le cadre de la segmentation 2d et 3d en imagerie cardio-vasculaire d'une structure bien definie: une cavite sanguine entouree par une paroi musculaire. Si d'un point de vue theorique, les deux milieux, sang et paroi, sont consideres comme quasi-homogenes, il en est rarement ainsi. Toutes les modalites d'imagerie (scanner x, irm, imagerie ultrasonore) rencontrent ces deux problemes, qui sont differemment caracterises selon l'agent physique employe. Nous etablissons un modele 3d de deformation de surface pour reconstruire le volume cardiaque, a partir de coupes d'images 2d, ou analyser dynamiquement les sequences d'images 2d. Afin de mieux prendre en compte les problemes lies a l'estimation de l'interface entre la cavite et la paroi, la segmentation est realisee a un niveau local, regional et global. Cette procedure se decompose en deux processus d'equilibre complementaires et sequentiels. D'une part, un processus de deformation discret deplace un point, independamment des autres points du maillage, vers un minimum local du champ externe et, d'autre part, un processus de stabilisation continu, par une interpolation spline bicubique, evalue si le point deplace correspond a un minimum regional du champ externe (seuil de distance de chanfrein). La convergence du processus de segmentation est obtenue par stabilisation de morceaux de contours dans le cas 2d et par stabilisation de surfaces elementaires en 3d. Le compromis entre la forme et la nature de l'objet depend des poids relatifs entre les differents termes d'energie. Ceux-ci sont controles de maniere adaptative, par un critere de concavite lie a la geometrie du systeme cardio-vasculaire. Une validation 2d et des resultats 3d sur differents volumes cardio-vasculaires, ont permis d'obtenir des resultats satisfaisants pour lesquels la variation des parametres est relativement faible et rend par consequent le processus de segmentation robuste
APA, Harvard, Vancouver, ISO, and other styles
6

Touron, Frédérique. "Simulation numérique 2D des sondes de résistivité électrique en forage." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30105.

Full text
Abstract:
Combines aux mesures d'autres parametres physiques en forage ou aux releves sur carottes, les enregistrements de resistivite electrique en subsurface sont utilises pour situer et evaluer les formations geologiques (reservoirs d'hydrocarbures, sequences sedimentaires,). La resistivite electrique est mesuree a l'aide de sondes permettant d'obtenir un enregistrement en fonction de la profondeur (ou diagraphie) et est evaluee a travers le parametre resistivite electrique apparente. L'interpretation des donnees de diagraphies considere donc une mesure de resistivite non ponctuelle, de type scalaire et fortement affectee par la presence de fluide dans le forage. Principalement, la description isotrope de la formation est un frein a l'evaluation correcte des structures, souvent anisotropes, investies. La simulation numerique directe des sondes permet de palier a cet inconvenient en apprehendant les structures geologiques de maniere plus fine. La resistivite electrique est alors consideree comme une grandeur tensorielle. La simulation calcule numeriquement la reponse de la sonde confrontee aux conditions geologiques proposees, et aboutit au trace de diagraphies synthetiques. Dans cette etude, une analyse de sensibilite de la reponse de la sonde dual laterolog (dll) aux parametres de modeles theoriques simples ont permis d'evaluer son comportement face a certains phenomenes (invasion, detection d'un banc). Dans ce cadre, la simulation constitue une aide a l'interpretation et les etudes ne sont pas limitatives. Une analyse de lois d'homogeneisation a confirme l'equivalence entre la description d'un milieu de maniere discrete et une representation homogene anisotrope (a l'aide d'un tenseur de conductivite). Enfin, a l'aide de trois exemples de structures geologiques, nous avons aborde le probleme inverse en integrant a un processus iteratif la methode directe de simulation. A la suite d'une premiere estimation issue de l'ensemble des donnees disponibles, diagraphie simulee et mesures in situ sont comparees. Les parametres du modele sont ici corriges empiriquement et le modele est affine par simulations successives. Pour le modele de formation comportant plus d'un parametre, plusieurs lectures de sonde sont bien evidemment necessaires, mais l'obtention d'un modele final unique reste tres difficile du fait de la non-linearite des systemes de mesure. La resolution du probleme inverse passe donc necessairement par l'integration d'un algorithme mathematique assurant la correction automatique des parametres du modele par minimisation des ecarts entre mesure in situ et reponses simulees
APA, Harvard, Vancouver, ISO, and other styles
7

Kotronis, Panagiotis. "Cisaillement dynamique de murs en béton armé : modèles simplifiés 2D et 3D." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2000. http://tel.archives-ouvertes.fr/tel-00074469.

Full text
Abstract:
Les travaux effectués dans le cadre de cette thèse portent sur une stratégie de modélisation simplifiée des structures en béton armé soumises à des chargements de type dynamique et s'inscrivent dans le programme Européen ICONS - TMR. La modélisation de la maquette CAMUS III du programme est premièrement effectuée en utilisant des éléments 2D poutres multicouches et des lois uniaxiales locales. Une nouvelle stratégie de modélisation simplifiée 2D pour des voiles soumis à des cisaillements dynamiques est ensuite présentée. Le concept du Béton Armé Equivalent (BAE) est fondé sur une équivalence milieu continu milieu discontinu en treillis. Des lois locales uniaxiales sont utilisées pour le béton et les armatures. Le BAE est validé avec les résultats expérimentaux des maquettes T5 et T12 du programme SAFE et la maquette du programme NUPEC. Les problèmes 3D sont finalement abordés avec le développement d'un élément fini poutre multifibre Timoshenko valable pour des sections quelconques (hétérogènes et sans symétrie). La solution adoptée est celle d'un élément fini à deux nœuds avec des fonctions de forme de degré supérieur pour les déplacements et les rotations. L'élément est présenté en détail ainsi que sa validation à partir des résultats expérimentaux (poteaux sous chargement cyclique, murs en U du programme ICONS).
APA, Harvard, Vancouver, ISO, and other styles
8

Valette, Sébastien. "Modèles de maillages déformables 2D et multirésolution surfaciques 3D sur une base d'ondelettes." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0002/these.pdf.

Full text
Abstract:
Ce travail porte sur le développement de méthodes de traitement d'images à l'aide de maillages. Dans une première partie, nous proposons un nouveau support théorique et un algorithme pour l'analyse multirésolution des surfaces des objets 3D triangulés. Cette approche généralise la décomposition en ondelettes des maillages surfaciques, proposée par Lounsbery, dont la formulation initiale restreint son utilisation aux maillages régulièrement subdivisés. L'extension du domaine d'application de la méthode nécessite la prise en compte d'une subdivision non régulière, permettant l'analyse multirésolution de maillages quelconques par résolution d'un problème inverse. Nous démontrons également l'efficacité de notre approche pour la compression sans perte des maillages surfaciques. La deuxième partie traite de la segmentation et du suivi des objets dans les séquences vidéo 2D+t. Nous proposons un nouvel algorithme de maillage actif qui place les arêtes du maillage sur les discontinuités de mouvement. Le mouvement intérieur à chaque cellule est estimé par mise en compétition des estimations avant et arrière. Cette approche permet le déplacement des noeuds du maillage sans avoir à remailler les zones occultées ou découvertes. Une contrainte spatiale permet une meilleure déformation du maillage dans les régions homogènes. Une deuxième contrainte, de régularisation temporelle, assure la stabilité de l'évolution de la segmentation. La troisième apporte une conclusion au mémoire et ouvre des perspectives sur la représentation des objets vidéo représentés par des maillages, à l'aide d'une adaptation de l'algorithme de décomposition des maillages surfaciques 3D sur une base d'ondelettes
This work aims at providing mesh-based image processing algorithms. The first part introduces a new theoretical support and an algorithm for multiresolution analysis of 3D surface meshes. This approach is a generalization of the wavelet decomposition of surface meshes proposed by Lounsbery, which initial definition can be applied only to regularly subdivided meshes. This extension requires the definition of an irregular subdivision scheme, allowing multiresolution analysis on irregular meshes. The second part handles video objects segmentation and tracking in 2D+t sequences. We propose a new active mesh algorithm that moves the mesh nodes on motion discontinuities. The motion inside each cell is estimated by a competitive back-forward approach. This approach allows nodes displacements without remeshing motion occlusion regions. A spatial constraint allows a better deformation in homogeneous regions. A temporal regularization constraint ensures the tracking consistency. The third part adds a conclusion and possible future work on multiresolution video objects representation, with the algorithm proposed in the first part
APA, Harvard, Vancouver, ISO, and other styles
9

Roquefort, Anne. "Sur quelques questions liées aux modèles non linéaires de coques minces." Paris 6, 2001. http://www.theses.fr/2001PA066219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Da, Costa Luis Eduardo. "Reconstruction de modèles 3D à partir d'information 2D partielle : application au cas d'une plante." Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/573/1/DA_COSTA_Luis_Eduardo.pdf.

Full text
Abstract:
Une méthode pour générer des modèles informatiques fidèles de plantes naturelles est proposée dans ce travail; cette méthode prend comme entrée des photographies 2D prises du champ. Le formalisme choisi comme base pour la représentation de plantes s'appelle «Systèmes de Lindenmayer» (LSystems), qui sont des systèmes grammaticaux contrôlés par une condition initale et une (ou plusieurs) règle(s) de réécriture Générer un modèle informatique d'une plante est l'équivalent à résoudre le problème inverse pour un sous-type de ce formalisme, appelé «LSystems à crochets»; ce travail utilise un algorithme évolutif pour résoudre ce problème inverse. Une description détaillée de l'algorithme, ainsi que la justification du design choisi, sont présentées; un ensemble d'expériences démontre que l'algorithme explore de manière satisfaisante l'espace de solutions candidates, et que les approximations qu'il propose sont adéquates dans la majorité des cas. Ses limitations et faiblesses sont aussi rapportées et ensuite discutées.
APA, Harvard, Vancouver, ISO, and other styles
11

Khouas, Leila. "Visualisation de champs de vecteurs 2D et 3D par modélisation autorégressive bidimensionnelle d'une texture de type fourrure." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0081.

Full text
Abstract:
Dans de nombreux domaines tels que la mécanique des fluides ou l'imagerie cardiaque, les données manipulées consistent en des champs denses de vecteurs 2D ou 3D représentant par exemple une vitesse de déplacement. Le volume important que représentent ces données ainsi que leur complexité rendent leur visualisation particulièrement difficile. Leur interprétation et leur compréhension nécessite l'élaboration de techniques de visualisation efficaces. Dans ce cadre, nous proposons une nouvelle représentation de champs de vecteurs basée sur une texture de type fourrure. Nous considérons qu'une telle texture fournit une représentation naturelle d'un champ dense de vecteurs et par suite intuitive et facile à interpréter. Nous avons conçu une technique de synthèse 2D de ce type de texture qui produit des images d'aspect visuel satisfaisant. Cette technique est peu coûteuse en temps de calcul et permet de contrôler les principaux attributs de la texture (orientation et longueur des filaments). Pour cela, nous avons utilisé un modèle autorégressif 2D (AR 2D) dont les paramètres ont été identifiés à partir d'un ensemble d'images de texture 3D synthétisées par une modélisation en Hypertexture. Nous nous sommes ensuite intéressés à l'exploitation du procédé pour la représentation de champs denses de vecteurs. Différentes représentations de champs de vecteurs 2D sont testées en utilisant des données de simulation et des données réelles issues de 1 'imagerie cardiaque. De plus, pour pouvoir représenter des champs de vecteurs 3D définis sur des surfaces 3D, nous avons développé une procédure de plaquage de texture appropriée. Deux applications sont ensuite présentées. L'une en synthèse d'images, concerne la représentation de champs de vecteurs particuliers simulant une fourrure sur des objets 3D. La seconde application intéresse l'imagerie médicale et a pour but la visualisation du mouvement des parois cardiaques
In many areas such as fluid dynamics or medical imaging, the analysis of studied phenomena produces complex data that consists in large vector fields. The vectors represent some characteristic of each point on the field such as: a fluid vorticity, a wind velocity or a motion speed. The visualization of vector fields is not straightforward because they have no natural representation. In this work, we propose to build a new representation of vector fields based on furlike texture. We assume that such a texture provides a natural and intuitive representation of a dense vector field. Our approach consists in the development of a texture model that allows 2D synthesis of furlike texture having a 3D aspect. The model is based on the modeling of the texture autocorrelation function (ACF) and a two dimensional Auto Regressive synthesis (2D AR). This provides a simple and efficient 2D generator of furlike texture with a local control of the main attributes of the texture (orientation and length of filaments). We have experimented the use of this texture model to represent vector fields. We use orientation, length and color attributes of our furlike texture to visualize local orientation and magnitude of a 2D vector field. Results are presented using simulated data and cardiac imaging data. We also show how to visualize 3D vector fields defined over 3D surfaces by a simple and appropriate texture mapping procedure. We have applied this technique for special vector fields that simulate fur appearance on 3D objects. This produces images with quite realistic aspect
APA, Harvard, Vancouver, ISO, and other styles
12

Champollion, Cédric. "Quantification de la vapeur d'eau troposphérique par GPS (modèles 2D et tomographies 3D) : application aux précipitations intenses." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00011387.

Full text
Abstract:
La vapeur d'eau joue un rôle majeur dans le fonctionnement climatique et météorologique de la Terre. C'est notamment une variable clé pour comprendre les phénomènes de convection à l'origine des précipitations intenses. Or les prévisions quantitatives des pluies ne s'améliorent pas depuis 20 ans parce que - entre autres - la mesure de la variabilité de la vapeur d'eau est une lacune des systèmes d'observations. La précision de la mesure du contenu intégrée en vapeur d'eau par le système GPS est démontrée depuis une dizaine d'années. La tomographie GPS permet aujourd'hui de restituer le champ 3D de vapeur d'eau.
Ce mémoire présente la théorie (méthodes des moindres carrés et filtre de Kalman), la validation et les applications du logiciel LOFTT_K de tomographie troposphérique GPS développé pendant cette thèse. La tomographie a été validée grâce à des simulations, des modèles météorologiques et des mesures indépendantes. Elle a ensuite été utilisée pour comprendre les interactions petites échelles entre les dynamiques locales (les brises) et de mésoéchelle (le mistral). Le GPS météorologique a permis aussi de caractériser les variations d'humidité pendant les pluies cévenoles. Enfin la tomographie GPS régionale a mis en évidence un mécanisme de chargement en humidité de l'atmosphère avant l'initiation de la convection.
A l'avenir, les données GPS seront assimilées dans les modèles opérationnels de prévision météorologique. Elles doivent aussi servir à approfondir la connaissance des relations entre les précipitations, la convection et la dynamique de la vapeur d'eau.
APA, Harvard, Vancouver, ISO, and other styles
13

Monnier, Fabrice. "Amélioration de la localisation 3D de données laser terrestre à l'aide de cartes 2D ou modèles 3D." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1114/document.

Full text
Abstract:
Les avancées technologiques dans le domaine informatique (logiciel et matériel) et, en particulier, de la géolocalisation ont permis la démocratisation des modèles numériques. L'arrivée depuis quelques années de véhicules de cartographie mobile a ouvert l'accès à la numérisation 3D mobile terrestre. L'un des avantages de ces nouvelles méthodes d'imagerie de l'environnement urbain est la capacité potentielle de ces systèmes à améliorer les bases de données existantes 2D comme 3D, en particulier leur niveau de détail et la diversité des objets représentés. Les bases de données géographiques sont constituées d'un ensemble de primitives géométriques (généralement des lignes en 2D et des plans ou des triangles en 3D) d'un niveau de détail grossier mais ont l'avantage d'être disponibles sur de vastes zones géographiques. Elles sont issues de la fusion d'informations diverses (anciennes campagnes réalisées manuellement, conception automatisée ou encore hybride) et peuvent donc présenter des erreurs de fabrication. Les systèmes de numérisation mobiles, eux, peuvent acquérir, entre autres, des nuages de points laser. Ces nuages laser garantissent des données d'un niveau de détail très fin pouvant aller jusqu'à plusieurs points au centimètre carré. Acquérir des nuages de points laser présente toutefois des inconvénients :- une quantité de données importante sur de faibles étendues géographiques posant des problèmes de stockage et de traitements pouvant aller jusqu'à plusieurs Téraoctet lors de campagnes d'acquisition importantes- des difficultés d'acquisition inhérentes au fait d'imager l'environnement depuis le sol. Les systèmes de numérisation mobiles présentent eux aussi des limites : en milieu urbain, le signal GPS nécessaire au bon géoréférencement des données peut être perturbé par les multi-trajets voire même stoppé lors de phénomènes de masquage GPS liés à la réduction de la portion de ciel visible pour capter assez de satellites pour en déduire une position spatiale. Améliorer les bases de données existantes grâce aux données acquises par un véhicule de numérisation mobile nécessite une mise en cohérence des deux ensembles. L'objectif principal de ce manuscrit est donc de mettre en place une chaîne de traitements automatique permettant de recaler bases de données géographiques et nuages de points laser terrestre (provenant de véhicules de cartographies mobiles) de la manière la plus fiable possible. Le recalage peut se réaliser de manière différentes. Dans ce manuscrit, nous avons développé une méthode permettant de recaler des nuages laser sur des bases de données, notamment, par la définition d'un modèle de dérive particulièrement adapté aux dérives non-linéaires de ces données mobiles. Nous avons également développé une méthode capable d'utiliser de l'information sémantique pour recaler des bases de données sur des nuages laser mobiles. Les différentes optimisations effectuées sur notre approche nous permettent de recaler des données rapidement pour une approche post-traitements, ce qui permet d'ouvrir l'approche à la gestion de grands volumes de données (milliards de points laser et milliers de primitives géométriques).Le problème du recalage conjoint a été abordé. Notre chaîne de traitements a été testée sur des données simulées et des données réelles provenant de différentes missions effectuées par l'IGN
Technological advances in computer science (software and hardware) and particularly, GPS localization made digital models accessible to all people. In recent years, mobile mapping systems has enabled large scale mobile 3D scanning. One advantage of this technology for the urban environment is the potential ability to improve existing 2D or 3D database, especially their level of detail and variety of represented objects. Geographic database consist of a set of geometric primitives (generally 2D lines and plans or triangles in 3D) with a coarse level of detail but with the advantage of being available over wide geographical areas. They come from the fusion of various information (old campaigns performed manually, automated or hybrid design) wich may lead to manufacturing errors. The mobile mapping systems can acquire laser point clouds. These point clouds guarantee a fine level of detail up to more than one points per square centimeter. But there are some disavantages :- a large amount of data on small geographic areas that may cause problems for storage and treatment of up to several Terabyte during major acquisition,- the inherent acquisition difficulties to image the environment from the ground. In urban areas, the GPS signal required for proper georeferencing data can be disturbed by multipath or even stopped when GPS masking phenomena related to the reduction of the portion of the visible sky to capture enough satellites to find a good localization. Improve existing databases through these dataset acquired by a mobile mapping system requires alignment of these two sets. The main objective of this manuscript is to establish a pipeline of automatic processes to register these datasets together in the most reliable manner. Co-registration this data can be done in different ways. In this manuscript we have focused our work on the registration of mobile laser point cloud on geographical database by using a drift model suitable for the non rigid drift of these kind of mobile data. We have also developped a method to register geographical database containing semantics on mobile point cloud. The different optimization step performed on our methods allows to register the data fast enough for post-processing pipeline, which allows the management of large volumes of data (billions of laser points and thousands geometric primitives). We have also discussed on the problem of joint deformation. Our methods have been tested on simulated data and real data from different mission performed by IGN
APA, Harvard, Vancouver, ISO, and other styles
14

Oudinet, Ghislain. "Analyse d'images et modélisation 2D/3D de la microstructure du combustible MOX." Saint-Etienne, 2003. http://www.theses.fr/2003STET4011.

Full text
Abstract:
La microstructure du combustible nucléaire MOX, élaboré à partir de UO2 et de PuO2, détermine son comportement en réacteur. Le CEA et la COGEMA portent un intérêt grandissant à sa caractérisation par imagerie, objet du présent travail. Les algorithmes de segmentation qui sont développés ici s'appuient sur des images issues d'une microsonde et d'un MEB, pour analyser la répartition du plutonium et des porosités dans les pastilles de combustible. Ils sont novateurs, automatisés et assez robustes pour être utilisés sur un faible nombre de données. Ils ont été testés avec succès sur différents combustibles, avant et après irradiation. Des informations tridimensionnelles ont été calculées à l'aide d'un algorithme génétique. Les distributions en taille d'objet 3D obtenues ont permis de modéliser en volume différents combustibles industriels et de recherche. La reconstruction 3D est fiable et stable, et ouvre de nombreuses perspectives, dont l'étude du comportement sous irradiation du MOX
The microstructure of the MOX fuel, made with UO2 and PuO2, determines his " in pile " behavior. The french companies CEA and COGEMA are highly interested in its description by image analysis, which is the object of the present work. The segmentation algorithms described here use pictures issued from a microprobe and a SEM, to analyse the plutonium and porosity distribution in the fuel pellets. They are innovating, automated and robust enough to be used with a small data set. They have been successfully tested on different fuels, before and after irradation. Three-dimensional informations have been computed with a genetic algorithm. The obtained 3D object size distributions allowed the modeling of many different industrial and research fuels. 3D reconstruction is accurate and stable, and provides a basis for different studies among which the study of the MOX fuel " in pile " behavior
APA, Harvard, Vancouver, ISO, and other styles
15

Cissé, Issa. "Convection thermovibrationelle et thermosolutale 2D dans des cavités rectangulaires." Toulouse 3, 2003. http://www.theses.fr/2003TOU30111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Chabot, Florian. "Analyse fine 2D/3D de véhicules par réseaux de neurones profonds." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC018/document.

Full text
Abstract:
Les travaux développés dans cette thèse s’intéressent à l’analyse fine des véhicules à partir d’une image. Nous définissons le terme d’analyse fine comme un regroupement des concepts suivants : la détection des véhicules dans l’image, l’estimation de leur point de vue (ou orientation), la caractérisation de leur visibilité, leur localisation 3D dans la scène et la reconnaissance de leur marque et de leur modèle. La construction de solutions fiables d’analyse fine de véhicules laisse place à de nombreuses applications notamment dans le domaine du transport intelligent et de la vidéo surveillance.Dans ces travaux, nous proposons plusieurs contributions permettant de traiter partiellement ou complètement cette problématique. Les approches mises en oeuvre se basent sur l’utilisation conjointe de l’apprentissage profond et de modèles 3D de véhicule. Dans une première partie, nous traitons le problème de reconnaissance de marques et modèles en prenant en compte la difficulté de la création de bases d’apprentissage. Dans une seconde partie, nous investiguons une méthode de détection et d’estimation du point de vue précis en nous basant sur l’extraction de caractéristiques visuelles locales et de la cohérence géométrique. La méthode utilise des modèles mathématiques uniquement appris sur des données synthétiques. Enfin, dans une troisième partie, un système complet d’analyse fine de véhicules dans le contexte de la conduite autonome est proposé. Celui-ci se base sur le concept d’apprentissage profond multi-tâches. Des résultats quantitatifs et qualitatifs sont présentés tout au long de ce manuscrit. Sur certains aspects de l’analyse fine de véhicules à partir d’une image, ces recherches nous ont permis de dépasser l’état de l’art
In this thesis, we are interested in fine-grained analysis of vehicle from an image. We define fine-grained analysis as the following concepts : vehicle detection in the image, vehicle viewpoint (or orientation) estimation, vehicle visibility characterization, vehicle 3D localization and make and model recognition. The design of reliable solutions for fine-grained analysis of vehicle open the door to multiple applications in particular for intelligent transport systems as well as video surveillance systems. In this work, we propose several contributions allowing to address partially or wholly this issue. Proposed approaches are based on joint deep learning technologies and 3D models. In a first section, we deal with make and model classification keeping in mind the difficulty to create training data. In a second section, we investigate a novel method for both vehicle detection and fine-grained viewpoint estimation based on local apparence features and geometric spatial coherence. It uses models learned only on synthetic data. Finally, in a third section, a complete system for fine-grained analysis is proposed. It is based on the multi-task concept. Throughout this report, we provide quantitative and qualitative results. On several aspects related to vehicle fine-grained analysis, this work allowed to outperform state of the art methods
APA, Harvard, Vancouver, ISO, and other styles
17

Hamlaoui, Soumya. "Suivi 2D de visages et de mouvements faciaux." Compiègne, 2006. http://www.theses.fr/2006COMP1531.

Full text
Abstract:
Cette thèse traite de la problématique du suivi de visages dans des séquences vidéo. Nos objectifs pratiques se situent à deux niveaux distincts et complémentaires : le mouvement global 2D du visage et les mouvements faciaux internes. La robustesse de l'approche proposée est conditionnée par sa capacité à intégrer des perturbations extérieures telles que les variations d'éclairage et les problèmes d'occultation du visage. Pour cela, nous proposons un suivi stochastique basé sur le filtrage particulaire. La distribution des observations est dérivée soit d'un modèle actif d'apparence, soit d'un modèle d'apparence calculé en ligne. L'évolution du système d'état est décrite par une dynamique guidée par une recherche déterministe. Le nombre de particules est ajusté aux besoins effectifs du suivi à chaque pas temporel. L'utilisation d'une mesure robuste augmente la robustesse du suivi en cas d'occultation. Les tests d'évaluation des méthodes proposées montrent des résultats satisfaisants
Tracking a face and its facial features in a video sequence is a challenging problem in computer vision. This thesis addresses the problem of tracking the 2D global motion of a face as well as the local motion of its inner features. Ln this thesis, we propose a stochastic approach based on a particle filtering scheme. The observation distribution is derived from an active appearance model, or from an on-Iine estimated appearance model. The dynamics describing the state system evolution are guided by a deterministic research. The particle number is adjusted to the effective needs of the tracking at each time step. This adjustment allows an optimization of the computing time. We also use a robust distance measure which increases the tracking robustness when the face is partially occulted. Experiments on real video show encouraging results
APA, Harvard, Vancouver, ISO, and other styles
18

Bouchetob, Ahmed Lazhar Fodhil. "Contribution à la modélisation en 2D et 3D du phénomène de discage." Lille 1, 1994. http://www.theses.fr/1994LIL10198.

Full text
Abstract:
L'un des problemes essentiel en mecanique des roches appliquee est la recuperation de carottes intactes lors du forage de puits petroliers pour les analyses d'identification des echantillons au laboratoire. Le theme de notre recherche est la contribution a la modelisation de l'initialisation de la rupture des carottes par une approche en bi et tridimensionnelle. Ce phenomene de rupture appele discage depend essentiellement des parametres geomecaniques de la roche, des parametres geometriques de la couronne du carottier, de la pression de boue et des contraintes geostatiques. Une modelisation par elements finis permet de mener une etude parametrique dans le but d'ameliorer la technique de carottage. Dans un premier temps, nous avons procede a l'etude du phenomene de discage par une approche en symetrie de revolution. Le principe consiste a la determination d'un domaine de non discage dans le but d'obtenir des carottes intactes a partir des conditions de forage en profondeur variable. L'objectif recherche est d'etudier l'influence des differents parametres sur les contraintes de discage. Un mailleur automatique du domaine de fond de puits permet la generation de plusieurs formes de saignee en un minimum de temps. Dans la seconde phase, l'analyse du discage est effectuee selon une approche tridimensionnelle. Cette approche permet de tenir compte d'un etat de contraintes anisotropes, pour des puits verticaux et devies. En outre, cela permet d'etudier l'influence des efforts d'interaction outil-roche, a savoir ; le couple et le poids sur l'outil. En ce sens, il a ete developpe un mailleur automatique tridimensionnel avec la possibilite d'effectuer des loupes sur la zone a haute probabilite de rupture. D'autre part, un modele theorique pour l'estimation des efforts d'interaction a ete mis au point theorique pour l'estimation des efforts d'interaction a ete mis au point.
APA, Harvard, Vancouver, ISO, and other styles
19

Poli, Emmanuelle. "Stratigraphie séquentielle haute-résolution, modèles de dépôt et géométrie 2D-3D des séquences triasiques de la marge téthysienne ardéchoise." Dijon, 1997. http://www.theses.fr/1997DIJOS081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Lafrance, Frederick. "Vers une plateforme cartographique web 2D/3D - dynamique pour la participation citoyenne." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/33141.

Full text
Abstract:
Les globes virtuels Web peuvent faciliter la communication entre les urbanistes et les citoyens. Des études récentes ont montré que les représentations 3D plutôt que 2D peuvent être plus efficaces dans la communication de l'information. Cependant, une telle visualisation présente plusieurs défis, y compris le niveau de détail et de réalisme. La compréhension par les citoyens de l'impact de leurs choix lors d’une consultation pourrait être améliorée en exploitant des simulations spatiotemporelles. Pourtant, la 4D (3D + temps) a rarement été intégrée aux plateformes de participation citoyenne. Ainsi, l'objectif principal de cette recherche était de développer une plateforme de cartographie Web combinant des visualisations multidimensionnelles (2D, 3D, 4D) de manière intuitive, afin que les citoyens puissent mieux évaluer et comprendre les enjeux de la consultation. Pour atteindre cet objectif, des lignes directrices de représentation adaptées à la consultation citoyenne ainsi que des simulations spatiotemporelles ont été conçues. Ces concepts ont ensuite été intégrés au sein d’une plateforme de cartographie Web 4D mettant en vedette le globe virtuel Cesium. Des tests utilisateurs ont été réalisés avec 21 participants expérimentés qui ont utilisé un questionnaire intégré à la plateforme pour valider les concepts. Le questionnaire contenait 5 scénarios réalistes simulés de participation citoyenne, dans lesquels les participants ont évalué l'intuitivité des représentations choisies ainsi que les concepts liés à cette recherche. Les résultats ont montré que les informations spatiales partagées au sein des consultations citoyennes peuvent être intuitivement représentées par une combinaison de dimensions 2D, 3D et 4D. De plus, cette combinaison permet également de mieux comprendre les impacts liés aux choix effectués lors de la consultation. La plateforme proposée dans ce projet est un premier pas vers un outil plus complet dédié à la participation citoyenne. Les futurs travaux viseront à utiliser la plateforme dans un contexte réel de consultation citoyenne.
Web virtual globes can facilitate communication between urban planners and citizens. Recent studies have shown that 3D rather than 2D representations can be more effective in communicating information. However, such visualization presents several challenges, including the level of detail, realism and abstraction. Citizens' understanding of the impact of the choices they make during urban planning consultations could be improved by exploiting spatiotemporal simulations. Yet, 4D (3D + time) has rarely been integrated to citizen participation platforms. Therefore, the main objective of this research was to develop a web mapping platform combining multidimensional visualizations (2D, 3D, 4D) in an efficient and intuitive way, so that citizens can better assess and understand the issues of the consultation at stake. To achieve this objective, representation guidelines adapted to citizen consultation as well as spatiotemporal simulations were designed. These concepts were then integrated into a 4D web mapping platform featuring the virtual globe Cesium. User testing was done with 21 experienced participants who used a questionnaire integrated into the platform to validate the concepts. The questionnaire contained 5 simulated realistic case scenarios of citizen participation, in which the participants assessed the intuitiveness of the chosen representations as well as the concepts related to this research. Results showed that spatial information shared within citizen consultations can be intuitively represented through a combination of 2D, 3D and 4D dimensions. Moreover, this combination also offers a better understanding of the impacts related to choices made during the consultation. We consider that the platform proposed in this project is a first step toward a more complete tool dedicated to citizen participation. Future works will aim to use the platform in a real context of citizen consultation.
APA, Harvard, Vancouver, ISO, and other styles
21

Micheli, Pascal de. "Formulation explicite en tétraèdres linéaires pour la modélisation 2D et 3D de l'UGV." Paris, ENMP, 2009. http://tel.archives-ouvertes.fr/tel-00409570.

Full text
Abstract:
Cette thèse a pour but de proposer une formulation EF adaptée à la modélisation de l'usinage à grande vitesse en pointe d'outil. La simulation doit pouvoir détecter les phénomènes extrêmement localisés qui peuvent apparaître, avec des temps de calcul raisonnables. L'implémentation est réalisée à l'aide de la librairie EF CimLib, offrant un remailleur adaptatif robuste non structuré et permettant le calcul massivement parallèle. Le travail se décompose en deux parties. La première consiste à développer, implémenter et valider une formulation de type explicite non sensibles au locking volumique, permettant l'utilisation d'algorithmes de remaillage non structurés robustes. Deux formulations sont comparées en dynamique rapide: une semi-explicite, basée sur des éléments tétraédriques mixtes avec stabilisation bulle et une explicite, basée sur des éléments tétraédriques linéaires modifiés. La seconde partie consiste à appliquer la formulation explicite, retenue pour son efficacité, au cas particulier de l'usinage à grande vitesse. Une résolution thermique est implémentée et couplée à la mécanique. Des simulations thermomécaniques de coupe orthogonales 2D de Ti6Al4V sont réalisées. Les résultats obtenus sont en très bonne adéquation avec la littérature, et permettent d'importants gains de temps de calcul. L'initiation et la propagation de la bande de cisaillement dans le copeau peuvent être analysés précisément. Un algorithme de R-Adaptation surfacique a été ajouté afin d'étendre ces résultats en 3D. On peut alors se rapprocher de la réalité industrielle du procédé sans perdre en précision
The aim of this work is to present a FE formulation particularly adapted to the simulation of high speed machining at the cutting edge level. The modelling should be able to detect the very local phenomena that could occur, with reasonable computation times. This code is implemented using the FE library CimLib, which offers robust adaptive non-structured remeshers and allows massive parallel computing. This work can be split in two parts. The first one consist in developing, implementing and validating an explicit type formulation, which is not sensitive to volumetric locking and allows using robust adaptive non-structured remeshers. Two formulations have been compared in the field of rapid dynamics: a semi-explicit one with mixed tetrahedral elements and RFB stabilization and an explicit one with modified linear tetrahedral elements. The second part of the work consists in applying the explicit formulation presented above to high speed machining. A thermal solver is implemented and coupled to the mechanical one. 2D micro machining simulations of Ti6Al4V orthogonal cutting are performed. Results are in very good agreement with literature, and important calculation time sparing is observed. The initiation and propagation of the adiabatic shear band in the chip can be analyzed in details. A R-adaptation procedure has been added to the normal remeshing procedure in order to be able to extend those results in 3D. We can then get closer of the real industrial processes, without loosing precision
APA, Harvard, Vancouver, ISO, and other styles
22

Sbitti, Amine. "Propagation des fissures 2D et 3D planes sous chargement thermomécanique à amplitudes variables." Paris 6, 2009. http://www.theses.fr/2009PA066686.

Full text
Abstract:
Le travail de cette thèse porte sur la modélisation numérique de la propagation et l'arrêt de fissures 2D et 3D en fatigue thermique dans les circuits de refroidissement des réacteurs à l’arrêt (RRA) des centrales nucléaires. Plusieurs points sont abordés dans ce travail, tout d’abord nous avons mis au point dans le code éléments finis Code_Aster une stratégie afin de pouvoir simuler automatiquement la propagation et l’arrêt d’une fissure unique ou d’un réseau de fissures tridimensionnelles, sous chargement thermomécanique à amplitude et fréquence variables. Nous avons étudié également l’arrêt d’une fissure 2D et 3D (semi – elliptique) dans un tube de même géométrie que les circuits RRA et soumis à un chargement thermique sinusoïdal, l’objectif est de déterminer les paramètres du chargement thermique avec lesquels la fissure s’arrête. L’influence du réseau sur l’arrêt des fissures dans le cas 3D est aussi traitée, des simulations tridimensionnelles ont permis d'obtenir des informations sur la progression des fronts dans l'épaisseur. On propose ici de traiter la propagation et la coalescence par des modèles de forces cohésives. La dernière partie de ce travail traite le décollement d’un film mince sous chargement cyclique. En adoptant l’approche variationnlle de la fatigue, nous proposons d’étendre la construction des lois de fatigue limite pour des chargements cycliques d’amplitudes variables. On s’intéresse essentiellement à la propagation de fissure en mode I
APA, Harvard, Vancouver, ISO, and other styles
23

Olivier, Julien. "Méthodes d'accélération et approches supervisées pour les contours actifs : applications à la segmentation d'images 2D, 3D et texturées." Thesis, Tours, 2009. http://www.theses.fr/2009TOUR4029/document.

Full text
Abstract:
Dans cette thèse, plusieurs approches permettant d’améliorer les contours actifs sont présentées. Trois méthodes d’accélération ont été développées pour les modèle paramétriques se déformant par évolution gloutonne et appliquées à la segmentation 2D et 3D. Leur principe est d’autoriser une gestion dynamique de la grille de voisinage de chaque point de contrôle du contour actif. Deux modèles supervisés implémentés à l’aide des ensembles de niveaux sont également détaillés. Ceux-ci se basent sur les caractéristiques de textures d’Haralick et utilisent une image d’apprentissage possédant une segmentation experte. Le premier modèle est un contour actif basé région inspiré du modèle de Chan et Vese. Le principe de la programmation linéaire est alors utilisé pour déterminer le poids optimal à affecter à chaque coefficient d’Haralick. Le deuxième modèle introduit un classificateur binaire, appris grâce à la segmentation experte, directement dans l’équation d’évolution du contour actif. Les deux modèles sont appliqués à la segmentation d’images texturées 2D et 3D
In this work, several approaches developed to improve active contours are presented. Three acceleration methods have been developed for parametric models evolving with the greedy algorithm, and applied to 2D and 3D segmentation. Their principle is to dynamically manage the neighbourhood grid of each control point of the active contour. Two supervised level set models are also detailed. Both are based on Haralick texture features and use a learning image with an expert segmentation. The first model is a region-based active contour, inspired by the model developed by Chan and Vese. Linear programming principle is used to determine the optimal weight of each Haralick coefficient. The second model introduces a binary classifier in the motion equation of the active contour, the classifier being learned using the Haralick coefficients, extracted from the learning image. Both models are applied to 2D and 3D textured image segmentation
APA, Harvard, Vancouver, ISO, and other styles
24

Zahri, Abdellatif. "Développement du modèle PIC-MCC 2D : application aux décharges radiofréquence." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1344/.

Full text
Abstract:
La méthode particle-In-Cell combinée avec la technique Monte-Carlo est une méthode bien établie pour la modélisation des plasmas, et elle est très utilisée pour simuler les réacteurs de faible pression pour les décharges radiofréquences (RF). Cette technique est une méthode simple et efficace permettant de résoudre une large variété de problèmes complexes impliquant un grand nombre de particules en mouvement sous l'action des forces engendrées par elles-mêmes ainsi que les forces externes appliquées. Le but de notre modèle est de comprendre et de caractériser le comportement du plasma à basse pression pour une géométrie à deux dimensions. Nous voulons comprendre ce qui se passe dans la gaine et en particulier le comportement des ions. Dans ce travail, nous décrivons les modèles PIC-MCC et leurs techniques indispensables à la construction de tels modèles. Nous avons choisi cette technique par sa qualité de description de la physique du plasma. En effet, cette technique fournit plus de précisions et sans aucune hypothèse sur la fonction de distribution des électrons ou des ions, ce qui est loin d'être le cas pour les autres modèles notamment les modèles fluides. Nous montrons certaines fonctions de distribution (densité et énergie des particules chargées, EEDF,. . . ), les caractéristiques électriques de la décharge seront étudiées. Ce travail s'inscrit dans le cadre du projet européen EMDPA: New Elemental and Molecular Depth Analysis of advanced materials by modulated radio frequency glow discharge time of flight mass spectrometry. Ce projet est financé par la commission européenne via le programme de recherche pour le développement technologique
The particle-in-cell method combined with the Monte Carlo techniques is a well established method for plasma modelling, and is widely used to simulate low pressure radiofrequency discharges. This technique is a simple and effective method for solving a wide variety of complex problems involving a large number of particles moving under the action of internal forces and external forces (electromagnetic fields. . . ) The purpose of our model is to understand and characterize the behaviour of low pressure plasmas in a two-dimensional geometry. We want to understand what is happening in the sheath and in particular the behaviour of the ions. In this work, we describe the PIC-MCC models and techniques needed to build such models. We chose this technique by its ability to describe correctly the plasma physics at low pressure. Indeed, this technique provides more details without any assumption on the distribution function of electrons or ions, which is far from being the case for other models including fluid models. We show some distribution functions (density and energy of charged particles, EEDF) ; the electrical characteristics of the discharge are presented. This work is part of the European project EMDPA : New Elemental and Molecular Depth Analysis of advanced materials by modulated radio frequency glow discharge time of flight mass spectrometry. This project is funded by the European Commission through the research program for technological development
APA, Harvard, Vancouver, ISO, and other styles
25

Ghigo, Arthur. "Modèles simplifiés d’écoulements sanguins appliqués à des réseaux de grandes artères." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066422/document.

Full text
Abstract:
La contraction périodique du coeur est à l’origine de l’onde de pouls qui, de part son interaction avec les artères élastiques, le sang et le réseau artériel lui-même, devient le signal observé quotidiennement par les médecins. Cette dynamique ondulatoire est d’une importance primordiale dans la compréhension de la genèse de nombreuses maladies cardiovasculaires. En effet, ce sont souvent des facteurs hémodynamiques qui sont à l’origine de la croissance de ces pathologies. Malheureusement, les mesures non-invasives et l’imagerie médicale sont souvent insuffisantes pour appréhender la complexité des écoulements sanguins. La simulation numérique est donc en plein essor car celle-ci permet d’obtenir des données précises dans des régions vasculaires difficiles d’accès. Bien que les modèles sanguins tridimensionnels soient très précis et permettent de reproduire fidèlement la géométrie vasculaire, leur coût, à la fois numérique et paramétrique, est trop important pour que ceux-ci soient utilisés dans de grands réseaux vasculaires. Nous avons donc choisi d’utiliser des modèles simplifiés qui permettent d’accéder à cette dynamique de réseau si importante. Premièrement, nous nous sommes intéressés aux modèles unidimensionnels et nous avons développé de nouvelles approches permettant de prendre en compte l’aspect non-Newtonien du sang et la viscoélasticité des parois artérielles. Secondement, nous avons proposé un modèle bidimensionnel, que nous avons utilisé pour simuler l’écoulement dans des sténoses et anévrismes. Finalement, nous avons utilisé ces modèles pour décrire l’écoulement du sang dans de grands réseaux artériels et pour optimiser un pontage extracorporel
Every cardiac cycle, the heart contracts and ejects blood into the vascular network. This periodic inflow translates into the propagation of a pulse wave, which, through interactions with the elastic arterial wall, the blood and the complex arterial network, shapes itself into the pulsatile signal clinicians observe on a daily basis. Understanding these complex wave propagation dynamics is of great clinical relevance as large arteries are a breeding ground for many common cardiovascular pathologies which are often triggered by hemodynamical factors. Unfortunately, hemodynamics in large arteries are too complex to be apprehended using only non-invasive measurements and medical imaging techniques. Patient-specific numerical simulations of blood flow have therefore been developed to provide clinicians with valuable insights on pathogenesis and the outcome of surgeries. As three-dimensional models are usually used only in small portions of the cardiovascular system due to their high modeling and computational costs, we have used reduced-order models to reproduce complex wave propagation behaviors in large networks of arteries. We have first focused on one-dimensional models for blood flow and developed novel approaches that take into account the non-Newtonian behavior of blood and the viscoelastic response of the arterial wall. Next, we have proposed a fluid-structure interaction twodimensional blood flow model to capture the complex flow patterns in stenoses and aneurysms unavailable to classical one-dimensional models. Finally, we have applied these models to compute the flow in large arterial networks and to predict the outcome of bypass surgeries
APA, Harvard, Vancouver, ISO, and other styles
26

Weibel, Thomas. "Modèles de minimisation d'énergies discrètes pour la cartographie cystoscopique." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00866824.

Full text
Abstract:
L'objectif de cette thèse est de faciliter le diagnostic du cancer de la vessie. Durant une cystoscopie, un endoscope est introduit dans la vessie pour explorer la paroi interne de l'organe qui est visualisée sur un écran. Cependant, le faible champ de vue de l'instrument complique le diagnostic et le suivi des lésions. Cette thèse présente des algorithmes pour la création de cartes bi- et tridimensionnelles à large champ de vue à partir de vidéo-séquences cystoscopiques. En utilisant les avancées récentes dans le domaine de la minimisation d'énergies discrètes, nous proposons des fonctions coût indépendantes des transformations géométriques requises pour recaler de façon robuste et précise des paires d'images avec un faible recouvrement spatial. Ces transformations sont requises pour construire des cartes lorsque des trajectoires d'images se croisent ou se superposent. Nos algorithmes détectent automatiquement de telles trajectoires et réalisent une correction globale de la position des images dans la carte. Finalement, un algorithme de minimisation d'énergie compense les faibles discontinuités de textures restantes et atténue les fortes variations d'illuminations de la scène. Ainsi, les cartes texturées sont uniquement construites avec les meilleures informations (couleurs et textures) pouvant être extraites des données redondantes des vidéo-séquences. Les algorithmes sont évalués quantitativement et qualitativement avec des fantômes réalistes et des données cliniques. Ces tests mettent en lumière la robustesse et la précision de nos algorithmes. La cohérence visuelle des cartes obtenues dépasse celles des méthodes de cartographie de la vessie de la littérature.
APA, Harvard, Vancouver, ISO, and other styles
27

Manchon, Louis. "On the transport of angular momentum in stellar radiative zones in 2D." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASP006.

Full text
Abstract:
La rotation a d'importantes conséquences sur la structure interne des étoiles et leur évolution. La force centrifuge déforme l'étoile et s'oppose à la gravité, mimant une étoile de plus faible masse. Plus important encore, la circulation méridienne et la turbulence induites par la rotation mélangent les éléments chimiques, prolongeant la vie de l'étoile et altérant la détermination de son âge, un problème majeur en astrophysique. Enfin, l'interaction rotation-convection génère des champs magnétiques. L'activité associée a une influence décisive sur la survie des atmosphères planétaires. Les données astérosismiques des missions spatiales CoRoT et Kepler ont montré que les modèles 1D actuels de transport du moment cinétique dans les zones radiatives (viscosité turbulente et circulation méridienne) ne sont pas satisfaisants. D'autres mécanismes doivent être actifs: les ondes internes de gravité, les champs magnétiques, etc. Tous les modèles les décrivant sont actuellement incomplets et doivent en particulier tenir compte des effets 2D. La description 1D de la rotation est généralement justifiée par le fait que, dans les zones radiatives, la turbulence est beaucoup plus forte horizontalement que verticalement, supprimant les variations latitudinales de vitesse angulaire. Cette hypothèse pourrait être invalide près de l'axe de rotation. De plus, les ondes internes de gravité étant générées à la base des enveloppes convectives, le décalage Doppler qu'elles subissent en entrant dans la zone radiative dépend de la latitude. Elles sont ensuite filtrées dans la zone de transition entre les régions convective et radiative, présentant une forte rotation différentielle. Cette thèse est dédiée à l'implémentation dans un code d'évolution stellaire d'un traitement simplifié du transport du moment cinétique en 2D. Ce traitement est basé sur une méthode de déformation permettant de calculer la structure 2D de l'étoile, ainsi que les perturbations des différents champs induites par la rotation. Le transport du moment cinétique est ensuite traité en 2D, et permettra d'étudier plus en détail d'autres mécanismes de transport
Rotation has important consequences for stellar internal structure and evolution. The centrifugal force deforms the star and balances gravity, mimicking a lower mass star. Most importantly, meridional circulations and rotation-induced turbulence mixes chemical elements, extending the stellar lifetime and affecting age determinations, one of the most important problems in astrophysics. Lastly, the rotation-convection interaction generates magnetic fields. The associated activity has a determining influence on the survival of planetary atmospheres. Asteroseismic data from the space missions CoRoT and Kepler have shown that current 1D models of angular momentum transport in radiative zones (turbulent viscosity and meridional circulation) are not satisfactory. Other mechanisms must be active, such as internal gravity waves, magnetic fields, etc. All models proposed for these mechanisms are incomplete and must, in particular, account for 2D effects. The 1D description of rotation is usually justified by the fact that turbulence is much stronger horizontally than vertically in radiative zones, suppressing variations of angular velocity. This assumption may not be verified at near the rotation axis. Moreover, because internal gravity waves are generated at the base of convective envelopes, the Doppler shift experienced by these waves when they enter the radiative zone should depend on latitude. These waves are further filtered in the transition zone between the convective and radiative zones, a zone that has a strong differential rotation. This PhD is devoted to the implementation in a stellar evolution code of a simplified treatment of transport of angular momentum in 2D. This treatment is based on a deformation method that enables the computation of the 2D structure of the star, as well as the rotation-induced perturbations of the various fields. The transport of angular momentum is then treated in 2D, and will allow the further study of extra mechanisms of transport
APA, Harvard, Vancouver, ISO, and other styles
28

Dehais, Christophe. "Contributions pour les applications de réalité augmentée : suivi visuel et recalage 2D. Suivi d'objets 3D représentés par des modèles par points." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7244/1/dehais.pdf.

Full text
Abstract:
Cette thèse présente plusieurs méthodes de recalage pour les applications de réalité augmentée (R.A.). Nous décrivons d'abord des expériences de R.A. utilisant des recalages et suivis uniquement 2D. Nous nous intéressons ensuite au suivi visuel d'un objet naturel dont on connaît un modèle 3D et dont l'image peut ainsi être augmentée avec une cohérence spatiale et temporelle. Dans une première partie, nous proposons d'abord d'utiliser un recalage homographique en temps-réel pour augmenter des séquences filmées par une caméra en rotation autour de son centre optique. Dans une autre application, des transformations non rigides sont calculées hors ligne pour augmenter les images naturelles des parois gravées d'une grotte préhistorique. Le recalage géométrique des interprétations graphiques d'un préhistorien permet de créer un logiciel de découverte interactive des parois. Dans la seconde et majeure partie de ce travail, nous partons des méthodes de suivi 3D de l'état de l'art prises parmi les plus performantes. Ces méthodes consistent à suivre un objet naturel connaissant sa représentation par un maillage 3D. Nous proposons une approche de suivi visuel 3D utilisant quant à elle des modèles par points de l'objet. Ce type de modèle, caractérisé par l'absence de topologie, est encore peu utilisé en vision par ordinateur mais il présente une souplesse intéressante par rapport aux modèles constitués de facettes. La méthode de suivi que nous proposons consiste à interpréter des mises en correspondances 2D entre points d'intérêt en termes de variations de positions 3D. Le processus d'estimation sous-jacent utilise des champs de mouvements déduits des modèles 3D par points et des reconstructions par Moving Least Squares et splatting. Ces techniques développées par la communauté d'informatique graphique s'attachent à reconstruire localement (explicitement ou implicitement) la surface de l'objet à suivre et certains attributs dénis de manière éparse sur le nuage de points. Nous les adaptons à l'interpolation des champs de mouvements. L'avantage de notre approche est d'aboutir à un algorithme enchaînant quelques étapes d'estimation linéaires pour la détermination du mouvement 3D inter-images. Notre technique de résolution est intégrée à une adaptation originale d'un algorithme de suivi visuel de l'état de l'art qui repose sur un suivi hybride, combinant les informations issues de l'image précédente et celles apportées par des images clés acquises hors ligne. Une des particularités de notre implantation vient aussi de l'exploitation des capacités des unités de calcul graphiques (GPU) modernes pour les parties critiques de l'algorithme (extraction de points d'intérêt, appariement et calcul de champs de mouvements).
APA, Harvard, Vancouver, ISO, and other styles
29

Carette, Valérie. "Amélioration de la représentation géométrique 2D et 3D des agrégations de poissons en support à l'étude de leur évolution spatio-temporelle." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25876/25876.pdf.

Full text
Abstract:
Les systèmes d’information géographique (SIG) constituent des outils performants pour la gestion, l’analyse et la représentation de données spatiales. Ils sont utilisés dans de nombreux domaines dont en biologie marine. Parmi les phénomènes spatiaux étudiés en milieu marin, la dynamique des poissons fait l’objet de nombreuses recherches, étant donné l’importance des pêches dans l’économie des régions côtières et la nécessité de gérer ces ressources de façon durable. Un comportement clé des poissons est leur capacité à se regrouper pour former des agrégations. Une compréhension de ces agrégations est nécessaire afin d’établir des stratégies de reconstruction efficaces des ressources halieutiques en déclin. Cependant, les méthodes existantes utilisées pour représenter les agrégations de poissons ne modélisent pas ces agrégations explicitement en tant qu’objets spatiaux. De plus, malgré les capacités intéressantes offertes par les SIG actuels, ces outils sont limités en raison de la nature tridimensionnelle, dynamique et floue des agrégations de poissons dans le milieu marin. L’objectif principal de ce mémoire est de proposer de nouvelles approches pouvant permettre d’améliorer l’identification et la représentation spatiale des agrégations de poissons à des échelles régionale et locale. En 2D, l’approche proposée repose sur les modèles d’objets spatiaux flous découlant de la théorie des ensembles flous. Elle utilise une structure de données vectorielle pour représenter les limites des étendues minimale et maximale des agrégations de poissons et une structure de données matricielle pour modéliser la transition graduelle existant entre ces limites. Par ailleurs, en 3D, l’approche développée se base sur la triangulation Delaunay 3D et dynamique ainsi que sur l’algorithme de clustering 3D des α-shapes. Elle permet de détecter les agrégations contenues dans un jeu de données et de les reconstruire sous la forme d’objets 3D afin de pouvoir en étudier, par exemple, les propriétés morphologiques. L’application des approches proposées à des données halieutiques révèle plusieurs avantages et limitations qui sont discutés tout au long du mémoire.
Geographic information systems (GIS) are powerful tools to manage, analyse and represent spatial data. They are used in various disciplines, including marine biology. One of the most important phenomena intensively studied by marine biologists is the dynamics of fish. This is partly because there is an increasing need for sustainable management of fisheries which are very important in the economy of coastal zones. Fish aggregations are a fundamental component of these dynamics and should be better understood to establish efficient recovery strategies in the context of declining aquatic resources. However, the traditional representations of fish aggregations do not model those aggregations explicitly as spatial objects. Moreover, despite many interesting capabilities of current GIS, these tools are unable to handle the tridimensional, dynamic and fuzzy nature of fish aggregations. The main objective of this thesis is to propose new approaches to improve the representation of fish aggregations at the regional and local scales. In 2D, the proposed approach is based on the fuzzy spatial objects models, which are based on the fuzzy sets theory. It uses a vector data structure to delineate the maximal and minimal extents of fish aggregations and a raster data structure to model the gradual transition which exists between these boundaries. In 3D, the proposed approach for the representation of fish aggregations is based on the dynamic Delaunay tetrahedralisation and the 3D α-shapes clustering algorithm. The integrated algorithm allows automatic detection of the fish aggregations contained in a dataset. 3D models also allow amongst other things the study of the morphological properties of the different aggregations. Testing these approaches with fisheries data (e.g. datasets from scientific surveys, acoustic datasets) revealed several benefits and limitations which are discussed throughout this thesis.
APA, Harvard, Vancouver, ISO, and other styles
30

Al, Bitar Ahmad. "Modélisation des écoulements en milieu poreux hétérogènes 2D / 3D, avec couplages surface / souterrain et densitaires." Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7712/1/al_bitar.pdf.

Full text
Abstract:
Dans ce travail, on considère la modélisation des écoulements dans des hydro-systèmes comprenant des sols et des aquifères géologiquement complexes et hétérogènes. On considèrera par exemple le cas d’un aquifère côtier soumis à l’intrusion saline, avec couplage densitaire (eau douce / eau salée), phénomène auquel peuvent se greffer d’autres couplages (écoulements à saturation variable, couplages surface / souterrain). On choisit une approche ayant les caractéristiques suivantes : - le modèle est spatialement distribué afin de représenter l’hétérogénéité du milieu ; - le modèle est fortement couplé afin d’appréhender les écoulements dans leur complexité physique. On utilise dans ce but un modèle fortement intégré, à une seule équation générique de type EDP, basée sur une loi de Darcy généralisée permettant de décrire différents "régimes" d’écoulements la co-existant dans un même domaine, tout en conservant robustesse et efficacité. Le travail est divisé en trois parties : dans une première partie on élabore un nouveau modèle numérique 3D, pour la modélisation des écoulements en milieux poreux à densité variable dans l’hypothèse d’une interface abrupte. Ce nouveau modèle est basé sur des relations ‘effectives’ non linéaires de saturation et de perméabilité, dans une équation d’écoulement de type Richards modifiée. La seconde partie correspond à l’élaboration et l’implémentation d’un modèle verticalement intégré d’intrusion saline en aquifère côtier, permettant d’étudier l’effet de l’hétérogénéité stochastique de l’aquifère. Le modèle, basé sur l’hypothèse ‘interface abrupte’, est implémenté comme un module ‘2D’ dans le code volumes finis BigFlow2D/3D. Le nouveau module 2D est utilisé pour analyser la variabilité de l’interface eau douce / eau salée par simulations stochastiques de type Monte Carlo à échantillonnage spatial (réalisation unique). Ces résultats sont comparés à nouvelle théorie, où l’interface aléatoire auto-corrélée est analysée par transformation de variable, combinée à une méthode de perturbation et à une représentation spectrale (Fourier / Wiener-Khinchine). Dans la troisième et dernière partie, on présente un modèle de couplage fortement "intégré" pour la modélisation des écoulements de surface et souterrain en hypothèses d’écoulement plan, verticalement hydrostatique. On s‘intéresse au cas d’une vallée fluviale avec cours d’eau, plaine d’inondation, et nappe d’accompagnement. L’écoulement en surface est modélisé par l’équation d’onde diffusante et l’écoulement souterrain par l’équation de Dupuit-Boussinesq. Ce modèle couplé est appliqué à la vallée fluviale de la Garonne dans la région de Toulouse - Moissac (France). Cette application a nécessité l’élaboration d’une méthode d’interpolation géostatistique adaptée à l’élaboration d’un Modèle Intégré Numérique de Terrain (‘MINT’), de façon à inclure le fond de la rivière au MNT topographique en haute résolution. Enfin, au-delà de cette application particulière, le modèle d’écoulement couplé surface / souterrain est généralisé au cas d’un couplage densitaire eau douce / eau salée, lorsque la nappe est sujette à l’intrusion saline au voisinage d’une embouchure ou d’un estuaire.
APA, Harvard, Vancouver, ISO, and other styles
31

Baudour, Alexis. "Détection de filaments dans des images 2D et 3D : modélisation, étude mathématique et algorithmes." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00507520.

Full text
Abstract:
Cette thèse aborde le problème de la modélisation et de la détection des filaments dans des images 3D. Nous avons développé des méthodes variationnelles pour quatre applications spécifiques : l'extraction de routes où nous avons introduit la notion de courbure totale pour conserver les réseaux réguliers en tolérant les discontinuités de direction ; la détection et la complétion de filaments fortement bruités et présentant des occultations. Nous avons utilisé la magnétostatique et la théorie de Ginzburg-Landau pour représenter les filaments comme ensemble de singularités d'un champ vectoriel ; la détection de filaments dans des images biologiques acquises en microscopie confocale. On modélise les filaments en tenant compte des spécificités de cette dernière. Les filaments sont alors obtenus par une méthode de maximum à posteriori ; la détection de cibles dans des séquences d'images infrarouges. Dans cette application, on cherche des trajectoires optimisant la différence de luminosité moyenne entre la trajectoire et son voisinage en tenant compte des capteurs utilisés. Par ailleurs, nous avons démontré des résultats théoriques portant sur la courbure totale et la convergence de la méthode d'Alouges associée aux systèmes de Ginzburg-Landau. Ce travail réunit à la fois modélisation, résultats théoriques et recherche d'algorithmes numériques performants permettant de traiter de réelles applications.
APA, Harvard, Vancouver, ISO, and other styles
32

Chebil, Naziha. "Simulation numérique de l'écoulement tridimensionnel d'une résine dans une préforme stratifiée pour les procédés Liquid Composite Molding (LCM) par des éléments finis coques multicouches." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10171.

Full text
Abstract:
Dans cette étude, une nouvelle approche numérique intitulée modèle de fuite multicouche a été développée permettant la simulation efficace par des éléments coques 2D multicouches de la nature tridimensionnelle de l’écoulement dans des préformes multicouches pourvues ou non d’un drainant et caractérisées par un fort gradient d’anisotropie le long de l’épaisseur. La convergence de l’approche développée a été démontrée via une comparaison avec un modèle 2D dans le plan xz. L’efficacité du modèle de fuite vis-à-vis du modèle 3D a été quantifiée. L’intérêt de la nouvelle approche numérique a été révélé via des problèmes à échelle industriel à savoir l’optimisation de la stratégie de dépôt de drainant dans un raidisseur en Hi-Tape, la simulation de remplissage d’une coque de bateau pendant le procédé VARTM et l’étude de l’écoulement dans un stratifié NCF
In this study, a new numerical approach called « Multilayer Leakage Model » has been developed for the efficient numerical simulation of the 3D flow by 2D multilayered shell elements in anisotropic multilayer preform with or without a distribution medium. The convergence of the developed approach has been demonstrated by a comparison with a 2D model in the xz plan. The efficiency of the multilayer leakage model versus the 3D model has been quantified. The advantage of the new numerical approach has been verified through industrial part simulations such as the optimization of distribution medium position in a Hi-Tape stiffener, the flow simulation of a boat in VARTM process and the flow analysis of a NCF laminate
APA, Harvard, Vancouver, ISO, and other styles
33

Komatitsch, Dimitri. "Méthodes spectrales et éléments spectraux pour l'équation de l'élastodynamique 2D et 3D en milieu hétérogène." Phd thesis, Institut de physique du globe de paris - IPGP, 1997. http://tel.archives-ouvertes.fr/tel-00007568.

Full text
Abstract:
Le but de la thèse est avant tout d'ordre méthodologique : il s'agit de présenter et de valider une méthode de modélisation numérique pour l'équation des ondes élastiques (2D et 3D) dans des milieux réels. De tels milieux peuvent notamment présenter une forte topographie, ainsi que des couches de forme quelconque avec de forts contrastes de propriétés élastiques et de densité. Nous cherchons à modéliser l'ensemble du champ d'onde, c'est-à-dire tant les ondes de volume (compression et cisaillement) que les ondes de surface et d'interface.

Dans l'introduction générale, nous définissons les différents types de modèles géophysiques que nous souhaitons étudier, et rappelons l'intérêt qu'il peut y avoir à être capable de calculer le comportement des ondes sismiques dans de telles structures. Nous passons brièvement en revue les différentes techniques de modélisation numérique ordinairement utilisées pour résoudre les problèmes de propagation d'ondes dans de tels milieux, et rappelons sommairement leurs principales caractéristiques ainsi que leurs principales limitations. Les avantages potentiels de l'approche que nous introduisons dans cette thèse sont déduits de ce rapide tour d'horizon.

Dans une première partie, nous rappelons brièvement les lois essentielles de la mécanique des milieux continus et de l'élastodynamique. Nous mentionnons les principaux types d'ondes pouvant exister dans un milieu élastique. Les propriétés particulières des ondes de surface et d'interface dans de tels modèles sont également mentionnées.

Dans une deuxième partie, nous introduisons et validons une méthode pseudo-spectrale globale fondée sur la formulation différentielle tensorielle des équations de l'élastodynamique, adaptée au traitement de géométries déformées et de surfaces non planes. Nous montrons son application à quelques cas simples, nous mettons en évidence des effets intéressants liés à la topographie, mais soulignons aussi ses limitations intrinsèques. Nous en déduisons la nécessité d'utiliser une méthode plus souple que la formulation différentielle classique (différences finies, méthodes spectrales ou pseudo-spectrales) pour le traitement de cas réalistes (typiquement, une méthode variationnelle avec décomposition de domaine).

Dans une troisième partie, constituant le cœur de ce travail de thèse, nous introduisons et développons tant à 2D qu'à 3D une formulation variationnelle d'ordre élevé des équations de l'élastodynamique, dite " méthode des éléments spectraux ", et nous mettons en évidence ses propriétés sur différents problèmes classiques de complexité croissante (problème de Lamb, problème de Garvin, onde de Rayleigh sur une surface courbe...). Puis nous présentons l'application de cette méthode à des modèles 2D et 3D plus complexes, pour lesquels de forts effets liés notamment à la topographie sont mis en évidence. Nous obtenons en particulier de fortes amplifications locales du champ d'accélération et de déplacement dans de tels modèles (effets de site). Dans le cas d'un modèle tridimensionnel, nous montrons que ces effets dépendent fortement de la polarisation du champ incident. L'efficacité de la méthode sur un calculateur parallèle est également discutée et illustrée.

Dans une quatrième partie, nous avons regroupé deux petites études que nous avons menées au cours de nos recherches pour résoudre l'équation des ondes à 1D (ondelettes et volumes finis).
APA, Harvard, Vancouver, ISO, and other styles
34

Jibrini, Hassan. "Reconstruction automatique des bâtiments en modèles polyédriques 3-D à partir de données cadastrales vectorisées 2D et d'un couple d'images aériennes à haute résolution." Paris, ENST, 2002. http://www.theses.fr/2002ENST0010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

La, Rochette Hélène de. "Latchup déclenché par ion lourd dans des structures CMOS-1 mum : approche expérimentale, simulation 2D et 3D." Montpellier 2, 1995. http://www.theses.fr/1995MON20003.

Full text
Abstract:
Les phenomenes induits par les radiations restent un sujet d'etude tres actuel pour la survie des composants dans l'espace. Le latchup declenche par ion lourd conduisant a la destruction des cmos fait partie des effets dont il faut s'affranchir. Apres avoir fait le point sur l'environnement radiatif et le verrouillage des dispositifs cmos par sa structure parasite pnpn, nous nous sommes interesses aux simulateurs de composants susceptibles de nous permettre une meilleure comprehension du phenomene et des etudes sur les possibilites de durcissement des composants. Parallelement aux simulations sur des structures de test comportant des modifications geometriques, nous avons fait des mesures experimentales en mode statique et sous ions lourds des parametres de declenchement en latchup. Puis nous avons etudie des composants cmos complets issus de la technologie scmos-1m de matra-mhs. Une comparaison des resultats obtenus par simulation et experimentalement nous a permis de conclure sur l'influence des modifications geometriques et sur la pertinence de l'utilisation de la simulation de composant dans des etudes de durcissement
APA, Harvard, Vancouver, ISO, and other styles
36

Sambra-Petre, Raluca-Diana. "2D/3D knowledge inference for intelligent access to enriched visual content." Phd thesis, Institut National des Télécommunications, 2013. http://tel.archives-ouvertes.fr/tel-00917972.

Full text
Abstract:
This Ph.D. thesis tackles the issue of sill and video object categorization. The objective is to associate semantic labels to 2D objects present in natural images/videos. The principle of the proposed approach consists of exploiting categorized 3D model repositories in order to identify unknown 2D objects based on 2D/3D matching techniques. We propose here an object recognition framework, designed to work for real time applications. The similarity between classified 3D models and unknown 2D content is evaluated with the help of the 2D/3D description. A voting procedure is further employed in order to determine the most probable categories of the 2D object. A representative viewing angle selection strategy and a new contour based descriptor (so-called AH), are proposed. The experimental evaluation proved that, by employing the intelligent selection of views, the number of projections can be decreased significantly (up to 5 times) while obtaining similar performance. The results have also shown the superiority of AH with respect to other state of the art descriptors. An objective evaluation of the intra and inter class variability of the 3D model repositories involved in this work is also proposed, together with a comparative study of the retained indexing approaches . An interactive, scribble-based segmentation approach is also introduced. The proposed method is specifically designed to overcome compression artefacts such as those introduced by JPEG compression. We finally present an indexing/retrieval/classification Web platform, so-called Diana, which integrates the various methodologies employed in this thesis
APA, Harvard, Vancouver, ISO, and other styles
37

Barthélémy, Sébastien. "Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime." Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0047/document.

Full text
Abstract:
Les inondations sont un risque naturel majeur pour les biens et les personnes. Prévoir celles-ci, informer le grand public et les autorités sont de la responsabilité des services de prévision des crues. Pour ce faire ils disposent d'observations in situ et de modèles numériques. Néanmoins les modèles numériques sont une représentation simplifiée et donc entachée d'erreur de la réalité. Les observations quant à elle fournissent une information localisée et peuvent être également entachées d'erreur. Les méthodes d'assimilation de données consistent à combiner ces deux sources d'information et sont utilisées pour réduire l'incertitude sur la description de l'état hydraulique des cours d'eau et améliorer les prévisisons. Ces dernières décennies l'assimilation de données a été appliquée avec succès à l'hydraulique fluviale pour l'amélioration des modèles et pour la prévision des crues. Cependant le développement de méthodes d'assimilation pour la prévision en temps réel est contraint par le temps de calcul disponible et par la conception de la chaîne opérationnelle. Les méthodes en question doivent donc être performantes, simples à implémenter et peu coûteuses. Un autre défi réside dans la combinaison des modèles hydrauliques de dimensions différentes développés pour décrire les réseaux hydrauliques. Un modèle 1D est peu coûteux mais ne permet pas de décrire des écoulement complexes, contrairement à un modèle 2D. Le simple chainage des modèles 1D et 2D avec échange des conditions aux limites n'assure pas la continuité de l'état hydraulique. Il convient alors de coupler les modèles, tout en limitant le coût de calcul. Cette thèse a été financée par la région Midi-Pyrénées et le SCHAPI (Service Central d'Hydrométéorolgie et d'Appui à la Prévisions des Inondations) et a pour objectif d'étudier l'apport de l'assimilation de données et du couplage de modèles pour la prévision des crues. Elle se décompose en deux axes : Un axe sur l'assimilation de données. On s'intéresse à l'émulation du filtre de Kalman d'Ensemble (EnKF) sur le modèle d'onde de crue. On montre, sous certaines hypothèses, qu'on peut émuler l'EnKF avec un filtre de Kalman invariant pour un coût de calcul réduit. Dans un second temps nous nous intéressons à l'application de l'EnKF sur l'Adour maritime avec un modèle Saint-Venant. Nous en montrons les limitations dans sa version classique et montrons les avantages apportés par des méthodes complémentaires d'inflation et d'estimation des covariances d'erreur d'observation. L'apport de l'assimilation des données in situ de hauteurs d'eau sur des cas synthétiques et sur des crues réelles a été démontré et permet une correction spatialisée des hauteurs d'eau et des débits. En conséquence, on constate que les prévisions à court terme sont améliorées. Nous montrons enfin qu'un système de prévisions probabilistes sur l'Adour dépend de la connaissance que l'on a des forçages amonts ; un axe sur le couplage de modèles hydrauliques. Sur l'Adour 2 modèles co-existent : un modèle 1D et un modèle 2D au niveau de Bayonne. Deux méthodes de couplage ont été implémentées. Une première méthode, dite de "couplage à interfaces", combine le 1D décomposé en sous-modèles couplés au 2D au niveau frontières liquides de ce dernier. Une deuxième méthode superpose le 1D avec le 2D sur la zone de recouvrement ; le 1D force le 2D qui, quand il est en crue, calcule les termes d'apports latéraux pour le 1D, modélisant les échanges entre lit mineur et lit majeur. Le coût de calcul de la méthode par interfaces est significativement plus élevé que celui associé à la méthode de couplage par superposition, mais assure une meilleure continuité des variables. En revanche, la méthode de superposition est immédiatement compatible avec l'approche d'assimilation de données sur la zone 1D
Floods represent a major threat for people and society. Flood forecasting agencies are in charge of floods forecasting, risk assessment and alert to governmental authorities and population. To do so, flood forecasting agencies rely on observations and numerical models. However numerical models and observations provide an incomplete and inexact description of reality as they suffer from various sources of uncertianties. Data assimilation methods consists in optimally combining observations with models in order to reduce both uncertainties in the models and in the observations, thus improving simulation and forecast. Over the last decades, the merits of data assimilation has been greatly demonstrated in the field of hydraulics and hydrology, partly in the context of model calibration or flood forecasting. Yet, the implementation of such methods for real application, under computational cost constraints as well as technical constraints remains a challenge. An other challenge arises when the combining multidimensional models developed over partial domains of catchment. For instance, 1D models describe the mono-dimensional flow in a river while 2D model locally describe more complex flows. Simply chaining 1D and 2D with boundary conditions exchange does not suffice to guarantee the coherence and the continuity of both water level and discharge variables between 1D and 2D domains. The solution lies in dynamical coupling of 1D and 2D models, yet an other challenge when computational cost must be limited. This PhD thesis was funded by Midi-Pyrénées region and the french national agency for flood forecasting SCHAPI. It aims at demonstrating the merits of data assimilation and coupling methods for floof forecasting in the framework of operational application. This thesis is composed of two parts : A first part dealing with data assimilation. It was shown that, under some simplifying assumptions, the Ensemble Kalman filter algorithm (EnKF) can be emulated with a cheaper algorithm : the invariant Kalman filter. The EnKF was then implemented ovr the "Adour maritime" hydraulic network on top of the MASCARET model describing the shallow water equations. It was found that a variance inflation algorithm can further improve data assimlation results with the EnKF. It was shown on synthetical and real cases experiments that data assimilation provides an hydraulic state that is in great agreement with water level observations. As a consequence of the sequential correction of the hydraulic state over time, the forecasts were also greatly improved by data assimilation over the entire hydraulic network for both assimilated and nonassimilated variables, especially for short term forecasts. It was also shown that a probabilistic prediction system relies on the knowledge on the upstream forcings ; A second part focusses on hydraulic models coupling. While the 1D model has a great spatial extension and describes the mono-dimensional flow, the 2D model gives a focus on the Adour-Nive confluence in the Bayonne area. Two coupling methods have been implemented in this study : a first one based on the exchange of the state variables at the liquid boundaries of the models and a second one where the models are superposed. While simple 1D or chained 1D-2D solutions provide an incomplete or discontinuous description of the hydraulic state, both coupling methods provide a full and dynamically coherent description of water level and discharge over the entire 1D-2D domain. On the one hand, the interface coupling method presents a much higher computational cost than the superposition methods but the continuity is better preserved. On the other hand, the superposition methods allows to combine data assimilation of the 1D model and 1D-2D coupling. The positive impact of water level in-situ observations in the 1D domain was illustrated over the 2D domain for a flood event in 2014
APA, Harvard, Vancouver, ISO, and other styles
38

Joncour, Cédric. "Problèmes de placement 2D et application à l'ordonnancement : modélisation par la théorie des graphes et approches de programmation mathématique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00661534.

Full text
Abstract:
Le problème de placement sur deux dimensions consiste à décider s'il existe un rangement d'objets rectangulaires dans une boîte donnée. C'est un problème combinatoire difficile (à la complexité du respect des capacités s'ajoute celle du positionnement des objets). Nous considérons les variantes sans rotation des objets et avec ou sans optimisation de la valeur des objets placés. Nous menons une étude exploratoire des méthodologies qui peuvent être développées à l'interface de la programmation mathématique, de l'optimisation combinatoire et de la théorie des graphes. Nous comparons les formulations de la littérature et en proposons de nouvelles. Nous développons et testons deux approches de résolution innovantes. L'une est basée sur la décomposition de Dantzig-Wolfe (avec un branchement sur les contraintes disjonctives de non recouvrement des objets). L'autre constitue en une approche combinatoire basée sur diverses caractérisations des graphes d'intervalles (modélisant le chevauchement des objets selon chaque axe).
APA, Harvard, Vancouver, ISO, and other styles
39

Chebira, Abdennasser. "Détection d'obstacles en temps réel par reconstruction de l'environnement 2d à partir de capteurs infrarouges id : modélisation capteur et scène, représentation d'imprécisions et incertitudes par des modèles probalistes et flous." Paris 11, 1994. http://www.theses.fr/1994PA112042.

Full text
Abstract:
Cette thèse décrit un système de détection d'obstacles qui utilise des capteurs de faibles coûts. Ces capteurs fournissent une faible quantité de données a traiter. Des capteurs infrarouges permettent le développement d'algorithmes rapides de reconstruction. Le système de détection d'obstacles faible coût est constitue de capteurs infrarouges 1d, d'un réseau embarque et de processeurs standards. Une structure algorithmique générique est utilisée pour la construction d'un modèle géométrique 2d de l'environnement perçu par les capteurs. Dans une première étape, un filtrage de signaux binaires fournis par les capteurs est opéré, elle est suivie par une phase d'extraction de primitives. L'appariement des primitives est ensuite effectue, cela permet une construction d'un modèle 2d en utilisant le principe de triangulation. La corrélation et le suivi temporel sont nécessaires pour prendre en compte les variations dynamiques de l'environnement observe. Un algorithme base sur le principe du maximum de vraisemblance est utilise pour estimer la vitesse des obstacles présents dans la scène. Les résultats des étapes précédentes sont transmis à un système expert qui analyse la configuration de l'environnement dans un but d'assistance au conducteur. Plus précisément, un algorithme original de filtrage binaire a été développé. Cet algorithme utilise un formalisme probabiliste pour représenter l'incertitude et manipule des chaînes de Markov commandées pour imposer un modèle d'évolution de la scène. Une modélisation floue des incertitudes est utilisée dans l'étape d'appariement. Des modèles flous et probabilistes sont utilisés pour représenter et manipuler les imprécisions de reconstruction
APA, Harvard, Vancouver, ISO, and other styles
40

Hassan, Sarah. "Etudes pharmacologiques d'un modèle cellulaire 2D/3D dans le cancer hépato-pancréatique." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ037.

Full text
Abstract:
Les cancers du foie et du pancréas sont classés parmi les cancers les plus fréquents et agressifs à travers le monde et présentent une résistance à la chimiothérapie. L'efficacité des médicaments anticancéreux est affectée par les activités des enzymes métaboliques, transporteurs membranaires et par l’environnement tumoral. Le but de notre thèse est 1) de développer un modèle cellulaire hépatique et caractériser les mécanismes sous-jacents de la modulation de l’expression et de la fonctionnalité des transporteurs membranaires et des enzymes clés qui régissent le métabolisme des médicaments et 2) d’évaluer in vitro, dans différents modèles cellulaires (hépatique et pancréatique) en 2D et 3D, l’effet apoptotique de médicaments anticancéreux associés à des polyphénols en vue d’optimiser leur activité. Dans une première partie, nous avons mis en place une nouvelle lignée cellulaire hépatique humaine dérivée des HepG2, stable, exprimant suffisamment et significativement les enzymes CYP450 et les transporteurs hépatiques (MRP2, MDR1 et OATP1B1). Ce modèle pourrait être un outil de choix pour des études précliniques de métabolisme et de prédiction d’hépatotoxicité. Dans une deuxième partie, nous avons pu voir que les cellules pancréatiques et hépatiques dans un environnement 3D sont plus prédictives d’une tumeur in vivo et peuvent être un modèle de choix pour des études pharmacologiques de criblage de nouveaux médicaments anticancéreux ou des stratégies de combinaisons de molécules (avec des PP). Ainsi, nous avons montré que la quercétine, dans les cellules 3D, était capable d’augmenter l’activité de la gemcitabine et de la doxorubicine, en augmentant le taux des cellules mortes jusqu’à 60 %, par modulation des protéines MDR1 et par diminution significative du facteur HIF-1 alpha dans les cellules cancéreuses. En conclusion, les polyphénols peuvent être des molécules d’intérêt en combinaison avec des médicaments anticancéreux pour diminuer la résistance à ces traitements et servir d’outil pharmacologique pour mieux comprendre les mécanismes de résistance des cellules tumorales
Liver and pancreatic cancers are among the most common and aggressive cancers worldwide that are resistant to chemotherapy. The efficacy of anticancer drugs is affected by the activities of metabolic enzymes, transporters and the tumor environment. The aim of my thesis was based on to main objectives: 1) developement of a hepatic cellular model and characterize the underlying mechanisms of modulation of the expression and functionality of transporters and key enzymes involved in the regulation of drug metabolism 2) study the effect of new strategies in vitro by combining anti-cancer drugs with polyphenols in these processes in order to optimize their activities on different cellular models (hepatic and pancreatic) in 2D and 3D cultures. Our results showed that we have developed a new human hepatic cell line derived from HepG2 cells. The novel cell line is a good in vitro model with a capacity of predicting hepatotoxicity of novel drugs with significant differences for chromosomes 5, 17 and 20 and high expression level of CYP450 and transporters (MRP2, MDR1 and OATP1B1). Secondly, our results indicate that the combination of anticancer drugs and polyphenols increased the rate of apoptosis in cancer cells by up regulation of the expression levels of cleaved caspase-3 and the regulator of apoptosis p53. Moreover, our results demonstrated that polyphenols inhibit the efflux activity of MDR1. In addition, our results indicate that the combination of anti-cancer drugs and quercetin down regulated the expression of HIF-1α and increased the expression levels of the cleaved caspase-3 and p53 on human pancreatic and liver cell line cultured in 3D culture. In conclusion, polyphenols may be promising agents for novel combination therapy since they potentialize the cytotoxic activity of anticancer drugs to eradicate cancer and therefore the cellular resistance
APA, Harvard, Vancouver, ISO, and other styles
41

Bourgine, Jean-Emile. "Modèles de matrices et problèmes de bord dans la gravité de Liouville." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00541162.

Full text
Abstract:
L'objet de cette thèse est l'étude de divers problèmes de bord de la gravité bidimensionnelle en utilisant à la fois les méthodes de la gravité de Liouville et les modèles de matrices aléatoires. Elle s'articule autour de deux grands thèmes : le modèle $O(n)$ matriciel et la théorie des cordes en deux dimensions. La première partie expose la méthode développée pour analyser les conditions de bord des modèles statistiques sur réseaux. Celle-ci consiste à utiliser la formulation matricielle du modèle sur réseau aléatoire afin de dériver des équations de boucle dont on prend la limite continue. L'accent est mis sur l'étude des conditions de bords anisotropes récemment introduites pour le modèle $O(n)$. Cette méthode a permis d'obtenir le diagramme de phase associé aux conditions de bord, ainsi que la dimension des opérateurs de bord et le comportement sous les \english{flows} du groupe de renormalisation. Ces résultats peuvent être étendus à d'autres modèles statistiques tels que les modèles ADE. En seconde partie, on s'intéresse à une gravité de Liouville Lorentzienne couplée à un boson libre. Ce modèle peut se réinterpréter comme une théorie des cordes dans un espace cible à deux dimensions dont la version discrète est donnée par une mécanique quantique matricielle (MQM). L'amplitude de diffusion de deux cordes longues à l'ordre dominant est obtenue en utilisant le formalisme chiral de la MQM, le résultat trouvé est en accord avec les calculs effectués dans la théorie continue. En outre, une conjecture a été émise concernant l'amplitude d'un nombre quelconque de cordes longues.
APA, Harvard, Vancouver, ISO, and other styles
42

Dobigny, Blandine. "Développement d’outils de modélisation et de méthodes pour le contrôle de pneumatiques par ultrasons." Paris 7, 2014. http://www.theses.fr/2014PA077225.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine du contrôle non destructif des pneumatiques par ultrasons. Plus particulièrement, l'objectif est de développer un modèle capable de décrire l'interaction des ondes ultrasonores avec la structure de renfort du pneumatique constituée de nappes de câbles. Le pneumatique est considéré comme un milieu atténuant comportant plusieurs réseaux de diffuseurs cylindriques, disposés dans des plans parallèles avec une orientation variable d'un réseau à l'autre. Dans un premier temps, l'expression du champ diffusé par un réseau unidirectionnel est étendue au cas d'un milieu atténuant pour une onde plane d'incidence quelconque. Le modèle est utilisé pour comparer les comportements d'un réseau infini et d'un grand réseau fini. L'analyse d'un réseau perturbé ainsi que l'étude de l'influence de l'angle d'incidence sont également effectuées. L'étude est réalisée en-deçà et au-delà de la première fréquence de coupure, à partir de laquelle le champ s'écrit comme une combinaison de plusieurs ondes planes. Cette décomposition est ensuite utilisée pour traiter l'empilement de plusieurs réseaux. Après décomposition sur une base commune d'ondes planes, les expressions du champ pour chaque réseau sont raccordées afin de modéliser les interactions entre nappes. La démarche est validée sur un réseau bidirectionnel. Enfin, des validations expérimentales sont réalisées sur des échantillons caractéristiques du pneumatique. Des mesures sont effectuées en transmission afin de mettre en avant les effets réseaux selon la fréquence et l'angle d'incidence. Les coefficients calculés à partir des signaux expérimentaux sont finalement comparés à ceux issus du modèle
This thesis deals with ultrasonic non-destructive testing of tires. More precisely, this work aims to model ultrasonic wave interactions with wires collections that reinforce the tire. The tire is considered as an attenuating medium with several embedded gratings of cylinders. The orientation of each grating may be different but they ail constitute parallel plans. First, the calculation of the field scattered by a unidirectional grating is extended both to the case of an attenuating medium and a plane wave with an arbitrary angle of incidence. The model is used to compare the behaviors of infinite and large finite gratings. We also study a grating with a perturbation and the influence of the incidence angle. Each case is considered in a frequency range below and above the cutoff frequency where the wave field is written as a sum of several plane waves. This decomposition is then used to deal with stacks of gratings. After the decomposition into plane waves, with a shared basis, the fields calculated for each grating are joined to model the interaction between gratings. This approach is validated with a bidirectional array. Finally, experimental validations are conducted on simplified tire-like samples. Through-transmission experiments have shown the grating effects depending on the frequency and the incidence angle. The experimental transmission coefficients have finally been compared to those calculated with the model
APA, Harvard, Vancouver, ISO, and other styles
43

Tran, Viet Chi. "Modèles particulaires stochastiques pour des problèmes d'évolution adaptative et pour l'approximation de solutions statistiques." Phd thesis, Université de Nanterre - Paris X, 2006. http://tel.archives-ouvertes.fr/tel-00125100.

Full text
Abstract:
Cette thèse se divise en deux parties indépendantes. Dans la première, nous considérons un modèle microscopique individu-centré pour décrire une population structurée par traits et âges. Nous étudions l'écologie de ce système (problèmes de dynamique de populations) dans une asymptotique de grandes populations. Sous certaines renormalisations, le processus microscopique converge par la solution à valeurs mesures d'une équation d'évolution déterministe. Un théorème central limite et les déviations exponentielles associées à cette convergence sont étudiés. Nous appliquons ensuite ces résultats pour établir des généralisations aux populations structurées par âge de modèles d'évolution tirés de la récente théorie des dynamiques adaptatives. Ces derniers modélisent l'évolution de la structure en traits sur des grandes échelles de temps et sous les hypothèses de mutations rares (éventuellement petites) et de grandes populations. Dans la seconde partie de la thèse, nous considérons des équations aux dérivées partielles de McKean-Vlasov et de Navier-Stokes 2D avec conditions initiales aléatoires. La loi des solutions, qui sont alors des variables aléatoires, est appelée solution statistique. En nous basant sur une approche probabiliste de ces équations aux dérivées partielles, nous proposons de nouvelles approximations particulaires stochastiques avec ondelettes pour les moments d'ordre 1 des solutions statistiques, et nous étudions leurs vitesses de convergence.
APA, Harvard, Vancouver, ISO, and other styles
44

Nezzari, Amar. "Mise en oeuvre de modèles électromagnétiques 2D et 3D utilisant la méthode des différences finies dans le domaine temporel (FDTD) dans l'optique d'études d'éléments de circuits pour l'intégration monolithique millimétrique." Lille 1, 1993. http://www.theses.fr/1993LIL10105.

Full text
Abstract:
Cette étude est consacrée à la mise en oeuvre de modèles électromagnétiques 2d et 3d destinés à l'étude d'éléments de circuits pour intégration monolithique. Dans la première partie, nous décrivons le système d'équations à la base de notre modèle. Il s'agit d'une formulation rigoureuse des équations de maxwell. Nous montrons que l'écriture de ces équations dans le système d'unités naturel permet d'obtenir un système d'équations différentielles aux dérivées partielles linéaire du premier ordre, hyperbolique et symétrique au sens de Friedrichs. Ce choix nous permet de mettre en oeuvre une méthode numérique de résolution basée sur l'utilisation des différences finies dans le domaine temporel, ainsi que nous le montrons dans la deuxième partie de notre mémoire. Plus précisément, nous utilisons un schéma numérique aux différences finies explicite, du type prédicteur-correcteur. Ce type de schéma présente deux avantages importants. D'une part, la formulation vectorielle ainsi obtenue facilite l'implantation de l'algorithme sur calculateur, et devrait permettre, à moyen terme, un transfert aisé sur machine vectorielle ou parallèle. D'autre part, ce type de schéma est compatible avec les modèles de dispositifs semiconducteurs mis au point au laboratoire, ce qui laisse envisager à long terme, un couplage possible des deux types de modèles
Dans une troisième et dernière partie, nous décrivons les applications possibles des modèles mis en oeuvre dans l'état actuel de leur développement. Nous y insistons en particulier sur les méthodes adoptées pour résoudre les problèmes de conditions aux limites, conditions de raccordement, conditions aux limites absorbantes et excitation des structures étudiées. Ces modèles permettent actuellement de mettre qualitativement en évidence les phénomènes électromagnétiques dans des guides d'ondes métalliques et des structures de type lignes planaires, en régime d'oscillations entretenues et dans la gamme des longueurs d'ondes millimétriques. Il est d'autre part possible d'extraire différentes grandeurs physiques importantes, telles que l'impédance caractéristique, la longueur d'onde guidée, ou la puissance électromagnétique véhiculée dans la structure. Finalement, nous présentons une comparaison théorie-expérience, consacrée à l'étude d'une transition guide rectangulaire métallique-ligne microruban, à 60 ghz. Cette comparaison est satisfaisante. La validation de nos modèles et les résultats satisfaisants obtenus devraient permettre d'envisager leur application à l'étude de circuits plaques en vue de leur intégration monolithique
APA, Harvard, Vancouver, ISO, and other styles
45

Gasc, Laurent. "Conception d'un actionneur à aimants permanents à faibles ondulations de couple pour assistance de direction automobile : approches par la structure et par la commande." Phd thesis, Toulouse, INPT, 2004. http://oatao.univ-toulouse.fr/7375/1/gasc.pdf.

Full text
Abstract:
Cette étude cofinancée par la société RENAULT et le CNRS porte sur la conception d'un actionneur à aimants permanents pour assistance de direction automobile. L'analyse du cahier des charges montre la nécessité d'obtenir un moteur à très faibles ondulations de couple. La réduction des ondulations de couple est traitée de deux façons : une première action consiste à concevoir la structure du moteur et une seconde à compenser les ondulations de couple par une loi de la commande adéquate. Concernant le dimensionnement du moteur, une étude du système mécanique a permis d'expliciter le lien entre la raideur du capteur de couple intégré à la colonne de direction et l'inertie du moteur ramenée au volant. Cette contrainte inertielle associée à une température ambiante élevée constituent des points forts du dimensionnement pour un encombrement donné. Il est montré que le choix d'un capteur de couple à raideur élevée permet de réduire ces contraintes de dimensionnement en réduisant la contrainte inertielle. Un modèle électromagnétique analytique et un modèle thermique couplés ont été développés et exploités suivant une méthodologie définie par la spécificité du cahier des charges. L'étude des différentes techniques de minimisation des ondulations de couple et la caractérisation électromagnétique ont été menées par calcul des champs avec FLUX2D(tm). Une solution basée sur une structure à nombre fractionnaire d'encoche par pôle et par phase et un bobinage original est proposée. La réalisation d'un prototype et les essais réalisés ont permis de valider certains aspects de ce dimensionnement. Concernant la minimisation des ondulations de couple par la commande, des modèles de simulation sous Simulink intégrant les ondulations de couple définis à partir des calculs de champs ont été développés. Différentes structures d'observateurs de couple avec prise en compte des ondulations de couple sont présentées et comparées. Une structure originale basée sur un filtre de Kalman associé à un observateur de couple de type Luenberger est mise à jour. Cette structure permet un autopilotage sans capteur de position tout en réduisant fortement les ondulations de couple. Une loi de commande par retour d'état et une structure RST associées à un observateur de couple ont été implantées sur un banc mécanique conçu et instrumenté dans le but de reproduire le fonctionnement du système de direction assistée électrique.
APA, Harvard, Vancouver, ISO, and other styles
46

Cariou, Arnaud. "Contribution à la caractérisation et la modélisation des matériaux magnétiques doux pour les machines électriques en associant les modèles Play et Loss Surface (LS)." Thesis, Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALT002.

Full text
Abstract:
Cette thèse vise à développer un modèle de pertes fer valide pour des fréquences allant du continu à 2kHz pour des formes d'onde d'induction complexes en une dimension puis de l'étendre sur deux dimensions. Une étude sur l'influence de la température sur l'hystérésis magnétique sera menée
This thesis aims to develop a valid iron loss model for frequency from DC to 2kHz for complex flux density waveforms in one dimension, then extending it in two dimensions. A study about the impact of temperature over the magnetic hysteresis will be conducted
APA, Harvard, Vancouver, ISO, and other styles
47

Tartaglia, Alessandro. "Coarsening and percolation in 2d kinetic Ising models, and quench dynamics of the isolated p=2 spherical spin glass model." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS365.

Full text
Abstract:
Cette thèse est divisée en deux parties indépendantes. Dans la première partie, on étudie la dynamique aux temps très courts d'un modèle cinétique d'Ising en d=2 qui est soumis à une trempe instantanée de la température. Les mesures des différentes observables reliées aux propriétés statistiques et géométriques des domaines ordonnés suggèrent que la dynamique de relaxation approche un régime de "scaling'' dynamique dans lequel les domaines présentent les caractéristiques du modèle de la percolation critique en 2d. À travers l'étude des propriétés de scaling pendant l'évolution du système, on peut identifier une longueur critique lp(t) liée à la percolation. En particulier, pour des modèles d'Ising en d=2 évoluant avec une dynamique stochastique qui satisfait le principe de bilan détaillé, on observe que des gros domaines ordonnés qui percolent deviennent stable, par leur topologies, par rapport à la dynamique microscopique jusqu'au moment à lequel tout le système est équilibré. Dans la deuxième partie, on étudie la dynamique hamiltonienne du modèle de Sherrington-Kirkpatrick (SK) sphérique dans le cas p=2, suivant une trempe uniforme de l'intensité du désordre. À partir des solutions numériques des équations de type Schwinger-Dyson, on peut identifier trois phases dynamiques différentes selon la température initiale du système et le paramètre qui quantifie l'intensité du désordre dans l'Hamiltonien post-trempe. On observe que le système ne réussit pas à thermaliser dans aucune de ces phases. On peut aussi vérifier que le modèle SK sphérique avec p=2, avec une dynamique hamiltonienne, est équivalent au modèle de Neumann, un modèle intégrable de la mécanique classique
This thesis is divided into two independent parts. In the first part, we study the early time dynamics of some 2d kinetic Ising models subject to an istantaneous quench from the disordered to the ordered phase. The post-quench relaxation dynamics is realised by means of stochastic spin update rules, of various types, which are simulated numerically through Monte Carlo methods. Measurements of different observables related to the statistical and geometrical properties of ordered domains suggest that the relaxation dynamics approaches a dynamical scaling regime with features ascribed to 2d critical percolation. In all the cases in which the stochastic dynamics satisfies detailed balance, the critical percolation state persists over a very long period of time before usual coarsening of domains takes over and leads the system to equilibrium. In the second part, we study the Hamiltonian dynamics of the 2-spin spherical spin glass model, following a uniform quench of the strength of the disorder. In each case, we consider initial conditions from Gibbs-Boltzmann equilibrium at a given temperature, and subsequently evolve the configurations with Newton dynamics dictated by a new Hamiltonian, obtained from the initial one by a uniform quench of the interaction couplings. We notice that the post-quench dynamics of this model is equivalent to that of the Neumann integrable model, and thus we analyse the integrals of motion, using them to show that the system is not able to reach an equilibrium stationary state à la Gibbs-Boltzmann
APA, Harvard, Vancouver, ISO, and other styles
48

Bouzoubaa, Yahya. "Méthodes exactes et heuristiques pour l’optimisation de l’agencement d’un logement : application aux situations de handicap." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0369/document.

Full text
Abstract:
Le volet applicatif de cette thèse porte sur l'agencement d'un logement destiné à une personne en situation de handicap. L'agencement désigne le choix de la position, de la forme et des dimensions des pièces, des portes et des couloirs. L'agencement est généralement élaboré par un architecte, dans le respect d'un nombre si élevé de contraintes qu'il lui est difficile de parvenir qu'il parvienne à toutes les satisfaire : il y a d'abord des contraintes architecturales évidentes : non recouvrement des pièces, largeur suffisante des couloirs, accessibilité à tout point du lieu à partir de tout autre point, nécessité de placer certaines pièces sur des arrivées ou évacuations … Il y a ensuite les contraintes imposées par le handicap : largeur accrue des couloirs (déplacement en fauteuil), nécessité d'assurer un effort quotidien minimum (lutte contre le vieillissement), limitation des escaliers (asthme sévère), éloignement d'une pièce des murs mitoyens (surdité) .... Et il y a finalement les souhaits exprimés par le futur occupant, par exemple minimiser certains trajets, maximiser l’éloignement entre deux pièces ou imposer l’orientation d’une pièce. D’un point de vue formel, notre travail a consisté à développer d'une part des modèles mathématiques et des méthodes algorithmiques capables de gérer ces contraintes et d'autre part des prototypes logiciels opérationnels. Les méthodes élaborées relèvent de deux approches : l'optimisation d'un agencement conçu par l'architecte et la synthèse d'un agencement sans suggestion initiale de l'architecte. La synthèse d'un plan a été abordée comme un problème de type « bin-packing » (réputé NP-difficile) avec des contraintes additionnelles : les objets à placer - les pièces - ont des tailles variables et ils sont soumis à des contraintes fonctionnelles. La méthode de résolution s'appuie sur un premier modèle mathématique, qui prend la forme d’un programme quadratique (linéarisé par la suite) en variables mixtes. Elle a été appliquée avec succès pour placer les pièces d'un logement, pour les dimensionner, pour déterminer les couloirs assurant une complète accessibilité au logement et pour prendre en compte certaines contraintes imposées par le handicap du futur occupant. Un deuxième modèle mathématique a été élaboré pour le placement des portes et une heuristique a enfin été développée pour affecter l'espace occupé par les couloirs non indispensables aux pièces avoisinantes. La totalité de cette démarche a été programmée dans un prototype logiciel pleinement opérationnel. Le deuxième ensemble de contributions concerne l'optimisation d'un agencement existant. Cette optimisation a été conçue comme un processus itératif enchaînant évaluation et modification (amélioration) d'un agencement. Il est décliné de quatre manières : une métaheuristique de type « recuit simulé » et trois méthodes de type « recherche locale », qui explorent l’espace des solutions en utilisant des voisinages spécialement définis. Cette approche a d'une part permis d’appréhender le caractère multicritère de cette problématique et a d'autre part exigé la mise en œuvre de nombreux algorithmes géométriques. Ces travaux sont implantés dans un deuxième prototype logiciel. Ce projet a nécessité la participation à de nombreuses manifestations au-delà du domaine de l’informatique, nationales et régionales, scientifiques et non-scientifiques, organisées par différents organismes politiques et associatifs travaillant sur la problématique du handicap et de l’accessibilité, afin de bien appréhender les attentes du monde scientifique et socioprofessionnel. Cette phase prospective a été concrétisée par la rédaction de nombreux rapports qui ont alimentés la bibliographie du mémoire de thèse
At an application level, this thesis deals with the layout of an accommodation intended for a disabled person. Determining the layout means choosing the position, shape and dimensions of rooms, doors and corridors. It is usually an architect's job but the complexity is such that it is very unlikely that he succeeds in optimally fulfilling all the constraints: first, there are architectural constraints: no room overlapping, sufficient width for the corridors, accessibility to and from any point, mandatory positioning of some rooms on some areas (e.g. water supply and outlet) … Then, there are constraints imposed by disabilities: enlarged corridors (wheelchairs), mandatory daily amount of efforts (fight against aging), reducing the number of steps (severe asthma), moving a room away from shared walls (deafness)... Finally, there are the wishes expressed by the future occupant, such as minimizing some journeys, maximizing the distance between two rooms or fixing a room's orientation. From a formal point of view, our work has consisted, firstly, in developing mathematical models and algorithmic methods to deal with all these constraints and, secondly, in realizing software prototypes applying these concepts. The tools we propose aim either at optimizing a layout previously designed by an architect or at synthesising a layout without any initial suggestions from the architect. Synthesis has been tackled as bin-packing-type problem (known to be NP-hard) but with additional constraints: the objects to be placed (the rooms) have variable sizes and they are submitted to functional constraints. The resolution is based on a first, initially quadratic and then linearized, mixed integer mathematical model. It has been successfully applied to position and dimension the rooms of an accommodation, to determine corridors allowing a full accessibility to all the rooms and to take into account a number of constraints coming from the disabilities of the future occupant. A second mathematical model has been formulated for the positioning of the doors and, finally, a heuristic method has been designed to assign the space used by useless corridors to adjacent rooms. The whole process has been embedded in a fully operational software. The second set of contributions is about the optimization of an existing layout. This task has been tackled through an iterative process, looping on evaluation and modification (improvement) of an accommodation. It has been implemented in four different ways: a metaheuristic (simulated annealing) and three local-search-type methods, which traverse the solution space by using specific definitions of the neighbourhood. This approach has firstly underlined the multicriteria feature of our problem and, secondly, has required the development of many computational geometry algorithms. All this work is integrated in another functional prototype software. To understand the expectations of the scientific, social and professional worlds, this project has implied to take part to various manifestations which were national or regional, in the computer science domain or in others, scientific or non-scientific, organised by various political or non-political organisations working in the field of disabilities and accessibility. This phase has resulted in many reports which have directly fed into the bibliography of this thesis
APA, Harvard, Vancouver, ISO, and other styles
49

Burochin, Jean-Pascal. "Segmentation d'images de façades de bâtiments acquises d'un point de vue terrestre." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1064/document.

Full text
Abstract:
L'analyse de façades (détection, compréhension et reconstruction) à partir d'images acquises depuis la rue est aujourd'hui un thème de recherche très actif en photogrammétrie et en vision par ordinateur de part ses nombreuses applications industrielles. Cette thèse montre des avancées réalisées dans le domaine de la segmentation générique de grands volumes de ce type d'images, contenant une ou plusieurs zones de façades (entières ou tronquées).Ce type de données se caractérise par une complexité architecturale très riche ainsi que par des problèmes liés à l'éclairage et au point de vue d'acquisition. La généricité des traitements est un enjeu important. La contrainte principale est de n'introduire que le minimum d'a priori possible. Nous basons nos approches sur les propriétés d'alignements et de répétitivité des structures principales de la façade. Nous proposons un partitionnement hiérarchique des contours de l'image ainsi qu'une détection de grilles de structures répétitives par processus ponctuels marqués. Sur les résultats, la façade est séparée de ses voisines et de son environnement (rue, ciel). D'autre part, certains éléments comme les fenêtres, les balcons ou le fond de mur, sans être reconnus, sont extraits de manière cohérente. Le paramétrage s'effectue en une seule passe et s'applique à tous les styles d'architecture rencontrés. La problématique se situe en amont de nombreuses thématiques comme la séparation de façades, l'accroissement du niveau de détail de modèles urbains 3D générés à partir de photos aériennes ou satellitaires, la compression ou encore l'indexation à partir de primitives géométriques (regroupement de structures et espacements entre elles
Facade analysis (detection, understanding and field of reconstruction) in street level imagery is currently a very active field of research in photogrammetric computer vision due to its many applications. This thesis shows some progress made in the field of generic segmentation of a broad range of images that contain one or more facade areas (as a whole or in part).This kind of data is carecterized by a very rich and varied architectural complexity and by problems in lighting conditions and in the choice of a camera's point of view. Workflow genericity is an important issue. One significant constraint is to be as little biased as possible. The approches presented extract the main facade structures based on geometric properties such as alignment and repetitivity. We propose a hierarchic partition of the image contour edges and a detection of repetitive grid patterns based on marked point processes. The facade is set appart from its neighbooring façades and from its environment (the ground, the sky). Some elements such as windows, balconies or wall backgrounds, are extracted in a relevant way, without being recognized. The parameters regulation is done in one step and refers to all architectural styles encountered. The problem originates from most themes such as facade separation, the increase of level of details in 3D city models generated from aerial or satellite imagery, compression or indexation based on geometric primitives (structure grouping and space between them)
APA, Harvard, Vancouver, ISO, and other styles
50

Chen, Shangzhi. "Modèle effectif par une approche de Saint-Venant pour les écoulements complexes lors d'inondations urbaines." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD012/document.

Full text
Abstract:
Les inondations représentent le premier danger naturel sur chaque continent, avec des préoccupations particulières centrées sur les inondations urbaines pour l'urbanisation sans précédent, qui augmente la vulnérabilité des sociétés humaines aux inondations. Pour les difficultés d'accès aux données en temps réel, la méthode numérique semble être une approche puissante pour la prévision des inondations et l'atténuation des dommages. Dans cette thèse, un nouveau logiciel Flood1D2D pour la modélisation des crues urbaines a été proposé en utilisant le maillage de couplage 1D2D, avec 1D dans la rue et 2D appliqué au carrefour. Le logiciel est conçu sur la base de l'installation située dans ICube Strasbourg et validée à l'aide de cas de tests synthétiques. La nouveauté du modèle est de rendre compte de l'effet de recirculation en utilisant la fonction de porosité, et de reproduire la convexité dans les profils de profondeur le long de la rue en aval de chaque carrefour où une zone de recirculation apparaît. Une analyse de sensibilité basée sur la variance est également réalisée pour les modèles classiques d'eau peu profonde 1D et 2D pour l'étalonnage de modèles et la collecte de données
Flooding represents the first natural hazard on each continent, with special concerns are focused on urban flooding for the unprecedented urbanization, which increases the vulnerability of human societies to floods. For the accessing difficulties of real-time data, numerical method seems to be a powerful approach for flood forecasting and damage mitigation. In this thesis, a new software Flood1D2D for urban flood modeling has been proposed using 1D2D coupling mesh, with 1D on the street and 2D applied on the crossroad. The software is designed based on the rig located in ICube Strasbourg and validated using synthetic test cases. The novelty of the model is to account for the recirculation effect using porosity function, and it can reproduce the convexity in water depth profiles along the street downstream each crossroad where a recirculation zone appears, which can't be accounted using roughness only. Variance based sensitivity analysis is also performed for classical 1D and 2D shallow water models for model calibration and data collections
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography