To see the other types of publications on this topic, follow the link: Courants de densité – Modèles mathématiques.

Dissertations / Theses on the topic 'Courants de densité – Modèles mathématiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Courants de densité – Modèles mathématiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ahmed, Dhafar Ibrahim. "Experimental and numerical study of model gravity currents in coastal environment : bottom gravity currents." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0060/document.

Full text
Abstract:
Le but de ce travail de recherche est de contribuer à une meilleure compréhension de la dynamique de propagation et de la miscibilité de jets gravitaires au-dessous d’un liquide ambiant. Des expériences ont été réalisées en laboratoire à l’aide d’une plateforme expérimentale constituée d’un bassin parallélépipédique contenant de l’eau douce et d’un canal d’injection de section rectangulaire de jets gravitaires de concentration constante initiale fixée. Les calculs mathématiques et numériques sont basés sur les modèles RANS (Reynolds-Averaged Navier Stokes equations), k-ε (K-epsilon) et DCE (Diffusion-Convective Equation) de la fraction volumique de l’eau salée pour décrire la propagation et le mélange du jet gravitaire. L’évolution du front du jet obtenue expérimentalement est utilisée pour valider le modèle numérique. Par ailleurs, la comparaison des résultats obtenus sur l’écoulement moyen (z⁄z0.5 =U/Umax) avec ceux des études 2D expérimentales et numériques antérieures ont montré des similarités. La simulation numérique des champs hydrodynamiques montre que la vitesse maximale est atteinte à la position 0.18 z0.5, où z0.5 est la hauteur d’eau pour laquelle la vitesse moyenne u est égale à la moitié de la vitesse maximale Umax
The aim of this investigation is to contribute to a better understanding of the propagation dynamics and the mixing process of dense gravity currents. The Laboratory experiments proceeded with a fixed initial gravity current concentration in one experimental set-up. The gravity currents are injected using a rectangular injection channel into a rectangular basin containing the ambient lighter liquid. The injection studied is said in unsteady state volume, as the Reynolds number lies in the range 1111 - 3889. The experiments provided the evolution of the boundary interface of the jet, and it is used to validate the numerical model. The numerical model depends on the Reynolds-Averaged Navier Stokes equations (RANS). The k-ε (K-epsilon) and the Diffusion-Convective Equation (DCE) of the saline water volume fraction were used to model the mixing and the propagation of the gravity current jet. On the other hand, comparison of the mean flow (z⁄z0.5 =U/Umax) with previous two-dimensional numerical simulations and experimental measurements have shown similarities. The numerical simulations of the hydrodynamic fields indicate that the velocity maximum at 0.18 z0.5, where z0.5 is the height at which the mean velocity u is the half of the maximum velocity Umax
APA, Harvard, Vancouver, ISO, and other styles
2

Drouilhet, Rémy. "Dérivée de mouvement brownien fractionnaire et estimation de densité spectrale." Pau, 1993. http://www.theses.fr/1993PAUU3024.

Full text
Abstract:
Les processus à densité spectrale du type L/F sont largement utilisés pour représenter des phénomènes dits à longue mémoire. Mandelbrot et Van Ness ont propose une définition de ces processus, appelés bruits gaussiens fractionnaires, à partir des taux d'accroissements du mouvement brownien fractionnaire. Cependant, leur approche reste peu satisfaisante. Dans cette thèse, nous montrons que le bruit gaussien fractionnaire peut être rigoureusement défini comme la dérivée du mouvement brownien fractionnaire au sens des distributions vectorielles de Schwartz. De plus, notre approche permet notamment de mettre en évidence l'équivalence entre le concept de bruit gaussien fractionnaire et l'intégrale stochastique relative au mouvement brownien fractionnaire. La seconde partie de ce travail est consacrée à l'estimation de densité spectrale non nécessairement bornée à l'origine (ce qui est le cas pour les taux d'accroissements du mouvement brownien fractionnaire). Auparavant, de nombreux auteurs (Parzen, Anderson,. . . ) avaient montré que, sous certaines conditions dont l'absolue sommabilité de la fonction d'autocorrélation, certains estimateurs de la densité spectrale, obtenus par lissage de périodogramme, étaient consistants. Dans un but de généralisation, nous montrons que parmi ces estimateurs certains d'entre eux restent consistants lorsque la densité spectrale à estimer n'est pas bornée à l'origine
APA, Harvard, Vancouver, ISO, and other styles
3

Saudreau, Marc. "Analyse de la dynamique des jets à densité variable en écoulement cocourant pulsé." Toulouse, INPT, 2002. http://www.theses.fr/2002INPT002H.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de l'étude des écoulements turbulents fortement instationnaires avec larges variations de densité. Elle s'insère dans une action globale de compréhension des mécanismes physiques régissant le mélange air / carburant gazeux (GNV) dans les moteurs à piston. L'objectif de cette étude est d'analyser la dynamique des jets à densité variable en écoulement cocourant fortement pulsé. L'analyse a été conduite en se basant à la fois sur des données expérimentales obtenues par ánémométrie Laser Doppler bicomposantes, et une approche numérique par résolution des équations de Navier-Stokes moyennées (RANS). Outre le test de la pertinence des modèles de fermeture (k - e, Rij-e), cettes complémentarité permet d'apprécier l'impact de l'instationnarité sur le développement moyen et turbulent du jet. L'instationnarité modifie le flux d'excès de quantité de mouvement initial et impose à l'écoulement un champ d'accélération variable en temps. La réponse du jet à ces deux sollicitations dépend de sa capacité à s'adapter aux changements des conditions d'initial. Cette capacité liée au transport advectif induit une partition du jet en régions quasi statique et instationnaire. Les effets de mémoire observés dans la zone instationnaire peuvent être appréhendés par un modèle hyperbolique. Un front de vitesse de type jet naissant se développe lors de l'accélération et se traduit par un effet important sur le champ turbulent. Le mélange avec le fluide extérieur est réduit à son passage et plus généralement pendant toute l'accélération. En phase de décélération le gradient de pression contrôle la dynamique de l'écoulement. Dans le cas du jet à densité variable, le couplage avec le gradient de densité induit une force de flottabilité. En situation de jet léger, la structure moyenne de l'écoulement passe alors d'un jet à un sillage. Les conséquences sur la turbulence et le mélange sont identifiées et expliquées.
APA, Harvard, Vancouver, ISO, and other styles
4

Balayn, Pierre. "Contribution à la modélisation numérique de l'évolution morphologique des cours d'eau aménagés lors de crues." Lyon 1, 2001. http://www.theses.fr/2001LYO10111.

Full text
Abstract:
La modification du lit des cours d'eau lors des crues perturbe les activités humaines. Elle peut favoriser les inondations, menacer la ressource en eau (drainage de la nappe phrééatique, comblement des retenues),déstabiliser les ouvrages (ponts, digues, seuils) et de manière plus large perturber leur exploitation (sédimentation dans les canaux d'irrigation ou les collecteurs d'assainissement). Pour mieux comprendre les mécanismes et prévoir leurs effets, un modèle conceptuel d'évolution de la forme et de la composition du lit est proposé. Son originalité réside dans la représentation synthétique des caractéristiques sédimentaires par deux descripteurs : un diamètre et un paramètre d'étendue granulométrique. Sur ce principe, la notion de compartiment sédimentaire est définie et utilisée dans le modèle de bilan solide. Cette modélisation a l'avantage d'éviter un découpage arbitraire de l'étendue granulométrique en fractions et permet en outre un calcul intrinsèque de l'épaisseur de la couche de mélange. Le modèle est mis en oeuvre dans un code monodimensionnel. Il est testé à la fois sur des cas théoriques et sur des mesures de laboratoire. Dans l'ensemble des situations modélisées, son comportement géomorphologique est satisfaisant. Trois applications à des cas réels sont considérées. Elles illustrent des situations extrêmement variées : chasses hydrauliques en collecteur d'assainissement, sédimentation de particules fines en canal d'rrigation et passage de crues dans un bief de rivière. Les résultats du calcul montrent la pertinence du modèle d'évolution de la forme du lit et de sa composition. Les prédictions qualitatives sont conformes aux attentes et les prévisions quantitatives largement acceptables. Le recours à une méthode de lissage des paramètres géométriques pourrait encore améliorer les résultats.
APA, Harvard, Vancouver, ISO, and other styles
5

Hérouin, Eric. "Capacité de transport de sédiments dans les cours d'eau en régime non-uniforme." Lyon 1, 1998. http://www.theses.fr/1998LYO19011.

Full text
Abstract:
Le transport solide en riviere a lieu pendant un evenement transitoire (crue) dans une geometrie non-uniforme ; or la plupart des lois donnant la capacite de transport solide ont ete etablies en regime uniforme. Apres une revue bibliographique, est analysee la contribution des differents facteurs au transport solide : contrainte au fond, intensite turbulente, vitesse debitante, pente du fond et les gradients longitudinaux et temporels de la cote de la surface libre et de la vitesse debitante. Une modification du parametre de schields critique en regime non-uniforme est proposee ; les effets transitoires sont presque toujours negligeables, contrairement aux effets lies a la pente. Une approximation au second ordre pres de la contrainte au fond est eloignee des simulations numeriques bases sur la resolution des equations de navier-stokes. Par ailleurs cette approximation suppose un regime non-uniforme asymptotique (gradients constants) qui n'est jamais atteint en riviere, sa portee operationnelle est donc nulle. Un modele unidimensionnel prenant en compte les ruptures de pente et l'inertie liee au transfert d'energie permet de rendre compte de maniere plus satisfaisante de l'evolution de la contrainte au fond et de l'intensite turbulente en regime non-uniforme. Enfin, la capacite de transport en regime non-uniforme est comparee a celle resultant de l'application des formules du regime uniforme. Les differents impacts se neutralisent mutuellement dans l'espace et dans le temps. Lors d'une crue sur un troncon homogene, l'ecart entre la capacite de transport en regime non-uniforme et celle calculee en supposant le regime uniforme, reste tres faible (quelques %). Suite a ce travail, il semble preferable de developper des modeles bases sur des descripteurs synthetiques de la geometrie du lit et du regime hydrologique a l'echelle du troncon homogene, plutot que de poursuivre dans une approche deterministe a l'echelle des processus elementaires.
APA, Harvard, Vancouver, ISO, and other styles
6

Tiedemann, Florian, and Florian Tiedemann. "Étude sur la relation compétition-densité de l'épinette noire au Québec." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/24779.

Full text
Abstract:
Un modèle intégrant des guides de gestion de la densité décrit l'«effet de compétition-densité» étant l'effet négatif du nombre d'arbres (densité) sur le volume moyen V . Pour les peuplements naturels d'épinette noire (Picea mariana (Mill.) BSP) au Québec, Tremblay et collab. (2000) constatent que le modèle simple d'Ando (1968) manque de précision. L'ajout du coefficient de distribution, défini comme le taux d'occupation des cellules subdivisant une placette échantillon en autant de cellules qu'il s'y trouvent d'arbres, a significativement amélioré un modèle simplifié de l'effet de compétition-densité (critère d'information d'Akaike) pour 63 placettes échantillons situées dans les régions Saguenay{Lac-St-Jean et Côte-Nord. Un faible CD, indicateur d'une dispersion spatiale en bouquets des arbres, a un effet négatif sur le V . En utilisant 8197 placettes échantillons du ministère des Ressources naturelles, nous avons significativement amélioré (critère d'information bayesien) le modèle simple d'Ando (1968) par l'ajout simultané de (1.a) l'indicateur de distribution diamétrale «RD4», qui est le rapport entre le diamètre moyen quadratique et le diamètre dominant, (1.b) W, qui est de 1 dans les sous-domaines bioclimatiques de l'ouest, et de 0 dans ceux de l'est et (1.c) RE2, qui est de 1 pour la végétation potentielle RE2 et de 0 pour l'autre végétation potentielle (RE3). Avec une racine d'erreur quadratique moyenne (RMSE) de 1,055 et un coeffiction de déterminantion (R2) de 0,936, nous avons obtenu une véritable amélioration de la précision du modèle réduit (RMSE = 1; 369 et R2 = 0; 787), tout en n'utilisant que des variables qui sont à la fois faciles à mesurer sur le terrain et qui se prêtent bien, en plus, à être utilisees dans les autres modèles composants d'un guide de gestion de la densité. Le modèle complétée par (2) la classe de pourcentage de couverture est également significativement meilleur (critère d'information bayesien) et plus précis (RMSE = 1; 303 et R2 = 0; 81) que le modèle réduit.
Un modèle intégrant des guides de gestion de la densité décrit l'«effet de compétition-densité» étant l'effet négatif du nombre d'arbres (densité) sur le volume moyen V . Pour les peuplements naturels d'épinette noire (Picea mariana (Mill.) BSP) au Québec, Tremblay et collab. (2000) constatent que le modèle simple d'Ando (1968) manque de précision. L'ajout du coefficient de distribution, défini comme le taux d'occupation des cellules subdivisant une placette échantillon en autant de cellules qu'il s'y trouvent d'arbres, a significativement amélioré un modèle simplifié de l'effet de compétition-densité (critère d'information d'Akaike) pour 63 placettes échantillons situées dans les régions Saguenay{Lac-St-Jean et Côte-Nord. Un faible CD, indicateur d'une dispersion spatiale en bouquets des arbres, a un effet négatif sur le V . En utilisant 8197 placettes échantillons du ministère des Ressources naturelles, nous avons significativement amélioré (critère d'information bayesien) le modèle simple d'Ando (1968) par l'ajout simultané de (1.a) l'indicateur de distribution diamétrale «RD4», qui est le rapport entre le diamètre moyen quadratique et le diamètre dominant, (1.b) W, qui est de 1 dans les sous-domaines bioclimatiques de l'ouest, et de 0 dans ceux de l'est et (1.c) RE2, qui est de 1 pour la végétation potentielle RE2 et de 0 pour l'autre végétation potentielle (RE3). Avec une racine d'erreur quadratique moyenne (RMSE) de 1,055 et un coeffiction de déterminantion (R2) de 0,936, nous avons obtenu une véritable amélioration de la précision du modèle réduit (RMSE = 1; 369 et R2 = 0; 787), tout en n'utilisant que des variables qui sont à la fois faciles à mesurer sur le terrain et qui se prêtent bien, en plus, à être utilisees dans les autres modèles composants d'un guide de gestion de la densité. Le modèle complétée par (2) la classe de pourcentage de couverture est également significativement meilleur (critère d'information bayesien) et plus précis (RMSE = 1; 303 et R2 = 0; 81) que le modèle réduit.
APA, Harvard, Vancouver, ISO, and other styles
7

Machkour, Deshayes Nadia. "Méthode de déconvolution appliquée à l'étude de la densité surfacique d'un arc électrique de coupure basse tension à partir de mesures magnétiques." Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF22456.

Full text
Abstract:
L'étude consiste à mettre en place une méthode qui permet de reconstituer la densité du courant dans un arc électrique de coupure basse tension, à partir des mesures ponctuelles de l'induction magnétique créée par le dispositif de coupure. Ces mesures sont réalisées grâce à l'utilisation des capteurs à effet Hall placés en dehors du trajet de l'arc. Pour cette étude, nous avons supposé l'arc électrique modélisé par une nappe de courant rectangulaire, de densité variable dans la direction de propagation de l'arc. Les autres éléments du circuit sont assimilés à des segments de courant rectilignes et filiformes. Nous avons montré que l'induction magnétique créée par l'arc représente un produit de convolution entre sa densité du courant et une fonction qui dépend de la géométrie du dispositif de coupure et du modèle pris par l'arc. Cette méthode permet aussi de calculer les dimensions de l'arc, déterminer sa position ainsi que sa conductivité électrique. Celle-ci est utilisée pour estimer la température de l'arc. Nous avons appliqué cette méthode pour étudier le comportement de l'arc en fonction du courant présumé et l'espace interélectrode
APA, Harvard, Vancouver, ISO, and other styles
8

Martel, Claire. "Etude expérimentale de la combustion turbulente prémélangée : analyse de modèles." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0573.

Full text
Abstract:
Les modèles de combustion turbulente prémélangée basés sur le concept de flamelettes étudiés ici, en découplant la turbulence et la combustion, analysent la flamme comme une fine surface plissée et connectée par l'écoulement turbulent. Le taux de réaction par unité de volume est écrit comme le produit du taux de réaction par unité de surface de flamme (issu des calculs de structure de flamme laminaire) par la densité de surface de flamme (surface de flamme disponible par unité de volume). La densité de surface de flamme peut être obtenue soit par une expression algébrique à partir des caractéristiques géométriques de la flamme, soit à l'aide d'une équation exacte de transport. Certains termes de cette équation ne sont pas fermes et nécessitent une modélisation. L'essentiel de cette thèse est consacré à l'analyse expérimentale des modèles de densité de surface de flamme. L'étude a été menée sur une flamme de prémélange propane/air stabilisée par un barreau dans une conduite rectangulaire. Plusieurs diagnostics ont été mis en œuvre pour cette étude. L'imagerie d'émission spontanée C H fournit l'image de la zone de réaction. L'analyse de gaz donne la composition moyenne des gaz avec une assez bonne précision. La tomographie laser produit les caractéristiques géométriques instantanées puis moyennes du front de flamme. Enfin, la vélocimétrie laser Doppler détermine le champ de vitesse moyen et ses fluctuations. L'utilisation de toutes ces techniques pour différentes conditions opératoires nous a permis de constituer une base de données expérimentale complète et de préciser quelques caractéristiques de l'écoulement pour valider et améliorer certains termes des principaux modèles de flammelettes.
APA, Harvard, Vancouver, ISO, and other styles
9

Piacenza, Guy. "Nouveaux matériaux énergétiques, modélisation et préparation de polyamines hétérocycliques." Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX30081.

Full text
Abstract:
Notre travail porte sur la recherche de nouveaux materiaux energetiques en particulier sur la modelisation et la preparation de polyamines heterocycliques. Nous avons realise une approche integree de synthese de precurseurs de nitramines heterocycliques orientee par la prediction de leur structure moleculaire et de leurs proprietes physico-chimiques. Nous avons axe nos syntheses sur des molecules cage basees sur une chimie du glyoxal, du formaldehyde et des amines. Nous avons ainsi etudie successivement des molecules monocycliques de type hexahydro-s-triazine, bicycliques apparentees au glycolurile puis polycycliques avec les squelettes de l'adamantane et de l'isowurtzitane. Nous avons synthetise des methylene bisamides non carboxyliques qui vont servir a introduire de nouveaux liberables. Nous avons effectue la premiere etude de fond (experimentale et theorique par la methode am1) sur la nitration des amines substituees avec 14 groupements liberables differents afin de mieux comprendre le mecanisme de cette reaction. Nous avons ainsi obtenu un classement des groupements liberables electrophiles qui est en bon accord avec l'etude experimentale. Grace a la mecanique quantique et moleculaire, nous avons effectue une etude comparative modelisation moleculaire-structures par rayons x pour deux familles de composes, precurseurs de materiaux energetiques : les tetraaza bicylo3. 3. 1nonane-diones et les hexahydro-s-triazines. Nous avons developpe une methode de prediction de la densite des solides et des liquides a partir de la mecanique moleculaire et avons realise une analyse critique des methodes existantes afin de faire le point sur leurs possibilites, leurs ameliorations possibles et sur leurs limites.
APA, Harvard, Vancouver, ISO, and other styles
10

Fekih, Salem Radhouane. "Modèles mathématiques pour la compétition et la coexistence des espèces microbiennes dans un chémostat." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01018600.

Full text
Abstract:
Cette thèse porte sur l'analyse mathématique de modèles de compétition de plusieurs espèces microbiennes sur un seul nutriment dans un chémostat. L'objectif est de montrer la coexistence des espèces par divers mécanismes pour affirmer la biodiversité que l'on trouve dans les écosystèmes aquatiques et terrestres ainsi que dans les bioréacteurs. Nous nous somme intéressés principalement à trois mécanismes de coexistence :1- La compétition inter-spécifique entre les populations de micro-organismes et intra-spécifiques entre les individus de la même espèce.2- La floculation où l'espèce la plus compétitive inhibe sa propre croissance par la formation des flocs pour pouvoir coexister avec les autres espèces. En fait, ces bactéries en flocs consomment moins du substrat que les bactéries isolées puisqu'ils ont un moins bon accès au substrat, étant donné que cet accès au substrat est proportionnel à la surface extérieur du floc.3- La densité-dépendance dont le modèle peut être construit à partir du modèle de floculation en supposant que la dynamique de floculation est plus rapide que la croissance des espèces. Dans ce modèle densité-dépendant, le taux de croissance et le taux de prélèvement dépendent non seulement de la densité du substrat mais aussi de la densité de la biomasse.Enfin, nous avons étudié un modèle de digestion anaérobie à trois étapes avec dégradation enzymatique du substrat (matière organique) dont une partie peut être sous forme particulaire. L'analyse mathématique montre que ce modèle peut présenter la quadri-stabilité avec lessivage d'aucune, d'une ou de deux espèces selon la condition initiale.
APA, Harvard, Vancouver, ISO, and other styles
11

Rompas, Parabelem Tinno Dolf. "Un modèle numérique pour l'étude des courants marins dans le détroit de Bangka, Nord Sulawesi, Indonésie." Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30023.

Full text
Abstract:
Un modèle numérique permettant d’étudier les courants marins dans le détroit de Bangka (Sulawesi du Nord, Indonésie) est proposé. Cette étude est destinée à la mise en place d’hydroliennes dans l’endroit le plus adapté du détroit afin de fournir du courant électrique à l’environnement voisin. Le projet utilise un modèle tridimensionnel d’écoulement prenant en compte la distribution de pression dans les couches verticales liquides qui est supposée hydrostatique. On est ainsi ramené à un calcul bidimensionnel utilisant les équations du mouvement en eau peu profonde. L’objectif de l’étude est l’obtention simultanée des lignes de courants et les disponibilités de puissance des marées par unité de surface horizontale du détroit. Le détroit de Bangka a une largeur d’environ 5500 mètres pour une profondeur moyenne de 40 mètres. Le calcul numérique est simulé à l’aide de mailles horizontales de 60 mètres de côté. Les données des conditions de bord pour les vitesses résultent de mesures expérimentales. Les solutions numériques ont été obtenues en utilisant un pas de temps d’une seconde. Les résultats montrent que les lignes de courants et les valeurs des vitesses correspondent convenablement aux résultats des mesures. Les valeurs de la puissance disponible par m2 alors obtenues par le calcul doivent permettre de choisir l’endroit le plus convenable pour installer des turbines bien adaptées pour une future centrale électrique sousmarine
A numerical model makes it possible to study the marine currents in the Bangka strait (North Sulawesi, Indonesia) is proposed. This study is intended for the installation of hydroelectric in the place more adapted of strait in order to provide electric current to the close environment. The project uses a three-dimensional model of taking flow where the pressure distribution in the liquid vertical layers which is supposed hydrostatic. We are thus brought back to a twodimensional calculation using the shallow water equations. The objective of the study is the simultaneous obtaining of the current threads and the power availabilities of the tides per unit of horizontal area of the strait. The Bangka strait is 5500 m width for an average depth of 40 m. Numerical calculation is simulated using horizontal meshes of 60 side meters. The velocity data of the edge conditions result from experimental measurements. The numerical solutions were obtained by using a time step of one second. The results show that threads of currents and values of velocities correspond to the results of measurements. The values of the power available per m2 then obtained by calculation must make it possible to choose the more suitable place to install turbines adapted well for a future undersea power plant
APA, Harvard, Vancouver, ISO, and other styles
12

Gomez, Evelyne. "Modèles d'estimation de la densité de population animale pour des échantillonnages par lignes de parcours et par points d'observation." Montpellier 2, 1988. http://www.theses.fr/1988MON20074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Mrabet, Kaïs. "Comportement mécanique en grandes déformations du polyéthylène haute densité : approche thermodynamique de l'état relaxé." Vandoeuvre-les-Nancy, INPL, 2003. http://www.theses.fr/2003INPL036N.

Full text
Abstract:
Les polymères semi-cristallins font l'objet de nombreuses recherches scientifiques visant à comprendre leurs mécanismes de déformation microscopiques. Néanmoins, les modèles présentés aujourd'hui dans la littérature n'abordent que rarement les essais mécaniques avec décharge et les essais cycliques en grandes déformations. Les raisons de ces insuffisances sont surtout liées à la difficulté d'établir une description physique mettant en jeu la multiplicité des processus de réorganisation interne. Aussi, un élément important du comportement mécanique du polymère semi-cristallin est souvent ignoré, il s'agit de la notion d'état relaxé. Dans le cadre du formalisme D. N. L. R. (Distribution of Non Linear Relaxation) nous nous intéressons de plus près à ces deux aspects du comportement mécanique: multiplicité des processus et état relaxé. Pour clarifier ses deux notions nous nous sommes donné pour objectif de caractériser l'état relaxé en grandes déformations et de le modéliser en exploitant la thermodynamique de processus irréversibles tout en prenant en compte l'aspect microscopique de la déformation. La distribution des poids des différents modes de dissipation est décrite suite à des observations issues d'un essai clip test. Le matériau utilisé est le polyéthylène à Haute Densité moléculaire PEHD. Les essais sont effectués selon la technique de VideoTraction. Le module de l'état relaxé mesuré lors du chargement en traction est nettement plus important que celui mesuré lors de la décharge, ce qui traduit un phénomène d'endommagement. Nous avons montré que l'irréversibilité de l'état relaxé impose qu'il soit modélisé par une fonctionnelle qui intègre les effets de mémoire et d'endommagement. Par ailleurs, l'essai dip test a révélé la présence d'un cross over mécanique. Une étude bibliographique nous a montré que ce phénomène est lié à la multiplicité des processus, et nous a incité à réexaminer la partition modale intervenant dans la loi de comportement DNLR. Nous avons montré que le modèle physique ainsi élaboré est capable de reproduire des chargements complexes, notamment les essais cycliques avec relaxation, et de prédire des comportements très dépendants de l'histoire du chargement et liés à la non réversibilité de l 'état relaxé
The semicrystalline polymers are the subject of many scientific researchs aiming to understanding their microscopic mechanisms of deformation. Nevertheless, the modelling which we currently find in the literature do not approach the mechanical tests with unloading or the cyclic tests at large strains. Among the reasons of these insufficiencies appears themultiplicity of the internal reorganization processes which is seldom described finely in the physical modelling. Moreover, a main aspect of the semicrystalline polymer behaviour is often ignored, it acts of the relaxed state. Within the framework of formalism Distribution of Non Linear Relaxation (D. N. L. R. ), we are interested more closely in these two aspects of the mechanical behaviour: multiplicity of the mechanisms, relaxed state. To clarify these two concepts, the objective was to characterize the relaxed state at large strains and to propose a physical modelling based on the thermodynamics of irreversible processes and on the microscopic aspects of the deformation. The distribution of the weights of the various modes has been described following observations given by a clip tests. The material used is the High Density Polyethylene HOPE. The tests were carried out with VideoTraction technology. The relaxed state modulus measured during tension loading is definitely more important than that of the unloading, which translates a damage phenomenon. The irreversibility of the relaxed state imposes that the modelling must use a functional formulation which integrates the memory effect and damage. In addition, the dip test has shawn the presence of mechanical cross over. A bibliographical study showed that this phenomenon is closely related to the processes multiplicity. Thus, we have shawn that the modal partition adopted in practice has to be re-examined. We have shawn that the modelling set up is able to reproduce complex loadings, in particular the cyclic tests with relaxation, and to predict behavior very depending on the. Loading history and the irreversible relaxed state
APA, Harvard, Vancouver, ISO, and other styles
14

Gbegbe, Zihewo Anicette. "Modélisation des machines par circuits couplés pour l'observation des courants de barres au rotor." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27154.

Full text
Abstract:
Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.
This work presents a fast high-order model able to model a rotor configuration in full cage or grid, reproduce bar currents and consider the space harmonics. The model is based on a Combination of Finite Element method and Coupled Circuits. Indeed, the calculation of inductances is performed with magnetostatic finite element resolutions which gives to the model an advanced accuracy.This method offers a significant gain in computing time on finite element for transient simulations. Two simulation tools are developed, one in time domain for dynamic resolutions and another in phasor domain whose application on StandStill Frequency response (SSFR) is also presented. The model construction method is described in detail as well as the modeling procedure of the rotor circuit. The model is validated by the study of synchronous machines: a laboratory machine of 5.4 KVA and a large hydrogenerator of 109 MVA whose experimental measurements are compared to the model simulation results for tests such as no-load, three-phase and two-phase short circuit and also a load test.
APA, Harvard, Vancouver, ISO, and other styles
15

Beddek, Karim. "Propagation d’incertitudes dans les modèles éléments finis en électromagnétisme : application au contrôle non destructif par courants de Foucault." Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10175.

Full text
Abstract:
La quantification d’incertitudes est une démarche consistant à prendre en compte les incertitudes des coefficients caractéristiques (matériaux, géométries, sources ...) d’un modèle mathématique en vue d’estimer l’effet de ces méconnaissances sur les grandeurs physiques recherchées. Dans ce travail de thèse, nous nous sommes intéressés aux approches probabilistes de propagation d’incertitudes portées par les lois de comportement (perméabilités et conductivités) aux sein de modèles éléments finis de l’électromagnétisme quasi-statique de taille industrielle. Cette thèse vise à comparer les deux approches spectrales NISP et SSFEM qui sont basées sur une représentation fonctionnelle dans le chaos polynomial des grandeurs d’intérêt aléatoires. Cette étude de comparaison est effectuée en terme de précision numérique et de coût de calcul, et pour des grandeurs d’intérêt scalaires et vectorielles complexes. Les applications numériques nous ont montré que la SSFEM peut être assez compétitive par rapport à la NISP pour des problèmes probabilistes à grandes dimensions stochastiques. Il en résulte que celle-ci est la méthode de prédilection pour l’étude des systèmes électromagnétiques dont les lois de comportement des matériaux sont aléatoires. Enfin, les deux méthodes spectrales ont été appliquées sur un problème de détection de bouchage par la magnétite des plaques entretoises des générateurs de vapeur d’une centrale nucléaire. Dans cette étude probabiliste, nous nous sommes attelés à quantifier la contribution des incertitudes, subsistant dans les conductivités et perméabilités de la magnétite et de la plaque, à la variabilité des signaux et du ratio SAX
The uncertainty quantification technique aims to quantify the effect of uncertainties of input parameters of numerical models, e.g. material, geometry, source terms, on the quantity of interest. In this thesis, we focus on probabilistic approaches in order to spread uncertainties of magnetic and electric behavior laws over large scale electromagnetic finite element models. The main objective of this work is to compare two spectral stochastic methods (Non Intrusive Spectral Projection (NISP) and Spectral Stochastic Finite Element Method (SSFEM)), which are based on chaos polynomial representation of the random quantities. The comparison between the NISP and the SSFEM is carried out by confronting the computational costs and the precision when scalar and vector complex quantities of interest are computed. The numerical applications show that the SSFEM method become as competitive as the NISP method in terms of computational cost when solving probabilistic problems with large number of random parameters. Thus, the SSFEM method is chosen as the best adapted to solve electromagnetic problems when the behavior laws are random. In fact, the NISP method is inappropriate to compute vector complex quantities when equipped with adaptive sparse grid procedures. Finally, the NISP and SSFEM methods are used to study the clogging of the Tube Support Plate (TSP) of steam generators of nuclear power plants. The effect of uncertainties of the permeability and the conductivity of the TSP and the magnetite (clogging product) on the control signal and the SAX ratio is investigated
APA, Harvard, Vancouver, ISO, and other styles
16

Hanna, Pierre. "Modélisation statistique de sons bruités : étude de la densité spectrale, analyse, transformation musicale et synthèse." Bordeaux 1, 2003. http://www.theses.fr/2003BOR12756.

Full text
Abstract:
L'ordinateur offre de nouvelles possibilités en terme de traitement du son. Les travaux de recherche actuels concernent essentiellement la modélisation des parties périodiques d'un signal. Les sons bruités sont pourtant de plus en plus employés lors de la composition musicale. Les modèles existants considèrent ces sons, ou leurs parties bruitées, comme du bruit blanc filtré. Cette hypothèse est mise en défaut par les études psychoacoustiques sur la perception de la densité spectrale des fréquences. Nous présentons un nouveau modèle spectral et statistique, appelé CNSS, basé sur le modèle des bruits thermiques. Un son bruité est défini par une somme fixe de sinusoi͏̈des. Le modèle CNSS propose de nouveaux contrôles liés aux distributions des fréquences et des phases des sinusoi͏̈des, et autorise ainsi de nouvelles transformations musicales. Une méthode d'analyse générale des sons bruités est envisagée. Nous décrivons une première méthode qui caractérise dans un spectre les partiels des composantes bruitées, en étudiant statistiquement les variations d'intensité. Une seconde méthode permet de défnir, sur l'échelle temporelle, les parties composées de transitoires, en étudiant la distribution des échantillons du signal. Enfin, nous détaillons une nouvelle technique qui permet d'approximer la densité spectrale. Les paramètres du modèle CNSS peuvent être ainsi estimés. Par la suit, les algorithmes de synthèse liés au modèle CNSS sont détaillés. De plus, les problèmes dus au recouvrement de fenêtres lors de la synthèse de sons aléatoires sont expliqués. Plusieurs solutions adéquates sont proposées. Une implémentation du modèle CNSS a été effectuée, permettant la synthèse en temps-réel de sons bruités. Cette implémentation est déstinée d'une part à être intégrée dans l'instrument d'éveil musical Dolabip développé au SCRIME, et d'autre part, à devenir une plateforme d'exploration sonore et un outil de synthèse pour les expériences psychoacoustiques.
APA, Harvard, Vancouver, ISO, and other styles
17

Rosa, Vargas José Ismäel de la. "Estimation de la densité de probabilité d'une mesure dans un cadre non-linéaire, non-gaussien." Paris 11, 2002. http://www.theses.fr/2002PA112201.

Full text
Abstract:
Mettre en oeuvre une procédure de mesure passe par la modélisation préalable du phénomène observé. Modéliser devient alors un objectif à part entière même s'il ne faut pas le décorréler de l'objectif de mesure. Au-delà de la construction et du choix de modèle, persiste le problème, à la fois théorique et pratique, de l'évaluation de la densité de probabilité (DDP) des paramètres du modèle retenu. Une fois cette DDP estimée, il faut pouvoir propager cette information statistique jusqu'à la grandeur d'intérêt appelée mesure. Cette mesure étant une fonction non-linéaire des paramètres du modèle. Ainsi, notre travail de recherche porte sur l'estimation de la DDP de la mesure. Pour ce faire, nous proposons une première approche fondée sur les méthodes de type bootstrap. Ces méthodes de simulation comme les méthodes traditionnelles de type Monte-Carlo, requièrent un temps de calcul significatif, cependant elles aboutissent à une très bonne précision sur la caractérisation statistique des systèmes de mesure. Par ailleurs, nous avons pu vérifier que la convergence de ce type de méthodes est plus rapide que celle de la méthode de Monte-Carlo Primitive (MCP). Un avantage certain du bootstrap est sa capacité à déterminer la nature des erreurs agissant sur le système de mesure, grâce à l'estimée de la DDP empirique des erreurs. En outre, l'optimisation de la convergence peut se atteindre en utilisant des schémas de pondération sur les erreurs ou bien, un schéma modifié du bootstrap itéré. Nous proposons aussi l'utilisation d'un schéma d'estimation robuste au cas des données aberrantes. Une deuxième approche est fondée sur l'échantillonnage par les méthodes de Monte-Carlo par chaînes de Markov (MCMC), la caractérisation statistique selon ce point permet d'utiliser toute l'information a priori connue sur le système de mesure, en effectuant une reformulation du problème selon la règle de Bayes. L'échantillonnage de Gibbs et les algorithmes de Metropolis-Hastings ont été exploités dans ce travail. En ce qui concerne l'optimisation de la convergence du MCMC, on a adapté des algorithmes tels que le rééchantillonnage pondéré et le couplage de chaînes dans le temps rétrograde. En particulier, nous avons proposé un échantillonneur de Gibbs par simulation parfaite et un algorithme hybride par simulation parfaite. Une dernière approche au problème d'estimation de la mesure est construite à l'aide des méthodes d'estimation par noyaux. L'idée principale est fondée sur la caractérisation non-paramétrique de la DDP des erreurs, sachant qu'elle est inconnue. .
The characterization and modeling of an indirect measurement procedure is led by a set of previously observed data. The modeling task is it self a complex procedure which is correlated with the measurement objective. Far from model building and model selection, a theoretical and practical problem persists: What is the correct probability density function (PDF) of a parametric model? Once this PDF is approximated, the next step is to establish a mechanism to propagate this statistical information until the quantity of interest. In fact, such a quantity is a measurement estimate and it is a nonlinear function of the parametric model. The present work proposes some different methods to make statistical inferences about the measurement estimate. We propose a first approach based on bootstrap methods. Such methods are classical in statistical simulation together with Monte Carlo methods, and they require a significative time of calcul. However, the precision over the measurement PDF estimated by these methods is very good. On the other hand, we have verified that the bootstrap methods convergence is faster than the Primitive Monte Carlo's one. Another advantage of bootstrap is its capacity to determine the statistical nature of errors which perturb the measurement system. This is doing thanks to the empirical estimation of the errors PDF. The bootstrap convergence optimization could be achieved by smoothing the residuals or by using a modified iterated bootstrap scheme. More over, we propose to use robust estimation when outliers are present. The second approach is based on other sampling techniques called Markov Chain Monte Carlo (MCMC), the statistical inference obtained when using these methods is very interesting, since we can use all a priori information about the measurement system. We can reformulate the problem solution by using the Bayes rule. The Gibbs sampling and the Metropolis-Hastings algorithms were exploited in this work. We overcome to the MCMC convergence optimization problem by using a weighted resampling and coupling from the past (CFTP) schemes, moreover, we adapt such techniques to the measurement PDF approximation. The last proposed approach is based on the use of kernel methods. The main idea is founded on the nonparametric estimation of the errors PDF, since it is supposed unknown. Then, we optimize a criterion function based on the entropy of the errors' PDF, thus we obtain a minimum entropy estimator (MEE). The simulation of this estimation process by means of Monte Carlo, MCMC, or weighted bootstrap could led to us to construct a statistical approximation of the measurement population. .
APA, Harvard, Vancouver, ISO, and other styles
18

Hermet, Patrick. "Modélisation de la dynamique vibrationnelle des oligothiophènes." Montpellier 2, 2004. http://www.theses.fr/2004MON20168.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Durrleman, Stanley. "Modèles statistiques de courants pour mesurer la variabilité anatomique de courbes, de surfaces et de leur évolution." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00631382.

Full text
Abstract:
Le but de cette thèse est de définir, implémenter et évaluer des modèles statistiques de variabilité de courbes et de surfaces basés sur des courants en anatomie numérique. Les courants ont été récemment introduits en imagerie médicale dans le but de définir une métrique entre courbes et surfaces qui ne dépend pas de correspondance de points entre les structures. Cette métrique a été utilisée pour guider le recalage de données anatomiques. Dans cette thèse, nous proposons d'étendre cet outil pour analyser la variabilité de structures anatomiques grâce à l'inférence de modèles statistiques génératifs. Outre la définition et la discussion de tels modèles, nous proposons un cadre numérique pour les estimer efficacement. Plusieurs applications en imagerie cérébrale et cardiaque tendent à montrer la généralité et la pertinence de cette approche. Dans la première partie, nous introduisons de nouveaux outils numériques d'approximation et de compression des courants. Tout d'abord, un cadre rigoureux de discrétisation basé sur des grilles régulières est proposé: il définit des projections en dimension finie des courants qui convergent vers le courant initial quand la grille devient plus fine. Cela permet de définir de manière générique des algorithmes robustes et efficaces pour traiter les courants, avec un contrôle de la précision numérique. En particulier, cela donne une implémentation plus stable de l'algorithme de recalage de courants. Enfin, nous définissons une méthode d'approximation qui calcule une représentation éparse d'un courant à n'importe quelle précision grâce à la recherche d'une base adaptée au signal. Cette représentation éparse est d'un grand intérêt pour compresser de grands ensembles de données anatomiques et pour interpréter les statistiques sur de tels ensembles. Dans la deuxième partie, nous définissons un modèle statistique original qui considère un ensemble de courbes ou de surfaces comme le résultat de déformations aléatoires d'une forme prototype inconnue plus des perturbations résiduelles aléatoires dans l'espace des courants. L'inférence de tels modèles sur des données anatomiques décompose la variabilité en une partie géométrique (capturée par des difféomorphismes) et une partie de "texture" (capturée par les courants résiduels). Cette approche nous permet de traiter trois problèmes anatomiques: d'abord l'analyse de la variabilité d'un ensemble de lignes sulcales est utilisée pour décrire la variabilité de la surface corticale, ensuite l'inférence du modèle sur un ensemble de faisceaux de fibres de la matière blanche montre qu'à la fois la partie géométrique et la texture peuvent contenir de l'information anatomiquement pertinente et enfin l'analyse de la variabilité est utilisée dans un contexte clinique pour la prédiction de la croissance du ventricule droit du coeur chez des patients atteints de la Tétralogie de Fallot. Dans la troisième partie, nous définissons des modèles statistiques pour l'évolution de formes. Nous proposons d'abord une méthode de recalage spatio-temporel qui met en correspondance les ensembles de données longitudinales de deux sujets. Ce recalage prend en compte à la fois les différences morphologiques entre les sujets et la différence en terme de vitesse d'évolution. Nous proposons ensuite un modèle statistique qui estime conjointement un scénario moyen d'évolution à partir d'un ensemble de données longitudinales et sa variabilité spatio-temporelle dans la population. Cette analyse ouvre de nouvelles perspectives pour caractériser des pathologies par une différence de vitesse de développement des organes.
APA, Harvard, Vancouver, ISO, and other styles
20

Ducasse, Alain. "Estimation de sous-harmoniques à l'aide de méthodes paramétriques." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT016H.

Full text
Abstract:
Le sujet de cette these est l'estimation de sous-harmoniques de faibles puissances a l'aide de methodes parametriques, appliquees a des signaux issus de machines electriques (courants, vitesse). Compte tenu des caracteristiques des signaux physiques, nous avons travaille sur un modele de signal compose de sinusoides non amorties perturbees par un bruit blanc. De plus, l'estimation de sous-harmoniques tres basses frequences nous a amene a considerer le probleme de l'echantillonnage. Le premier chapitre rappelle le contexte de l'etude et le probleme pose. Dans le second chapitre, nous presentons les methodes d'estimation parametrique des frequences d'une somme de sinusoides ainsi que les estimateurs du nombre de composantes sinusoidales. Nous donnons un tableau comparatif qui resume les avantages et les inconvenients des principales methodes. Le troisieme chapitre est dedie a la modelisation de prony. Nous demontrons l'existence d'un nombre optimal d'equations de vandermonde. Une technique de deflation est presentee. Les quatrieme et cinquieme chapitres sont consacres a l'etude de l'influence de l'echantillonnage sur l'estimation des poles et des amplitudes complexes d'une somme de sinusoides bruitees. Nous demontrons que les methodes autoregressives ont un maximum d'efficacite lorsque la frequence barycentre des frequences du signal est autour de 0. 25. Les methodes haute resolution sont plus performantes lorsque l'echantillonnage est a la limite imposee par le theoreme de shannon. Le dernier chapitre concerne l'application des methodes d'estimation parametrique aux signaux physiques et presente le logiciel d'analyse spectrale que nous avons realise sous matlab.
APA, Harvard, Vancouver, ISO, and other styles
21

Qendro, Fatos. "Automatisation du contrôle non destructif par courants de Foucault, amélioration du rapport signal sur bruit." Compiègne, 1989. http://www.theses.fr/1989COMPD183.

Full text
Abstract:
Ce travail présente une contribution à la classification automatique de défauts lors du contrôle par courants de Foucault du fil de cuivre. Après avoir étudié la possibilité d'une telle classification il est déduit que l'amélioration du rapport signal sur bruit est une étape indispensable pour la réussite de cette classification. Plusieurs méthodes de filtrage adaptatif ont été testées et une méthode d'interpolation adaptative a été développée. Cette méthode peut être appliquée avec succès à l'amélioration du rapport signal sur bruit dans le cas des signaux impulsionnels noyés dans un bruit stationnaire à bande étroite, modélisable par un modèle AR d'ordre fini. La méthode d'interpolation est appliquée avec succès aux signaux obtenus en contrôle non destructif par courants de Foucault de tubes de générateur de vapeur.
APA, Harvard, Vancouver, ISO, and other styles
22

Majidi, Behzad. "Discrete Element Method Applied To The Vibration Process Of Coke Particles." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29386/29386.pdf.

Full text
Abstract:
Les propriétés physiques, mécaniques et chimiques des matières premières ont un effet majeur sur la qualité des anodes en carbone pour le procédé de production d’aluminium. Ce travail tente d’étudier la faisabilité de l’application de simulation de la Méthode des Élément Discrets (DEM) à la technologie de production d’anodes. L’effet de la forme des particules et de la distribution de leurs tailles sur la densité apparente vibrée (VBD) d’échantillons de coke sec est étudié. Les particules de coke sont numérisées en utilisant des techniques d’imagerie à deux et trois dimensions. Ces images donnent les formes et les aspects réels des particules qui sont utilisées pour les modèles DEM pour les tests VBD pour le codage de flux de particules (PFC). Le coefficient de friction interne des particules de coke est estimé par la méthode de mesure d’angle au repos. Les résultats ont montrés comme attendu, que la VBD des échantillons de coke est affectée par la forme et la distribution de taille des particules. Les simulations à deux dimensions ont confirmé qu’en général, les échantillons formés de particules de tailles poly-dispersées ont une VBD plus haute que ceux dont la taille des particules est mono-dispersée. De plus, la VBD des échantillons augmente lorsque la fraction de grosses particules augmente. Cependant, la présence de 10 % massique de particules fines est nécessaire pour remplir les pores entre les grosses particules. De même pour la simulation 3D, le modèle suit la tendance des données expérimentales montrant que dans une éprouvette de 2,9 cm de diamètre, l’augmentation de la quantité de particules de - 4+6 mesh (de 3,36 à 4,76 mm) engendre une augmentation de la VBD. En conclusion, un modèle DEM approprié est capable de prédire le réarrangement des particules et l’évolution de la densité pendant le processus de vibration.
Physical, mechanical and chemical properties of raw materials have considerable effects on quality of carbon anodes for aluminium smelting process. The present work attempts to investigate the feasibility of application of Discrete Element Method (DEM) simulations in anode production technology. Effects of coke particles shape and size distribution on vibrated bulk density (VBD) of dry coke samples are studied. Coke particles are digitized using two-dimensional and three-dimensional imaging techniques and real-shape particles are used in DEM models of VBD test in Particle Flow Code (PFC). Internal friction coefficient of coke particles were estimated by means of angle of repose tests. Results showed that, as expected, VBD of coke samples is affected by shape and size distribution of the particles. Two-dimensional simulations confirmed that in general, mixed-sized samples have higher VBD than mono-sized cokes and as the fraction of coarse particles increases vibrated bulk density increases. However, existence of 10 wt.% of fine particles to fill the pores between coarse particles is essential. For 3D simulations also, the model follows the trend of experimental data showing that in the container of 2.9 mm diameter, as the content of -4+6 mesh (3.36-4.76 mm) particles increase, VBD increases. It can be concluded that a well-tailored DEM model is capable of predicting the particle rearrangement and density evolution during the vibration process.
APA, Harvard, Vancouver, ISO, and other styles
23

Couto-Barba, Laurent. "Contribution à la simulation du mélange turbulent par la schématisation de fonctions densité de probabilité." Pau, 2005. http://www.theses.fr/2005PAUU3014.

Full text
Abstract:
L'objectif est de proposer un modèle schématisant le mélange en fonction des échelles de longueur et de temps caractéristiques de la turbulence en se limitant au cas de la turbulence homogène et isotrope. Le modèle introduit la notion de particule fluide élémentaire et ses différents voisinages (immédiat, proche et lointain). Pour chaque niveau de voisinage, un modèle spécifique de mélange existant dans la littérature est appliqué. L'approche prend en compte, des petites aux grandes échelles, la diffusion moléculaire (loi de Fick), le mélange interne aux particules fluides (modèle de Kerstein, 1988), le mélange externe aux particules fluides (inspiré du modèle LMSE de Dopazo 1974, ou du modèle C/R de Curl, 1963) et le macromélange (calcul des déplacements lagrangiens). Une horloge interne exécute de manière séquentielle les différents modèles en les appliquant instantanément à des intervalles de temps définis. Deux configurations ont été étudiées. La première est le cas académique du mélange d'un scalaire inerte réparti initialement de manière bimodale. Les évolutions temporelles des fonctions densité de probabilité (PDF), de la variance et des coefficients de symétrie et d'aplatissement ont été comparées à celles issues des simulations numériques directes de Eswaran & Pope (1988). Une étude paramétrique sur la synchronisation et la prépondérance des phénomènes modélisés a été effectuée. La deuxième configuration est celle de couches de mélange thermique issues d'un ou de deux fils chauds introduits dans un écoulement de turbulence de grille à vitesse moyenne uniforme. Nos résultats numériques sont en accord qualitatif avec les résultats expérimentaux de Warhaf (1984)
This thesis considers a method which simplifies the mixing at different levels, depending on turbulence length and time scales. The analysis is here restricted to the case of homogeneous and isotropic turbulent flows. The model is based on elementary fluid particles considered in their different levels of neighborhoods. For each vicinity level, a specific mixing model is applied. The approach takes into account - from small to high length scales - laminar diffusion (Fick diffusion process), internal mixing into fluid particle (Kerstein model, 1988), external mixing between fluid particles contained into a same eulerian volume (inspired from the LMSE model developpef by Dopazo, 1974, or from the Curl model,1963) and turbulent dispersion (where lagrangian moves are computed). An internal clock organizes the sequence of applications of the different models. Each one is applied instantaneously at different periodic times. Two different cases have been studied. The first case is the time evolution of mixing between two components initially introduced in two different areas. The numerical results have been compared to those of Direct Numerical Simulations by Eswaran & Pope (1988). The time evolution of Probability Density Functions, and the evolutions of variance, symetry coefficient and flatness coefficient have been compared. A parametrical study of the parameter governing the sequence of application of the different models has been performed. The second case considers thermal mixing layers emitted from one or two hot films placed inside a grid turbulence with uniform mean flow. Numerical results are in qualitative agreement with the experimental results by Warhaft (1984)
APA, Harvard, Vancouver, ISO, and other styles
24

Laffitte, Elodie. "Modélisation de la propagation de la houle en présence de courants cisaillés et par bathymétrie variable." Electronic Thesis or Diss., Toulon, 2018. http://www.theses.fr/2018TOUL0017.

Full text
Abstract:
Cette thèse de doctorat traite d'un aspect particulier des intéractions houle-courant-bathymétrie, à savoir l'influence de la vorticité sur un phénomène de résonance de Bragg. Pour l'aspect modélisation, une analyse numérique est présentée, basée sur la comparaison de deux modèles hyperboliques - Pente Douce et Pente Douce Modifiée - étendus pour intégrer des courants cisaillés. L'influence de deux paramètres caractéristiques du courant, le cisaillement ( considéré comme constant sur la colonne d'eau) et la célérité en surface, est évaluée pour établir une première tendance vis-à-vis du comportement de la houle. Pour aller plus loin, une campagne expérimentale en canal à houle a fourni un jeu de données originales sur la propagation d'une houle régulière de fréquence variable, réfléchie par une bathymétrie ondulée et un courant cisaillé évolutif. Une analyse poussée a confronté les résultats numériques - basés sur différentes représentations du courant - aux données expérimentales, et plusieurs conclusions fortes en sont ressorties. Sous l'influence d'un courant cisaillé, le pic de Bragg se trouve réduit, en amplitude comme en fréquence, mais un pic de réflexion inattendu survient pour des houle à hautes fréquences ( entre 1.25 et 1.45Hz). Ensuite, si des modélisations précises du comportement du courant nous ont mené à une très bonne approche de l'intensité de la réflexion de Bragg, la fréquence pic associée a systématiquement été surestimée par les modèles. Grâce à une profonde remise en question de la théorie et une collaboration des membres de l'équipe, une nouvelle modélisation a vu le jour, avec une décomposition originale du potentiel des vitesses pour tenir compte de la dissymétrie des nombres d'onde incident et réfléchis (dissymétrie causée par le courant et sa vorticité). Les premiers résultats montrent qu'avec cette nouvelle théorie, la détermination de la fréquence pic n'est plus un problème. Cette nouvelle approche de la réflexion, par fortes variations bathymétriques et en présence de courant à structure variable, promet de belles découvertes sur l'influence de la vorticité
This PhD thesis focuses on a specific part of the interactions between waves, current and bathymetry: the influence of the vorticity on the Bragg resonance phenomenon. Two numerical models, based on hyperbolic equations, are compared: the Mild Slope equation and the Modified Mild Slope equation, both extended to consider vorticity. To establish some trends about the wave behaviour in such configuration, the influence of the vorticity has been compared to the influence of the surface current velocity, in a parametric study. To go further, an experimental campaign has been settled in a wave flume, and the reflexion of regular waves propagating above sinusoïdal bathymetry and horizontally varying sheared currend has been registered for a large range ofwaves frequencies. Sorne strong conclusions asserted themselves: under the influence of a varying sheared current, the maximum of reflexion is reduced, both in amplitude and frequency, but another local maximum appears in higher waves frequencies (between 1.25 and l .45Hz). Moreover, our modelling achieved to represent the amplitude of the Bragg Peak quite well, but always overestimated the associated frequency. Thanks to a strong questioning of the theory and a collaboration between several researchers, a new modelling arised, with an original decomposition of the velocity potential taking into account the asymmetry between the incident and reflected wavenumbers. The first results are very optimistic: find the Bragg Peak frequency is not a problem anymore, and the study on the vorticity influence can continue. This new approach in coastal engineering will generate as many questions as opportunities
APA, Harvard, Vancouver, ISO, and other styles
25

Marsaleix, Patrick. "Modélisation tridimensionnelle de la circulation océanique dans le Golfe du Lion." Toulouse 3, 1993. http://www.theses.fr/1993TOU30072.

Full text
Abstract:
Un modele oceanique tridimensionnel aux equations primitives est developpe et applique a la description des courants dans le golfe du lion. Les problemes numeriques poses par la representation des fortes pentes bathymetriques dans un modele aux coordonnees sigma, sont traites par une methode reduisant les erreurs de troncature des schemas de differenciation. Les simulations du courant liguro-provencal-catalan realisees en l'absence de vent, permettent de retrouver les ordres de grandeurs obtenus experimentalement, en ce qui concerne la veine principale longeant le talus. Les simulations de la circulation induite par vent fort mettent en evidence des processus d'upwelling cotiers observes par la teledetection satellitaire, ainsi que des systemes tourbillonnaires anticycloniques organises
APA, Harvard, Vancouver, ISO, and other styles
26

Voillemont, Jean-Charles. "Caractérisation par micro-sismicité induite des milieux poreux fracturés : modélisations par la méthode des lignes de courant d'un site géothermique HDR (Soultz-sous-Forêts, France)." Vandoeuvre-les-Nancy, INPL, 2003. http://www.theses.fr/2003INPL040N.

Full text
Abstract:
Le projet de Soultz-sous-Forêts (Alsace, France) a pour but d'extraire l'énergie, géothennique contenue dans les cinq premiers Kms de la croûte terrestre par injection d'eau en profondeur pour démontrer la faisabilité des projets HDR (Hot Dry Rock pour roches chaudes sèches). Une modélisation des circulations par la technique des lignes de courant, technique largement utilisée en simulations pétrolières, a été appliquée pour évaluer la durée de vie de l'échangeur. La perméabilité du réservoir a été estimée à l'aide de la microsismicité induite acquise pendant la fracturation hydraulique. Une extension de la méthode SBRC (Seismic Based Reservoir Characterization) est proposée dans ce mémoire. Cette nouvelle méthodologie permet de quantifier le champ de perméabilité isotrope hétérogène et de suivre l'évolution de la perméabilité au cours du processus de fracturation. Tous les outils informatiques développés ont été intégrés dans un plug-in du logiciel Gocad.
APA, Harvard, Vancouver, ISO, and other styles
27

Gosselin, Frédéric. "Modèles stochastiques d'extinction de population : propriétés mathématiques et leurs applications." Paris 6, 1997. http://www.theses.fr/1997PA066358.

Full text
Abstract:
Des modeles d'extinction de population sont frequemment employes comme outils d'aide a la decision pour la gestion de populations animales ou vegetales menacees. Le but de cette these est de prouver des resultats mathematiques decrivant la maniere dont se passe l'extinction dans la plupart de ces modeles, et de les appliquer a quelques cas particuliers. Apres une revue bibliographique sur l'extinction de populations et les modeles utilises pour l'apprehender, je propose une serie de resultats mathematiques, pour la plupart asymptotiques, generalisant au cadre plus etendu des chaines de markov a espace d'etats denombrable des resultats connus pour les chaines de markov finies ou les processus de ramification. Je prouve l'extinction certaine de ces modeles et deux types de stabilisation stochastique et asymptotique conditionnellement a la non-extinction. C'est l'utilisation de resultats d'analyse lineaire qui aura permis une telle extension. Je presente ensuite deux manieres de simuler numeriquement ces modeles, dont l'une est en partie nouvelle, puis j'etudie a la lumiere des resultats de cette these un modele d'extinction correspondant a une population reelle. Je clos ce travail par une discussion sur l'applicabilite, l'utilisation et l'utilite de mes resultats pour la modelisation de l'extinction, mais aussi dans d'autres domaines biologiques. Les principales conclusions sont que mes resultats s'appliquent a un grand nombre de modeles d'extinction existants et possedent des applications conceptuelles interessantes en ecologie theorique, concernant les notions d'equilibre et de stabilite, mais qu'ils ne sont pas systematiquement utiles dans l'interpretation des simulations et qu'ils doivent etre utilises avec une certaine rigueur mathematique
APA, Harvard, Vancouver, ISO, and other styles
28

Jiang, Zixian. "Contrôle non destructif via des sondes courants de Foucault : nouvelles approches." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-00943613.

Full text
Abstract:
L'objectif principal de cette thèse est de proposer et de tester quelques méthodes de l'optimisation de forme afin d'identifier et de reconstruire des dépôts qui couvrent la paroi extérieure d'un tube conducteur dans un générateur de vapeurs en utilisant des signaux courant de Foucault. Ce problème est motivé par des applications industrielles en contrôle non-destructive dans le secteur de l'énergie nucléaire. En fait, des dépôts peuvent obstruer le passage de circuit de refroidissement entre les tubes et les plaques entretoises qui les soutiennent, ce qui entraînerait une baisse de productivité et mettrait la structure en danger. On considère dans un premier temps un cas axisymétrique dans le cadre duquel on construit un modèle 2-D par des équations aux dérivées partielles pour le courant de Foucault, ce qui nous permet ensuite de reproduire des mesures d'impédances qui correspondent en réalité les signaux courants de Foucault. Pour réduire le coût de calculs de la simulation numérique, on tronque le domaine du problème en posant des conditions aux bords artificielles basées sur des études sur le comportement de la solution, notamment sur un calcul semi-analytique de l'opérateur Dirichlet-to-Neumann dans la direction axiale. Pour la partie identification et reconstruction, on distingue deux sortes de dépôts et établit pour chacun une méthode d'inversion spécifique. Le premier cas concernent des dépôts dont la conductivité est relativement faible (d'environs 1.e4 S/m). On utilise la méthode d'optimisation de forme qui consiste à exprimer explicitement la dérivée des mesures d'impédance par rapport au domaine du dépôt en fonction d'une déformation et à représenter le gradient d'un fonctionnel de coût à minimiser par l'intermédiaire d'un état adjoint proprement défini. Motivée par la présence des dépôts et des plaques de maintient non-axisymétriques, on fait aussi une extension en 3-D des méthodes précédentes. Pour le deuxième cas, des dépôts sont fortement conducteurs et sous forme de couche mince d'une épaisseur de l'ordre de micron. La méthode adaptée à la première sorte de dépôts devient ici trop coûteuse à cause du degré de liberté très élevé des éléments finis sur un maillage extrêmement raffiné à l'échelle de la couche mince. Pour relever cette difficulté, les études sont portées sur plusieurs modèles asymptotiques qui remplace la couche mince par des conditions d'interface sur la surface du tube portante du dépôt. Le nom de modèle asymptotique vient du fait que les conditions d'interface effectives sont obtenues par le développement asymptotique de la solution en fonction d'un paramètre caractérisant la conductivité et l'épaisseur de la couche mince. La validation numérique a permis de retenir un modèle asymptotique qui est à la fois suffisamment précis et simple à inverser. L'inversion (recherche de l'épaisseur du dépôt) consiste alors à rechercher des paramètres dans les conditions d'interface (non standard). Pour les deux cas, la validation et des exemples numériques sont proposés pour le modèle direct et l'inversion.
APA, Harvard, Vancouver, ISO, and other styles
29

Dallaire, Jonathan. "Modélisation des changements de phase solide-liquide : effet de la variation de la densité avec la phase et du couplage thermomécanique." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27716.

Full text
Abstract:
Les matériaux à changement de phase (MCP) sont utilisés dans une vaste gamme d’applications dans lesquels ils peuvent servir, entre autres, au stockage d’énergie thermique sous forme latente. Les changements de phase liquide-solide ont été le sujet de plusieurs études dans les dernières décennies autant au niveau expérimental que numérique. Puisque la matière est organisée différemment à l’échelle moléculaire, les propriétés physiques des phases solides et liquides sont différentes. En particulier, les variations de densité lors du changement de phase entraînent des variations de volume, i.e., le MCP peut se dilater ou se contracter selon de la densité relative de chaque phase. Cependant, les variations de volume sont négligées dans la plupart des études sur le changement de phase solide-liquide. La complexité additionnelle et les défis associés à la modélisation mathématique et numérique du changement de phase solide-liquide avec les variations de densité sont tels que seulement un petit nombre d’études sur ce sujet sont disponibles dans la littérature, spécialement lorsque le MCP interagit avec ses frontières physiques (couplage thermomécanique). L’objectif de cette thèse est donc de contribuer à l’avancement des connaissances en ce qui a trait à la modélisation mathématique et numérique des changements de phase solide-liquide lorsque les variations de densité et le couplage thermomécanique entre le MCP et son contenant sont pris en considération. Dans un premier temps, un nouvel ensemble d’équations de conservation est établi pour le changement de phase solide-liquide avec différentes propriétés pour chaque phase, particulièrement la densité. En représentant la zone pâteuse comme un milieu poreux (de façon similaire au modèle enthalpique), des équations de conservation macroscopiques moyennées sont développées en appliquant une méthode de moyenne volumique (« volume averaging ») aux équations de conservation exactes pour les phases solides et liquides à l’échelle des pores. Le choix de l’hypothèse pour la vitesse de la phase solide dans la zone pâteuse (stationnaire ou mobile) se fait grâce à un seul paramètre numérique. Des simulations ont été effectuées avec un code de volumes finis dans Matlab pour un problème de solidification unidimensionnel afin de mettre en évidence les différences entre le nouveau modèle et le modèle enthalpique existant. Dans un deuxième temps, le modèle mathématique développé dans la première partie de cette thèse a été modifié pour prendre en compte les interactions entre le MCP et ses frontières physiques. Deux nouveaux modèles de couplage thermomécanique ont été introduits. Dans le premier, il a été supposé que la dilatation du MCP est contrainte par un mur élastique et que l’augmentation de pression dans le MCP suit une loi de Hooke modifiée. Dans le second modèle, une cavité d’air a été introduite au-dessus du MCP pour faciliter l’expansion de ce dernier. Des corrélations analytiques ont été développées afin de prédire certaines quantités physiques d'intérêt à l’équilibre, comme l’augmentation de pression dans le MCP, la température de fusion, la hauteur du MCP, etc. Le code de volumes finis implémenté sur Matlab dans la première partie de ce travail a été modifié par l’ajout d’une technique de maillage mobile (« moving mesh ») pour accommoder les variations de volume du MCP. Le problème étudié était la solidification d’une couche unidimensionnelle de MCP d’une hauteur finie. Les résultats numériques ont été comparés aux prédictions analytiques à l’équilibre et ils s’avèrent être en accord. Dans un dernier temps, le modèle comprenant le mur élastique a été appliqué au problème de solidification de l’eau près de son extremum de densité dans une cavité bidimensionnelle avec convection naturelle. Le modèle complet a été implémenté dans un logiciel de CFD commercial (Fluent). Une nouvelle méthodologie a été développée afin d’améliorer les capacités du logiciel. Le couplage thermomécanique a été accompli grâce à plusieurs « User-Defined Functions » (UDF). L’effet du confinement de l’eau lors de la solidification dans la cavité a été étudié en faisant varier la rigidité du mur élastique. Il a été démontré que l’augmentation de pression résultante du couplage thermomécanique influence de façon significative l’écoulement et le taux de solidification de MCP.
Phase change materials (PCM) are commonly used in a vast range of engineering applications in which they can serve, for example, as a way of storing thermal energy in the form of latent energy. Solid-liquid phase change has been the subject of many studies in the past decades both experimentally and numerically. Due to the different ways in which matter is organized at the molecular level, the physical properties of the solid and liquid phases are different. In particular, the density variations during phase change leads to volume variations, i.e., the PCM will either expand or shrink, depending on the relative density of each phase. In most studies, however, volume variations during solid-liquid phase change were deemed negligible and were not taken into account. The additional complexity and the challenges associated with the mathematical and numerical modeling of solid-liquid phase change with variable density are such that only a handful of studies on the topic may be found in literature, especially in the case where the PCM interacts with its physical boundaries (thermo-mechanical coupling). The goal of this thesis is therefore to contribute to the state of the art in terms of mathematical and numerical modeling of solid-liquid phase change when both density variations and thermo-mechanical coupling between the PCM and its container are taken into account. First, a new set of conservation equations is derived for solid-liquid phase change with different properties for each phase, especially the density. By representing the mushy region of the PCM as a porous medium (similarly to the well-known enthalpy-porosity model), macroscopic average conservation equations are developed by applying a method of volume averaging to the exact conservation equations for the solid and liquid phases at the pore level. The choice of the assumption regarding the velocity of the solid phase within the mushy region (stationary or moving) is achieved by the use of a single numerical parameter. Numerical simulations of a 1D solidification problem were performed with a finite volume code on Matlab to outline the differences between the new model and the existing enthalpy-porosity model. Then, the mathematical model developed in the first part of this thesis was extended in order to account for the interaction of the PCM with its physical boundaries. Two new models for the thermo-mechanical coupling were introduced. In the first model, it was assumed that the PCM expansion was constrained by an elastic wall and that the pressure rise within the PCM followed a modified Hooke’s law. In the second model, an air gap was introduced on top of the PCM in order to allow the latter to expand more easily. Analytical correlations were derived to predict relevant physical quantities at equilibrium, such as the pressure rise within the system, the melting temperature, the height of the PCM slab, etc. The finite volume code developed during the first part of this work was extended with a moving mesh technique to accommodate the volume variations of the PCM. The problem studied was the solidification of a 1D PCM slab of finite height. The numerical results were compared against the analytical predictions at equilibrium and showed good agreement. Finally, the elastic wall model introduced in the previous part of the thesis was applied to the problem of solidification of water near its density extremum in a 2D cavity with natural convection. The complete model was implemented in commercial software package (Fluent). A new methodology was developed in order to improve the capabilities of the software and the thermo-mechanical coupling was achieved with the help of a set of User-Defined Functions (UDF). The effect of the confinement of water as it solidifies inside the cavity was studied by varying the stiffness of the elastic wall. It was shown that the pressure rise resulting from the thermo-mechanical coupling significantly influences the flow pattern and the solidification rate of the PCM.
APA, Harvard, Vancouver, ISO, and other styles
30

Rodriguez, Cuevas Clemente. "Modélisation numérique des courants océaniques. Application à la région du Golfe du Mexique." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30039.

Full text
Abstract:
Nous présentons un code numérique parallélisé de résolution des équations de Navier-Stokes, pour un écoulement incompressible, tridimensionnel à surface libre et sous l'hypothèse de pression hydrostatique. L'intégration est de type différences finies au second ordre, semi-implicite, en temps et en espace. La validation du code de calcul a été réalisée à partir de comparaisons avec des mesures expérimentales dans le cas d’un sillage en eau peu profonde derrière un modèle d’île conique. Le code ainsi élaboré a été adapté à l’étude de la circulation océanique dans le Golfe du Mexique et plus particulièrement à l’étude phénoménologique de la stabilité du Loop Current. Pour cette étude, deux modèles ont été utilisés : un modèle 2D dit à gravité réduite, pour l'étude des paramètres physiques, et un modèle de Navier-Stokes 3D à surface libre qui a mis en évidence l’influence de la stratification verticale de masse volumique. L’outil numérique construit au cours de cette étude est opérationnel et répond au cah ier des charges de ce travail, c’est-à-dire simplicité de mis en oeuvre et faible coût opérationnel
We introduce a parallel numerical code for solving 3D Navier-Stokes equations, in the case of an incompressible flow with free surface, and under the hydrostatic pressure assumption. A semi-implicit finite difference method has been used. The method is (mainly) of secondorder accurate in space. The code was validated by comparing numerical results with experimental measurements carried out for recirculating shallow-water flow in the wake of conical islands models with gently sloping sides. Thereafter, the code was adapted to the study of oceanic circulation in the Gulf of Mexico and more particularly to the phenomenology study of the Loop Current stability. The effect of physical parameters was firstly investigated using a reduced gravity model (two-dimensional). Then, the effect of density stratification was shown by using a 3D Navier-Stokes model with free surface. The present code is operational, of simple use, and requires a low running cost
APA, Harvard, Vancouver, ISO, and other styles
31

Durrleman, Stanley. "Statistical models of currents for measuring the variability of anatomical curves, surfaces and their evolution." Nice, 2010. http://www.theses.fr/2010NICE4072.

Full text
Abstract:
Le but de cette thèse est de définir, implémenter et évaluer des modèles statistiques de variabilité de courbes et de surfaces basés sur des courants en anatomie numérique. Les courants ont été introduits en imagerie médicale par J. Glaunès et M. Vaillant dans le but de définir une métrique entre courbes et surfaces qui ne dépendent pas de correspondance de points entre les structures. Cette métrique a été utilisée pour guider le recalage de données anatomiques. Dans cette thèse, nous proposons d'étendre cet outil pour analyser la variabilité de structures anatomiques grâce à l'inférence de modèles statistiques génératifs. Outre la définition et la discussion de tels modèles, nous proposons un cadre numérique pour les estimer efficacement. Plusieurs applications sur des données réelles en imagerie cérébrale et cardiaque tendent à montrer la généralité et la pertinence de cette approche. Dans la première partie, nous étendons le travail de J. Glaunès en introduisant de nouveaux outils numériques pour traiter des courants. Tout d'abord, un cadre de discrétisation à base de grilles régulières est proposé: il permet de calculer des projections en dimension finie des courants qui convergent vers le courant initial à mesure que la grille devient plus fine. Cela fournit de manière générique des algorithmes robustes et efficaces pour traiter les courants, avec un contrôle de la précision numérique. En particulier, cela donne une implémentation plus stable de l'algorithme de recalage de courants. Enfin, nous définissons une méthode d'approximation qui calcule une représentation parcimonieuse d'un courant à n'importe quelle précision grâce à la recherche d'une base adaptée pour la décomposition du courant. Cette représentation parcimonieuse est d'un grand intérêt pour compresser de grands ensembles de données anatomiques et pour interpréter les statistiques sur de tels ensembles. Dans la deuxième partie, nous définissons un modèle statistique qui considère un ensemble de courbes ou de surfaces comme le résultat de déformations aléatoires d'une forme prototype inconnue plus des perturbations résiduelles aléatoires dans l'espace des courants. L'inférence de tels modèles sur des données anatomiques décompose la variabilité en une partie géométrique (capturée par des difféomorphismes) et une partie de ``texture'' (capturée par les courants résiduels). Trois applications sont proposées: d'abord l'analyse de la variabilité d'un ensemble de lignes sulcales est utilisée pour décrire la variabilité de la surface corticale, ensuite l'inférence du modèle sur un ensemble de faisceaux de fibres de la matière blanche montre qu'à la fois la partie géométrique et la texture peuvent contenir de l'information anatomiquement pertinente et enfin l'analyse de la variabilité est utilisée dans un contexte clinique pour la prédiction de la croissance du ventricule droit du coeur chez des patients atteints de la Tétralogie de Fallot. Dans la troisième partie, nous définissons des modèles statistiques pour l'évolution de formes. Tout d'abord, nous définissons un schéma de recalage spatio-temporel qui met en correspondance les scans successifs d'un sujet avec les scans successifs d'un autre sujet. Ce recalage ne prend pas seulement en compte les différences morphologiques entre les sujets mais aussi la différence en terme de vitesse d'évolution. Nous proposons ensuite un modèle statistique qui estime un scénario moyen d'évolution à partir d'un ensemble de données longitudinales ainsi que sa variabilité spatio-temporelle dans la population
This thesis is about the definition, the implementation and the evaluation of statistical models of variability of curves and surfaces based on currents in the context of Computational Anatomy. Currents were introduced in medical imaging by Joan Glaun\`es and Marc Vaillant in order to define a metric between curves and surfaces which does not assume point correspondence between structures. This metric was used to drive the registration of anatomical data. In this thesis, we propose to extend this tool to analyze the variability of anatomical structures via the inference of generative statistical models. Besides the definition and discussion of these models, we provide a numerical framework to deal efficiently with their estimation. Several applications on real anatomical database in brain and cardiac imaging tend to show the generality and relevance of the approach. In the first part of the manuscript, we extend the work of Joan Glaun\`es and introduce new numerical tools to deal with currents. First, a discretization framework based on linearly spaced grids is provided: it enables to give finite-dimensional projection of currents which converges to the initial continuous representation as the grids become finer. This leads to a generic way to derive robust and efficient algorithms on currents, while controlling the numerical precision. This gives for instance a more stable numerical implementation of the registration algorithm of currents. Then, we define an approximation algorithm which gives a sparse representation of any currents at any desired accuracy via the search of an adapted basis for currents decomposition. This sparse representation is of great interest to compress large sets of anatomical data and to give interpretable representation of statistics on such data sets. In the second part, we define a statistical model which considers a set of curves or surfaces as the result of random deformations of an unknown template plus random residual perturbations in the space of currents. The inference of such models on anatomical data enables to decompose the variability into a geometrical part (captured by diffeomorphisms) and a ``texture'' part (captured by the residual currents). Three applications are provided: first, the analysis of variability of a set of sulcal lines is used to describe the variability of the cortex surface, second, the inference of the model on set of white matter fiber bundles shows that both the geometrical part and the texture part may contain relevant anatomical information and, third, the variability analysis is used in a clinical context for the prediction of the remodeling of the right ventricle of the heart in patients suffering from Tetralogy of Fallot. In the third part, we define statistical models for shape evolution. First, we define a spatiotemporal registration scheme which maps successive scans of one subject to the set of successive scans of another subject. This registration does not only account for the morphological differences between subjects but also for the difference in terms of speed of evolution. Then, we propose a statistical model which estimates a mean scenario of evolution from a set of longitudinal data along with its spatiotemporal variability in the population
APA, Harvard, Vancouver, ISO, and other styles
32

Jay, Stéphane. "Modélisation de la combustion au moyen de bilans d'aire interfaciale et de surface de flamme : application à la combustion cryotechnique." Châtenay-Malabry, Ecole centrale de Paris, 2003. http://www.theses.fr/2003ECAP0922.

Full text
Abstract:
Le concept de densité de surface est utilisé pour modéliser les processus couplés d'atomisation, d'évaporation et de combustion pour les flammes turbulentes formées par injection d'ergols cryotechniques. Ce concept est développé dans un contexte Eulerien avec comme application l'écoulement diphasique issu d'un injecteur coaxial oxygène liquide/hydrogène gazeux. Une équation de transport pour la densité d'interface représente l'évolution de la surface du liquide au cours de l'atomisation et de l'évaporation du jet. On propose une fermeture basée sur l'analyse de la rupture primaire du jet. La densité d'aire interfaciale, couplée à une description des taux d'évaporation donne une source volumique d'oxygène vapeur. Une équation de transport pour la densité de surface de flamme est alors utilisée pour évaluer le taux de réaction volumique moyen. Celui-ci dépend d'un étirement efficace et est proportionnel à la racine carrée de la pression. Les résultats de calculs sont comparés aux données issues d'expériences récentes de combustion cryotechnique corrrespondant à différents rapports de flux de quantité de mouvement. Les concepts de densité de surface sont étendus aux cas des pressions supercritiques en réinterprétant l'équation de transport de cette quantité. Les taux de transfert de masse de l'oxygène dense vers l'oxygène à faible densité sont dans ce cas déterminés par les taux d'étirement locaux. Les différentes flammes calculées sont décrites par la répartition de la fraction de phase liquide, le taux de réaction moyen et la distribution des espèces. On retrouve la structure générale des flammes cryotechniques aussi bien à basse pression qu'à haute pression. La zone de réaction calculée est en bon accord avec la visualisation de l'émission du radical OH. Les taux de réaction sont en accord avec les valeurs estimées expérimentalement et on montre comment l'évolution de la phase liquide peut modifier la structure de flamme.
APA, Harvard, Vancouver, ISO, and other styles
33

Barthémémy, Audrey. "Modélisation numérique de la combustion dans les chambres de statoréacteurs." Châtenay-Malabry, Ecole centrale de Paris, 2002. http://www.theses.fr/2002ECAP0894.

Full text
Abstract:
Ce projet de recherche concerne la modélisation de la combustion pour les statoréacteurs à injection liquide. Une analyse d'échelles montre que la combustion s'effectue au travers de surfaces et peut être modélisée à l'aide d'une densité de surface de flamme (modèle de flamme cohérente). A partir de calculs en chimie complexe et transport détaillé, une base de données de flammes prémélangées est établie pour le méthane, propane, et n-décane. Des développements sont par la suite effectués pour tenir compte de la nature confinée des configurations. Pour les flammes de diffusion, une première modélisation de l'interaction avec les parois est proposée à partir de calculs en configuration à contre-courant. Enfin, un nouveau modèle de combustion turbulente étagée, le CFM-S, est développé pour le régime partiellement prémélangé. L'application de ces différents travaux sur une configuration réelle conduit à des résultats satisfaisants par comparaison aux données expérimentales.
APA, Harvard, Vancouver, ISO, and other styles
34

Cheaytani, Jalal. "Calcul par éléments finis des pertes supplémentaires dans les motorisations performantes." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10007/document.

Full text
Abstract:
Les pertes supplémentaires en charge dans les machines électriques représentent une contribution non-négligeable aux pertes totales. Elles constituent un point clé pour une évaluation exacte de l’efficacité énergétique des moteurs. L’objectif de ce travail a donc été d’investiguer les pertes supplémentaires, de déterminer et de quantifier leurs origines tout en effectuant une modélisation précise des machines électriques étudiées. Le modèle de calcul des pertes supplémentaires, développé dans la thèse, est basé sur l’essai normalisé de bilan de puissances. L’utilisation de ce dernier nécessite des modèles de calcul des pertes fer et des pertes par courants induits harmoniques. Le choix s’est porté sur des modèles de calcul des pertes en post-traitement d’un code par éléments finis. Ces modèles ont été testés dans un premier temps sur une machine synchrone à aimants permanents (MSAP) où l’influence des harmoniques de découpage a été étudiée. Ensuite, les pertes supplémentaires ont été calculées pour un moteur de 500 kW et deux moteurs de 6 kW à barres droites et inclinées. Plusieurs études ont été effectuées sur les origines des pertes supplémentaires, comme les flux de fuite d’extrémités, les flux de fuite zig-zag ainsi que les flux de fuite d’inclinaison, et leurs contributions ont été quantifiées. La comparaison des résultats simulés avec les mesures issues des essais effectués sur la MSAP et sur les deux maquettes montre une bonne concordance. Ces résultats démontrent la capacité des modèles proposés à estimer les pertes fer, les pertes par courants induits et les pertes supplémentaires avec une bonne précision pour différents types de machines électriques et différents points de fonctionnements
The stray load losses (SLL) in electrical machines represent a non-negligible contribution to the total losses and are a key point for an accurate evaluation of the energy efficiency of the considered device. The aim of this work is to investigate the SLL, to determine and quantify their origins using precise models of the studied motors. The SLL model calculation, developed in this thesis, is based on the normalized Input-Output test. This later requires models for the core and harmonic eddy current losses. The choice has been made for calculating the losses in the post- processing step of a finite element code. These models were tested, first, on a permanent magnet synchronous machine (PMSM), where the influence of the carrier harmonics is studied. Then, the SLL were calculated for a 500 kW induction motor and for two 6 kW motors with skewed and non-skewed rotor bars. Several studies have been performed to study the origins of the SLL such as the end-region leakage fluxes, the zig-zag leakage fluxes and the skew leakage fluxes, and quantify their contributions. The comparison, between the simulation results and those measured on the PMSM and both 6 kW motors, shows a good agreement. This demonstrates the ability of an accurate estimation of the core, eddy currents and SLL losses using the proposed post-processing calculation method, for different types of electrical machines under different operating conditions
APA, Harvard, Vancouver, ISO, and other styles
35

Da, Rocha Sophie. "Modélisations des effets du désordre cationique dans le spinelle MgAl2O4 par mécanique moléculaire et théorie de la fonctionnelle de la densité." Tours, 2004. http://www.theses.fr/2004TOUR4009.

Full text
Abstract:
MgAl2O4 est considéré comme un modèle des structures spinelles. Il est connu pour avoir un taux d'échange cationique, noté x, très important. Cet échange des ions aluminium et magnésium entre les sites octaédriques et tétraédriques a été étudié par modélisation à différentes échelles. Une première étude en mécanique moléculaire a permis d'élaborer un nouveau potentiel interatomique capable de reproduire aussi bien les propriétés géométriques, mécaniques et optiques du spinelle normal que du spinelle désordonné. La courbe d'équilibre x=f(T) a aussi été calculée à l'aide du modèle thermodynamique de O'Neill et Navrotsky. Pour confirmer et approfondir ces premiers résultats une étude en DFT-LDA (théorie de la fonctionnelle de la densité dans l'approximation locale) a été réalisée sur une série de 40 spinelles à taux de désordre variables. Il a ainsi été montré que le spinelle se densifie sous l'effet du désordre et qu'un surcoût de capacité calorifique de 15 J. Mol-1. K-1 apparaît pour environ 1200 K. Cette étude a en outre permis de mettre en évidence l'existence d'un pic supplémentaire (non prévu par la théorie des groupes) dans le spectre infrarouge causé par la présence de désordre. En complément une analyse des transitions de phase à haute pression a aussi été menée. Elle met en évidence que la prise en compte d'une phase désordonnée dans les mécanismes de transition induit une impossibilité de démixtion du spinelle en oxydes simples (Al2O3 et MgO)
Cationic disorder in MgAl2O4 spinel has been studied in the framework of both molecular mechanics and density functional theory in local density approximation. New interatomic potentials have been optimized to reproduce disordered spinel properties. The evolution of cationic disorder rate with temperature and isostatic pressure is deduced from thermodynamic model and ab initio simulation. Relative density and heat capacity excess evolution are simulated as a function of cationic disorder. Infrared modes are calculated in the Brillouin zone centre for several disordered spinels. High pressure phase transitions have been also considered. It has been shown that a disordered spinel can not disproportionate into Al2O3 and MgO
APA, Harvard, Vancouver, ISO, and other styles
36

Fekih-Salem, Radouane. "Modèles Mathématiques pour la compétition et la coexistence des espèces microbiennes dans un chémostat." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00940100.

Full text
Abstract:
Cette thèse porte sur l'analyse mathématique des modèles de compétition de plusieurs espèces microbiennes sur une seule ressource dans un chémostat. L'objectif est de modéliser et démontrer la coexistence des espèces par divers mécanismes pour mieux rendre compte de la biodiversité que l'on trouve dans la nature, ainsi que dans les bioréacteurs. Nous nous somme intéressés principalement à trois mécanismes de coexistence : 1. La compétition inter-spécifique entre les populations de micro-organismes et intra-spécifiques entre les individus de la même espèce. 2. La floculation où l'espèce la plus compétitive inhibe sa propre croissance par la formation des flocs pour pouvoir coexister avec les autres espèces. En fait, ces bactéries en flocs consomment moins du substrat que les bactéries isolées puisqu'elles ont un moins bon accès au substrat, étant donné que cet accès au substrat est proportionnel à la surface extérieur du floc. 3. La densité-dépendance dont le modèle peut être construit à partir du modèle de floculation, en supposant que la dynamique de floculation est plus rapide que la croissance des espèces. Dans ce modèle densité-dépendant le taux de croissance dépend non seulement de la densité du substrat, mais aussi, de la densité de la biomasse, et le taux de prélèvement de la biomasse n'est pas constant mais dépend aussi de la densité de la biomasse. Enfin, nous avons étudié un modèle de digestion anaérobie à trois étapes avec dégradation enzymatique du substrat (matière organique), dont une partie peut être sous forme particulaire. L'analyse mathématique montre que le modèle peut présenter la quadri-stabilité avec lessivage d'aucune, d'une ou de deux espèces selon la condition initiale. L'étude mathématique du comportement qualitatif de différents modèles du chémostat, nous a permis de mieux comprendre la compétition et la coexistence des espèces microbiennes.
APA, Harvard, Vancouver, ISO, and other styles
37

Aucejo-Galindo, Vicente. "Méthode tensorielle générale pour une modélisation multiphysique de dispositifs magnétomécaniques rapides." Thesis, Metz, 2010. http://www.theses.fr/2010METZ028S/document.

Full text
Abstract:
Actuellement la connaissance objectif de dispositifs magnétomécaniques est achevée par diverses approches complémentaires . D'une part l'approche physique avec ses formulations mathématiques des forces magnétiques. D'autre part, les approches multiphysiques afin d'aboutir à une connaissance plus fine, et plus réelle, des phénomènes physiques associés aux interactions qui agissent dans le dispositifs. Et finalement, l'approche interdisciplinaire qui tiendrait en compte le cycle de vie du produit, l'éco-conception. Une conception d'un micromoteur ultra rapide à aimantation induite et flux axial est présentée dans ce mémoire avec l'approche physique montrant les limites de celle-ci . Partant donc de l'approche physique, une nouvelle méthode tensorielle générale est développée comme apport à une modélisation multiphysique de dispositifs magnétomécaniques, regroupant ainsi les diverses formulations numériques de forces magnétiques. Une caractérisation du nouveau tenseur est présentée et appliquée pour le calcul des forces sur des milieux en contact
Currently the goal of knowledge magnetomechanical devices is completed by means of several complementary approaches. On one hand the physical approach with mathematical formulations of magnetic forces. On the other hand, multiphysics approaches to achieve a deeper insight and more real, physical phenomena associated with interactions that act in the devices. And finally, the interdisciplinary approach that takes into account the lifecycle of the product, so called eco-design. A design of a ultra fast micromotor with induced magnetization and axial flux is presented in this paper with the physical approach showing the restrictions thereof. Accordingly therefore, the physical approach, a new tensor method is developed as a general contribution to a multiphysics modeling of magnetomechanical devices, bringing together the various numerical formulations of magnetic forces. A characterization of the new tensor is presented and applied to calculate the forces on bodies in contact
APA, Harvard, Vancouver, ISO, and other styles
38

Vauquelin, Aurélien. "Contribution à l'amélioration des performances des machines à courant continu à aimants permanents dans des applications automobiles à forts courants." Compiègne, 2010. http://www.theses.fr/2010COMP1879.

Full text
Abstract:
Dans de nombreuses applications du génie électrique, les machines à commutation mécanique constituent encore à ce jour une solution pertinente à l'implantation d'un actionneur électromécanique. Leur grande fiabilité et leur coût de fabrication relativement limité restent des avantages indéniables malgré les progrès récents de l'électronique. Ceci justifie les recherches actuelles sur ces machines. Le démarreur automobile, dispositif permettant l'entraînement du moteur thermique, doit répondre à un cahier des charges statique et dynamique exigeant. Ces travaux présentent l'étude des machines électriques mises en oeuvre dans les démarreurs. Deux méthodologies de modélisation y sont présentées. La première consiste à résoudre les équations qui régissent le comportement des circuits électriques équivalents aux différentes topologies de la machine. Elle permet de ressortir les évolutions temporelles de toutes les grandeurs électriques et magnétiques de la machine. La seconde, plus rapide, reprend la théorie de la modélisation des machines synchrones par vecteurs d'espace. Une généralisation de cette théorie à la machine à courant continu a été élaborée. Plusieurs dispositifs expérimentaux ont permis d'enrichir ces modèles et de mener une séparation des pertes sur deux appareils de la gamme des démarreurs à aimants : le FS18 et le FS20. Un nouveau principe nommé VIVA a été élaboré permettant une hausse du rendement des machines. Des validations expérimentales ont permis la vérification des modèles et la validation des concepts
In many applications of electrical engineering, DC machines with mechanical commutator are a relevant solut ion to the implementation of an electromechanical actuator. Their high reliability and manufacturing costs remain relatively low despite the undeniable benefits of recent advances in electronics. This justifies the current research on these machines. In such a context, the starter motor must meet static and dynamic specifications. These works present the study of electrical machines used in the starters. Two modeling methodologies are presented. The first one consists in solving the equations governing the behavior of equivalent electrical circuits for different topologies of the machine. It can show the temporal evolutions of ail the electrical and magnetic quantities of the machine. The second one, farter, uses the theory of modeling of synchronous machines by space vector. A generalization of this theory to the DC machine has been developed. Several experimental devices have served to enhance these models and carry out a separation of two starter losses : the FS18 and FS20. A new principle called VIVA has been developed to increase the performance of the machine. Experimental validation led to the model verification and validation concepts
APA, Harvard, Vancouver, ISO, and other styles
39

Castelle, Bruno. "Modélisation de l'hydrodynamique sédimentaire au-dessus des barres sableuses soumises à l'action de la houle : application à la côte aquitaine." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12859.

Full text
Abstract:
Cette thèse présente la première étude complète de la dynamique des vagues, des courants moyens induits et des barres sableuses sur les plages d'Aquitaine. La démarche suivie repose sur la modélisation des processus physiques, en interaction avec l'imagerie satellite et aérienne, les observations sur le terrain, ainsi que le traitement et l'analyse in-situ. Du 12 au 19 Octobre 2001 sur la plage aquitaine du Truc Vert, la campagne de mesures PNEC 2001 a permis de collecter des données hydrodynamiques et sédimentaires pendant des conditions de houle énergétiques. A partir de l'analyse de ces données, le module hydrodynamique du modèle morphodynamique développé au cours de cette thèse a été validé, et la dynamique des courants moyens au-dessus de la plage du Truc Vert a été décrite. A partir de simulations au-dessus des systèmes barre/baïne et de systèmes de barres en croissant de la côte aquitaine, on montre que la modulation tidale des processus est intense. La formation des courants sagitaux est favorisée par les houles longues et frontales tandis qu'un courant de dérive oscillant est induit par les houles d'incidence oblique. Le couplage morphodynamique complet avec prise en compte de la marée montre que le mécanisme d'auto-organisation est à l'origine de la formaion des systèmes barre/baïne dans la zone intertidale et des systèmes de barres en croissant dans la zone subtidale. Les caractéristiques morphologiques des systèmes formés sont en accord avec les observations sur le terrain. Le développement de ces barres est également étudié, ainsi que sa sensibilité au forçage au large. L'étude aboutit à un nouveau modèle conceptuel de la morphologie desbarres sableuses observées sur la côte aquitaine
This thesis presents the first complete study of wave dynamics, wave-induced currents, and morphodynamics of nearshore sandy bars on the aquitanian coast beaches. This study is based on a physical modeling approach, associated with satellite imagery as well as treatment and analysis of field data. From the 12th to the 19th of october 2001 at Truc Vert beach, hydrodynamic and sedimentary data were collected during PNEC 2001 field measurements for energetic swell conditions. From the analysis of these data, the hydrodynamic module of the morphodynamic model developed during this thesis has been validated, and the dynamics of waves and wave-induced currents has been described. Simulations over aquitanian coast ridge and runnel systems and nearshore crescentic bar system show an intense tidal modulation of physical processes. Rip currents are induced by shore normal incidence long swells and an oscillating longshore current is induced by oblic incidence swells. The morphodynamic coupling including tidal cycles shows that self-organization mechanisms are responsible for the formation fo ridge and runnel systems in the intertidal domain and crescentic bar systems in the nearshore zone. The morphological characteristics of simulated systems are in agreement with observations. The development of these bars is also studied, as well as its sensitivity to wave forcing. The study leads to a new conceptual model of sandy bars morphology on the aquitanian coast
APA, Harvard, Vancouver, ISO, and other styles
40

Beauseroy, Pierre. "Analyse automatique de signaux "courants de Foucault" multivoies : application au diagnostic des tubes de générateurs de vapeur." Compiègne, 1992. http://www.theses.fr/1992COMPD529.

Full text
Abstract:
Cette thèse propose deux nouvelles méthodes de diagnostic automatique pour le traitement des signaux transitoires multivoies. Ces travaux sont appliqués au diagnostic des signaux de contrôle par courants de Foucault des tubes de générateur de vapeur. La thèse présente l'ensemble des traitements depuis l'acquisition des signaux jusqu'au diagnostic automatique. Les deux premières parties du document introduisent le problème et présentent les prétraitements que subissent les signaux afin de rendre le diagnostic possible. Une synthèse bibliographique des travaux sur le même thème permet de formuler une nouvelle approche de diagnostic fondée sur l'utilisation des informations à priori pour guider le diagnostic. Les informations sont exploitées pour prévoir les caractéristiques des observations réalisées. La comparaison des mesures avec les prédictions fournit des indications. Leur analyse statistique permet de déterminer la nature des observations. Deux méthodes ont été développées à partir de cette approche. La première exploite les caractéristiques structurelles des signaux et la seconde utilise une modélisation simple du comportement des courants de Foucault. L'étude expérimentale des deux méthodes permet d'aborder les problèmes de décision statistique liés à une application industrielle et notamment les méthodes d'apprentissage et le rejet. Les résultats montrent l'efficacité des méthodes proposées. A l'issue de cette étude de nouveaux axes de recherche sont proposés.
APA, Harvard, Vancouver, ISO, and other styles
41

Kavazović, Zanin. "Modélisation mathématique du pressage à chaud des panneaux MDF : couplage du modèle mécanique avec le modèle couplé de transfert de chaleur et de masse." Doctoral thesis, Université Laval, 2011. http://hdl.handle.net/20.500.11794/22585.

Full text
Abstract:
Dans la présente thèse, nous nous intéressons aux phénomènes physiques se déroulant durant le processus de pressage à chaud des panneaux de fibres de bois (MDF). La non-linéarité et la forte interdépendance des phénomènes instationnaires de transfert de chaleur et de masse et du pressage mécanique de l'ébauche de fibres rendent leur modélisation et analyse non triviales. Dans un premier temps, nous avons effectué une étude de sensibilité portant sur le modèle de transfert de chaleur et de masse proposé par Thômen et Humphrey en 2006. Dans cette étude de sensibilité, nous avons déterminé l'impact de la variabilité des propriétés matérielles, des modèles de sorption, des conditions aux limites et de la teneur en humidité initiale sur les variables d'état et les résultats numériques du modèle mathématique. Afin de mieux tenir compte des interactions complexes entre les différents processus physiques, nous avons ensuite proposé un modèle mathématique global tridimensionnel couplé modélisant le processus de pressage à chaud en lot (batch pressing). Le modèle global est constitué de deux entités distinctes, soient le modèle mécanique et le modèle couplé de transfert de chaleur et de masse. Dans cette première phase de développement, la compression de l'ébauche est représentée par un modèle élastique vieillissant que nous avons exprimé en formulation quasi-statique incrémentale. Les variables d'état pour ce modèle sont l'incrément de déplacement et l'incrément de contrainte. Tous les calculs se font sur une géométrie mobile dont la déformation (compression) est une conséquence de la fermeture de la presse. Le développement du profil de densité est ainsi calculé dynamiquement à chaque pas de temps. Quant aux phénomènes de transfert de chaleur et de masse, ils sont modélisés par un système couplé constitué de trois équations de conservation, notamment la conservation de la masse de l'air et de la vapeur ainsi que la conservation de l'énergie. Les équations sont exprimées en fonction de trois variables d'état, soient la température et les pressions partielles de l'air et de la vapeur. Le modèle global est discrétisé par la méthode des éléments finis et les systèmes résultant ont été résolus grâce au logiciel MEF++ développé au GIREF (Groupe interdisciplinaire de recherche en éléments finis, Université Laval). Les simulations numériques ont été menées aussi bien en deux qu'en trois dimensions. Les résultats numériques de température et de pression gazeuse ont été comparés aux mesures prises au laboratoire du CRB (Centre de recherche sur le bois, Université Laval) lors d'un procédé de pressage en lot. Une bonne concordance entre les résultats numériques et expérimentaux a été constatée. Afin d'enrichir le modèle proposé, les futurs développements devraient traiter de la nature viscoélastique et plastique de l'ébauche soumise au pressage à chaud. Il demeure néanmoins clair que la qualité des prédictions produites par des modèles numériques dépendra toujours en grande partie de la disponibilité et de la qualité des valeurs caractérisant les propriétés physiques et matérielles du produit à l'étude. Afin de combler de nombreuses lacunes à ce chapitre, nous ne pouvons qu'encourager les recherches menant à une meilleure connaissance de ces propriétés.
APA, Harvard, Vancouver, ISO, and other styles
42

Vidal, Bastías Marcia. "Modélisation du pressage à chaud des panneaux de fibres de bois (MDF) par la méthode des éléments finis." Doctoral thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18667.

Full text
Abstract:
Cette étude porte sur le développement d’un modèle mathématique-physique permettant de modéliser le pressage à chaud des panneaux de fibres de bois (MDF) pour les procédés en lot et en continu. Le système final est composé de trois équations différentielles : une pour la conservation de gaz, une pour la conservation de la vapeur d’eau et une pour la conservation d’énergie. On a introduit un terme de diffusion de la vapeur d’eau qui n’était pas considéré auparavant. Les variables d’état prédites sont la température, la pression gazeuse et la teneur en humidité. Le système d’équations a été résolu par la méthode des éléments finis en employant le logiciel MEF++ développé au GIREF à l’Université Laval. Les conditions aux limites utilisées durant la simulation sont du type Neumann non linéaire ou du type Dirichlet selon le type de pressage simulé. Afin de valider les résultats numériques en 2-D et 3-D donnés par ce modèle, on les a comparés avec les données obtenues d’un procédé en lot au laboratoire et en continu dans une industrie. À cet effet, des panneaux MDF d’épinette noire (Picea mariana (Mill.) BPS) ont été fabriqués et des mesures de température ont été prises à l’aide des thermocouples à la surface et au centre de l’ébauche. La pression gazeuse a aussi été déterminée lors du pressage à chaud avec une sonde de pression introduite à l’intérieur de l’ébauche. De plus, pour évaluer la teneur en humidité, sept modèles de sorption ont été extrapolés et comparés aux valeurs expérimentales provenant de la littérature. Le modèle de Malmquist donne la meilleure correspondance pour les humidités relatives considérées et a donc été utilisé. Les résultats numériques indiquent que la température, la teneur en humidité et la pression gazeuse prédites sont en accord avec les résultats expérimentaux pour les deux types de pressage considérés sans utiliser un facteur d’ajustement. On a conclu que le modèle mathématique-physique et la méthode des éléments finis ont un grand potentiel pour résoudre ce type de problème et aider ainsi à maîtriser la qualité des produits et les pertes lors de la fabrication. Il est fortement recommandé d’approfondir la recherche sur les valeurs des paramètres physiques impliqués dans ce procédé.
This study describes a mathematical-physical model to predict temperature, gas pressure and moisture content during MDF hot pressing in batch and continuous processes. The final system is composed of three differential equations: gas conservation, water vapor conservation and energy conservation. This model introduced the moisture diffusion term which was not considered in the basis model. The system of equations was solved by the finite element method using the MEF++ software developed by the GIREF at Laval University. The boundary conditions used during simulation are of the Neumann or Dirichlet type depending on the process considered. In order to validate the numerical results in 2-D and 3-D, we compared them with experimental data obtained from the batch process in the pressing laboratory and from the continuous process in an industry. For this purpose, MDF panels of black spruce (Picea mariana (Mill.) BPS) were manufactured and temperature measurements made using thermocouples on the surface and the center of the mat. The gas pressure was also measured using a pressure probe located inside the mat. Moreover, in order to evaluate moisture content, seven sorption models were extrapolated and compared with experimental values from the literature. The Malmquist model gives the best correspondence for the relative humidities considered and was therefore used. The numerical results indicate that the predicted temperature, moisture content and gas pressure are in agreement with experimental results for the two processes considered without using an adjustment factor. We concluded that the mathematical-physical model and the finite element method have a great potential to solve this type of problem to control the quality of panels and the losses during manufacturing. It is strongly recommended to look further into research on the values of the physical parameters involved in this process.
APA, Harvard, Vancouver, ISO, and other styles
43

Déon, Sébastien. "Transfert d'espèces ioniques dans les membranes de nanofiltration : étude expérimentale et modélisation de la sélectivité." Lorient, 2007. http://www.theses.fr/2007LORIS098.

Full text
Abstract:
L’objectif de ce travail était d’étudier la séparation de molécules chargées par nanofiltration. Cette étude repose sur la compréhension des différents phénomènes de transport régissant la rétention d’ions par une membrane chargée. Pour cela, un modèle de connaissance à été élaboré couplant d’une part la description bidimensionnelle du transport dans la couche de polarisation et d’autre part le partage à l’interface membrane / solution et le transport dans les pores. Cette approche fondamentale a été associée à une étude expérimentale de la rétention de différents sels par une membrane AFC 40 (PCI). Des essais sur différents sels en solution nous ont permis de déterminer les différents paramètres du modèle et de le valider expérimentalement. Une étude des mélanges binaires a ensuite été réalisée pour comprendre les interactions entre les mécanismes physiques qui interviennent sur la sélectivité entre les ions mono- et divalents. Pour finir, nous avons porté un regard critique sur l’approche physique afin d’envisager d’éventuelles améliorations
The aim of this work was to study the separation of charged molecules by nanofiltration. This study is based on the understanding of the various transport phenomena governing the ions rejection by a charged membrane. For this purpose, a knowledge model was developed including a bi-dimensional description of the transport within the polarization layer, the membrane / solution interface partitioning and the pore transport. An experimental study of various salts rejections was also performed with an AFC 40 membrane (PCI). Estimation of the various parameters and validation of the model were carried out from experiments on various single salt solutions. Behaviour of binary solutions was thus investigated to understand the interactions between the physical mechanisms governing the selectivity between mono- and divalent ions. Finally, a critical review of the physical approach was proposed to introduce potential improvements
APA, Harvard, Vancouver, ISO, and other styles
44

Moon, Hee-Jang. "Modèles de combustion turbulente appliqués à l'autoinflammation. Comparaison avec la simulation numérique directe." Rouen, 1991. http://www.theses.fr/1991ROUES010.

Full text
Abstract:
Cette étude a pour but de contribuer à une meilleure approximation du comportement d'une flamme turbulente par des modélisations numériques utilisant la fonction densité de probabilité (P. D. F. ). Trois différents types d'approches ont été étudiés et comparés à la simulation directe: 1) les modèles de P. D. F. Présumée; 2) un modèle eulérien-lagrangien P. E. U. L. ; 3) les modèles à équation de P. D. F. L'étude montre la sensibilité et la capacité à la prédiction de tous ces modèles de P. D. F. En les testant par rapport aux résultats obtenus par la simulation numérique directe. Le phénomène physique qui a servi de base à ces comparaisons est celui de l'autoinflammation d'un prémélange combustible-comburant dans un milieu infini comportant initialement des fluctuations statistiquement homogènes et isotropes. L'étude a été étendue à des cas où la richesse et l'enthalpie peut fluctuer dans le mélange. Les modèles à équation de P. D. F. Sont plus précis que les deux autres catégories, et le coût en temps de calcul est beaucoup plus grand. On a montré que, l'effet du nombre de Damkohler dans les hypothèses de fermeture est actuellement mal pris en compte et reste un problème à résoudre
APA, Harvard, Vancouver, ISO, and other styles
45

Brisson, Élodie. "Étude expérimentale et numérique du frittage-assemblage d’un composite conducteur l’Ag-SnO2 par courants pulsés." Thesis, Lorient, 2014. http://www.theses.fr/2014LORIS339.

Full text
Abstract:
Ces travaux de thèse s’inscrivent dans le cadre du projet "IMPULSE" qui traite du développement d’un procédé innovant d’élaboration de multi-matériaux par courant pulsé et est financé par l’Agence National de la Recherche. Ils ont pour objectif d’étudier et de mettre en évidence la faisabilité, du frittage-assemblage sous charge par courants pulsés, d’un composite conducteur l’AgSn-O2 sur un support en cuivre. Cette problématique, en lien avec les applications industrielles de Schneider Electric Industries, a été abordée au travers de simulations numériques du procédé de frittage-assemblage et d’essais expérimentaux. Les travaux sur les étapes de frittage et d’assemblage ont pu être traités séparément. Les phénomènes qui interviennent lors du frittage par effet Joule et les effets spécifiques liés à l’utilisation de certaines formes ou fréquences de courant, divisent encore la communauté scientifique. Des essais de frittage et frittage-assemblage par chauffage résistif avec différents types de courant (pulsé, continu, 50 Hz) ont été réalisés et ont permis de mettre en évidence l’absence d’effets spécifiques associés aux courants pulsés dans le cas de l’Ag-SnO2. Par conséquence, un modèle électrocinétique classique stationnaire a été retenu concernant les aspects électriques du modèle macroscopique de frittage. Ces essais ont également révélé l’importance des résistances de contact électrique, présentes entre les outillages (poinçons) et l’échantillon, et de la résistance de contact thermique qui existe entre l’échantillon et la matrice. Le modèle thermique instationnaire choisi est couplé fortement au modèle électrocinétique. Les lois de comportement utilisées pour la masse volumique et les conductivités (électrique et thermique), qui interviennent dans le modèle Electro-Thermique (ET), tiennent compte des changements de microstructure grâce à l’utilisation de variables internes de « densification » et de « cohésion ». Les évolutions des résistances de contact électrique et thermique, mesurées sur un dispositif ex-situ, sont aussi implémentées dans le modèle ET.D’un point de vue mécanique, un modèle de Norton associé au critère de Green a été choisi pour modéliser le comportement viscoplastique de la matière et la compressibilité irréversible du matériau lors du frittage sous charge de l’Ag-SnO2. Les fonctions intervenant dans le critère dépendent de la densité relative, dont la cinétique de densification est calculée à partir de la trace du tenseur des vitesses de déformation irréversible. Les paramètres de la loi de comportement mécanique ont été identifiés par méthodes inverses, à l’aide des logiciels SiDoLo et Abaqus, à partir d’essais thermomécaniques spécifiques réalisés sur la machine Gleeble du LIMatB. La loi de comportement mécanique a été implémentée dans une bibliothèque spécifique du code de calcul par éléments finis Sysweld qui est utilisé pour la simulation numérique d’essais de frittage instrumentés. La concordance entre les résultats numériques et expérimentaux (tensions, températures, mesure extensométrique), est satisfaisante et les écarts restent inférieurs aux erreurs expérimentales. Concernant l’étape d’assemblage, une campagne de caractérisation de la tenue de l’assemblage Ag-SnO2/Cu, a été menée sur la machine Gleeble grâce à des essais de frittage-assemblage anisothermes. Différentes cinétiques thermiques et différentes températures maximales, ont été testées afin de mettre en évidence l’effet du temps et de la température. Des tests de cisaillement de l’assemblage, ont permis le calcul d’un observable afin de juger de la qualité de la liaison. Au vu des résultats, un modèle dépendant uniquement de la température atteinte dans l’échantillon a été développé afin d’estimer la tenue de l’assemblage Ag-SnO2/Cu
This thesis is part of the "IMPULSE" project, which is financed by the NationalAgency of Research. This project concerns the development of innovative process to produce multimaterials by pulsed currents. The ability of sintering and joining Ag-SnO2 powder on a copper support in the same process under pressure by pulsed currents is investigated. This problematic, linked to industrial applications of Schneider Electric Industries SEI), has been approached through numerical simulations and experimental tests of sintering-joining. Sintering and joining steps have been dealt separately in this works. Sintering phenomena and specific effects of pulsed currents still divide the scientific community. Sintering and sintering-joining test by resistive heating thanks different kinds of current (pulsed, DC, AC) have been realized. They have enabled to highlight that there are not specific effects of pulsed currents in the Ag-SnO2 case. Consequently, a classical stationary electrokinetic model has been used for electrical aspects in the macroscopic sintering model. These tests have also revealed the importance of the contact resistance (CR) present between tools and sample, and more particularly the electrical CR between punches and sample and the thermal CR between die and sample. The non-stationary thermal model chose is strongly coupled with the electrokinetic model. Characterization tests have shown that electrical and thermal conductivities increase with inter-granular contact rate improvement, which is caused by strain during densification and by diffusion ("cohesion" mechanisms). The behavior laws used to calculate the density and the conductivities (electrical and thermal) of the Electrokinetic-Thermal model (ET), take into account these microstructural evolutions by mean of internal variables of "densification" and "cohesion". Electrical and thermal contact resistances, measured in LIMatB’s device versus pressure and temperature, are implemented in the ET model. From a mechanical point of view, a Norton model combined with a Green criterion has been chosen to modeling the viscoplastic behavior of matter and the irreversible compressibility of Ag-SnO2 material during sintering under pressure. The criterion functions depend on the relative density. The densification kinetic is calculated from the trace of the irreversible deformation kinetics. The properties (viscoplastic parameters, elasticity limit,...) of mechanical behavior law have been identified by inverse methods using SiDoLo and Abaqus software from thermo-mechanical tests achieved on LIMatB’s Gleeble machine. The mechanical properties don’t depend of cohesion mechanisms. The mechanical behavior law has been implemented in the finite element code Sysweld to simulate sintering tests. The agreement between numerical and experimental results (tensions, temperatures, extensometric measurements) is correct and the differences remain inferior to the experimental errors. Tests of joining of Ag-SnO2 on a copper support, non isothermal under low pressure, have been achieved on Gleeble machine. Different thermal kinetics and different maximal temperatures have been explored to highlight time and temperature effects on diffusion mechanisms at the interface. Shear tests of the joining have enabled the calculation of an observable to estimate the bonding quality. From these results, a model which only depends of temperature reached in the sample has been developed to estimate the Ag-SnO2/Cu joining resistance. This joining model could be easily integrated in the more complex sintering model
APA, Harvard, Vancouver, ISO, and other styles
46

André, Gaël. "Échanges côte-large à moyenne échelle au niveau de la pente continentale du Golfe du Lion : processus et modélisation." Toulon, 2007. http://www.theses.fr/2007TOUL0018.

Full text
Abstract:
La dynamique des échanges de masses d'eau entre le plateau du Golfe du Lion et le large est soumise à une grande variété de processus physiques agissant à différentes échelles spatio-temporelles sur la circulation. Ce travail de thèse basé sur la modélisation réaliste de deux années distinctes apporte une contribution à une meilleure connaissance de la circulation et des processus hydrodynamiques en mer Méditerranée Nord-Occidentale et dans le Golfe du Lion. Dans un premier temps, la modélisation de l'année 2001 réalisée sur le bassin Nord-Ouest Méditerranéen a été confronté à des mesures satellites de température de surface de la mer (SST) et à la climatologie MEDATLAS. Ces comparaisons ont montré un bon accord en termes de structure et de variabilité saisonnière de la circulation à grande échelle. A plus petite échelle, plusieurs processus agissant sur le plateau et au niveau de la pente continentale du Golfe du Lion ont été étudiés en comparant les résultats du modèle aux mesures satellites de SST et de Chlorophylle. Dans un deuxième temps, une configuration améliorée a été utilisée en complément des mesures récoltées durant la campagne ECOLOPHY (Juin et décembre 2005) pour étudier la variabilité méso-échelle engendrée sur le front côtier du Courant Nord (CN). Les mesures des mouillages ADCP, d'une durée d'un an, ont montré une intensification de l'activité méso-échelle en hiver due aux changements de la structure du courant et à l'effet du vent local. Les fluctuations de courant, mises en évidence par la formation de méandres et de tourbillons, ont été attribuées à des instabilités baroclines et barotropes. Enfin, nous avons montré, à l'aide de tests de sensibilité, l'influence du forçage de vent et de la bathymétrie sur la génération de ces instabilités
Dynamics of water mass exchanges between the Gulf of Lions (GoL) and the open sea are driven by several physical processes, which influence circulation at several spacio-temporal scales. This study, based on a realistic modelling during two years, aims to bring a better knowledge of circulation and hydrodynamics processes occurring in the NW Mediterranean Sea and in the GoL. Firstly, the NW Mediterranean Basin circulation modelled during the year 2001 is compared with Sea Surface Temperature (SST) satellite measurements (AVHRR) and with the MEDATLAS climatology. These comparisons show a good agreement concerning surface patterns and seasonal variability of the large scale circulation. At lower scale, several processes influence circulation over the shelf and the GoL's continental slope. These processes are studied by comparing model results to SST and chlorophyll satellite measurements. Secondly, an improved modelling configuration had been used with in-situ measurements collected during the ECOLOPHY experiment (June - December 2005) to investigate the mesoscale variability generated on the onshore Northern Current (NC) front. The one-year time series of ADCP current measurements revealed that mesoscale activity strengthens during winter due to seasonal variability of the NC and to local wind effect. Current fluctuations evidenced by meanders and eddies, are attributed to baroclinic and barotropic instability processes. Finally, modelling test cases show that wind forcing and bathymetry influence the generation of these instabilities
APA, Harvard, Vancouver, ISO, and other styles
47

Ferrani, Yacine. "Sur l'estimation non paramétrique de la densité et du mode dans les modèles de données incomplètes et associées." Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0370/document.

Full text
Abstract:
Cette thèse porte sur l'étude des propriétés asymptotiques d'un estimateur non paramétrique de la densité de type Parzen-Rosenblatt, sous un modèle de données censurées à droite, vérifiant une structure de dépendance de type associé. Dans ce cadre, nous rappelons d'abord les résultats existants, avec détails, dans les cas i.i.d. et fortement mélangeant (α-mélange). Sous des conditions de régularité classiques, il est établi que la vitesse de coonvergence uniforme presque sûre de l'estimateur étudié, est optimale. Dans la partie dédiée aux résultats de cette thèse, deux résultats principaux et originaux sont présentés : le premier résultat concerne la convergence uniforme presque sûre de l'estimateur étudié sous l'hypothèse d'association. L'outil principal ayant permis l'obtention de la vitesse optimale est l'adaptation du Théorème de Doukhan et Neumann (2007), dans l'étude du terme des fluctuations (partie aléatoire) de l'écart entre l'estimateur considéré et le paramètre étudié (densité). Comme application, la convergence presque sûre de l'estimateur non paramétrique du mode est établie. Les résultats obtenus ont fait l'objet d'un article accepté pour publication dans Communications in Statistics-Theory and Methods ; Le deuxième résultat établit la normalité asymptotique de l'estimateur étudié sous le même modèle et constitute ainsi une extension au cas censuré, du résultat obtenu par Roussas (2000). Ce résultat est soumis pour publication
This thesis deals with the study of asymptotic properties of e kernel (Parzen-Rosenblatt) density estimate under associated and censored model. In this setting, we first recall with details the existing results, studied in both i.i.d. and strong mixing condition (α-mixing) cases. Under mild standard conditions, it is established that the strong uniform almost sure convergence rate, is optimal. In the part dedicated to the results of this thesis, two main and original stated results are presented : the first result concerns the strong uniform consistency rate of the studied estimator under association hypothesis. The main tool having permitted to achieve the optimal speed, is the adaptation of the Theorem due to Doukhan and Neumann (2007), in studying the term of fluctuations (random part) of the gap between the considered estimator and the studied parameter (density). As an application, the almost sure convergence of the kernel mode estimator is established. The stated results have been accepted for publication in Communications in Statistics-Theory & Methods ; The second result establishes the asymptotic normality of the estimator studied under the same model and then, constitute an extension to the censored case, the result stated by Roussas (2000). This result is submitted for publication
APA, Harvard, Vancouver, ISO, and other styles
48

Duka, Anesti. "Caractérisation et modélisation du séchage de solides divisés dans un réacteur à lit transporté vibro-fluidisé." Compiègne, 1995. http://www.theses.fr/1995COMPD847.

Full text
Abstract:
L'objet de cette recherche porte sur la caractérisation d'un lit transporté vibro-fluidisé (L. T. V. F. ), nouveau procédé continu de traitement thermique des produits granulaires ou pulvérulents. Nous nous sommes intéressés principalement à l'opération unitaire de séchage et à la modélisation des phénomènes thermiques et hydrodynamiques mis en jeu lors d'une telle opération. Les aspects énergétiques liés aux opérations de séchage conduisent soit à des cinétiques lentes et des installations encombrantes, soit à des cinétiques rapides et des rendements énergétiques faibles. La technique du réacteur à lit transporté vibro-fluidisé permet d'assurer des coefficients de transfert élevés en raison de la mise en fluidisation du solide, un faible encombrement et des pertes thermiques limitées. Cependant le nombre important de paramètres géométriques et opératoires, qui permettent d'autre part une grande adaptabilité du système, rend nécessaire la modélisation des phénomènes hydrodynamiques et thermiques complexes s'y produisant. La difficulté est encore accrue en raison de la variété des propriétés physiques des produits traités. Notre recherche vise à progresser dans ce domaine en particulier en caractérisant l'hydrodynamique et les transferts thermiques du L. T. V. F. Sur différents produits. Cette caractérisation consiste en l'étude de l'effet des paramètres opératoires tel que le débit, la température, la fréquence de vibration (c'est à dire indirectement, la vitesse de transport et le taux de remplissage du L. T. V. F. ) sur le séchage des solides divisés.
APA, Harvard, Vancouver, ISO, and other styles
49

Imperiale, Alexandre. "Méthodes d'assimilation de la donnée image pour la personnalisation de modèles mécaniques - Application à la mécanique cardiaque et aux images de marquage tissulaire." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00936027.

Full text
Abstract:
Cette thèse est dédiée à l'intégration de données complexes issues de l'imagerie dans une stratégie d'assimilation de données pour des modèles mécaniques. Notre stratégie s'appuie sur des travaux récents proposant une méthode séquentielle d'assimilation de données qui se décompose en un filtre de Luenberger pour l'espace d'état et un filtre optimal réduit à l'espace des paramètres. Nous l'appliquons à l'identification de paramètres pour un modèle biomécanique du cœur et, dans ce cadre, nous formalisons la construction de comparateurs de formes évolués pour deux types de données : d'une part des données extraites d'un traitement de l'Imagerie par Résonance Magnétique (IRM) de marquage tissulaire et, d'autre part, des données plus classiques de type contours de l'objet. D'abord fondés sur des simples distances nous enrichissons ces comparateurs grâce au formalisme des courants permettant d'inscrire le contour de l'objet dans le dual d'un espace de fonctions-test appropriées. Pour chacun des comparateurs nous analysons son impact sur l'observabilité du système et, pour le cas de l'imagerie de marquage tissulaire, nous prouvons qu'ils sont équivalents à une mesure directe du déplacement. D'un point de vue numérique, la prise en compte de ces mesures complexes présente d'importantes difficultées nous poussant à mettre en place des schémas numériques originaux permettant une manipulation plus flexible des différents opérateurs d'observation. Nous profitons de ces nouveaux moyens d'extraction de l'information contenue dans les données d'imagerie pour permettre, dans des cas réalistes, l'identification de la position et de l'intensité d'un infarctus du myocarde.
APA, Harvard, Vancouver, ISO, and other styles
50

Laudebat, Lionel. "Modélisation et identification sous représentation diffusive de comportements dynamiques non rationnels en génie électrique." Toulouse 3, 2003. http://www.theses.fr/2003TOU30220.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du développement de modèles dynamiques entreé-sortie en génie électrique, prenant en compte l'influence de phénomènes répartis. A partir d'une certaine finesse dans la représentation, les fonctions de transfert associées sont en générale non rationnelles. La représentation diffusive propose un formalisme bien adapté pour la modélisation de tels opérateurs, par une approche du type représentation d'état en dimension finie, dont les approximations de dimension finie efficaces conduisent à une simulation numérique aisée. Cette étude a permis d'illustrer l'intérêt de la représentation diffusive pour la modélisation et l'identification paramétrique des phénomènes de relaxation dans les matériaux diélectriques, la prise en compte des courants de Foucault dans les matériaux magnétiques et l'influence des pertes dans les lignes de transmission
This study falls within the framework of the development of input-output dynamic models in electrical engineering taking into account distributed phenomena. From some precision level in the diffusive representation suggests a formalism well adapted for modelling of such operators, by an infinite dimensional approximations lead to cheap numerical simulations. This study illustrates the great interest to use diffusive representation concept in terms of modelling and parametric identification. This concept has been used for dielectric materials modelling, to take into account the eddy currents in magnetic materials and to consider the losses in transmission lines
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography