To see the other types of publications on this topic, follow the link: Basso model.

Dissertations / Theses on the topic 'Basso model'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Basso model.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rebelo, Helene Albuquerque. "Uma comparação entre a PPP e o enfoque da produtividade na taxa de câmbio de longo prazo." Universidade Presbiteriana Mackenzie, 2014. http://tede.mackenzie.br/jspui/handle/tede/636.

Full text
Abstract:
Made available in DSpace on 2016-03-15T19:26:16Z (GMT). No. of bitstreams: 1 Helene Albuquerque Rebelo 1.pdf: 1046658 bytes, checksum: 341e6608b9c7f265ac5e1303f07c7667 (MD5) Previous issue date: 2014-10-23
Fundo Mackenzie de Pesquisa
The dissertation examines the behavior of the exchange rate in the long term from the perspective of the classical model of purchasing power parity theory (PPP), developed empirically by Cassel and the alternative model proposed by Basso originating from the Marxist benchmark, which emphasizes prices and productivities to determine the exchange rate. The exchange rate behavior is examined for three countries over the 1977-2006 period, with annual frequency. To test the models, it was used the consumer price index (CPI), the GDP, the value-added price index and gross producer price index (EU KLEMS database). The essay uses the causality tests of Johansen, the Dickey-Fuller and Phillips-Perron unit root tests, the VAR (vector autoregression) and VEC (vector error correction) models and performing a projection with the Model Confidence Set. It is ascertained that PPP was not supported for any of the 12 models generated. In Basso s approach, the 48 models generated, cointegration was found in only four models, therefore it is not possible to generalize the new model.
A dissertação examina o comportamento da taxa de câmbio no longo prazo sobre a perspectiva do modelo clássico da paridade do poder de compra (PPC) ou purchasing power parity theory (PPP), desenvolvido empiricamente por Cassel e do modelo alternativo proposto por Basso oriundo do referencial marxista, enfatizando preços e produtividades para determinar a taxa de câmbio. Examina-se o comportamento da taxa de câmbio para três países no período de 1977 a 2006, com frequência anual. Para testar os modelos, foram empregados o índice de preço ao consumidor (IPC), o deflator do PIB, o deflator dos valores agregados e o deflator de produção total (base de dados EU KLEMS). O trabalho utiliza o teste de causalidade de Johansen, os testes de raiz unitária de Dickey e Fuller e Phillips-Perron, os modelos de VAR (vetores autorregressivos) e VEC (vetores autorregressivos com correção de erro) e é feito projeção com Model Confidence Set. Constata-se que a PPP não foi corroborada para nenhum dos 12 modelos gerados. Na abordagem de Basso, dos 48 modelos gerados, encontrou-se cointegração apenas em quatro, portanto, não é possível generalizar o novo modelo.
APA, Harvard, Vancouver, ISO, and other styles
2

Bassi, Cristian [Verfasser]. "Integrable sigma models from affine Gaudin models / Cristian Bassi." Hamburg : Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky, 2021. http://d-nb.info/1237050480/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Löfberg, Jezper, and Albin Lindström. "Modelling the adoption of SPACs with Bass’ diffusion model." Thesis, Mälardalens högskola, Akademin för utbildning, kultur och kommunikation, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-54577.

Full text
Abstract:
The recent observed growth in the diffusion of Special Purpose Acquisition Companies phenomena on the U.S stock market may be analyzed from a mathematical standpoint, where different approaches of the Bass Diffusion Model might be utilized. The Bass diffusion model originates from analysis of product diffusion, where only a few applications have been seen by financial scholars. The thesis takes a multi analytical approach to examine the phenomena, where multiple regression analysis and Bayesian statistics are used in the parameter estimation processes. Estimated parameter are applied in three different scenarios of expressing the Bass diffusion model in a discrete time state. By utilizing these different approaches that arise, the study shows that the diffusion of Special Purpose Acquisition Companies Initial Public Offerings in fact can be analyzed from a mathematical standpoint utilizing the Bass diffusion model. Some approaches and scenarios indicate better results in terms of fitting the diffusion, while purposing practical actualities towards the reader and market practitioners. The study further purposes potential modifications that might improve the results of fitting the phenomena
APA, Harvard, Vancouver, ISO, and other styles
4

Sanejouand, Yves-Henri. "Les modes normaux de basse fréquence des protéines." Habilitation à diriger des recherches, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00258781.

Full text
Abstract:
Les mouvements de basse fréquence des protéines, tels qu'on peut les calculer via l'approximation des petits déplacements (approximation harmonique), ressemblent souvent beaucoup à des mouvements fonctionnels, tels qu'on peut les observer par cristallographie des rayons X. Ce résultat semble très robuste puisqu'il a été obtenu, tout d'abord, en partant d'une description des protéines à l'échelle atomique puis, plus récemment, de descriptions à "gros grains" (des modèles de type réseau élastique). S'appuyant sur ce constat, des applications variées ont été proposées, notamment pour faciliter la résolution de structures ou pour améliorer leur qualité (ajustement dans des enveloppes obtenues par cryomicroscopie électronique, remplacement moléculaire...). Ce mémoire est une revue des résultats obtenus, dans laquelle mes contributions sont plus particulièrement mises en avant. Parmi les développements les plus récents, sont évoquées des tentatives de faire le lien entre modèles à l'échelle atomique et modèles à gros grains, ou bien de complexifier ces derniers, en y incluant des termes anharmoniques.
APA, Harvard, Vancouver, ISO, and other styles
5

Cognault, Aurore. "Caractérisation de SER Basse Fréquence et Modes Caractéristiques." Phd thesis, Ecole Centrale Paris, 2009. http://tel.archives-ouvertes.fr/tel-00453298.

Full text
Abstract:
La SER, est la grandeur qui permet de quantifier le pouvoir réflecteur d'un objet, ou a contrario sa discrétion électromagnétique. Maîtriser la SER, voire la diminuer, est un enjeu majeur dans le domaine aéronautique de défense. C'est en particulier un gage de survivabilité pour les aéronefs. Historiquement, les fréquences RADAR d'intérêt étaient celles de la bande Super Haute Fréquence, ce qui équivaut à des longueurs d'onde de 2 à 30 centimètres. Des outils d'analyse adaptés ainsi que des moyens de mesure ou de caractérisation de la SER ont été mis au point. Ils se sont révélés extrêmement performants. On peut citer par exemple la chambre anéchoïque CAMELIA du CESTA. En revanche, dans le domaine des basses fréquences, il est plus délicat de réaliser des mesures précises. Pour des longueurs d'onde de 1 à 5 mètres, l'épaisseur des absorbants est souvent trop faible ; même les dimensions des chambres anéchoïques ne représentent que quelques longueurs d'onde. Notre objectif, lors de cette thèse, était de proposer et d'étudier des algorithmes nouveaux permettant d'améliorer ou de faciliter la caractérisation de la SER en basse fréquence. La notion de courants caractéristiques, introduite par Harrington et Mautz dans les années 70, puis reprise par Y. Morel dans le cas d'objets parfaitement conducteurs, permet la décomposition d'un courant induit quelconque en courants élémentaires. Les modes caractéristiques sont obtenus en faisant rayonner ces courants caractéristiques. Cependant, il n'existe pas d'outil de détermination des modes lorsque l'objet n'est plus parfaitement conducteur. Nous nous sommes donc dotés d'un tel outil, que nous avons construit et validé. Pour cela, nous avons repris dans un premier temps le cadre mathématique qui permet de définir l'opérateur de Perturbation, ses propriétés mathématiques et sa décomposition en éléments propres. Nous avons montré que cet opérateur discrétisé conserve ses propriétés mathématiques. Nous avons ensuite validé notre méthode de calcul direct des modes caractéristiques, issus de la diagonalisation de l'opérateur de perturbation discrétisé. Dans un deuxième temps, nous avons mené des études phénoménologiques. Nous avons tout d'abord observé l'évolution des éléments propres de l'opérateur de perturbation en fonction de l'impédance, et nous nous sommes intéressés au cas particulier de l'impédance égale à 1. Nous avons ensuite observé les phénomènes lorsque la fréquence évolue. En nous concentrant sur les valeurs propres, nous avons pu différencier deux types de modes. Enfin, nous avons détaillé quelques exemples d'applications concrètes de cette méthode de détermination des modes, qui permettent d'améliorer ou de faciliter la caractérisation de la SER en basse fréquence. L'outil ORFE (Outil de Reformulation, Filtrage et Extrapolation de données) permet d'atténuer les termes d'erreurs inhérents à toute caractérisation, et d'extrapoler des données existantes à des cas de figure non acquis ou non accessibles en mesure. Il a donné lieu à un brevet. Un outil d'interpolation de SER en basse fréquence a aussi été construit. Il permet d'obtenir de meilleurs résultats que l'interpolation linéaire de la SER. Nous avons aussi mis en place une méthode d'imagerie basse fréquence. Elle permet de localiser d'éventuels défauts de métallisation de l'objet considéré, en utilisant la base des courants caractéristiques. Enfin, nous avons présenté une méthodologie de caractérisation de SER qui intègre les limites des moyens de mesure. Nous avons mis en évidence que cette caractérisation donne une information absolue sur la SER de l'objet, dans un périmètre de validité. Un brevet a été déposé sur cette méthode.
APA, Harvard, Vancouver, ISO, and other styles
6

Cognault, Aurore Magoulès Frédéric. "Caractérisation de SER Basse Fréquence et Modes Caractéristiques." S. l. : S. n, 2009. http://theses.abes.fr/2009ECAP0016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Shoemaker, Michael H. "A Bass Diffusion Model Analysis: Understanding Alternative Fuel Vehicle Sales." Scholarship @ Claremont, 2012. http://scholarship.claremont.edu/cmc_theses/399.

Full text
Abstract:
Frank M. Bass developed the Bass Diffusion Model to predict how innovative consumer durable products diffuse through consumer markets. This thesis will use data from 1999-2011 to examine the applicability of the Bass Diffusion Model to the introduction of alternative fuel vehicles (AFVs) in the automobile market. The findings in this thesis indicate the Bass Diffusion Model fit the diffusion pattern exhibited by AFVs well, but failed to accurately forecast diffusion patterns outside a given range of data. This thesis investigates potential reasons for the inaccurate 'Out of Sample Forecast', and gives recommendations for directions of future research on AFV diffusion.
APA, Harvard, Vancouver, ISO, and other styles
8

Shen, Yingzhen. "Forecasting Twitter topic popularity using bass diffusion model and machine learning." Thesis, Massachusetts Institute of Technology, 2015. http://hdl.handle.net/1721.1/99575.

Full text
Abstract:
Thesis: S.M. in Transportation, Massachusetts Institute of Technology, Department of Civil and Environmental Engineering, 2015.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 91-93).
Today social network websites like Twitter are important information sources for a company's marketing, logistics and supply chain. Sometimes a topic about a product will "explode" at a "peak day," suddenly being talked about by a large number of users. Predicting the diffusion process of a Twitter topic is meaningful for a company to forecast demand, and plan ahead to dispatch its products. In this study, we collected Twitter data on 220 topics, covering a wide range of fields. And we created 12 features for each topic at each time stage, e.g. number of tweets mentioning this topic per hour, number of followers of users already mentioning this topic, and percentage of root tweets among all tweets. The task in this study is to predict the total mention count within the whole time horizon, 180 days, as early and accurately as possible. To complete this task, we applied two models - fitting the curve denoting topic popularity (mention count curve) by Bass diffusion model; and using machine learning models including K-nearest-neighbor, linear regression, bagged tree, and ensemble to learn the topic popularity as a function of the features we created. The results of this study reveal that the Basic Bass model captures the underlying mechanism of the Twitter topic development process. And we can analogue Twitter topics' adoption to a new product's diffusion. Using only mention count, over the whole time horizon, the Bass model has much better predictive accuracy, compared to machine learning models with extra features. However, even with the best model (the Bass model) and focusing on the subset of topics with better predictability, predictive accuracy is still not good enough before the "explosion day." This is because "explosion" is usually triggered by news outside Twitter, and therefore is hard to predict without information outside Twitter.
by Yingzhen Shen.
S.M. in Transportation
APA, Harvard, Vancouver, ISO, and other styles
9

Kulakovskis, Darius. "Balso kokybės vertinimo modulio „Asterisk" VoIP žinybinei stočiai kūrimas ir tyrimas." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2014. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2014~D_20140611_081442-70060.

Full text
Abstract:
Baigiamajame magistro darbe sukurtas balso kokybės vertinimo modulis „Asterisk“ VoIP žinybinei stočiai ir atliktas sukurto modulio tyrimas. Atlikta SIP protokolo architektūros apžvalga, išnagrinėti balso kokybės vertinimo būdai bei įrankiai. Apžvelgtas balso kokybės vertinimo būdų palyginimas mokslinėje literatūroje. Pasinaudojus „libpcap“ biblioteka sukurtas balso kokybės vertinimo modulis. Sukurtas modulis analizuoja RTCP paketus ir vertina balso kokybę pagal ITU-T E modelį. Atliktas balso kokybės tyrimas naudojant sukurtą modulį, o rezultatai palyginti su PESQ algoritmu gautais rezultatais. Atliekant balso kokybės tyrimą buvo nagrinėjami trys pagrindiniai veiksniai - vėlinimas, paketų praradimas ir vėlinimo laikų švytavimas. Nustatyta, kad daugeliu atvejų balso kokybės vertinimo moduliu gauti parametrai gali būti laikomi patikimais balso kokybės indikatoriais. Darbą sudaro 7 dalys: įvadas ir užduoties analizė, SIP architektūros apžvalga, balso kokybės vertinimo būdų bei įrankių apžvalga, balso kokybės vertinimo modulis, balso kokybės tyrimas naudojant sukurtą modulį, rezultatų apibendrinimas, literatūros ir informacinių šaltinių sąrašas.
In this master thesis research of voice quality estimation system for Asterisk PBX was performed. SIP architecture was reviewed and voice quality estimation methods and tools were described. Scientific literature about voice quality estimation methods was reviewed. Voice quality estimation system was created by using “libpcap” library. The created system uses RTCP packets to estimate voice quality based on ITU-T E-model. Research of voice quality was performed by using the created system and the results were compared to PESQ algorithm results. Three most important parameters were considered during voice quality estimation - delay, packet loss and jitter. Research has confirmed that in most cases measurements performed with the created system can be considered reliable voice quality parameters. Structure consists of 7 chapters: introduction and task analysis, review of SIP architecture, review of voice quality estimation methods and tools, voice quality estimation system, research of voice quality by using the created system, summary of thesis results, references.
APA, Harvard, Vancouver, ISO, and other styles
10

Ohene-Asah, Ayeh. "An application of the Bass diffusion model to border security and illegal immigration /." Online version of thesis, 2009. http://hdl.handle.net/1850/10848.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Cafaggi, Sara. "Ricostruzione della morfologia mediante processo fotogrammetrico da volo a bassa quota con low cost UAV." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
L'obiettivo di questo lavoro è stato quello di confrontare il movimento del sedimento costituente la duna a sud di Foce Bevano nell’arco di tre mesi invernali; realizzato tramite la ricostruzione tridimensionale della superficie da fotogrammetria aerea a bassa quota. Sono stati effettuati due rilievi fotografici (Ottobre e Dicembre, 2017) tramite UAV (Unmanned aerial vehicle) e questi sono stati confrontati con un simultaneo rilievo tramite TLS (Terrestrial Laser Scanner), si sono discussi i risultati del rilievo tramite UAV mettendo a confronto le ricostruzione dei DEM che sono stati restituiti dal programma Pix4D. Questo metodo è risultato rapido e preciso, producendo risultati con un errore medio dell’ordine del millimetro. Riferito al rilievo di ottobre i risultati registrati di errore medio in metri sui tre assi X,Y,Z sono (-0.000077, 0.00013, -0.000027), dicembre, sempre riferito ai tre assi abbiamo i seguenti valori di errore medio in metri: ( 0.000032, -0.000108, 0.000068). Dal confronto con la ricostruzione TLS vediamo come la differenza tra i due modelli sia di pochi millimetri potendo quindi affermare che queste due tecniche sono entrambe efficaci in termini di precisione. Dal confronto fra le due superfici è risultato quindi come si sia creata una zona di sostanziale equilibrio sulla spiaggia prospiciente la duna, zona dominata da dinamiche marine, con lieve accumulo nella zona meridionale. La zona interna alle Ganivelles è fondamentalmente stabile o in lieve accumulo specialmente nella parte più a sud. Il fatto che ci siano zone di accumulo è indice dell’efficacia del sistema di ripristino ganivelles adottato sul sito bevano sud.
APA, Harvard, Vancouver, ISO, and other styles
12

Xiao, Xiang, and Wenbin Zhang. "The Study of Battery Electric Vehicle DiffusionConsidering Technology Development Impact : A model based study of Swedish market." Thesis, KTH, Hållbarhet och industriell dynamik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-189505.

Full text
Abstract:
Battery Electric Vehicle as an environmental friendly transportation alternative has already emerged as well as fade out of the market twice. It has been reintroduced along with the increasing concern about the environment issue. This recent diffusion is surrounded by lots of dynamic changes and uncertainties. However, most current studies focus on political, financial as well as infrastructure factors but neglect factors like the technology especially how people perceived it. Therefore, this study mainly research into how the technology development impact on the diffusion of battery electric vehicle.To achieve this aim, a model based study was conducted targeting Swedish electric vehicle market. In the research, customers are considered to be the target objective because they are the one  who perceive the technology and make decision for adoption directly. In order to know the relationship between them, researches have been conducted through qualitative and quantitative approach. Empirical work including interviews and survey were conducted through tripartite aspect to investigate the customer needs and related technology. The investigation indicates the environmentally friendly performance is the key driving force perceived by the early adopters. Meanwhile, range issue, total cost of ownership and safety & technology reliability are identified as the top three critical concerns that  hold back customer purchasing decision. A modified classic model for the innovation diffusion has been proposed which is used to evaluate the technology’s perception based on historical data. Two BEV- related technologies were chosen as examples to prove and illustrate the relationship between technology development and electric vehicle diffusion.The results showed that the BEV-related technologies, which have potential ability to address critical customer demand, are able to impact on the customer adoption positively through valid perception by customer. Taking technology development and perception into consideration, the diffusion process should be accelerated to some extent. Technologies which can be more easily perceived tend to have more impact in the diffusion process.
Batteridrivna elektriska fordon(BEV) som ett miljövänligt transportalternativ redan har dykt upp, liksom försvunnit från marknaden två gånger. Det har återinförts tillsammans med den ökande oron för miljöfrågan. Denna nya diffusion är omgiven av dynamiska förändringar och osäkerheter. Men de flesta av dagens studier fokuserar på politiska, ekonomiska och infrastrukturella faktorer, men försummar faktorer relaterat till tekniken framför allt hur människor uppfattar det. Därför undersökte denna studie främst hur den tekniska utvecklingen påverkar spridningen av batteridrivna fordon.För att uppnå detta syfte, gjordes en modell baserad kring en studie av den svenska elbilsmarknaden. I forskningen anses kunderna vara målet målgruppen eftersom de är de som uppfattar tekniken och tar beslut om införandet direkt. För att veta förhållandet mellan dem, har kvalitativa och kvantitativa undersökningar genomförts. Empiriskt arbete inklusive intervjuer och undersökningen genomfördes genom tre olika aspekter för att undersöka kundernas behov och relaterad teknik. Undersökningen visar att miljövänlig prestanda är den viktigaste drivkraften som uppfattas av early adopters. Samtidigt har räckviddsproblematiken, totala ägandekostnaden och tillförlitlighet i säkerhet och teknologi identifierats som de tre kritiska problemen som tillbakahåller kunden från ett köpbeslut. En modifierad klassisk modell för innovationsspridning har föreslagits som används för att utvärdera teknikens uppfattning baserad på historiska data. Två BEV-relaterade teknologier valdes som exempel för att bevisa och illustrera förhållandet mellan teknikutveckling och elbilsdiffusion.Resultaten visade att BEV-relaterad teknologi, som har potential förmåga att ta itu med den kritiska efterfrågan från kunderna, kan påverka kundacceptans positivt genom giltig uppfattning av kunden. Om teknikutveckling och uppfattning beaktas, bör diffusionsprocessen påskyndas i viss utsträckning. Teknik som lättare kan uppfattas tenderar att ha mer genomslag i diffusionsprocessen.
APA, Harvard, Vancouver, ISO, and other styles
13

Montier, Laurent. "Application de méthodes de réduction de modèles aux problèmes d'électromagnétisme basse fréquence." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0029/document.

Full text
Abstract:
Dans le domaine de l'électrotechnique, la simulation numérique permet de s'affranchir d'essais qui peuvent être coûteux ou difficiles à réaliser. La Méthode des Éléments Finis est ainsi devenue une approche de référence dans ce contexte car elle permet d'obtenir des résultats précis sur des systèmes aux géométries complexes. Or, la simulation numérique d’un dispositif électrotechnique peut s’avérer coûteuse en temps de calcul du fait d’un nombre d’inconnues et de pas de temps important, ainsi que de fortes non-linéarités des matériaux ferromagnétiques. Il est alors nécessaire de mettre en œuvre des techniques permettant de réduire les temps de calcul nécessaires à la résolution de tels modèles numériques. Les méthodes de réduction de modèles semblent bien adaptées à ce type de problèmes car elles ont déjà été appliquées avec succès dans de nombreux domaines de l’ingénierie, notamment en mécanique des fluides et du solide. Une première catégorie de méthodes permet de rechercher la solution dans une base réduite afin de diminuer le nombre d’inconnues du modèle numérique. Pour ce type d’approche, les méthodes les plus connues sont la Proper Orthogonal Decomposition, la Proper Generalized Decomposition et la Projection d’Arnoldi. Une seconde catégorie regroupe les approches permettant de réduire le coût de calcul dû aux phénomènes non linéaires, grâce à des méthodes d’interpolation telles que l‘Empirical Interpolation Method et la Gappy POD. Cette thèse CIFRE a ainsi été effectuée dans le cadre du LAMEL (laboratoire commun entre le L2EP et EDF R&D) avec pour but d’identifier et d’implémenter les méthodes de réduction les mieux adaptées à l’électrotechnique. Celles-ci devront être capables de réduire le coût de calcul tout en prenant en compte le mouvement du rotor, les non-linéarités des matériaux ferromagnétiques mais aussi l’environnement électrique et mécanique du dispositif. Enfin, un indicateur évaluant l’erreur commise par le modèle réduit a été développé, offrant ainsi la garantie d’une précision suffisante sur les résultats
In the electrical engineering field, numerical simulation allows to avoid experiments which can be expensive, difficult to carry out or harmful for the device. In this context, the Finite Element Method has become to be one of the most used approach since it allows to obtain precise results on devices with complex geometries. However, these simulations can be computationally expensive because of a large number of unknowns and time-steps, and of strong nonlinearities of ferromagnetic materials to take into account. Numerical techniques to reduce the computational effort are thus needed. In this context, model order reduction approaches seem well adapted to this kind of problem since they have already been successfully applied to many engineering fields, among others, fluid and solid mechanics. A first class of methods allows to seek the solution in a reduced basis, allowing to dramatically reduce the number of unknowns of the numerical model. The most famous technics are probably the Proper Orthogonal Decomposition, the Proper Generalized Decomposition and the Arnoldi Projection. The second class of approaches consists of methods allowing to reduce the computational cost associated to nonlinearities, using interpolation methods like the Empirical Interpolation Method and the Gappy POD. This Ph.D. has been done within the LAMEL, the joint laboratory between the L2EP and EDF R&D, in order to identify and implement the model order reduction methods which are the most adapted to electrical engineering models. These methods are expected to reduce the computational cost while taking into account the motion of an electrical machine rotor, the nonlinearities of the ferromagnetic materials and also the mechanical and electrical environment of the device. Finally, an error indicator which evaluates the error introduced by the reduction technic has been developed, in order to guarantee the accuracy of the results obtained with the reduced model
APA, Harvard, Vancouver, ISO, and other styles
14

Al, Majzoub Al Sabbagh Maryam. "Vibrations polaires de basse fréquence de composés ferroélectriques et relation avec leurs propriétés diélectriques géantes : relaxeurs et nanocéramiques." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT253.

Full text
Abstract:
Les matériaux ferroélectriques possédant des propriétés diélectriques géantes font l’objet d’une grande attention scientifique, en grande partie à cause de leur utilisation et potentialités futures dans les dispositifs technologiques, en particulier en microélectronique. L’intérêt de ce travail porte sur l’étude des propriétés vibrationnelles de deux systèmes modèles : le relaxeur PbMg1/3Nb2/3O3 (PMN) monocristallin, et des nano-céramiques de SrTiO3 de tailles de grains contrôlées. Les travaux ont été menés essentiellement par une technique non-linéaire optique originale, la diffusion hyper-Raman (HR) de la lumière, et une attention particulière a été portée aux vibrations de basse fréquence. Des modèles structuraux pu être développés pour relier les signatures spectrales aux propriétés diélectriques de ses systèmes.Dans un premier temps, la spectroscopie hyper-Raman a été poussée à ses limites et a permis d’aboutir à une description convaincante de la dynamique de la polarisation électrique de PMN dans le domaine THz et ce, sur une gamme de température couvrant l’ensemble des différents états relaxeurs. L’hypothèse très répandue mettant en avant l’existence de deux modes mous polaires a ainsi pu être exclue. Les anomalies spectrales à haute température s’expliquent par un couplage entre un mode mou ferroélectrique unique et une vibration non-polaire dont le comportement est indépendant de la température. En refroidissant, l’éclatement du mode mou ferroélectrique révèle la formation d’une anisotropie polaire en dessous de 400-500 K. L’ensemble des modifications spectrales a été capturé dans un modèle simple qui rend également compte de la dépendance en température de la permittivité diélectrique.Dans une seconde partie, les expériences hyper-Raman ont été menées dans deux céramiques de titanate de strontium (SrTiO3) possédant des tailles de grains différentes, 80 nm et 150 nm. L’avantage de la diffusion hyper-Raman pour cette étude est sa propension à sonder les réponses spectrales individuelles du coeur et de la coquille des grains, alors que les techniques usuelles d’absorption infrarouge sondent un milieu effectif moyen. L’analyse spectrale révèle des propriétés de grains identiques dans les deux céramiques : même valeur et même dépendance en température de l’épaisseur de la coquille entourant le cœur, et permittivités diélectriques de cœur ainsi que de coquille identiques dans les deux cas. Un modèle structural reliant les propriétés vibrationnelles et la permittivité diélectrique effective confirme l’existence de deux coquilles entourant le cœur des grains.Ces travaux montrent par ailleurs qu’entre 150 nm et 80 nm, la diminution des propriétés diélectriques est principalement liée au rapport des volumes entre le cœur (haute permittivité) et les coquilles (basses permittivités)
Materials that exhibit giant dielectric properties have received a huge amount of attention from the scientific and industrial communities due to their potentialities and applications in technological devices, in particular for microelectronic applications. In this work, we are interested in studying the vibrational properties of a prototypical relaxor single crystal, PbMg1/3Nb2/3O3 (PMN), as well as nanoceramics of SrTiO3 (STO) with controlled grain sizes. The experiments have been mostly performed by hyper-Raman scattering (HRS), an original non-linear inelastic light scattering spectroscopy. Special attention was devoted to low frequency vibrations, and structural models were developed to relate the vibrational signatures to the giant dielectric responses of these systems.HRS spectroscopy was pushed towards its limit and provided a comprehensive picture of the polarization dynamics of PMN in the THz-range within the whole temperature sequence of its characteristic relaxor states. The widespread hypothesis of two paraelectric soft modes is convincingly excluded. The observation of the split ferroelectric mode reveals the local anisotropy below about 400 K. In contrast, the spectral anomalies observed at higher temperatures are explained as due to avoided crossing of the primary polar soft mode with a temperature-independent, non-polar spectral feature. The temperature changes of the vibrational modes involved in the measured fluctuation spectra of PMN were captured in a simple model that accounts for the temperature dependence of the dielectric permittivity as well.On the other hand, HRS experiments were carried-out on STO single crystal and nano-ceramics of different grain sizes, 80nm and 150nm. Contrary to IR-absorption which gives an effective spectral response of the core and the shell(s) constituting the grains, we show that hyper-Raman provides information of the individual core and shell responses. The spectral analysis reveals that except from their volume, the grains in the two ceramics exhibit very similar structures and properties: same value and temperature dependence of the shell thickness surrounding the core, and same dielectric response of the core as well as of the shell in the two samples. Structural models relating the vibrational properties to the effective dielectric permittivity were developed, and confirm that in STO the grains are composed by one core and two surrounding shells. We demonstrate that between 150 nm and 80 nm the decrease of the effective dielectric permittivity with grain size relates mostly to a change in core and shell volume fraction
APA, Harvard, Vancouver, ISO, and other styles
15

Bosc, Pierre-Marie. "Organisations paysannes et ressources renouvelables en basse casamance. Les modes de coordination entre acteurs." École nationale supérieure agronomique (Montpellier), 1998. http://www.theses.fr/1998ENSA0005.

Full text
Abstract:
Les organisations paysannes peuvent jouer un role significatif en matiere de gestion durable des ressources renouvelables, mais pour ce faire elles doivent etablir des formes de coordination efficaces tant au sein de la societe locale que vis-a-vis de l'exterieur. Cette coordination ne peut se reduire a la seule action des structures lignageres qui investiraient des structures dites modernes. Les organisations paysannes doivent etre en mesure d'etablir des compromis stables avec les responsables des pouvoirs lignagers, mais la seule coordination interne ne suffit pas et l'efficacite de l'organisation paysanne repose sur sa capacite a modifier en sa faveur, les modes de coordination entre la societe locale et son environnement. Ces nouvelles formes de coordination supposent une reduction de l'asymetrie entre les acteurs par le developpement de competences intrinseques au niveau de l'organisation. Inversement, une amelioration de cette coordination ne peut pallier a l'absence de coordination interne comme c'est le cas lorsque l'organisation tente de suppleer l'absence d'adhesion des pouvoirs lignagers a ses projets de rehabilitation des ressources renouvelables. Les amenagements realises par l'organisation dans les vallees creent une nouvelle ressource en propriete commune a partir de ressources appropriees sur une base lignagere dont la gestion releve d'une negociation avec les pouvoirs lignagers, sous la responsabilite des aines, jouent un role d'arbitre, mais ou l'organisation exerce l'essentiel de la fonction technique a partir de l'implication des cadets et des femmes dans des structures ad-hoc. En revanche, sur les terres de plateau ou la repartition des cultures obeit davantage aux imperatifs de l'elevage qu'a ceux d'une pratique raisonnee de l'agriculture, les actions de l'organisation n'ont pas rencontre l'adhesion des aines, car elles ne prenaient pas en compte l'elevage qui joue un role central dans les processus de regulation sociale et economique. Il semble que la comprehension de l'evolution des ressources renouvelables et des modalites de leur gestion passe par une meilleure apprehension des relations entre les groupes sociaux et les troupeaux.
APA, Harvard, Vancouver, ISO, and other styles
16

Soussi, Chaima. "Développement de modèles numériques pour l'évaluation des performances vibro-acoustiques de fenêtres en basse fréquence." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC014.

Full text
Abstract:
Les travaux de cette thèse portent sur la prédiction numérique de la transmission acoustique de doubles vitrages isolants et de fenêtres en menuiserie bois dans le domaine des basses fréquences. Dans ce cadre, pour la résolution du problème multiphysique, la méthode des éléments finis est utilisée. Ce choix est justifié par le fait que cette approche est adaptée à la résolution des problèmes d'interaction fluide-structure en basse fréquence, grâce notamment à sa souplesse dans la prise en compte du couplage entre domaines et des complexités géométriques et matérielles des structures. Pour atteindre l'objectif visé, des analyses modales expérimentales des principaux composants d'une fenêtre, puis d'une fenêtre complète, sont réalisées afin de recaler les différents modèles numériques. De plus, l'effet des conditions expérimentales sur la mesure de l'indice d'affaiblissement acoustique est analysé au travers de la définition de quatre configurations numériques de l'essai acoustique en laboratoire. Ces configurations, dont la différence est liée à la représentation des salles d'émission et de réception, permettent de caractériser leur influence sur la détermination de l'indice d'affaiblissement acoustique en dessous de la fréquence de Shroeder. Les résultats numériques, obtenus avec une configuration en champ libre pour des doubles vitrages et des fenêtres, sont comparés à des résultats expérimentaux pour évaluer l'efficacité et la validité des modèles développés. Enfin, des études paramétriques sont menées pour étudier l'influence sur l'indice d'affaiblissement acoustique de certains paramètres tels que (i) les propriétés des vitres ou du système d'étanchéité, (ii) les caractéristiques de la cavité inter-vitrage, et (iii) les conditions aux limites
This doctoral thesis focuses on the numerical prediction of the sound transmission of insulating double glazing and wooden windows in the low frequency range. In this context, the finite element method is used to solve the multiphysical problem. This choice is justified by the fact that this approach is suitable for the resolution of fluid-structure interaction problems in low frequencies, due in particular to its flexibility in taking into account the coupling between domains and the geometrical and material complexities of the structures. To reach the desired objective, experimental modal analyses of the main components of a window, and then of a complete window, are performed in order to calibrate the numerical models. In addition, the effect of experimental conditions on the measurement of the sound transmission loss is analysed through the definition of four numerical configurations of the acoustic laboratory test. These configurations, whose difference is linked to the representation of the emitting and receiving chambers, allow to highlight their influence on the determination of the transmission loss below the Shroeder frequency. The numerical results, obtained with a free-field configuration for double glazing and windows, are compared to experimental results to evaluate the efficiency and validity of the developed models. Finally, parametric studies are carried out to investigate the influence on the sound transmission loss of some parameters such as (i) the properties of the glazing or sealing system, (ii) the characteristics of the inter-glazing cavity, and (iii) the boundary conditions
APA, Harvard, Vancouver, ISO, and other styles
17

Kapikranyan, Oleksandr. "Influence du désordre sur le comportement à basse température de modèles de spins de symétrie continue." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10017/document.

Full text
Abstract:
Cette thèse présente une étude du modèle XY bidimensionnel dans des conditions réalistes, comme la présence d'imperfections (impuretés non magnétiques) ou la taille finie du réseau. Ces deux aspects sont typiques de situations expérimentales et nécessitent un questionnement théorique. Nous avons également considéré le comportement a basse température du modèle d'Heisenberg fini et avons trouve un comportement analogue a celui du modèle XY. Nous avons utilise a la fois une approche analytique et des simulations numériques pour traiter le problème. Les résultats essentiels de ce travail sont: (a) la détermination de l'exposant de décroissance algébrique de la fonction de corrélation du modèle XY dilue, analytiquement avec l'approximation d'ondes de spins et par simulations Monte Carlo a l'aide de l'algorithme de Wolff, (b) l'estimation correspondante dans le cas du modèle d'Heisenberg sur réseau fini a basse température assortie de simulations numériques également, (c) la forme de l'interaction entre les impuretés non magnétiques et les défauts topologiques dans le cadre du modèle de Villain et dans le modèle de Kosterlitz-Thouless, et l'estimation analytique de la réduction de température critique basée sur la forme de cette interaction, (d) la détermination numérique de la distribution de probabilité de l'aimantation résiduelle sur un système fini en présence de désordre. Pour l'ensemble de nos travaux, nous avons obtenu un bon accord entre les prédictions théoriques et les simulations numériques, de même qu'avec des travaux antérieurs le cas écheant
The thesis presents a study of the two-dimensional XY model exposed to such realistic conditions as the presence of lattice imperfections (nonmagnetic impurities) and lattice finiteness. Both features are typical for experimentally accessible magnetic materials and ask for theoretical description. We also have explored the low-temperature behaviour of a finite two-dimensional Heisenberg model and found behaviour similar to that of the 2D XY model. We have used both analytical and computer experiment approaches to tackle the problem. The essential output of the work consists of: (a) estimation of the non-universal exponent of the power law decay of the pair correlation function of a diluted 2D XY model at low temperature as a function of dilution, analytically in the spin-wave approximation, and in the Monte Carlo simulations using the Wolff algorithm; (b) analytical estimation of the corresponding exponent of the 2D Heisenberg model in the low-temperature limit for the finite lattice size and its comparison to the Monte Carlo simulations; (c) evaluation of the form of interaction between nonmagnetic impurities and topological defects within the Villain model as well as in the Kosterlitz-Thouless model, and analytical prediction of the critical temperature reduction made on the basis of this interaction; (d) Monte Carlo investigation of the form of the residual magnetization probability distribution in a finite system in presence of nonmagnetic disorder (dilution). We found all our analytical predictions in quite well agreement with the Monte Carlo simulation results as well as with other researches of the similar problems
APA, Harvard, Vancouver, ISO, and other styles
18

Illig, Serena. "Variabilité basse fréquence de l'Atlantique Tropical:Rôle de la dynamique océanique équatoriale et Influence d'El Niño Southern Oscillation." Phd thesis, Université Paul Sabatier - Toulouse III, 2005. http://tel.archives-ouvertes.fr/tel-00260664.

Full text
Abstract:
L'objectif de cette thèse est l'étude de la variabilité interannuelle en Atlantique Tropical: nous étudions les rôles des processus couplés liés à la dynamique linéaire et ceux liés à l'influence de la variabilité du Pacifique Tropical de type El Niño. Les résultats obtenus suggèrent que la variabilité associée aux propagations d'ondes de Kelvin et de Rossby joue un rôle essentiel dans l'ajustement océanique au forçage par le vent et plus généralement dans les processus couplés océan-atmosphère en Atlantique Équatorial. Les résultats de simulations couplées montrent que l'énergie dans la bande de fréquences 1-3 ans est en partie liée aux interactions locales air-mer, tandis que la variabilité associée au Pacifique Tropical domine les basses fréquences (3-7 ans). Nos résultats soulignent la complexité du système océan-atmosphère en Atlantique Équatorial, dont la prédictibilité dépend fortement de la variabilité du Pacifique Tropical et de la variabilité atmosphérique intra-saisonnière.
APA, Harvard, Vancouver, ISO, and other styles
19

Stephan, Jean-Marie. "Intrication dans des systèmes quantiques à basse dimension." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112308.

Full text
Abstract:
On a compris ces dernières années que certaines mesures d'intrications sont un outil efficace pour la compréhension et la caractérisation de phases nouvelles et exotiques de la matière, en particulier lorsque les méthodes traditionnelles basées sur l'identification d'un paramètre d'ordre sont insuffisantes. Cette thèse porte sur l'étude de quelques systèmes quantiques à basse dimension où un telle approche s'avère fructueuse. Parmi ces mesures, l'entropie d'intrication, définie via une bipartition du système quantique, est probablement la plus populaire, surtout à une dimension. Celle-ci est habituellement très difficile à calculer en dimension supérieure, mais nous montrons ici que le calcul se simplifie drastiquement pour une classe particulière de fonctions d'ondes, nommées d'après Rokhsar et Kivelson. L'entropie d'intrication peut en effet s'exprimer comme une entropie de Shannon relative à la distribution de probabilité générée par les composantes de la fonction d'onde du fondamental d'un autre système quantique, cette fois-ci unidimensionnel. Cette réduction dimensionnelle nous permet d'étudier l'entropie aussi bien par des méthodes numériques (fermions libres, diagonalisations exactes, ...) qu'analytiques (théories conformes). Nous argumentons aussi que cette approche permet d'accéder facilement à certaines caractéristiques subtiles et universelles d'une fonction d'onde donnée en général.Une autre partie de cette thèse est consacrée aux trempes quantiques locales dans des systèmes critiques unidimensionnels. Nous insisterons particulièrement sur une quantité appelée écho de Loschmidt, qui est le recouvrement entre la fonction d'onde avant la trempe et la fonction d'onde à temps t après la trempe. En exploitant la commensurabilité du spectre de la théorie conforme, nous montrons que l'évolution temporelle doit être périodique, et peut même être souvent obtenue analytiquement. Inspiré par ces résultats, nous étudions aussi la contribution de fréquence nulle à l'écho de Loschmidt après la trempe. Celle-ci s'exprime comme un simple produit scalaire -- que nous nommons fidélité bipartie -- et est une quantité intéressante en elle-même. Malgré sa simplicité, son comportement se trouve être très similaire à celui de l'entropie d'intrication. Pour un système critique unidimensionnel en particulier, notre fidélité décroît algébriquement avec la taille du système, un comportement rappelant la célèbre catastrophe d'Anderson. L'exposant est universel et relié à la charge centrale de la théorie conforme sous-jacente
In recent years, it has been understood that entanglement measures can be useful tools for the understanding and characterization of new and exotic phases of matter, especially when the study of order parameters alone proves insufficient. This thesis is devoted to the study of a few low-dimensional quantum systems where this is the case. Among these measures, the entanglement entropy, defined through a bipartition of the quantum system, has been perhaps one of the most heavily studied, especially in one dimension. Such a quantity is usually very difficult to compute in dimension larger than one, but we show that for a particular class of wave functions, named after Rokhsar and Kivelson, the entanglement entropy of an infinite cylinder cut into two parts simplifies considerably. It can be expressed as the Shannon entropy of the probability distribution resulting from the ground-state wave function of a one-dimensional quantum system. This dimensional reduction allows for a detailed numerical study (free fermion, exact diagonalizations, \ldots) as well as an analytic treatment, using conformal field theory (CFT) techniques. We also argue that this approach can give an easy access to some refined universal features of a given wave function in general.Another part of this thesis deals with the study of local quantum quenches in one-dimensional critical systems. The emphasis is put on the Loschmidt echo, the overlap between the wave function before the quench and the wave function at time t after the quench. Because of the commensurability of the CFT spectrum, the time evolution turns out to be periodic, and can be obtained analytically in various cases. Inspired by these results, we also study the zero-frequency contribution to the Loschmidt echo after such a quench. It can be expressed as a simple overlap -- which we name bipartite fidelity -- and can be studied in its own right. We show that despite its simple definition, it mimics the behavior of the entanglement entropy very well. In particular when the one-dimensional system is critical, this fidelity decays algebraically with the system size, reminiscent of Anderson's celebrated orthogonality catastrophe. The exponent is universal and related to the central charge of the underlying CFT
APA, Harvard, Vancouver, ISO, and other styles
20

Klein, Amélie. "Analyse du profil vertical de l'ozone dans la basse troposphère à Paris." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS192.pdf.

Full text
Abstract:
Les mesures de l'ozone en surface ne sont pas suffisantes pour comprendre les mécanismes de formation de l'ozone dans la partie basse de la troposphère. Au cours de cette thèse, nous avons utilisé les instruments de la station QUALAIR, située à Paris, qui permettent d'obtenir des mesures de profils verticaux d'ozone ainsi que des mesures de dynamique atmosphérique et de colonnes intégrées de NO2 sur les premiers kilomètres de l'atmosphère. Une première approche statistique, à partir de quatre années de mesures consécutives de LIDAR ozone (2011-2014), a permis de comprendre les mécanismes responsables du gradient vertical et de la variabilité saisonnière de l'ozone à Paris. Afin de mieux évaluer l'influence du transport sur la variabilité spatio-temporelle de l'ozone, un deuxième travail a consisté à étudier les résultats d'une campagne instrumentale, organisée à Paris, et durant laquelle des mesures en continu d'ozone, de champs de vent et de turbulence dans la couche limite atmosphérique ont été réalisées. Ce travail a permis d'étudier l'impact de la réincorporation de la couche résiduelle sur l'évolution de l'ozone en surface à l'échelle locale. De plus, un modèle lagrangien de dispersion de particules (FLEXPART-WRF) a été utilisé afin d'évaluer l'impact du transport nocturne d'une couche appauvrie en ozone sur la variabilité de l'ozone en surface à l'échelle régionale. Enfin, le développement d'un modèle de chimie-transport à une dimension (PACT 1D) a permis de quantifier l'influence du transport vertical et de la chimie sur l'évolution de l'ozone dans la couche limite au cours de la journée
Surface ozone measurements are not sufficient to understand the mechanisms of ozone formation in the lower troposphere. In this study, we have used instruments from the QUALAIR station, located in Paris center, that can measure vertical profiles of ozone, atmospheric dynamics parameters, and integrated contents of NO2 in the lowermost troposphere. First, a statistical analysis, using four years of ground based ozone LIDAR measurements (2011-2014), is done to understand the mechanisms responsible for the vertical gradient and the seasonal cycle of ozone in Paris. Then, in order to better assess the influence of transport on the spatial and temporal evolution of ozone, we focus on the results obtained from an instrumental campaign, organized in Paris, and during which continuous measurements of ozone, wind and turbulence in the atmospheric boundary layer were performed. The results show the impact of the entrainment of the residual layer into the mixed layer on the surface ozone variability in the morning at the local scale. A Lagrangian particle dispersion model (FLEXPART-WRF) is used to better assess the impact of the nocturnal transport of a clean ozone layer via nocturnal low level jets from Paris on the surface ozone evolution at the regional scale. Finally, a one dimensional chemical transport model (PACT 1D) is used to quantify the influence of vertical transport versus photochemistry on the evolution of boundary layer ozone during daytime
APA, Harvard, Vancouver, ISO, and other styles
21

Jacobs, Carolyn. "Etude du rayonnement d'un écoulement hypersonique à basse densité." Phd thesis, Châtenay-Malabry, Ecole centrale de Paris, 2011. http://tel.archives-ouvertes.fr/tel-00677439.

Full text
Abstract:
Cette thèse étudie le transfert de chaleur par rayonnement observé dans les conditions d'écoulement raréfié, en régime hypersonique qui seraient rencontrés au cours d'une mission d'aérocapture dans l'atmosphère de Titan. Des estimations précises du rayonnement hors-équilibre dans des écoulements à grande vitesse tels que ceux autour des corps de re-entrée, sont indispensables pour la conception de systèmes de protection thermique plus efficace. Parce que la masse du système de protection thermique est une fraction importante de la masse totale du véhicule, il ya un grand intérêt dans la conception de systèmes plus légers et plus efficaces. Les expériences en vol sont coûteuses et contraignantes, c'est pourquoi l'essai en laboratoire dans des installations capables de produire des écoulements hypersoniques est nécessaire. Malheureusement, les échelles de longueur généralement impliquées dans les expériences en vol sont trop grandes pour être testées dans des installations expérimentales et donc des modèles réduits de véhicules 'aeroshells' sont généralement testés. Les tubes d'expansion de l'université de Queensland - X1, X2 et X3 - ont été largement utilisés pour la modélisation à l'échelle réduite des écoulements hypersoniques (Morgan 2001). Pour les installations d'essais au sol telle que la soufflerie X2, une mise à l'échelle binaire est utilisée pour tester des modèles à échelle réduite de véhicules de vol, ce qui constitue le paramètre le plus important à respecter afin de reproduire un vol à haute vitesse. La mise à l'échelle binaire, appelé aussi 'mise à l'échelle 'ƒÏL', exige que le produit de la densité et de la longueur caractéristique du véhicule soit conservé entre le vol et les conditions expérimentales. Toutefois, il a été montré par Capra (2007) que le transfert de chaleur par rayonnement ne suit pas cette même loi de mise à l'échelle, et la similitude n'est pas crée pour les cas en vol où le transfert de chaleur par rayonnement et par convection sont fortement couplés. Cela peut entraîner d'importantes erreurs dans les estimations des propriétés d'écoulement associée et l'estimation du transfert de chaleur due au rayonnement. L'installation X2 a été modifiée en 2006 pour permettre l'expérimentation à basse pression en mode tube à choc non-réfléchi. L'utilisation d'un tube à choc non-réfléchi a permis la mesure du transfert de chaleur par rayonnement à la densité réelle en vol et supprimé les problèmes d'échelle liés à la mesure des rayonnements sur les véhicules en modèle réduit, au moins pour une partie de l'écoulement. Des mesures ont été effectuées dans la région immédiatement située derrière le choc et le long de la ligne médiane de l'écoulement de base, où le choc reste plan. Les écoulements externes, tels que ceux entourant une capsule de re-enntrée, n'ont pas été reproduits. La limite de basse pression d'exploitation était d'environ 10 Pa, limitée par la croissance de la couche limite sur les murs
APA, Harvard, Vancouver, ISO, and other styles
22

Yang, Yao-Hua. "Croissance du silicium polycristallin à basse température assistée par laser excimère : caractérisation in-situ par ellipsométrie." Grenoble INPG, 1987. http://www.theses.fr/1987INPG0139.

Full text
Abstract:
La croissance assistee par laser est un nouveau procede d'elaboration de si polycristallin a basse temperature (350**(o)c). Plusieurs aspects concernant l'etude de cette croissance par ellipsometrie en temps reel sont abordes : description du dispositif experimental, partie theorique analysant l'evolution du systeme laser/semiconducteur et les interactions mises en jeu, caracterisation de la croissance par l'ellipsometre rapide. Proposition d'un modele de croissance tenant compte des effets photoniques et thermiques dus a l'excitation laser. La relaxation du materiau au cours de la croissance est mise en evidence par l'ellipsometrie spectroscopique
APA, Harvard, Vancouver, ISO, and other styles
23

Fayolle, Gérard. "Conceptions et applications de circuits à mémoire de courant basse tension." Grenoble 1, 1998. http://www.theses.fr/1998GRE10151.

Full text
Abstract:
Ce travail presente deux circuits bases sur les memoires de courant. Les applications developpees sont capables de travailler avec des alimentations en tension de 3v et moins. Pour ces realisations, il a ete necessaire de developper a la fois de nouvelles memoires de courants ainsi que des architectures originales pour repondre a tous les criteres des cahiers des charges. La premiere realisation est un fir pour une application video dont la fonction est, en sortie d'un filtre continu, d'y transferer une partie des contraintes de rejection. La phase lineaire que presente ce type de filtre se prete parfaitement bien a cette application tres sensible au delai de groupe. L'architecture developpee utilise un adressage cyclique qui permet de fortement reduire les degradations engendrees par les memoires de courant tout en conservant la dynamique. Le deuxieme circuit est un modulateur sigma-delta d'ordre 2 dont les performances requises sont une resolution superieure a 12 bits dans la bande 300-3400 hz, une surface d'integration reduite et une faible consommation. Pour arriver a obtenir la precision necessaire avec la faible tension d'alimentation, une nouvelle memoire a ete developpee. Sa particularite est d'utiliser un transistor de memorisation en zone triode qui lui confere une grande linearite. Elle laisse esperer des resultats en terme de linearite et de resolution proche de 14 bits.
APA, Harvard, Vancouver, ISO, and other styles
24

Bidouche, Badr-El-Boudour. "Étude et réalisation d’une machine asynchrone basse vitesse à réducteur magnétique intégré." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0228.

Full text
Abstract:
Nous nous proposons dans ce travail d’étudier un entrainement par moteur à induction à rotor bobiné intégrant un réducteur de vitesse magnétique qui constitue la MaGIM « Magnetically Geared Induction Machines ». L’objectif est d’améliorer la fiabilité et les performances du système classique associant une machine asynchrone (MAS) à un réducteur mécanique (broyeur, concasseur…), la machine étant alimentée directement par le réseau. Nous dimensionnons un prototype MaGIM de 1 kW - 45 tr/min fonctionnant sur le réseau à 400 V/50 Hz en utilisant des outils de calculs analytiques et numériques permettant de prédire les performances électromagnétiques du dispositif. Nous présentons dans le premier chapitre un état de l’art des différents engrenages magnétiques étudiés depuis le 20ème siècle jusqu'à nos jours. Les différentes structures et topologies étudiées sont recensées. Compte tenu de sa complexité, nous avons modéliser la machine asynchrone et le réducteur de vitesse magnétique séparément, dans le chapitre II. Un modèle théorique de la machine prenant en compte les aspects électromagnétiques et thermiques a été développé pour obtenir un dimensionnement acceptable suivant un cahier des charges précis. Nous avons présenté les performances électromagnétiques du système obtenu ainsi que les calculs thermiques effectués par une méthode nodale. Le fonctionnement en régime transitoire de la machine par l’établissement d’un modèle analytique regroupant les équations mécaniques de la machine asynchrone et de l’engrenage magnétique a été présenté au chapitre III. Ce modèle nous a permis de déterminer les performances de la MaGIM lors d’un démarrage direct sur le réseau. Nous avons pu constater que la MaGIM peut démarrer sur le réseau sous pleine tension et que ce démarrage est fortement dépendant du moment d’inertie Jl. Cette étude nous a permis de mettre en évidence le phénomène de décrochage de la MaGIM et la particularité des engrenages magnétique à se protéger contre les surcharges. Dans le dernier chapitre, nous avons présenté la réalisation du prototype 1 kW, fonctionnant sur le réseau 400 V/ 50 Hz et délivrant 210 Nm en sortie à environ 50 tr/min. Le prototype a été réalisé dans l’atelier mécanique de VEDECOM - Mobilab. Des essais expérimentaux ont été effectués à l’issue de la réalisation dans le but de les comparer aux résultats théoriques et aussi de valider le concept de la MaGIM
We propose in this work to study a wound rotor induction motor integrating a magnetic gear which constitutes the MaGIM " Magnetically Geared Induction Machines ". The aim is to improve the reliability and the performances of the classical system associating an induction machine (MAS) with a mechanical reducer (mill, crusher...), the machine being fed directly by the network. Therefore, we designed a MaGIM prototype of 1 kW - 45 rpm operating on the grid at 400 V/50 Hz using analytical and numerical calculation tools to predict the electromagnetic performances of the device. In the first chapter, we present a state of the art of the different magnetic gears studied from the 20th century to the present day. The different structures and topologies studied are listed. Given its complexity, we have modelled the induction machine and the magnetic gear separately, in chapter II. A theoretical model of the machine taking into account the electromagnetic and thermal aspects has been developed in order to obtain an acceptable design according to precise specifications. We have presented the electromagnetic performance of the system obtained as well as the thermal calculations carried out using a nodal method. The transient operation of the machine by establishing an analytical model including the mechanical equations of the induction machine and the magnetic gear was presented in chapter III. This model allowed us to determine the performance of the MaGIM during a direct start on the network. We have seen that the MaGIM can start on the mains under full voltage and that this starting is strongly dependent on the moment of inertia Jl. This study allowed us to highlight the stall phenomenon of the MaGIM and the particularity of magnetic gears to protect themselves against overloads. In the last chapter, we presented the realization of the 1 kW prototype, operating on the 400 V/ 50 Hz network and delivering 210 Nm output at about 50 rpm. The prototype was produced in the mechanical workshop of VEDECOM - Mobilab. Experimental tests were carried out at the end of the realization in order to compare them with the theoretical results and also to validate the concept of the MaGIM
APA, Harvard, Vancouver, ISO, and other styles
25

Binot, Ferréol. "Modélisation et estimation de paramètres des réseaux de distribution basse tension." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST024.

Full text
Abstract:
Le développement des nouveaux usages, poussé par des exigences de transition énergétique, principalement sur les réseaux basse tension (BT) nécessite de développer des outils toujours plus innovants de conduite et de planification des réseaux. Le développement de ces nouveaux outils nécessite une très bonne connaissance de l’état et des paramètres réels des réseaux BT. Les travaux de cette thèse se focalisent donc sur le développement d’algorithmes d’estimation d’état (EE) et de paramètres (EP) dédiés aux réseaux BT.Pour mener à bien le développement de ces algorithmes, nous avons amélioré la caractérisation et la modélisation des câbles BT en prenant en compte l’impact des paramètres extérieurs sur la matrice d’impédance et sur le plan de tension. Ce modèle utilise la matrice d’impédance 4×4 et prend en compte les résistances de mise à la terre. Cette étude servira de brique de base pour les deux algorithmes.L’algorithme d’EE s’appuie sur l’algorithme des WLS et de la méthode de la matrice augmentée. Pour son développement, nous avons adapté ses grandeurs pour qu’elles prennent en compte les particularités des réseaux BT. Cet algorithme permet d’obtenir une précision accrue du plan de tension (incluant la tension neutre-terre) du réseau et donne de résultats précis même en cas d’erreurs ou de suppressions de mesure. L’algorithme va permettre d’améliorer la conduite des réseaux BT. L’algorithme d’EP, qui s’appuie sur l’algorithme du vecteur augmenté, permet d’estimer à la fois les longueurs des liaisons mais aussi directement les conditions extérieures (température du conducteur). Cet algorithme permet ainsi de corriger les données présentes dans les systèmes d’information géographique et de parfaitement connaître la topologie du réseau. Ainsi, la planification et la conduite des réseaux BT seront plus aisées même avec le développement des nouveaux usages
The development of new uses, driven by energy transition requirements, mainly on low-voltage (LV) networks, requires the development of more innovative tools for network management and planning. The development of these new tools requires a very good knowledge of the actual state and parameters of LV networks. The work of this thesis focuses on the development of state (SE) and parameter (PE) estimation algorithms dedicated to LV networks.To carry out the development of these algorithms, we have improved the characterization and modelling of LV cables by taking into account the impact of external parameters on the impedance matrix and the voltage profile. This model uses the 4×4 impedance matrix and takes into account the earthing resistances. This study will serve as a building block for both algorithms.The SE algorithm is based on the WLS algorithm and the augmented matrix method. For its development, we have adapted its quantities by taking into account the particularities of LV networks. This algorithm allows to obtain an increased accuracy of the network voltage profile (including the neutral to earth voltage) and gives accurate results even in case of errors or suppressed measurements. The algorithm will improve the operation of LV networks. The PE algorithm, which is based on the augmented vector algorithm, estimates both the lengths of the links and also directly the external conditions (conductor temperature). Thus, this algorithm corrects the data present in geographical information systems and gives a perfect knowledge of the network topology. The planning and operation of LV networks will be easier even with the development of new uses
APA, Harvard, Vancouver, ISO, and other styles
26

Sourovtsev, Nikolay. "Modes de relaxation et de vibration basse fréquence dans les polymères vitreux : étude par diffusion Raman." Lyon 1, 1996. http://www.theses.fr/1996LYO10105.

Full text
Abstract:
La diffusion inelastique basse frequence a ete etudiee experimentalement dans plusieurs verres polymeriques: poly(methyle methacrylate) (pmma), polycarbonate (pc) et poly(styrene) (ps). Les resultats suivants ont ete obtenues: 1). Il est montre que le temps de relaxation est soit independant (pc, ps), soit tres peu dependant (pmma) de la temperature. 2). Le nombre d'unites relaxantes, responsables de la diffusion quasi-elastique, augmente fortement avec la temperature. 3). Il est trouve que l'augmentation du nombre de monomeres dans le verre de pmma, apres traitement thermique, est suivi d'une augmentation de la diffusion quasi-elastique. Il est montre qu'il existe une relation lineaire entre l'intensite de la diffusion quasi-elastique et la concentration en monomeres. 4). Un modele interpretant le comportement experimental de la diffusion quasi-elastique est propose. Il utilise le concept de volume libre
APA, Harvard, Vancouver, ISO, and other styles
27

Aumont, Bernard. "Modelisation de la chimie de la basse troposphere continentale developpement et tests d'un modele chimique condense." Paris 7, 1994. http://www.theses.fr/1994PA077005.

Full text
Abstract:
Cette etude presente l'elaboration d'un modele chimique adapte a la simulation numerique des processus rencontres dans la basse troposphere continentale, notamment de la chimie des photoxydants. Elle porte principalement sur la simplification des schemas cinetiques. L'approche developpee consiste a prendre pour reference un schema hautement detaille, gerant la degradation de douze especes primaires representatives. L'impact des condensations et la coherence des simplifications ont ete evalues par reference au schema detaille. Une description de la chimie atmospherique est tout d'abord presentee: formation de l'ozone, sensibilite du systeme a la concentration en nox, role central de la chimie des peroxyles. Puis l'elaboration du schema detaille de reference (657 reactions, 174 especes) est exposee et discutee en detail. Quatre etapes successives de condensation sont appliquees a ce schema: regroupement des radicaux peroxyles a travers le concept d'operateurs chimiques, perte de l'information sur la classe des radicaux peroxyles, regroupement des especes organiques secondaires sous des especes modele et, enfin, simplification sur de simples criteres cinetiques. Les tests effectues montrent que le modele simplifie (150 reactions, 71 especes) reste representatif pour le traitement de la plupart des situations rencontrees dans la basse troposphere continentale, les erreurs enregistrees pour les principales especes etant inferieures a 10% jusqu'a des concentrations de no de l'ordre de 50 ppt. La derniere partie presente l'elaboration d'un modele chimique operationnel pour l'etude de cas concrets. L'application des simplifications testees permet une gestion detaillee tres simple de chaque hydrocarbure primaire: une espece (l'hydrocarbure considere) et une reaction par type d'initiation. Cet aspect confere au mecanisme une grande souplesse, et permet de rapides adaptations d'une situation a l'autre
APA, Harvard, Vancouver, ISO, and other styles
28

Nouvelière, Lydie. "Commandes robustes appliquées au contrôle assisté d'un véhicule à basse vitesse." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS0023.

Full text
Abstract:
Cette thèse s'inscrit dans un contexte d'automatisation à basse vitesse des véhicules. La congestion du trafic péri-urbain représente quotidiennement un véritable fléau pour les conducteurs car les temps de parcours sont fortement augmentés malgré des distances parcourues souvent courtes. L'automatisation à basse vitesse permet alors d'homogénéiser le trafic tout en garantissant un temps de parcours moindre et contribue aussi à la réduction de la tâche du conducteur. Cette étude s'inscrit dans un contexte de sécurité et de confort. L'analyse de la congestion est effectuée en termes d'inter-distance et de vitesse du véhicule. Des mesures sur les autoroutes parisiennes ont été relevées et renseignent sur la façon dont le conducteur gère la distance et le temps inter-véhiculaires en fonction de sa vitesse. Un modèle paramétrique de l'inter-distance est développé, les paramètres étant estimés par filtrage de Kalman. L'intérêt est alors de générer des consignes réalistes pour la commande de véhicule. A partir du modèle de véhicule (modèles d'analyse et synthèse de lois de commande pour une approche pluridisciplinaire automatique et transport), des commandes robustes non-linéaires sont synthétisées (Modes glissants d'ordre 1 et 2, Contrôle optimal) et adaptées au véhicule. Des simulations permettent de déterminer les résultats obtenus avec de tels systèmes, pour un contrôle autonome ou coopératif, en individuel ou en file. L'utilisation d'une technique de séquencement de gain associée à une commande Hinfini par loop-shape permet le contrôle latéral du véhicule à des vitesses différentes, en changement de voie et suivi de voie. Finalement, un véhicule équipé pour une conduite partagée entre conducteur et automate permet de tester plusieurs scénarii de contrôle longitudinal à basse vitesse. Ils ont été validés en temps réel au cours du congrès IEEE Intelligent Vehicle IV2002 (suivi à basse vitesse, stop and go, arrêt sur obstacles,. . . )
This work deals with low speed automated vehicles. The peri-urban traffic congestion daily represents a real problem for the drivers because the travel time is strongly increased in spite of often short covered distances. Low speed automation then allows to homogenize the traffic while guaranteeing a shorter travel time and also contributes to the reduction of the driver's task. Safety and comfort are thus two main criteria. Congestion analysis is carried out in terms of inter-distance and speed of the vehicle. Measurements on the Parisian motorways were collected and inform about the way the driver manages the inter-vehicular distance and time according to the speed. A parametric model of the inter-distance is developed, the parameters being estimated by a Kalman filtering procedure. The interest is then to generate realistic desired inputs for vehicle control. From vehicle model (models for analysis and synthesis of control laws for a multi-field approach : automatic and transport), robust non-linear control laws are synthesized (1 and 2-order sliding mode control, optimal control) and are adapted to the road vehicle. Simulations permit to determinate the results obtained with such systems, for an autonomous or co-operative control, for individual control or platooning. The use of a technique of gain scheduling associated with a loop-shaping procedure based Hinfini method allows lateral control of vehicle at different speeds, in lane change or lane keeping aneuvers. Finally, an equipped vehicle for a shared control between driver and automat permits to test several scénarii of longitudinal control at low speed. They were validated in real time during the IEEE Intelligent Vehicle IV2002 congress (low speed car-following, stop and go, stop on obstacles. . . )
APA, Harvard, Vancouver, ISO, and other styles
29

Simon-Muela, Adan. "Architectures de convertisseurs DC/DC basse tension et fort courant avec commande numérique." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/375/.

Full text
Abstract:
La consommation de puissance des microprocesseurs embarqués ne cesse d'augmenter avec la multiplication des fonctions qu'ils doivent assurer. De plus, la réduction des dimensions des technologies en tout point, l'augmentation du nombre de transistors et leur fréquence de commutation sont de nouvelles contraintes à prendre en compte comme besoins spécifiques de consommation. Ainsi, les générations actuelles de microprocesseurs ont une forte consommation en courant sous une très faible tension (autour du volt) avec des transitoires contraignants proches de 500A/µs. Pour répondre aux sévères exigences énergétiques d'alimentation, les concepteurs de systèmes doivent placer le ou les convertisseurs DC-DC au plus près de la charge (convertisseurs nommés Point-of-Load) pour réduire les pertes de transmission et optimiser le transfert de l'énergie. Ces PoL placés au plus près de chaque circuit intégré à alimenter, sont à l'origine des architectures distribuées d'alimentation avec un ou plusieurs bus de tension intermédiaires les alimentant. Cette thèse est consacrée à la conception de PoL dédiés allant jusqu'à leur asociabilité pour augmenter les niveaux de courant délivrés à chaque charge. Le cahier des charges qui sert de référence de validation est celui des alimentations rapprochées des cartes mères des PC où régulateurs de tension (VRMs) qui englobent fort courant et faible tension de sortie ainsi que haute fréquence de découpage. A cet effet, les architectures entrelacées ou multi-phase sont une bonne alternative pour atteindre ces niveaux énergétiques si rigoureux. Traditionnellement, ces types de systèmes d'alimentation sont contrôlés avec une commande analogique. Cependant, les nouvelles générations de microprocesseurs exigent des performances plus élevées en même temps qu'une régulation plus précise. Alors, la commande classique analogique est de plus en plus remplacée par une commande numérique plus flexible et plus performante. Cette thèse s'intègre dans le cadre du projet régional LISPA où le LAAS et Freescale Semiconductor collaborent pour développer de nouveaux systèmes d'alimentations pour microprocesseurs de puissance
The power consumption of embedded microprocessors has significantly increased due to the considerable number of new functions which they should manage currently. Furthermore, the present reduction of the lithographical dimensions and the augment of the number of transistor and their switching frequency are new constraints to consider from the point of view of power supply requirements. Thus, current generation of microprocessors needs considerable supply currents with very low voltages (around 1V). Moreover, the required slew-rates are also important (500A/µs). Then, to achieve these strict power supply levels, the main design trend is to place the power converter as close as possible to the load to minimize the transmission losses and to optimize the power matching. This concept is know as Point-of-Load converters which allows designers to obtain distributed power supply architectures using one or more intermediate common voltage bus supplying several ICs. The aim of this dissertation is to study these DC/DC PoL converters and their association to increase the current supply levels delivered to the charge. Hence, our PoL converters are mainly based on those used as voltage regulators modules (VRMs) owning high-current, low-voltage and high switching frequency. These VRMs serves as power supply systems oriented to embedded microprocessors like those we can find inside PC motherboards. Referring VRMs, interleaved or multiphase architectures are preferred to achieve these strict supply powers. Traditionally, this kind of power supplies owns analog control. However, new microprocessors generation demands faster performances and more accurate and tight regulations. Thus, the present trend is to replace the classical analog control by a digital control system more flexible and performing likewise. Then, this dissertation takes part in the LISPA regional project where the LAAS and Freescale Semiconductor collaborate to develop new power supply systems for embedded power microprocessors
APA, Harvard, Vancouver, ISO, and other styles
30

Astargo, Quiroz Sebastián Enrique. "Estudio del proceso de adopción de nuevas opciones financieras y sus retornos." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144604.

Full text
Abstract:
Magíster en Economía Aplicada. Ingeniero Civil Industrial
La dinámica de los procesos de adopción de innovaciones financieras ha sido de interés durante los últimos años ya que cada vez aparecen nuevos instrumentos que buscan aportar alternativas de inversión o protección al mercado. El presente trabajo busca caracterizar, a través del modelo de Bass, el proceso de adopción de nuevas opciones financieras, cuando por primera vez una acción es elegible como subyacente de dichas opciones, y ver qué aspectos del subyacente pueden dar indicios sobre este comportamiento a futuro, buscando un grado de predictibilidad. Es así como se encuentra que tanto calls como puts son adoptadas en el mercado en forma similar, mientas que pasa el tiempo las puts se adoptan más rápido, pero las calls prometen llegar a mayores niveles de transacción y liquidez. Además, se encuentra que se llegará a mayor liquidez de nuevas opciones o que tendrán un crecimiento más rápido, vista desde el dollar volume, a través de stocks con mayores dollar volume tanto de largo plazo como corto plazo, aunque con mayor crecimiento de ésta en el corto plazo, y además con mayor volatilidad histórica. Mientras que sería conveniente evitar stocks con alto dollar volume y ratio bid-ask en el largo plazo, pero bajo en el corto plazo, y también tener presente las condiciones de tasas de interés para decisiones al margen de comprar el stock, ya que adquirir calls sería una buena alternativa, y los índices de ventas cortas dado que es posible recrear una a través de opciones. Agregando a lo anterior, se estudiaron los retornos de estas nuevas opciones, encontrando que hay diferencias importantes entre los retornos de opciones recién introducidas al mercado y aquellas que se tranzan desde al menos ya 3 años, mientras que tienen un mismo perfil de riesgo y que según la teoría deberían tener los mismos retornos, además se probó para distintos portafolios, lo que daría evidencia de que nuevas opciones recargan algún riesgo adicional en sus retornos.
APA, Harvard, Vancouver, ISO, and other styles
31

Raoul, Jérôme. "Utilisation d'un panel SNPs très basse densité dans les populations en sélection de petits ruminants." Thesis, Toulouse, INPT, 2017. http://www.theses.fr/2017INPT0128/document.

Full text
Abstract:
Les programmes de sélection visent à produire des reproducteurs de bonnes valeurs génétiques pour la filière. La connaissance de marqueurs moléculaires du génome des individus et de mutations d’intérêt ouvrent des perspectives en termes d’organisation de la sélection. A l’aide de simulations déterministes et stochastiques, l’intérêt technique et économique de l’utilisation d’un panel de marqueurs moléculaires très basse densité a été évalué dans les populations ovines et caprines en sélection et permis d’obtenir les résultats suivants : i) utiliser un tel panel pour accroître, quand elle est limitée, la quantité de filiations paternelles n’est pas toujours rentable, ii) la stratégie de gestion des gènes d’ovulation qui maximise la rentabilité économique du plan de sélection a été déterminée par optimisation et des stratégies simples à implémenter, qui donnent des rentabilités proches de la rentabilité maximale, ont été proposées, iii) un programme de sélection génomique basé sur un panel très basse densité, permet à coût constant une efficacité supérieure aux programmes basés actuellement sur le testage sur descendance des mâles
Breeding programs aim to transfer high genetic value breeding stock to the industry. The knowledge of molecular markers of individual’s genome and causal mutations allow to conceive new breeding program designs. Based on deterministic and stochastic simulations, the technical and economic benefits of using a very low density molecular markers panel were assessed in sheep and goat populations. Following results were obtained: i) using such a panel to increase female paternal filiations in case of incomplete pedigree is not always profitable, ii) a method of optimization has been used to derive the maximal profits of managing ovulation genes, and practical management giving profits close to the maximal profits have been determined, iii) at similar cost, a genomic design based on a very low density panel is more efficient than the current design based on progeny testing
APA, Harvard, Vancouver, ISO, and other styles
32

Kezibri, Nouaamane. "Etude dynamique du procédé de production de méthane à partir d’hydrogène électrolytique basse température." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM056/document.

Full text
Abstract:
Ce travail s’inscrit dans le cadre de l’étude d’un système de stockage et de restitution des surplus d’énergie électrique de sources renouvelables. L’objectif de l’étude est d’évaluer la capacité du concept à absorber l’intermittence de la production électrique à travers l’analyse de la flexibilité des procédés choisis. En phase de stockage, l’unité utilise un procédé d’électrolyse basse température à membrane échangeuse de proton (PEM) pour produire l’équivalent de 200 MW d’hydrogène. Ce gaz sera combiné au dioxyde de carbone dans une série de réacteurs de méthanation pour former l’équivalent de 155 MW de substitut de gaz naturel. La phase de déstockage est réalisée au sein d’un cycle d’oxy-combustion d’une puissance installée de 480 MW. Ce cycle permet de restituer l’énergie contenue dans les gaz stockés et de produire le CO2 requis pour le procédé de méthanation. L’étude énergétique en régime stationnaire de cette installation montre que l’efficacité du procédé d’électrolyse atteint 69,3%, celle du procédé de méthanation 82,2% et celle du cycle d’oxy-combustion 51,8% sur PCS. L’analyse en régime transitoire de la phase Power-to-Gas permet d’identifier les stratégies de contrôle adaptées aux variations temporelles de conditions opératoires. Ces stratégies visent à permettre au système de couvrir des plages de fonctionnement plus larges et d’absorber plus de puissance électrique. Il s’est avéré que la production du méthane de synthèse peut s’étendre sur des plages de fonctionnement allant de 48% à 100% de la puissance nominale sans aucun apport énergétique extérieur. Le cas d’étude réalisé pour le couplage de l’unité avec un parc éolien de 300 MW permet d’évaluer les performances du Power-to-Gas en fonction de la variation de la source électrique
The present work deals with the conceptual study and process design of a storage and recovery unit for renewable energy. The suggested concept is able to absorb the intermittency of the electrical production as a result of the flexibility of the chosen processes. During the storage phase, the unit uses a Proton Exchange Membrane electrolysis system to produce 200 MW of hydrogen, which will then be combined to carbon dioxide in a series of methanation reactors to generate up to 155 MW of Substitute Natural Gas. The recovery phase is carried out in a 480 MW oxy-combustion cycle which is not only able to restore the electrical energy but also provides the required carbon dioxide for the methanation process. The conducted steady state evaluation as well as the sensitivity analysis for the studied plant showed that the overall efficiency on HHV basis can reach up to 69.3% for the electrolysis process, 82.2% for the methanation process and 51.8% for the oxy-combustion cycle. The follow-up unsteady state analysis of the Power-to-Gas process aimed to identify the necessary control strategies adapted to operating conditions variation over time. Such strategies should enable the system to cover a wider load range and subsequently absorb more electrical power. It was found that, by making the right adjustments, the production of synthetic methane can be fulfilled at ranges between 48% and 100% of the nominal power without any external energy requirement. A case study was carried out where the unit was coupled with a 300 MW wind to assess the performance of the Power-to-Gas process under fluctuating electrical source conditions
APA, Harvard, Vancouver, ISO, and other styles
33

Revelant, Alberto. "Modélisation, simulation et caractérisation de dispositifs TFET pour l'électronique à basse puissance." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT022.

Full text
Abstract:
Dans les dernières années, beaucoup de travail a été consacré par l’industrie électronique pour réduire la consommation d’énergie des composants micro-électroniques qui représente un fardeau important dans la spécification des nouveaux systèmes.Afin de réduire la consommation d’énergie, nombreuses stratégies peuvent être adoptées au niveau des systèmes micro-électroniques et des simples dispositifs nano-électroniques. Récemmentle Transistor Tunnel `a effet de champ (Tunnel-FET) s’est imposé comme un candidat possible pour remplacer les dispositifs MOSFET conventionnels pour applications de tr`es basse puissance à des tensions d’alimentation VDD < 0.5V. Nous présentons un modèle Multi-Subband Monte Carlo modifié (MSMC) qui a été adapté pour la simulation de TFET Ultra Thin Body Fully Depleted Seminconductor on Insulator (FDSOIUTB) avec homo- et hétéro-jonctions et des matériaux semi-conducteurs arbitraires. Nous prenons en considération la quantification de la charge avec une correction quantique heuristique mais précise, validée via des modèles quantiques complets et des résultats expérimentaux.Le modèle MSMC a été utilisé pour simuler et évaluer la performance de FD-SOI TFET sidéealisées avec homo- et hétéro-jonction en Si, alliages SiGe ou composés InGaAs. Dans la deuxième partie de l’activité de doctorat un travail de caractérisation à basse températurea été réalisé sur les TFETs en Si et SiGe homo- et hétéro-jonction fabriqués par le centre de recherche français du CEA -LETI. L’objectif est d’estimer la présence de l’effet Tunnel comme principal mécanisme d’injection et la contribution d’autres mécanismes d’injection comme le Trap Assisted Tunneling
In the last years a significant effort has been spent by the microelectronic industry to reducethe chip power consumption of the electronic systems since the latter is becoming a majorlimitation to CMOS technology scaling.Many strategies can be adopted to reduce the power consumption. They range from thesystem to the electron device level. In the last years Tunnel Field Effect Transistors (TFET)have imposed as possible candidate devices for replacing the convential MOSFET in ultra lowpower application at supply voltages VDD < 0.5V. TFET operation is based on a Band-to-BandTunneling (BtBT) mechanism of carrier injection in the channel and they represent a disruptiverevolutionary device concept.This thesis investigates TFET modeling and simulation, a very challenging topic becauseof the difficulties in modeling BtBT accurately. We present a modified Multi Subband MonteCarlo (MSMC) that has been adapted for the simulation of Planar Ultra Thin Body (UTB)Fully Depleted Semiconductor on Insulator (FD-ScOI) homo- and hetero-junction TFET implementedwith arbitrary semiconductor materials. The model accounts for carrier quantizationwith a heuristic but accurate quantum correction validated by means of comparison with fullquantum model and experimental results.The MSMC model has been used to simulate and assess the performance of idealized homoandhetero-junction TFETs implemented in Si, SiGe alloys or InGaAs compounds.In the second part of the thesis we discuss the characterization of TFETs at low temperature.Si and SiGe homo- and hetero-junction TFETs fabricated by CEA-LETI (Grenoble,France) are considered with the objective to identify the possible presence of alternative injectionmechanisms such as Trap Assisted Tunneling
Negli ultimi anni uno sforzo significativo `e stato speso dall’industria microelettronica per ridurreil consumo di potenza da parte dei sistemi microelettronici. Esso infatti sta diventando unadelle limitazioni pi`u significative per lo scaling geometrico della tecnologia CMOS.Diverse strategie possono essere adottate per ridurre il consumo di potenza considerando ilsistema microelettronico nella sua totalit`a e scendendo fino a giungere all’ottimizzazione delsingolo dispositivo nano-elettronico. Negli ultimi anni il transistore Tunnel FET (TFET) si`e imposto come un possibile candidato per rimpiazzare, in applicazioni a consumo di potenzaestremamente basso con tensioni di alimentazione inferiori a 0.5V, i transistori convenzionaliMOSFET. Il funzionamento del TFET si basa sul meccanismo di iniezione purament quantisticodel Tunneling da banda a banda (BtBT) e che dovrebbe permettere una significativa riduzionedella potenza dissipata. Il BtBT nei dispositivi convenzionali `e un effetto parassita, nel TFETinvece esso `e utilizzato per poter ottenere significativi miglioramenti delle performance sottosogliae pertanto esso rappresenta una nuova concezione di dispositivo molto innovativa erivoluzionaria.Questa tesi analizza la modellizazione e la simulazione del TFET. Questi sono argomenti moltocomplessi vista la difficolt`a che si hanno nel modellare accuratamente il BtBT. In questo lavoroviene presentata una versione modificata del modello di trasporto Multi Subband Monte Carlo(MSMC) adattato per la simulazione di dispositivi TFET planari Ultra Thin Body Fully DepletedSilicon on Insulator (UTB FD-SOI), implementati con un canale composto da un unicosemiconduttore (omogiunzione) o con differenti materiali semiconduttori (eterogiunzione). Ilmodello proposto tiene il conto l’effetto di quantizzazione dovuto al confinamento dei portatoridi carica, con un’euristico ma accurato sistema di correzione. Tale modello `e stato poivalidato tramite una comparazione con altri modelli completamente quantistici e con risultatisperimentali.Superata la fase di validazione il modello MSMC `e utilizzato per simulare e verificare le performancedi dispositivi TFET implementati come omo o eterogiunzione in Silicio, leghe SiGe,o composti semiconduttori InGaAs.Nella seconda parte della tesi viene illustrato un lavoro di caratterizazione di TFET planari abassa temperatura (fino a 77K). Sono stati misurati dispositivi in Si e SiGe a omo o eterogiuzioneprodotti nella camera bianca del centro di ricerca francese CEA-LETI di Grenoble. Tramite talimisure `e stato possibile identificare la probabile presenza di meccanismi di iniezione alternativial BtBT come il Tunneling assistito da trappole (TAT) dimostrando come questo effetto `e,con ogni probabilit`a, la causa delle scarse performance in sottosoglia dei dispositivi TFETsperimentali a temperatura ambiente
APA, Harvard, Vancouver, ISO, and other styles
34

Molina, Alessandra Eira Iague Sleiman. "Avaliação da utilização de um programa computadorizado para aplicação da escala de Basso, Beattie e Bresnahan (BBB) em ratos Wistar." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/5/5140/tde-19122012-101922/.

Full text
Abstract:
A escala de Basso, Beattie e Brenahan (BBB) serve para avaliação da recuperação locomotora em ratos com lesão medular nos níveis torácicos. É baseada em critérios observacionais da movimentação do animal durante a marcha e atribui uma pontuação de 0 a 21 segundo a gravidade da lesão neurológica. Menor pontuação, maior gravidade. Tal escala pode ser aplicada de modo livre, em que o pesquisador observa o rato e emite uma nota; pode ser aplicada de modo dirigido, em que o pesquisador segue uma sequência de perguntas pré-estabelecidas e atribui uma nota; ou de modo automatizado, em que as respostas à mesma sequência de perguntas são fornecidas a um programa de computador, que emitirá uma nota com o grau de lesão. Trabalhos já publicados mostram que existe variação interobservadores na aplicação desta escala. O objetivo do trabalho foi avaliar a utilização de um programa de computador para auxiliar os pesquisadores na atribuição de notas na aplicação da escala BBB e comparar as notas obtidas por esses pesquisadores quando o fazem de modo livre, dirigido e utilizando um programa automatizado. Para testar o programa, foi realizada lesão medular padronizada em 12 ratos Wistar utilizando-se metodologia da New York University - Impactor System. Na sequência, filmou-se a movimentação dos ratos para aplicação da escala BBB no 28o dia. Foram convocados oito pesquisadores do laboratório de estudos de trauma raquimedular da Universidade de São Paulo. As avaliações de dois chefes do laboratório, com 15 anos de experiência na aplicação da escala, foram consideradas o padrão ouro na avaliação. Seis pesquisadores receberam as filmagens dos ratos com o objetivo de aplicar a escala BBB nas três metologias: livre, dirigida e automatizada, com 15 dias de intervalo entre as avaliações. A ordem da aplicação da escala foi randomizada entre os pesquisadores e a ordem dos ratos, nas análises das filmagens, também foi variada para evitar a memorização por parte dos pesquisadores. Os resultados interavaliadores e entre os métodos mostraram-se similares. A comparação dos resultados entre os seis pesquisadores e os dois considerados padrão ouro mostrou diferença para dois pesquisadores nos métodos livre e dirigido. Concluiu-se que a aplicação da escala BBB pelo modo automatizado não apresentou diferença em relação ao padrão ouro para todos os avaliadores, e que, quando feita pelo modo livre, dirigido e automatizado, não apresentou diferença em relação ao padrão ouro, considerando a média dos avaliadores em cada método
The BBB is an evaluation scale in the locomotor recovery in rats presenting thoracic medullar injury. It is based on observation criteria of animal movement while walking, and a provides a score ranging from 0 to 21 according to the severity of the neurological injury. The lower the score, the higher the severity. Such scale can be applied by using a free system of analysis, that is, when the researcher observes the rat and gives a score. The evaluation can also be made in an assisted way, where the researcher follows a series of pre-established questions and then gives a score,or in an automated manner, where the answers to the same sequence of questions are provided to a computer program, which provides a score with the degree of injury. Published research shows that there is a interobserver variation in the scale application The objective of the present study was to evaluate the use of a computer program for helping researchers in the scoring by the BBB scale, and comparing these grades obtained when they are making a free evaluation, in an assisted evaluation and while using a computer program. In order to test the program, a standardized spinal cord injury was performed in 12 Wistar rats in accordance with the methodology proposed by the New York University - Impactor System. Then, the rat movements were filmed on the 28th day, so that the Basso, Bettie and Bresnahan scale could be applied. Eight researchers working in the spinal cord injury laboratory in the University of São Paulo were invited for the study. Two heads of the laboratory, with a fifteen year-experience in the usage and application of the scale, were considered to be gold standard in the evaluation. Six researchers were shown the films and asked to apply the BBB scale by the three methodologies: free, assisted and computerized, with a fifteen-day interval between evaluations. The scale application order was randomized among the researchers as well as the order of the rats in the film analysis so as to avoid memorization on the part of the researchers. Results proved to be similar between researchers and methods. The comparison of results among the six researchers and the gold standard ones showed discrepancies in two of the researchers in the free and assisted methods of analysis. It was concluded that the BBB scale evaluated through the computer method was no different than the gold standard for all the researchers. When the analysis was performed using the free, assisted and computer-assisted methods, no difference was observed in relation to the gold standard considering the mean values in each method
APA, Harvard, Vancouver, ISO, and other styles
35

Conan, Ewen. "Traitements adaptés aux antennes linéaires horizontales pour la discrimination en immersion de sources Ultra Basse Fréquence." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0016/document.

Full text
Abstract:
Les travaux présentés s'intéressent à la discrimination en immersion d'une source acoustique sous-marine monochromatique ultra basse fréquence (UBF, 0-500 Hz) à l'aide d'une antenne horizontale d'hydrophones. La discrimination en immersion consiste à déterminer si un signal reçu a été émis à proximité de la surface ou par une source immergée. Cette problématique est particulièrement intéressante pour la lutte sous-marine (discrimination entre bâtiments de surface et sous-marins) ou la biologie marine (discrimination entre espèces vocalement actives à la surface et en profondeur). Le champ acoustique généré par une source UBF peut être décomposé en modes, dont les caractéristiques dépendent de l'environnement et de la position de la source. Cette propagation modale est source de dispersion modale : les différents modes se propagent à différentes vitesses. Cela empêche d'utiliser les techniques classiques de traitement d'antenne. Cependant, l'antenne horizontale peut être utilisée comme un filtre spatial pour estimer les propriétés des différents modes : on parle alors de filtrage modal. Si l'antenne est suffisamment longue, les modes sont résolus et les modes filtrés peuvent servir à localiser la source (matched-mode processing). Dans le cas d'une antenne trop courte, les modes sont mal filtrés et la localisation est impossible. Nous cherchons donc une information moins précise mais plus robuste sur la position de la source, d'où le problème de la discrimination en immersion.Dans ces travaux, nous cherchons à exploiter les modes mal filtrés pour prendre une décision sur le caractère immergé ou non de la source. Nous proposons de baser cette décision sur la valeur estimée du taux d'énergie piégée, i.e. la proportion de l'énergie acoustique qui est portée par les modes piégés. Le problème de la discrimination est alors posé comme un test d'hypothèses binaire sur la profondeur de la source. Cette formulation physique du problème permet d'utiliser des méthodes de Monte Carlo pour prédire, à l'aide de simulations, les performances en discrimination dans un contexte donné. Cela permet de comparer diverses méthodes d'estimation du taux d'énergie piégée, et surtout de choisir un seuil auquel comparer ce taux pour décider si la source est en surface ou immergée.La méthode développée pendant la thèse est validée sur des données expérimentales marines. Les résultats alors obtenus sont cohérents avec les conclusions tirées des simulations. La méthode proposée permet notamment d'identifier avec succès une source de surface (le bruit d'un navire en déplacement) ainsi qu'une source immergée (une source UBF tractée à 30 m de profondeur), à l'aide d'une antenne horizontale de 360 m
This work focuses on acoustic source depth discrimination in the ultra-low frequency range (ULF, 0-500 Hz), using a horizontal line array. Depth discrimination is a binary classification problem, aiming to evaluate whether a received signal has been emitted by a source near the surface or by a submerged one. This could serve applications such as anti-submarine warfare or marine biology.The acoustic field generated by a ULF source can be described as a sum of modes, which properties depend on environment and source location. This modal propagation leads to modal dispersion: the different modes propagate at different velocities. This forbid the use of classical beamforming schemes. However, the horizontal array can be used as a spatial filter to estimate the properties of the modes: this is modal filtering. With a sufficient array length, modes are resolved, and the filtered modes can be used to localise the source using matched-mode processing. If the array is too short, the poorly-filtered modes cannot be used for localisation. Therefore, we are looking for a less precise but more robust information on source location, which leads to source depth discrimination.In this work, the poorly-filtered modes are used to decide whether the source is near the surface or submerged. Because some of the modes (the "trapped modes") are weakly excited by a surface source, we propose this decision relies on the estimation of the trapped energy ratio, i.e. the ratio of acoustic energy borne by trapped modes to the total acoustic energy. The problem of depth discrimination is then formulated as a binary hypothesis test on source depth. This physical formulation allows using Monte-Carlo methods and simulations to predict performance in a given context. This enables comparison between several estimators of the trapped energy ratio and the choice of a relevant threshold which this ratio is compared to in order to decide between the two hypotheses. The approach developped in the manuscript is validated by its application to marine experimental data. The results are consistent with the conclusions drawn from simulations. The proposed method enables the succesfull identification of both a surface source (the noise of a travelling ship) and a submerged source (a ULF source towed 30 m below the surface), using a 360-m horizontal array
APA, Harvard, Vancouver, ISO, and other styles
36

Grenier, Béatrice. "Etude des effets d'impuretes dans un systeme modele de basse dimensionnalite : le compose spin-peierls cugeo#3." Paris 11, 1998. http://www.theses.fr/1998PA112382.

Full text
Abstract:
Cugeo#3 est le premier systeme inorganique presentant une transition spin-peierls (sp) : en dessous de t#s#p = 14. 25 k, les chaines de spins 1/2 (ions cu) antiferromagnetiques (af) de heisenberg se dimerisent et il apparait un gap d'energie de 2 mev entre l'etat fondamental singulet (s = 0) et les premiers etats excites (triplet s = 1). Cette these presente une etude des composes cugeo#3 dopes en silicium sur le site ge et en zinc, magnesium, nickel sur le site cu, realisee sur une serie de monocristaux a l'aide de trois techniques experimentales complementaires : mesures d'aimantation, rpe et diffraction neutronique. Le dopage en impuretes abaisse t#s#p et induit l'apparition a plus basse temperature (t
APA, Harvard, Vancouver, ISO, and other styles
37

Randall, Jefferey. "The Analysis of Seasonally Varying Flow in a Crystalline Rock Watershed Using an Integrated Surface Water and Groundwater Model." Thesis, University of Waterloo, 2005. http://hdl.handle.net/10012/852.

Full text
Abstract:
Researchers, explorers, and philosophers have dedicated many lifetimes attempting to discover, document, and quantify the vast physical processes and interactions occurring in nature. Our understanding of physical processes has often been reflected in the form of numerical models that assist academics in unraveling the many complexities that exist in our physical environment. To that end, integrated surface water-groundwater models attempt to simulate the complex processes and relationships occurring throughout the hydrologic cycle, accounting for evapotranspiration and surface water, variably saturated groundwater, and channel flows.

The Bass Lake watershed is located in the Muskoka district of Ontario, within a crystalline rock environment consistent with typical Canadian Shield settings. Numerous data collection programs and methods were used to compile environmental and field-scale datasets. The integrated surface water-groundwater model, HydroGeoSphere (Therrien et al. , 2005), was used for all Bass Lake watershed simulation models.

Simulation results were compared to expected trends and observed field data. The groundwater heads and flow vector fields show groundwater movement in expected directions with reasonable flow velocities. The subsurface saturation levels behave as expected, confirming the evapotranspiration component is withdrawing groundwater during plant transpiration. The surface water depths and locations of water accumulation are consistent with known and collected field data. The surface waters flow in expected directions at reasonable flow speeds. Simulated Bass Lake surface elevations were compared to observed surface water elevations. Low overland friction values produced the most accurate Bass Lake elevations, with high overland friction values slightly overestimating the Bass Lake water level throughout the simulation period. Fluid exchange between surface water and groundwater domains was consistent with expected flux rates. The integrated surface water-groundwater model HydroGeoSphere ultimately produced acceptable simulations of the Bass Lake model domain.
APA, Harvard, Vancouver, ISO, and other styles
38

Illig, Séréna. "Variabilité basse fréquence de l'Atlantique tropical : rôle de la dynamique océanique équatoriale et influence d'El Nino southern oscillation." Toulouse 3, 2005. https://tel.archives-ouvertes.fr/tel-00260664.

Full text
Abstract:
L'objectif de cette thèse est l'étude de la variabilité interannuelle en Atlantique tropical : nous étudions les rôles des processus couplés liés à la dynamique linéaire et ceux liés à l'influence de la variabilité du Pacifique tropical de type El Niño. Les résultats obtenus suggèrent que la variabilité associée aux propagations d'ondes de Kelvin et de Rossby joue un rôle essentiel dans l'ajustement océanique au forçage par le vent et plus généralement dans les processus couplés océan-atmosphère en Atlantique équatorial. Les résultats de simulations couplées montrent que l'énergie dans la bande de fréquences 1-3 ans est en partie liée aux interactions locales air-mer, tandis que la variabilité associée au Pacifique tropical domine les basses fréquences (3-7 ans). Nos résultats soulignent la complexité du système océan-atmosphère en Atlantique équatorial, dont la prédictibilité dépend fortement de la variabilité du Pacifique tropical et de la variabilité atmosphérique intra-saisonnière
The objectives of this thesis are to study the coupled interannual variability in the Tropical Atlantic associated to the linear dynamics and the teleconnections with the Tropical Pacific El Niño variability. Our study suggest first that low-frequency wave dynamics (Kelvin and Rossby waves propagation) is to a large extent at work in the Tropical Atlantic, and play a significant part in the ocean-atmosphere mechanisms that can lead to the Atlantic Equatorial mode. The results of coupled experiments show that peak in SST variability in the 1 to 3 year band, as observed in the Equatorial Atlantic, is partly due to the local air-sea interactions, whereas remote ENSO Pacific forcing controls the lower frequency variability (3-7 year). Our results point out the complexity of the Equatorial Atlantic ocean-atmosphere system which predictability depends on the Pacific ENSO conditions and/or the high-frequency atmospheric activity
APA, Harvard, Vancouver, ISO, and other styles
39

Gawiec, Pierre. "Propriétés statiques et dynamiques des états de basse énergie d'un système de spins bidimensionnel anisotrope désordonné." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10206.

Full text
Abstract:
L'objet de cette these est l'etude des proprietes statiques et dynamiques du modele de spins xxo bimodal sur reseau carre. A partir de simulations numeriques intensives, nous obtenons son diagramme de phase (l,x) classique a temperature nulle ou x est la concentration des defauts magnetiques et l leur force. Nous mettons en evidence, par le calcul de differents parametres d'ordre et des fonctions de correlation spin-spin, une transition qui separe une phase de decroissance algebrique des correlations et un verre de spin isotrope caracterise par une decroissance exponentielle des correlations. Nos resultats suggerent egalement une aimantation nulle pour toute concentration x finie des defauts a la limite thermodynamique. Nous etudions ensuite la dynamique du systeme. Le calcul des quantites hydrodynamiques qui la caracterisent montre l'existence d'ondes de spin de dispersion lineaire dans la limite des basses frequences. L'obtention du facteur de structure dynamique du systeme dans l'approximation harmonique des ondes de spin permet d'acceder aux composantes dans le plan xy et transverse des fluctuations magnetiques. Nous en deduisons differentes quantites qui permettent de discuter du comportement dynamique du systeme. Nous procedons egalement a une modelisation de l'ensemble de ces proprietes dynamiques dans le cadre de l'approximation cpa (coherent potential approximation). Les resultats obtenus par cette approche, qui permet d'alleger notablement la charge numerique et d'acceder a de plus grandes tailles de systemes, sont en tres bon accord avec nos resultats des calculs exacts. Enfin nous etudions l'effet de la frustration sur les fluctuations quantiques du systeme en calculant la premiere correction en 1/s aux grandeurs hydrodynamiques. Nous montrons l'existence, dans le cas ou s=1/2, d'une phase quantique desordonnee a temperature nulle caracterisee par une constante de raideur nulle. Nous proposons egalement une approche originale pour investiguer les proprietes du systeme dans cette phase
APA, Harvard, Vancouver, ISO, and other styles
40

Mrabet, Brahim. "Influence des modes d'alimentation pseudo continu, sinusoïdal et pulsé sur le rayonnement d'une lampe mercure-argon basse pression." Toulouse 3, 2005. http://www.theses.fr/2005TOU30009.

Full text
Abstract:
Les travaux présentés portent essentiellement sur l’étude expérimentale de l’influence des modes d’alimentation sur le rayonnement ultraviolet émis par une lampe mercure-argon basse pression. La lampe a été successivement alimentée avec un courant sinusoïdal à différentes fréquences, avec un courant en créneau à rapport cyclique et fréquence variables et avec des impulsions de courant de largeur et d’amplitude variables. Pour atteindre les objectifs fixés, un dispositif expérimental a été mis au point. Cette réalisation comprend un cylindre intégrateur de flux, deux chaînes de mesures spectrophotométriques (Cellules (UV et visible) et camera CCD) et un commutateur de courant permettant d’alimenter la lampe avec des créneaux de courant. La structure choisie a permis d’offrir une grande marge de réglage et de contrôle des grandeurs électriques pour étudier leur influence sur le rayonnement de la lampe. L'analyse du transfert radiatif au sein du cylindre intégrateur à été réalisée. Les mesures spectrophotométriques pour la caractérisation de la décharge ont été réalisées en régimes sinusoïdal, rectangulaire et pulsé. Les simulations effectuées à l’aide d’un modèle collisionnel radiatif en régime pulsé ont permis de trouver une description électrique et physique du comportement dynamique de la décharge
The main purpose of the present work concerns the study of the influence of the current waveform on the « emitted radiation » by a low pressure mercury discharge lamp. Three types of power supplies are then used, a sinusoidal current at various frequencies, a current invertor delivering rectangular signals at variable duty cycle and frequency and a pulsed power supply allowing a variation of the width and amplitude of the impulse. The implemented experimental set-up performs photometric and radiometric measurements. It is composed mainly of a photometric cylinder, a spectrograph, a CCD camera, a detectors and a power supply. Such a supply offers the possibility of modifying the discharge’s operating conditions for the study the influence of the supply parameters on the radiation of lamp
APA, Harvard, Vancouver, ISO, and other styles
41

Choubert, Jean-Marc. "Analyse et optimisation du traitement de l'azote par boues activées à basse température." Phd thesis, Université Louis Pasteur - Strasbourg I, 2002. http://tel.archives-ouvertes.fr/tel-00001890.

Full text
Abstract:
L'objectif principal de ce travail a porté sur l'optimisation du dimensionnement et de la gestion des installations de traitement des eaux usées par boues activées fonctionnant à basse température (10-12°C) et soumise à une contrainte de traitement poussé sur l'azote. Dans ce but, nous avons étudié la faisabilité de la nitrification à des charges massiques stabilisées supérieures à 0.1 kgDBO5.(kgMVS.j)-1. Le fonctionnement d'une installation pilote alimentée par un effluent synthétique, puis par un effluent urbain réel, a été étudié pour différentes charges massiques stabilisées à une température de 11 +/- 1°C. Les résultats très détaillés acquis en continu sur deux périodes de six mois ont suggéré le rôle et la hiérarchie des facteurs influençant la capacité de nitrification. Ils ont permis d'adapter l'outil de simulation dynamique Activated Sludge Model n°1 (ASM1). La double démarche expérimentale et numérique mise en oeuvre a permis de dégager les rôles des conditions de fonctionnement (âge des boues, charge volumique en azote, durée de présence d'oxygène) et des propriétés de l'effluent à traiter (ratios caractéristiques, part des différentes fractions) sur les performances de traitement de l'azote et sur la composition de la boue. Les valeurs limites des paramètres de gestion (charge massique maximale, durée d'aération journalière), permettant à différentes configurations d'installation (bassin unique, réacteur avec zone d'anoxie en tête) de respecter une concentration en azote total inférieure à 10 mgN/L dans le rejet, ont pu être dégagées. Des stratégies de gestion dans le cas de variations de flux importantes en entrée d'installation (cas des zones touristiques de montagnes) ont pu être évaluées (fonctionnement à charge massique variable par adaptation de la durée d'aération, ou bien utilisation d'un bassin d'aération à volume variable).
APA, Harvard, Vancouver, ISO, and other styles
42

Simon, Muela Adan. "Architectures de convertisseurs DC/DC à fort courant, basse tension avec commande numérique." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00348195.

Full text
Abstract:
La consommation de puissance des microprocesseurs embarqués ne cesse d'augmenter avec la multiplication des fonctions qu'ils doivent assurer Ainsi, les générations actuelles de microprocesseurs ont une forte consommation en courant sous une très faible tension (autour du volt) avec des transitoires contraignants. Cette thèse est consacrée à la design des systèmes d'alimentation rapprochées des cartes mères des PC où régulateurs de tension (VRMs) qui englobent fort courant et faible tension de sortie ainsi que haute fréquence de découpage. A cet effet, les architectures entrelacées ou multi-phase sont une bonne alternative pour atteindre ces niveaux énergétiques si rigoureux. Traditionnellement, ces types de systèmes d'alimentation sont contrôlés avec une commande analogique. Cependant, les nouvelles générations de microprocesseurs exigent des performances plus élevées en même temps qu'une régulation plus précise. Alors, la commande classique analogique est de plus en plus remplacée par une commande numérique plus flexible et plus performante. Cette thèse s'intègre dans le cadre du projet régional LISPA où le LAAS et Freescale Semiconductor collaborent pour développer de nouveaux systèmes d'alimentations pour microprocesseurs de puissance.
APA, Harvard, Vancouver, ISO, and other styles
43

Kapikranian, Oleksandr. "Inuence du desordre sur le comportement a basse temperature de modeles de spins de symetrie continue a deux dimensions." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00374650.

Full text
Abstract:
Cette these presente une etude du modele XY bidimensionnel dans des conditions realistes, comme la presence d'imperfections (impuretes non magnetiques) ou la taille finie du reseau. Ces deux aspects sont typiques de situations experimentales et necessitent un questionnement theorique. Nous avons egalement considere le comportement a basse temperature du modele d'Heisenberg fini et avons trouve un comportement analogue a celui du modele XY. Nous avons utilise a la fois une approche analytique et des simulations numeriques pour traiter le probleme. Les resultats essentiels de ce travail sont : (a) la determination de l'exposant de decroissance algebrique de la fonction de correlation du modele XY dilue, analytiquement avec l'approximation d'ondes de spins et par simulations Monte Carlo a l'aide de l'algorithme de Wolff, (b) l'estimation correspondante dans le cas du modele d'Heisenberg sur reseau fini a basse temperature assortie de simulations numeriques egalement, (c) la forme de l'interaction entre les impuretes non magnetiques et les defauts topologiques dans le cadre du modele de Villain et dans le modele de Kosterlitz-Thouless, et l'estimation analytique de la reduction de temperature critique basee sur la forme de cette interaction, (d) la determination numerique de la distribution de probabilite de l'aimantation residuelle sur un systeme fini en presence de desordre. Pour l'ensemble de nos travaux, nous avons obtenu un bon accord entre les predictions theoriques et les simulations numeriques, de meme qu'avec des travaux anterieurs le cas echeant.
APA, Harvard, Vancouver, ISO, and other styles
44

Eser, Eren. "Modelling Mobile Telecommunications Services Forforecasting Purposes: A Cross-country Analysis." Master's thesis, METU, 2012. http://etd.lib.metu.edu.tr/upload/12614850/index.pdf.

Full text
Abstract:
Mobile telecommunications industry has experienced high growth rates for the recent 30 years. Accordingly, forecasting the future of mobile telecommunications services is important not only for mobile operators but also for all stakeholders in this industry ranging from handset manufacturers to vendors. In this thesis, the diffusion of mobile telecommunications services in 20 countries from different regions around the world is examined for the period of 1981 to 2010 with special emphasis on Turkey, in order to address the uncertainty in optimal model selection. The Gompertz, logistic and Bass models are fitted to the observed data of mobile phone penetration by means of nonlinear least squares. The fitness accuracies of the models are evaluated based on root mean square error (RMSE). Empirical results show that S-shaped growth models are capable of explaining the diffusion of mobile telecommunications services. The findings also suggest that there is no superior model in defining the diffusion process and the most suitable model is country dependent. Finally, we observe that the diffusion in late entrant countries appears to be faster than pioneer countries and peak demands in mobile telephones occur during the period of 1999 to 2006, which suggests a remarkable multinational learning effect and significance of the transition into digital technology.
APA, Harvard, Vancouver, ISO, and other styles
45

RENNANE, Abdelali. "Caracterisation et modelisation du bruit basse frequence des composants bipolaires et a effet de champ pour applications micro-ondes." Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00009299.

Full text
Abstract:
Le travail presente dans ce memoire a pour objet principal l'etude des phenomenes de bruit du fond electrique basse frequence dans des transistors pour applications micro-ondes de type effet de champ (HEMT) sur SiGe et GaN ainsi que de type bipolaire a heterojonction (TBH) a base de silicium-germanium (SiGe). Dans un premier chapitre nous rappelons les caracteristiques et proprietes essentielles des sources de bruit en exces que l'on rencontre generalement dans ce type de composants et proposons une description des bancs de mesure de bruit mis en oeuvre. Dans les deuxieme et troisieme chapitres, nous proposons une analyse detaillee de l'evolution du bruit observe en fonction de la frequence, de la polarisation, et de la geometrie sur des HEMTs des deux familles technologiques SiGe et GaN. Nous avons en particulier etudie les deux generateurs de bruit en courant en entree et en sortie respectivement iG et iD ainsi que leur correlation. Ceci nous a permis, en nous appuyant aussi sur l'analyse des caracteristiques statiques des transistors, d'identifier les diverses sources de bruit en exces presentes dans ces composants et de faire des hypotheses sur leurs origines. Le dernier chapitre est consacre aux TBHs a base de SiGe. Dans une premiere partie nous etablissons comment varie le bruit basse frequence de TBHs, fabriques par un premier constructeur, en fonction de la polarisation, de la geometrie et de la fraction molaire de germanium. Dans une seconde partie nous mettons en evidence, d'apres nos observations effectuees sur des TBHs fabriques par un second constructeur, l'impact important sur le bruit BF de stress thermiques appliques sur ce type de composants.
APA, Harvard, Vancouver, ISO, and other styles
46

Valentian, Alexandre. "Etude de la technologie SOI partiellement désertée à très basse tension pour minimiser l'énergie dissipée et application à des opérateurs de calcul." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001293.

Full text
Abstract:
L'évolution des technologies des semi-conducteurs vers des géométries de plus en plus fines permet un accroissement des performances et des fonctionnalités par puce mais s'accompagne simultanément d'une augmentation de la puissance dissipée. Alors que les utilisateurs sont de plus en plus friands d'applications portables, la conception de circuits intégrés doit désormais prendre en compte le budget de puissance alloué. Il est donc essentiel de développer des circuits microélectroniques très basse puissance. La réduction de la tension d'alimentation VDD s'avère une approche très intéressante puisque cela permet de réduire la puissance dynamique quadratiquement et la puissance statique des courants de fuite exponentiellement. L'utilisation de tensions d'alimentation très basses (ULV) a été explorée à Stanford dès 1990 en utilisant une technologie spéciale, dont les transistors possèdent des tensions de seuil proches de zéro volt. Cependant, bien que réduire fortement la tension d'alimentation soit une méthode efficace pour diminuer la consommation, elle ne peut pas être appliquée arbitrairement car cela affecte négativement les performances, le délai dans les portes augmentant exponentiellement lorsque VDD devient inférieur à la tension de seuil. Il faut donc trouver un compromis entre vitesse et consommation. Du point de vue technologique, la technologie SOI-PD (Silicium sur Isolant Partiellement Désertée) s'avère très intéressante en ULV: elle présente des performances entre 25% et 30% supérieures à celles obtenues en CMOS à substrat massif. La technologique SOI permet donc de diminuer la consommation des circuits intégrés à fréquence de fonctionnement égale. Pour mieux appréhender le comportement des transistors SOI opérés en inversion faible, un modèle analytique et physique simple a tout d'abord été développé. La consommation d'un circuit dépendant fortement du style logique employé, plusieurs styles ont été comparés et celui présentant le meilleur produit puissance-délai a été choisi pour réaliser une bibliothèque de cellules standards. La problématique de la propagation de données sur des interconnexions longues, alors que les transistors fournissent peu de courant, a été abordée: un nouveau circuit de transmission en mode courant a été proposé. Enfin, un circuit de traitement d'image par paquets d'ondelettes a été développé et synthétisé grâce à la bibliothèque précédente.
APA, Harvard, Vancouver, ISO, and other styles
47

Van, der Merwe Carmen. "An engineering approach to an integrated value proposition design framework." Thesis, Stellenbosch : Stellenbosch University, 2015. http://hdl.handle.net/10019.1/96856.

Full text
Abstract:
Thesis (MEng)--Stellenbosch University, 2015.
ENGLISH ABSTRACT: Numerous problems with product quality and time-to-market launches can be traced back to the management of the product lifecycle. This research assignment provides insight into how an integrated value proposition design framework can address these issues by shifting the focus of product lifecycle management from being product-centric to being customer-centric. This framework combines tools, methods and processes from a variety of disciplines such as Systems Engineering, Marketing, Project Management, and Financial Management. The application of the framework during the product lifecycle management process is that of a planning and communication tool to ensure integration between multifunctional teams to increase customer value proposition quality and decrease product time to market. This research assignment was implemented in a new product development case study within a leading Telecommunications company in South Africa.
AFRIKAANSE OPSOMMING: Die bestuur van ‘n produk se lewensiklus veroorsaak verskeie probleme wat gepaard gaan met die kwaliteit van produkte en die verlengde tydperk wat dit neem om produkte aan die mark bekend te stel. Hierdie navorsingswerk verduidelik hoe die geïntegreerde waarde-stelling raamwerk die probleme met betrekking tot die bestuur van produkte se lewensiklusse aanspreek. Die raamwerk verskuif die fokus van die bestuur van ‘n produk se lewensiklus, wat produk-gesentreerd is, na ‘n kliënt-gesentreerde fokus. Die raamwerk maak gebruik van tegnieke, metodes en prosesse verkry uit die dissiplines van Sisteem Ingenieurswese, Bemarking, Projek bestuur en Finansiële bestuur. Die toepassing van die raamwerk verbeter die bestuur van ‘n produk se lewensiklus deur beplanning en kommunikasie te fassiliteer tussen multi-funksionele spanne. Genoemde raamwerk bevorder die samewerking tussen multi-funksionele spanne, verbeter die waarde-stellings aan kliënte, verhoog die kwaliteit van produkte en verkort die tydperk van produk bekendstelling aan die mark. Bogenoemde navorsingswerk is geïmplementeer in ‘n vooraanstaande Telekommunikasie maatskapy in Suid-Afrika, op ‘n nuwe produkontwikkeling gevallestudie.
APA, Harvard, Vancouver, ISO, and other styles
48

Amzil, Aboubakr. "Compréhension et modélisation des mécanismes et des effets de géométrie dans la partie basse de la transition ductile-fragile." Thesis, Université Paris sciences et lettres, 2021. http://www.theses.fr/2021UPSLM002.

Full text
Abstract:
Cette thèse a pour objectif principal d’étudier l’effet de la température et de la géométrie sur la ténacité d’un acier ferritique dans la partie basse de la zone de transition ductile-fragile. Ce travail propose de modéliser les mécanismes de rupture observés dans cette zone à l’aide d’une approche locale de rupture. Bien que conformément à l’expérience, la rupture dans la zone de transition résulte d’un couplage entre la rupture fragile et la rupture ductile, la présente thèse se consacre principalement à l’étude du bas de la zone de transition dans laquelle le mécanisme de rupture est principalement fragile. Une étude expérimentale du matériau, un acier ferritique 18MND5, est tout d’abord effectuée. Une base expérimentale, s’appuyant en partie sur des essais existants, a été construite afin de disposer, à différentes températures, d’essais sur des éprouvettes non fissurées et sur des éprouvettes fissurées. Les éprouvettes non fissurées (TC et AE) sont utilisées pour l’étude du comportement élasto-plastique tandis que les éprouvettes fissurées (CT et SENT) sont utilisées pour étudier le comportement à rupture. Une étude fractographique au MEB des faciès de rupture permet dans un premier temps de décrire les mécanismes de rupture en fonction de la géométrie et de la température et dans un deuxième temps, de distinguer les éprouvettes purement fragiles des éprouvettes qui ont une certaine avancée ductile de la fissure. Ensuite, à partir des résultats des observations précédentes, la plasticité et la rupture fragile du matériau sont modélisées. Une nouvelle méthodologie du calcul de la contrainte de Weibull permettant de s’assurer que celle-ci est correctement évaluée est proposée. En particulier, on vérifie que le calcul est convergé en maillage et on filtre les fortes fluctuations de contrainte. Le clivage est décrit à l’aide d’une version modifiée du modèle de Beremin qui permet de prendre en compte l’effet de la déformation plastique sur la contrainte de Weibull. Cette formulation permet d’identifier, à une température donnée, un jeu de paramètre unique pour modéliser la probabilité de rupture sur différentes géométries (CT d’épaisseurs différentes et SENT). Par contre, les paramètres identifiés dépendent de la température. En complément, la thèse a aussi été l’occasion d’initier un travail sur l’endommagement ductile dans la transition tant au niveau de la base expérimentale construite, qui couvre l’ensemble de la zone de transition, qu’au niveau de modélisation de l’endommagement ductile avec l’identification des paramètres du modèle non local GTN sur les éprouvettes axisymétriques. Ces travaux pourront constituer un point de départ pour une modélisation futur du couplage entre la rupture ductile et fragile dans la transition
The main goal of this thesis is to study the effect of temperature and geometry on the toughness of a ferritic steel in the lower part of the brittle to ductile transition zone. This work proposes to model the failure mechanisms observed in this zone using a local approach to failure. Although, according to experimental evidences, fracture in the transition zone results from a coupling between brittle and ductile fracture, the present thesis is mainly focused on the study of the lower part of the transition zone in which the fracture mechanism is mainly brittle. An experimental study of the material, a ferritic 18MND5 steel, is first proposed. An experimental database, consisting partially of existing tests was carried in order to have, at different temperatures, tests on uncracked specimens (TC and AE) mainly used for the study of elasto-plastic behaviour and tests on cracked specimens (CT and SENT) to study the fracture behaviour. A fractographic SEM study of the fracture surfaces allows, firstly, to describe the fracture mechanisms as a function of geometry and temperature and, secondly, to distinguish purely brittle specimens from specimens with ductile crack advance. Based on the results of the previous observations, plasticity and brittle fracture of the material are modelled. A new methodology for Weibull stress computation is proposed so as to ensure that it is correctly evaluated. Particularly, it is verified that Weibull computation is converged with respect to the mesh size. A procedure is proposed to filter out strong stress fluctuations. Cleavage is described using a modified version of Beremin's model which takes into account the effect of plastic strains on the Weibull stress. This formulation allows fitting, at a given temperature, of a unique set of parameters to model the fracture probabilities on different geometries (CT of different thicknesses and SENT). The fitted parameters are temperature dependent. In addition, the thesis also provided the opportunity to initiate the modeling of ductile failure in the transition. This includes the construction of a relevant experimental database which now covers the entire transition zone and the use of a non-local GTN type model which is fitted on axisymmetric notched bars. This work could constitute a starting point for future modelling of the coupling between ductile and brittle fracture in the transition
APA, Harvard, Vancouver, ISO, and other styles
49

Vial, Jérôme. "Etude expérimentale et numérique des modes de déformation d'un explosif comprimé." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00965103.

Full text
Abstract:
L'utilisation industrielle ou militaire des explosifs est largement répandue. La sécurité est devenue un axe majeur avec notamment l'ignition involontaire des explosifs composés de HMX lors des impacts à basse vitesse. L'objectif de cette thèse est de contribuer à la compréhension des mécanismes dissipatifs à l'origine des échauffements locaux dans le matériau. Le développement d'un essai aux barres d'Hopkinson a permis de coupler de grandes vitesses de déformations à des pressions élevées pour compléter les données expérimentales. Cet essai a montré un angle de frottement quasiment identique à celui obtenu en quasistatique mais une contrainte de cohésion supérieure d'environ 25 MPa. Ensuite, pour observer les mécanismes pouvant être sources d'échauffement, un essai de compression dans la tranche a été développé avec des observations en temps réel. Celles-ci ont permis de conclure qu'il y a très peu de frottements entre les gros grains et la matrice (l'ensemble des petits grains, du liant et de la porosité). De la plasticité des grains de HMX a pu être observée mais surtout beaucoup d'endommagement dans certaines zones y compris dans la matrice. Une microfissuration très intense de certains grains a été observée. Parallèlement, une représentation numérique biphasique (gros grains de HMX et matrice) de toute la microstructure du matériau a été considérée. Une confrontation entre les observations expérimentales et les simulations a permis de déterminer le seuil de plasticité du HMX. Le comportement de la matrice a été identifié pour prendre en compte l'effet de vitesse et l'endommagement observé. Enfin, les confrontations entre les essais et les simulations de ceux-ci ont montré que les échauffements devraient plutôt se localiser dans la matrice que dans les gros grains de HMX et que le mécanisme le plus probable est le frottement de lèvres de microfissures.
APA, Harvard, Vancouver, ISO, and other styles
50

Goutaudier, Dimitri. "Méthode d'identification d'un impact appliqué sur une structure admettant des modes de vibration basse fréquence faiblement amortis et bien séparés." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1225/document.

Full text
Abstract:
La détection d'impacts est une préoccupation majeure pour suivre l'intégrité d'une structure évoluant dans un environnement comportant des risques de collision. Ce travail consiste à développer une méthode d’identification d'impact applicable à une structure composite de grandes dimensions qui soit à la fois robuste, peu coûteuse en temps de calcul, et qui nécessite peu de capteurs. Dans un premier temps, la démarche a été de décrire l'image du point d'impact dans la réponse vibratoire par un vecteur de participations modales. L'idée a ensuite été d'introduire l'hypothèse d'existence d'une famille de modes discriminants permettant d'établir le lien bijectif entre les participations modales et le point d'impact. Une procédure d'estimation de ces participations modales à partir d'un unique point de mesure a été proposée. Dans un second temps, la démarche a été d'étendre la procédure à l'identification d'une loi décrivant les paramètres principaux d'une force d'impact. Des conditions portant sur les paramètres de mesure et les propriétés modales de la structure sont déterminées pour garantir la précision et la robustesse de l'identification. Ce travail a permis de développer une approche en rupture par rapport à l'état de l'art, en ce sens qu'elle ne nécessite, en théorie, qu'un seul point de mesures vibratoires pour identifier un impact. Des essais expérimentaux sur un pavillon d'A350 ont permis de valider cette approche sur une structure composite de grandes dimensions
Many industrial structures operate in an environment with a high risk of collision. The detection of impacts and the assessment of their severity is a major preoccupation in Structural Health Monitoring. This work deals with the development of an impact identification technique that is applicable to a large composite structure, numerically robust and time efficient, and that requires a low number of sensors. The first step was to describe the image of the impact point in the vibration response as a modal participation vector. The idea was to introduce the existence of a discriminating modes familly to make a bijective link between the modal participations and the impact point. A least-squares procedure is developed to estimate those modal participations by measuring the vibration response of a single point on the structure. The second step was to extend the procedure to the identification of a parametric law representing the impact load history. Some conditions on measurement parameters and modal properties of the structure are identified to guarantee both the accuracy and the robustness of the procedure. The approach developed in this work is new regarding the state of the art: only one measurement point is considered for identifying an impact event. An experimental validation on an A350 crown panel indicates that the methodology is valid for large composite structures
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!