To see the other types of publications on this topic, follow the link: Mécanisme de banque.

Dissertations / Theses on the topic 'Mécanisme de banque'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Mécanisme de banque.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rieu-Foucault, Anne-Marie. "Essais sur la liquidité, la banque centrale et ses actions en dernier ressort." Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100109.

Full text
Abstract:
Cette thèse comprend trois essais sur le futur des banques centrales et sur la manière dont elles doivent réguler la liquidité. Réguler la liquidité pour le futur, nécessite pour les banques centrales, de justifier et de concevoir une politique de la liquidité. Cette politique de la liquidité existe de fait sous la forme des mesures non conventionnelles mais n’est pas formalisée. L’apport de cette thèse est de proposer une conceptualisation de la politique de la liquidité, comme élément marquant du futur des banques centrales et comme fondation théorique des rôles en dernier ressort des banques centrales. La thèse montrera qu’il s’agit en fait d’une politique des liquidités du fait de l’existence de différents types de liquidités. Elle l’illustrera par la proposition d’un modèle théorique et mettra en relation théorie et pratique des liquidités. La thèse traite le rôle de la banque centrale sur la liquidité tout d’abord sous la forme d’un preneur de risque en dernier ressort puis ensuite sous la forme d’un agent central agissant sur les différentes formes de liquidité. Les deux premiers essais couvrent la problématique de la banque centrale, preneur de risque en dernier ressort, sous un aspect positif dans le premier essai puis sous un aspect normatif dans le deuxième. Le dernier essai intègre le concept de preneur de risque en dernier ressort dans un ensemble plus large d’actions de la banque centrale, couvrant les différentes formes de liquidité
This PhD thesis includes three essays on the future of central banks and how they should regulate liquidity. Regulating liquidity for the future, requires for central banks to justify and design a liquidity policy. This policy of liquidity actually exists in the form of unconventional measures but is not formalized. The contribution of this thesis is to propose a conceptualization of a liquidity policy as a key element for the future of central banks and as a theoretical foundation for the roles of central banks as last resorts. The thesis will show that it is actually a policy of liquidities because of the existence of different types of liquidity. It will illustrate it by proposing a theoretical model and by linking theory and practice of liquidity. The thesis deals with the role of the central bank on liquidity, first in the form of a risk taker of last resort and then in the form of a central agent acting on the various forms of liquidities. The first two essays cover the problem of the central bank as risk taker of last resort, under a positive aspect in the first essay and then under a normative aspect in the second. The last essay incorporates the concept of risk taker of last resort into a broader set of central bank actions covering different forms of liquidities
APA, Harvard, Vancouver, ISO, and other styles
2

Perveen, Nazia. "Intégration de l'écologie microbienne dans les modèles biogéochimiques : conséquences pour les prévisions du stockage du Carbone et la fertilité des sols." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066340.

Full text
Abstract:
La prise en compte du priming effect * (PE) dans les modèles biogéochimiques est essentielle afin de mieux prévoir les conséquences du changement global sur le cycle du C (C) dans les écosystèmes et les interactions avec le climat. Au cours de la dernière décennie, de nombreux travaux ont été réalisés afin de modéliser le PE. Cependant, quelques connaissances de base nécessaires à cette modélisation du PE manquent tels que la relation entre le taux de décomposition des matières organique du sol (MOS) et la biomasse des décomposeurs (MB). En outre, le PE n'a jamais été inséré dans un modèle sol-plante afin de déterminer son rôle dans les interactions plante-sol. Dans ce contexte, les principaux objectifs de la thèse sont 1) d’intégrer l'activité, de la biomasse et de la diversité des microorganismes du sol dans les modèles de dynamique du C et de l’azote (N) des écosystèmes afin de simuler le PE, et 2) de déterminer les conséquences de cette intégration pour le fonctionnement des écosystèmes et la réponse au changement global. Ces objectifs ont été atteints grâce à la combinaison de la diverses approches telle que la modélisation, l’expérimentation et les analyses statistiques. Dans une expérience de laboratoire, je montre que le taux de décomposition des MOS augmente 1) linéairement avec la MB et 2) avec un effet de saturation avec la teneur en MOS. La réponse linéaire de décomposition des MOS à la MB s'explique par la colonisation très limitée du sol et des réserves des MOS par les microorganismes. Cependant, la limitation de la décomposition par la teneur en MOS montre que la disponibilité locale des MOS peut être un facteur limitatif pour la minéralisation microbienne. La co-limitation observée de la décomposition des MOS est correctement modélisée avec l'équation de Michaelis-Menten. L'intégration de cette équation dans un modèle simple de dynamique des MOS permet d’expliquer comment les MOS s'accumulent souvent continuellement dans les sols non perturbés alors qu'elles stagnent dans les sols cultivés. Cette présente également le premier modèle d’écosystème paramétré incorporant le PE (SYMPHONY). Ce modèle génère des prévisions réalistes sur la production de fourrage, stockage de C dans le sol et lessivage de l'azote pour des prairies permanentes. SYMPHONY montre également que la persistance des plantes dans les écosystèmes dépend d'un réglage fin de la minéralisation microbienne de MOS au besoin en nutriments des plantes. Ce réglage est modélisé par SYMPHONY en considérant la destruction de MOS par le PE et les interactions entre deux groupes fonctionnels microbiens: les décomposeurs des MOS et les stockeurs de MOS. Enfin, conformément aux récentes observations, SYMPHONY explique comment l’augmentation du CO2 atmosphérique induit une modification des communautés microbiennes du sol conduisant à une intensification de la minéralisation microbienne et à une diminution du stock des MOS dans le sol
Integration of the priming effect* (PE) in ecosystem models is crucial to better predict the consequences of global change on ecosystem carbon (C) dynamics and its feedbacks on climate. Over the last decade, many attempts have been made to model PE in soil. However, some basic knowledge to model the PE is lacking such as the relationship between decomposition rate of soil organic matter (SOM) and microbial biomass (MB). Moreover, the PE has never been inserted in a plant-soil model to analyze its role on plant-soil interactions. The main objectives of this thesis were to 1) integrate the activity, biomass and diversity of soil microorganisms in models of ecosystem C and nitrogen (N) dynamics in order to simulate the PE, and 2) determine the consequence of this integration for ecosystem functioning and response to global change. These objectives were achieved thanks to the combination of diverse approaches such as modeling, experimentation and statistical. In a lab experiment, I show that the rate of SOM decomposition increases 1) linearly with MB, and 2) with a saturating effect with SOM content. The linear response of SOM decomposition to MB is explained by the very limited microbial colonization of SOM reserves. However, the positive effect of SOM content on decomposition rate indicates that the local availability of SOM may be limiting for microbial mineralization. The observed co-limitation of SOM decomposition was accurately modeled with the Michaelis-Menten equation. Finally, incorporating this equation in a simple model of soil C dynamics explained how carbon often continuously accumulates in undisturbed soils whereas it reaches steady state in cultivated soils. Moreover, I present the first parameterized PE embedding plant-soil model (SYMPHONY) which provides realistic predictions on forage production, soil C storage and N leaching for a permanent grassland. SYMPHONY also shows that plant persistence depends on a fine adjustment of microbial mineralization of SOM to plant nutrient uptake. This fine adjustment was modeled by considering the destruction of SOM through PE and the interactions between two microbial functional groups: SOM-decomposers and SOM-builders. Moreover, consistent with recent observations, SYMPHONY explains how elevated CO2 induce modification of soil microbial communities leading to an intensification of SOM mineralization and a decrease in the soil C stock
APA, Harvard, Vancouver, ISO, and other styles
3

Perveen, Nazia. "Intégration de l'écologie microbienne dans les modèles biogéochimiques : conséquences pour les prévisions du stockage du Carbone et la fertilité des sols." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066340.

Full text
Abstract:
La prise en compte du priming effect * (PE) dans les modèles biogéochimiques est essentielle afin de mieux prévoir les conséquences du changement global sur le cycle du C (C) dans les écosystèmes et les interactions avec le climat. Au cours de la dernière décennie, de nombreux travaux ont été réalisés afin de modéliser le PE. Cependant, quelques connaissances de base nécessaires à cette modélisation du PE manquent tels que la relation entre le taux de décomposition des matières organique du sol (MOS) et la biomasse des décomposeurs (MB). En outre, le PE n'a jamais été inséré dans un modèle sol-plante afin de déterminer son rôle dans les interactions plante-sol. Dans ce contexte, les principaux objectifs de la thèse sont 1) d’intégrer l'activité, de la biomasse et de la diversité des microorganismes du sol dans les modèles de dynamique du C et de l’azote (N) des écosystèmes afin de simuler le PE, et 2) de déterminer les conséquences de cette intégration pour le fonctionnement des écosystèmes et la réponse au changement global. Ces objectifs ont été atteints grâce à la combinaison de la diverses approches telle que la modélisation, l’expérimentation et les analyses statistiques. Dans une expérience de laboratoire, je montre que le taux de décomposition des MOS augmente 1) linéairement avec la MB et 2) avec un effet de saturation avec la teneur en MOS. La réponse linéaire de décomposition des MOS à la MB s'explique par la colonisation très limitée du sol et des réserves des MOS par les microorganismes. Cependant, la limitation de la décomposition par la teneur en MOS montre que la disponibilité locale des MOS peut être un facteur limitatif pour la minéralisation microbienne. La co-limitation observée de la décomposition des MOS est correctement modélisée avec l'équation de Michaelis-Menten. L'intégration de cette équation dans un modèle simple de dynamique des MOS permet d’expliquer comment les MOS s'accumulent souvent continuellement dans les sols non perturbés alors qu'elles stagnent dans les sols cultivés. Cette présente également le premier modèle d’écosystème paramétré incorporant le PE (SYMPHONY). Ce modèle génère des prévisions réalistes sur la production de fourrage, stockage de C dans le sol et lessivage de l'azote pour des prairies permanentes. SYMPHONY montre également que la persistance des plantes dans les écosystèmes dépend d'un réglage fin de la minéralisation microbienne de MOS au besoin en nutriments des plantes. Ce réglage est modélisé par SYMPHONY en considérant la destruction de MOS par le PE et les interactions entre deux groupes fonctionnels microbiens: les décomposeurs des MOS et les stockeurs de MOS. Enfin, conformément aux récentes observations, SYMPHONY explique comment l’augmentation du CO2 atmosphérique induit une modification des communautés microbiennes du sol conduisant à une intensification de la minéralisation microbienne et à une diminution du stock des MOS dans le sol
Integration of the priming effect* (PE) in ecosystem models is crucial to better predict the consequences of global change on ecosystem carbon (C) dynamics and its feedbacks on climate. Over the last decade, many attempts have been made to model PE in soil. However, some basic knowledge to model the PE is lacking such as the relationship between decomposition rate of soil organic matter (SOM) and microbial biomass (MB). Moreover, the PE has never been inserted in a plant-soil model to analyze its role on plant-soil interactions. The main objectives of this thesis were to 1) integrate the activity, biomass and diversity of soil microorganisms in models of ecosystem C and nitrogen (N) dynamics in order to simulate the PE, and 2) determine the consequence of this integration for ecosystem functioning and response to global change. These objectives were achieved thanks to the combination of diverse approaches such as modeling, experimentation and statistical. In a lab experiment, I show that the rate of SOM decomposition increases 1) linearly with MB, and 2) with a saturating effect with SOM content. The linear response of SOM decomposition to MB is explained by the very limited microbial colonization of SOM reserves. However, the positive effect of SOM content on decomposition rate indicates that the local availability of SOM may be limiting for microbial mineralization. The observed co-limitation of SOM decomposition was accurately modeled with the Michaelis-Menten equation. Finally, incorporating this equation in a simple model of soil C dynamics explained how carbon often continuously accumulates in undisturbed soils whereas it reaches steady state in cultivated soils. Moreover, I present the first parameterized PE embedding plant-soil model (SYMPHONY) which provides realistic predictions on forage production, soil C storage and N leaching for a permanent grassland. SYMPHONY also shows that plant persistence depends on a fine adjustment of microbial mineralization of SOM to plant nutrient uptake. This fine adjustment was modeled by considering the destruction of SOM through PE and the interactions between two microbial functional groups: SOM-decomposers and SOM-builders. Moreover, consistent with recent observations, SYMPHONY explains how elevated CO2 induce modification of soil microbial communities leading to an intensification of SOM mineralization and a decrease in the soil C stock
APA, Harvard, Vancouver, ISO, and other styles
4

Gaze, Pierre. "Essais sur l'application de l'économie des réseaux à l'industrie bancaire : mécanismes, stratégies, régulations." Orléans, 1998. http://www.theses.fr/1998ORLE0502.

Full text
Abstract:
Le premier objectif de la thèse est de faire un bilan de l'économie des réseaux et d'adapter l'outil analytique aux réseaux bancaires. L'utilité procurée par de nombreux biens et services augmente avec le nombre d'agents qui les consomment. Ce type d'extemalités affecte considérablement les stratégies des firmes. Dans le domaine bancaire, nous déterminons les stratégies de compatibilité des réseaux de cartes bancaires. Nos travaux donnent les conditions pour lesquelles les banques sont incitées a créer des alliances interbancaires. Dans un deuxième temps, la thèse met en évidence la manifestation des effets de réseau dans la banque et en mesure les implications stratégiques pour les établissements de crédit. La démonstration repose sur une analyse comparée entre les marches américains et français de cartes bancaires. Les Etats-Unis sont caractérises par une juxtaposition de réseaux incompatibles alors qu'en France les cartes bancaires donnent accès a un réseau unique. A ce titre l'interbancarité à la française est a l'origine d'un remarquable développement quantitatif et qualitatif de la monétique. Néanmoins, on peut montrer a l'aide de concepts issus de l'économie des réseaux que ce type d'alliance est par nature fragile. Les discussions en cours sur le développement d'un porte-monnaie électronique en France sont les signes précurseurs de cette fragilisation. La troisième partie de la thèse recherche les origines de la diversité des formes d'interbancarité dans les grilles de tarification des moyens de paiement spécifiques à chaque pays. A ce titre on a coutume d'évoquer une sur-utilisation des chèques au prétexte qu'ils donnent lieu a des coûts de production élèves que des contraintes institutionnelles empêchent de répercuter sur leur tarification. Nous montrons a l'aide d'un modèle simple, incorporant des effets de réseau, qu'on ne peut ramener la notion d'efficience d'un système de paiement au simple critère de la minimisation des coûts de production. Enfin, notre analyse se clôt par une étude de la réglementation des réseaux bancaires. La question est de savoir si l'économie des réseaux peut guider l'action du régulateur.
APA, Harvard, Vancouver, ISO, and other styles
5

Gakoue, Sokrou Adélaïde. "Les mécanismes de contrôle du blanchiment de capitaux dans les banques françaises et ivoiriennes." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0121.

Full text
Abstract:
Que ce soit au plan national ou international, le blanchiment de capitaux continue de causerd’énormes difficultés malgré les efforts de lutte mis en œuvre par les États. Ce phénomène a prisune telle ampleur que les marchés financiers et les régulateurs ont exigé la mise en place deprocédures efficaces de lutte contre ce fléau. Principaux agents de transmission des fonds, lesbanques demeurent les mieux placés non seulement pour détecter les fonds illicites mais aussipour collaborer à leur détection. Ainsi, afin d’assurer l’efficacité de leurs actions, le droit françaiset ivoirien a prévu deux grandes obligations qui pèsent sur les banques : l’obligation de vigilanceet l’obligation déclaration à la cellule de renseignement financier.Notre étude met en lumière les difficultés de la mise en œuvre de ces obligations et les possibilitésd’optimisation du contrôle bancaire anti-blanchiment. Les problèmes soulignés par la troisièmedirective européenne transposée en droit français et les écueils liés à ces mêmes obligations endroit ivoirien laissent transparaître, l’abandon d’une approche de vigilance rigide pour uneapproche de vigilance graduée en droit français et la consécration d’un dispositif actuelle devigilance stricte en droit ivoirien. Le législateur ivoirien reste passif malgré l’évolution des textesinternationaux et consacre une procédure de vigilance ne prenant pas en compte l’approche parles risques.Au niveau de la relation entre les banques et leurs clients on a constaté des incohérencestextuelles liées à la phase post-déclarative. Le droit interne français à procédé à une extension dela nature des infractions sous-jacentes à toutes infractions passibles d’un an d’emprisonnement.Celle-ci se caractérise par un risque d’engorgement et de dévoiement du rôle de Tracfin.En revanche, jusqu’à ce jour, en droit ivoirien les éléments de preuve documentaires exigibles, etle recueil des informations relatives à l’adresse du client sont imprécis, ce qui rend difficile lavérification des documents par les professionnels bancaires.Au niveau de la relation entre les banques et les cellules de renseignement financier, desincohérences relatives aux modes de saisine de la cellule de renseignement financier par lesbanques en droit français et ivoirien ont été constatées. En France, la désignation du "personnel12déclarant" et du "correspondant Tracfin" sont deux fonctions distinctes mais cumulables. Ledroit ivoirien laisse la latitude aux banques de désigner le correspondant et la personne déclarante,dont les critères doivent en principe figurer dans les règles internes de l’établissement.À la différence de la France, le législateur ivoirien oblige les établissements bancaires à désignerdes responsables de la structure de lutte anti-blanchiment au sein des banques mais ne spécifiepas les fonctions de ces responsables.Au niveau de la relation entre les banques et les autorités de contrôle, des difficultés liées à leursaisine en France et en Côte d’Ivoire ont été identifiées. Cependant, les textes obligent lesétablissements bancaires à travailler en collaboration afin d’assurer une meilleure prévention.Finalement, l’analyse comparée du dispositif de contrôle anti-blanchiment dans les banquesfrançaises et ivoiriennes révèle que les expériences et les solutions juridiques françaises peuventbénéficier à la Côte d’Ivoire en matière de prévention du blanchiment de capitaux. Aussi, la Côted’Ivoire comme la France doit pallier les insuffisances de sa législation en vue d’une préventionefficace contre ce phénomène
Not available
APA, Harvard, Vancouver, ISO, and other styles
6

Gaspard, Roger. "La reconnaissance mutuelle en droit bancaire et financier européen." Thesis, Paris 2, 2018. http://www.theses.fr/2018PA020083.

Full text
Abstract:
En instituant un système généralisé d’équivalence des législations des Etats membres de l’Union européenne, le principe de reconnaissance mutuelle irrigue l’ensemble du droit européen. En droit bancaire et financier, ce principe fonde deux méthodes bien distinctes. La première, méthode d’interdiction des cumuls de réglementations, est mise en œuvre par les tribunaux nationaux et européens sous l’égide du droit européen originaire. Elle permet de qualifier d’entrave à une liberté de circulation européenne toute réglementation d’un Etat membre d’accueil qui se cumulerait avec une réglementation de l’Etat membre d’origine. La deuxième, qui constitue une méthode de répartition des compétences entre les différents Etats membres européens, a été consacrée par le législateur européen dans plusieurs directives et règlements. Cette méthode, dite du passeport financier, a la particularité d’accorder une compétence de principe à l’Etat membre d’origine. Cette étude propose une analyse et une vue d’ensemble de chacune de ces méthodes, éminemment importantes pour la pratique du droit des affaires. Elle invite, plus généralement, à une réflexion globale sur les méthodes d’intégration des différents marchés bancaires et financiers nationaux
The principle of mutual recognition is fundamental to European law whereby it stands for the equivalence of the regulations of member States of the European Union. In banking and financial law, the principle of mutual recognition is exemplified in two different applications. The first aims at eliminating duplicative regulations and is used by national and European courts in reliance on European Union primary law. It classifies any regulation of a host state that overlaps with a regulation of a home state that has already been applied to a certain matter as a restriction to a European freedom of movement. The second application is the financial passport, which was set forth by European lawmakers in various directives and regulations. The passport allocates regulatory powers among European member states and gives primary jurisdiction to the home member state within a harmonized field. This thesis describes and analyzes each of these applications which are crucial to the practice of business law. Overall, it calls for a reflection on the different methods of integrating financial markets
APA, Harvard, Vancouver, ISO, and other styles
7

Luciano, Kevin. "Le droit à l'épreuve des mécanismes offshore." Paris 1, 2010. http://www.theses.fr/2010PA010330.

Full text
Abstract:
L'approche institutionnelle des mécanismes offshore, fondée essentiellement sur la stratégie du naming and shaming, a démontré son inaptitude à appréhender la problématique dans sa globalité. Pour ce faire, la démarche fonctionnelle retenue renverse le paradigme institutionnel, en récusant les caractérisations ex-ante stériles de territoires au profit d'une analyse ex-post des comportements effectifs. Sous ce rapport, conformément à l'étymologie des termes, les mécanismes offshore se définissent par leur insertion dans des constructions juridiques, formelles ou non, qui permettent, sans nécessairement influer sur la localisation physique d'un agent, d'emporter sa translation de jure du champ d'un ordre légal impératif dans celui d'un système concurrent initialement non compétent ratione loci et l'éviction corrélative des normes applicables pour le régir. Dans un contexte de profonde mutation des cadres réglementaires et fiscaux, le prisme de l'ingénierie juridique autorise le dépassement des postures figées. Grille de lecture et instrument potentiel de politique législative, il révèle la nature des constructions offshore, en même temps que leur pierre de touche car, si les dispositifs normatifs qui les appuient, peu important leur légitimité, ne sauraient être jugés contraires au droit international, en revanche, les pratiques de contournement des lois impératives ont vocation à être mises en échec et leurs auteurs sanctionnés. La problématique questionne, par conséquent, la relation ambiguë des mécanismes offshore au droit.
APA, Harvard, Vancouver, ISO, and other styles
8

Ragaleux, Alexandre. "Mécanismes d'accès multiple dans les réseaux sans fil large bande." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066407/document.

Full text
Abstract:
Dans cette thèse, nous étudions le problème de l'allocation de ressources dans le cadre des réseaux 4G LTE. La méthode d'accès OFDMA qui est utilisée partage les ressources radios à la fois dans le domaine fréquentiel et temporel. En raison des déficiences du canal, les utilisateurs ne bénéficient pas toujours des mêmes débits d'émission/réception sur chacune des ressources. Dans ce cadre, notre problème consiste à distribuer ces ressources radios aux mobiles afin de leur permettre de transmettre/recevoir des données. L'algorithme utilisé pour allouer les ressources a une importance fondamentale sur les performances du système. La norme LTE ajoute des contraintes supplémentaires à ce problème et rend l'exploitation de la diversité fréquentielle et de la diversité multi-utilisateurs plus difficile. En effet, sous ces contraintes, nous montrons que le problème de l'allocation de ressources fait alors partie de la classe des problèmes « difficiles ». Par conséquent, les algorithmes classiques de la littérature sont souvent inadaptés à un réseau LTE réel. Nous proposons des algorithmes d'allocation de ressources à la fois pour le sens montant et descendant de LTE. Les contraintes de la norme sont rigoureusement prises en compte afin de construire des solutions efficaces. De plus, les algorithmes proposés sont génériques et peuvent donc s'adapter à une grande variété d'objectifs. En particulier, nous nous attachons à prendre en charge les trafics multimédias dont les débits et les besoins en qualité de service sont très hétérogènes (taux d’erreurs binaires, retard, gigue, etc.). En effet, l'augmentation progressive des débits et la forte popularité des équipements mobiles intelligents amènent à une utilisation toujours plus massive des applications multimédias. Tous nos algorithmes sont validés par simulation. Par ce biais, nous montrons que la prise en compte des contraintes de LTE est essentielle à l'obtention de performances élevées
In this thesis, we study the resource allocation problem within the framework of 4G LTE networks. The OFDMA access method divides the radio resources both in the frequency and time domains. Due to channel impairments, users do not always have the same transmit/receive rates on each resource. In this context, our problem is to share the radio resources between users and enable them to transmit/receive data. The algorithm used to allocate resources is of fundamental importance on system performance. The LTE standard adds constraints to this problem and makes harder the exploitation of the frequency and the multi-user diversity. Indeed, under these constraints, we show that the resource allocation problem becomes part of the « most difficult » problems. Therefore, the conventional algorithms are often not adapted to a real LTE network. We provide resource allocation algorithms for both the uplink and downlink of LTE. The constraints of the standard are rigorously taken into account in order to build effective solutions. In addition, the proposed algorithms are generic and can adapt to a wide variety of objectives. In particular, we focus on the support of multimedia traffic with heterogeneous quality of service requirements (bit error rate, delay, jitter, etc.). Indeed, the gradual increase of the offered throughput and the strong popularity of smart mobile devices lead to a massive use of multimedia applications. Our algorithms are validated through extensive simulation. By this means, we show that the inclusion of LTE constraints is essential to achieving high performance
APA, Harvard, Vancouver, ISO, and other styles
9

Ragaleux, Alexandre. "Mécanismes d'accès multiple dans les réseaux sans fil large bande." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066407.

Full text
Abstract:
Dans cette thèse, nous étudions le problème de l'allocation de ressources dans le cadre des réseaux 4G LTE. La méthode d'accès OFDMA qui est utilisée partage les ressources radios à la fois dans le domaine fréquentiel et temporel. En raison des déficiences du canal, les utilisateurs ne bénéficient pas toujours des mêmes débits d'émission/réception sur chacune des ressources. Dans ce cadre, notre problème consiste à distribuer ces ressources radios aux mobiles afin de leur permettre de transmettre/recevoir des données. L'algorithme utilisé pour allouer les ressources a une importance fondamentale sur les performances du système. La norme LTE ajoute des contraintes supplémentaires à ce problème et rend l'exploitation de la diversité fréquentielle et de la diversité multi-utilisateurs plus difficile. En effet, sous ces contraintes, nous montrons que le problème de l'allocation de ressources fait alors partie de la classe des problèmes « difficiles ». Par conséquent, les algorithmes classiques de la littérature sont souvent inadaptés à un réseau LTE réel. Nous proposons des algorithmes d'allocation de ressources à la fois pour le sens montant et descendant de LTE. Les contraintes de la norme sont rigoureusement prises en compte afin de construire des solutions efficaces. De plus, les algorithmes proposés sont génériques et peuvent donc s'adapter à une grande variété d'objectifs. En particulier, nous nous attachons à prendre en charge les trafics multimédias dont les débits et les besoins en qualité de service sont très hétérogènes (taux d’erreurs binaires, retard, gigue, etc.). En effet, l'augmentation progressive des débits et la forte popularité des équipements mobiles intelligents amènent à une utilisation toujours plus massive des applications multimédias. Tous nos algorithmes sont validés par simulation. Par ce biais, nous montrons que la prise en compte des contraintes de LTE est essentielle à l'obtention de performances élevées
In this thesis, we study the resource allocation problem within the framework of 4G LTE networks. The OFDMA access method divides the radio resources both in the frequency and time domains. Due to channel impairments, users do not always have the same transmit/receive rates on each resource. In this context, our problem is to share the radio resources between users and enable them to transmit/receive data. The algorithm used to allocate resources is of fundamental importance on system performance. The LTE standard adds constraints to this problem and makes harder the exploitation of the frequency and the multi-user diversity. Indeed, under these constraints, we show that the resource allocation problem becomes part of the « most difficult » problems. Therefore, the conventional algorithms are often not adapted to a real LTE network. We provide resource allocation algorithms for both the uplink and downlink of LTE. The constraints of the standard are rigorously taken into account in order to build effective solutions. In addition, the proposed algorithms are generic and can adapt to a wide variety of objectives. In particular, we focus on the support of multimedia traffic with heterogeneous quality of service requirements (bit error rate, delay, jitter, etc.). Indeed, the gradual increase of the offered throughput and the strong popularity of smart mobile devices lead to a massive use of multimedia applications. Our algorithms are validated through extensive simulation. By this means, we show that the inclusion of LTE constraints is essential to achieving high performance
APA, Harvard, Vancouver, ISO, and other styles
10

Gimbert, Florent. "Mécanique de la banquise Arctique et des matériaux granulaires : deux milieux, deux approches." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00846380.

Full text
Abstract:
Dans cette thèse, deux approches de caractérisation d'un comportement mécanique sont présentées, l'une sur la banquise Arctique, l'autre sur les milieux granulaires. Premièrement, une analyse de type mécanique des milieux continus est réalisée sur la banquise de manière à extraire la physique qui, au premier ordre, explique l'augmentation récente des vitesses de dérive et de déformation. Une méthode originale pour accéder aux propriétés mécaniques de la couverture de glace aux grandes échelles de temps et d'espace, c'est à dire sur tout le bassin Arctique et au cours de ces 40 dernières années, est proposée en quantifiant l'amplitude de la composante inertielle du mouvement des bouées enchâssées dans la glace. Le point fort de cette méthode réside dans le fait qu'elle apporte des informations sur la friction moyenne de la couverture de glace qui, jusqu'à maintenant, n'étaient pas disponible à ces échelles spatio-temporelles. A partir d'un modèle simple, nous montrons qu'un affaiblissement mécanique de la banquise, se traduisant par des changements dans le degré de fracturation de la couverture de glace, intervient au premier ordre dans la cinématique et la dynamique des glaces de mer. Cette observation souligne la nécessité de prendre en compte cette composante de manière appropriée dans les modèles ainsi que de développer des outils spécifiques pour accéder à cette quantité à l'échelle locale. Deuxièmement, une analyse de type mécanique statistique est adoptée dans l'étude numérique et expérimentale des milieux granulaires frottants sous compression. La quantification des hétérogénéités associées aux champs de contrainte et de déformation ainsi que leur lien avec le comportement mécanique macroscopique de ce matériau est étudiée. Aux petites échelles de temps, de fortes concentrations de contrainte et de déformation sont mises en évidence. De plus, des propriétés multi-échelles spécifiques caractérisent ces champs à l'instabilité macroscopique. Ainsi, à ce point d'instabilité, ces champs de déformation observés aux petites échelles de temps présentent des propriétés très différentes de celles présentées par la bande de cisaillement, habituellement caractérisée aux grandes échelles de temps. Le lien entre ces deux comportements caractéristiques reste à élucider.
APA, Harvard, Vancouver, ISO, and other styles
11

Cretin, Claude. "Étude des mécanismes de photorégulation de la phosphoénolpyruvate carboxylase et de la malate déshydrogénase à NADP des feuilles de sorgho." Paris 11, 1987. http://www.theses.fr/1987PA112454.

Full text
Abstract:
La phosphoénolpyruvate carboxylase (E. C. 4. 1. 1. 31) (PEPC) et la Malate Déshydrogénase à NADP (E. C. 1. 1. 1. 82) (MDH à NADP) sont deux enzymes clé du métabolisme photosynthétique des plantes de type C4. Dans le cytoplasme des cellules du mésophylle, la PEPC catalyse la réaction de β-carboxylation du PEP en acide oxaloacétique; celui-ci est réduit en malate dans les chloroplastes par la MDH à NADP. Le verdissement des feuilles de Sorgho (Sorghum vulgare F, cv. Tamaran FNK 140) s'accompagne d'une forte augmentation de l'activité enzymatique de ces deux biocatalyseurs. Ce travail a consisté en une étude des mécanismes de la photorégulation de la PEPC et de la MDH à NADP. Par traduction in vitro des ARNm poly (A+) des feuilles de Sorgho nous avons pu montrer, dans les deux cas, une augmentation de l'activité traductionnelle des ARNm spécifiques au cours du verdissement. De plus, dans le cas de la MDH, nous avons mis en évidence l'existence d'un précurseur possédant un peptide de transit d'environ 2,5 kDaltons intervenant dans le transport de la sous-unité de la MDH dans les chloroplastes. La construction et le criblage d'une banque d'ADN complémentaire dans le vecteur d'expression lambda gt11 à l'aide d'anticorps polyclonaux a permis d'isoler deux ADNc pour les deux enzymes. Ces clones ont été caractérisés par des expériences d'hybridation aux ARNm poly (A+) de feuilles vertes de Sorgho et traduction in vitro des ARNm sélectionnés. Grâce à ces sondes homologues, nous avons estimé la taille de l'ARNm de la PEPC à 3,4 kb et celui de la MDH à 1,6 kb, par la technique de Northern. De plus, nous avons pu montrer que le verdissement des feuilles s'accompagne d'une accumulation de ces ARNm. Enfin, une banque génomique a été construite dans le vecteur lambda EMBL4 à partir de fragments MboI de l'ADN de feuilles de Sorgho. 70 clones ont été sélectionnés par criblage de la banque à l'aide de la sonde d'ADNc PEPC. Un clone génomique (lambda CP46) a été plus particulièrement caractérisé. L'établissement de sa carte de restriction a permis de localiser une région de 7,5 kb couvrant tout le gène de la PEPC ainsi que les régions régulatrices et non codantes en 5' et en 3' du gène
Phosphoenolpyruvate carboxylase (E. C. 4. 1. 1. 31) (PEPC) and NADP-Malate Dehydrogenase (E. C. 1. 1. 1. 82) (NADP-MDH) are two key enzymes involved in the photosynthetic pathway of C4 plants. In the cytoplasm of mesophyll cells, PEPC catalyses the β-carboxylation of PEP giving rise to oxaloacetate which is then translocated into chloroplasts and reduced to malate by NADP-MDH. During the greening process of Sorghum leaf (Sorghum vulgare F, cv. Tamaran FNK 140), a light-dependent increase in enzyme activity occurs for both enzymes. The present work is devoted to the study of photoregulation mechanisms of PEPC and MDH. By in vitro translation of Sorghum leaf poly (A+) mRNA and immunoprecipitation using specific antibodies, we have shown a light-dependent increase in the translational activity of both mRNAs. Furthermore, a precursor form was found for the MDH with a transit peptide of about 2. 5 kDaltons; results suggested that the peptide was processed during the subunit translocation into the chloroplast. We have constructed a cDNA library from Sorghum leaf poly (A+) mRNA in the expression vector lambda gt11. Using polyclonal antibodies raised against PEPC and MDH, we isolated two cDNA clones for these enzymes, which were subsequently characterized by hybrid-selection translation experiments. Sizes of PEPC and MDH mRNAs were estimated by Northern blotting to be 3. 4 kb and 1. 6 kb respectively. It was shown that a light-dependent accumulation of both PEPC and MDH mRNAs occurred during the greening of Sorghum leaves. Finally, we constructed a genomic library in the phage lambda EMBL4 from MboI restriction fragments of Sorghum leaf DNA. Using the PEPC cDNA, we isolated 70 positive clones from the library. One of them (lambda CP46) has been characterized by establishing its restriction map. We could localize a 7. 5 kb region in the clone containing the entire PEPC gene. We also showed that lambda CP46 genomic clone contained the putative regulatory and non-coding regions at 5’ and 3' ends of the gene
APA, Harvard, Vancouver, ISO, and other styles
12

Jebli, Sinda. "Une analyse de l'importance des facteurs financiers dans le mécanisme de transmission de la politique monétaire en économie ouverte." Rennes 1, 2012. http://www.theses.fr/2012REN1G009.

Full text
Abstract:
Le retour des problèmes financiers depuis plusieurs années a conduit à une prise en compte des frictions financières dans les modèles de la nouvelle macroéconomie keynésienne. Cette thèse s'attache à analyser les mécanismes de transmission des chocs financiers sur l'économie réelle, dans le cadre d'une petite économie ouverte. La première approche théorique de cette thèse montre que la banque centrale peut être induite en erreur en s'appuyant sur un modèle standard sans secteur bancaire. Elle montre également que les implications des contraintes financières sont relativement plus importantes pour la transmission du choc financier aux principaux agrégats d'une petite économie ouverte. La deuxième approche théorique, qui cherche à étudier l'interaction entre la règlementation du capital et la politique monétaire, montre que l'introduction du ratio d'endettement dans la règle de Taylor ne semble pas améliorer la performance par rapport à une règle de taux d'intérêt standard. Cette thèse propose également une approche empirique afin de tester, d'une part, la présence d'un mécanisme d'accélérateur financier en République Tchèque et d'autre part, de montrer que la sensibilité aux contraintes financières est différente selon la taille des firmes. Les résultats montrent que les micro-entreprises, les plus dépendantes du crédit bancaire, font preuve d'une forte sensibilité de leur comportement d'investissement aux coûts de l'accès au financement externe
The return of financial problems for several years has led to a consideration of financial frictions in the New Keynesian models. This thesis attempts to analyze the mechanisms of transmission of financial shocks on the real economy, in the context of a small open economy. The first theoretical approach of this thesis shows that the central bank can be misled by relying on a standard model without the banking sector. It also shows that the implications of financial constraints are relatively more important for the transmission of financial shocks to the main aggregates of a small open economy. The second theoretical approach, which seeks to study the interaction between capital regulation and monetary policy, shows that the introduction of the debt ratio in the Taylor rule does not improve performance compared to a standard interest rate rule. This thesis also proposes an empirical approach to test firstly, the presence of a financial accelerator in the Czech Republic ad secondly, to show that sensitivity to financial constraints is different depending on the size of firms. The results show that micro-firms, more dependent on bank credit, show a strong sensitivity of their investment behavior to the costs of access to external financing
APA, Harvard, Vancouver, ISO, and other styles
13

Bonnet-Lebouvier, Anne-Sophie. "Analyse de la propagation dynamique d'une bande de cisaillement adiabatique." Metz, 2001. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2001/Bonnet_Lebouvier.Anne_Sophie.SMZ0117.pdf.

Full text
Abstract:
La propagation dynamique d'un bande de cisaillement adiabatique est analysée dans ce travail. La configuration des expériences de Marchand et Duffy (1988) est adoptée dans l'ensemble des simulations numériques réalisées. Une éprouvette de dimensions finies est soumise à un chargement de cisaillement simple par l'intermédiaire de vitesses ±V appliquées à ses bords. Après une période transitoire, un régime stationnaire s'installe dans lequel la bande se propage avec une vitesse constante. L'influence de la vitesse appliquée sur la célérité de la bande est caractérisée dans un premier temps. Une comparaison entre les configurations adiabatique et avec conduction thermique est effectuée afin de mettre en évidence le rôle de la conductivité thermique dans le processus de propagation. Une analyse dimensionnelle permet également d'établir une loi générale décrivant l'influence de chacun des paramètres du problème sur la vitesse de propagation de la bande. Finalement, le concept de zone de transition est introduit. Cette zone correspond à la région située à la pointe de la bande à l'intérieur de laquelle se produit une chute intense de la contrainte par couplage thermomécanique. Une analyse détaillée de la zone de transition permet de montrer comment la propagation de la bande est contrôlée par cette chute de contrainte
The dynamic propagation of diabatic shear bands is presently analyzed. A configuration representing the experiments of Marchand and Duffy (1988) is considered in the numerical simulations. A layer of finite length and finite width is subjected to shear loading. After a transient, a steady state is attained in which adiabatic shear bands propagate with a constant velocity. The evolution of the shear band speed is firstly determined as a function of the applied velocity. A comparison between the configuration including heat conduction and the adiabatic case is made in order to stress the influence of heat conductivity on the propagation process. A diamensional analysis allows to determine a general law describing the influence of each problem's parameter on the shear band speed. Finally, the concept of a process zone is introduced. The process zone is a region propagating with the shear band tip, where an intense stress softening by thermo-mechanical coupling. It is shown how the shear band propagation is controlled by this stress softening
APA, Harvard, Vancouver, ISO, and other styles
14

Boum, II Yap Jean-Bertrand. "Étudedu mécanisme catalytique de la thymidylate synthase ThyX de Chlamydia trachomatis et découverte d'inhibiteurs des ThyX par criblage aléatoire de banques de petites molécules." Paris 11, 2008. http://www.theses.fr/2008PA112366.

Full text
Abstract:
Les thymidylates synthases ThyA et ThyX sont responsables de la formation du thymidylate (dTMP), un précurseur essentiel à la synthèse de l’ADN. Ces deux enzymes diffèrent au niveau de leur séquence, de leur structure et de leur mécanisme. ThyX est absente chez l’Homme mais présente chez un grand nombre de bactéries pathogènes pour l’Homme telles que, Helicobacter pylori, Mycobacterium tuberculosis et Chlamydia trachomatis. Ces différences ont fait de ThyX une cible thérapeutique prioritaire, validée par l’OMS dans la recherche de nouveaux antimicrobiens pour la lutte contre la tuberculose. ThyA est active sous la forme de dimère, tandis que ThyX est proposée comme étant active sous la forme de tétramère. Elles diffèrent également au niveau de leur mécanisme réactionnel, ThyX est une flavoprotéine et utilise le NADPH comme cofacteur. Bien que le modèle de mécanisme catalytique de type séquentiel soit proposé pour les deux familles d’enzyme, le modèle de type ping-pong est proposé pour ThyX de C. Trachomatis. L’objectif de mon travail était d’étudier le mécanisme catalytique de ThyX de C. Trachomatis, d’évaluer le rôle des résidus conservés dans la famille des ThyX sur l’activité catalytique de ThyX de M. Tuberculosis, et de découvrir de nouveaux inhibiteurs des ThyX. Les résultats de mes travaux me permettent de proposer que la ThyX de C. Trachomatis suit un modèle catalytique de type séquentiel, tel qu’il est proposé pour les autres membres de la famille des Thyx. Les analyses réalisées par diffusion de rayon X aux petits angles (SAXS), m’ont permis d’observer un équilibre en solution entre les formes dimériques, tétramériques et hexamériques de ThyX de C. Trachomatis. Ces résultats montrent que ThyX est également active sous la forme de dimère, comme peut l’être ThyA. J’ai confirmé le rôle essentiel des résidus très conservés du « motif thyX » dans l’activité catalytique de ThyX de M. Tuberculosis. Les résultats obtenus ont contribué à l’extension de ce motif à la séquence (Y/W)X19-40RHRX7-8SXR(Y/F)X68-114R. L’optimisation et la validation des tests permettant de mesurer l’activité de ThyX, m’ont permis de cribler quatre banques de 2610 molécules sur les ThyX de Paramecium bursaria chlorella virus 1, d’H. Pylory, de M. Tuberculosis, de Borellia hermsei et de C. Trachomatis. J’ai identifié six molécules qui ont un effet inhibiteur sur la ThyX de ces cinq espèces bactériennes, et n’ont aucun effet sur la ThyA humaine. Ces six molécules ont également un effet antimicrobien sur un organisme possédant ThyX (H. Pylori), sur un organisme possédant à la fois ThyX et ThyA (M. Smegmatis), et n’ont aucun effet sur un organisme ne possédant que ThyA (E. Coli)
Thymidylate synthases, ThyA and ThyX, are enzymes responsible for the formation of the thymidylate (dTMP), an essential precursor in the synthesis of DNA. These two enzymes are different in their sequence, their structure and their mechanism. ThyX is absent in human but present in a large number of human pathogenic bacteria such as: Helicobacter pylory, Microbacterium tuberculosis, C. Trachomatis and many others. The differences of mechanism, structure and distribution of these enzymes, made the World Health Organization define the ThyX as a priority therapeutic target in the discovery of new antimicrobial agent against tuberculosis. ThyA is functionally active as a dimer, whereas ThyX is proposed to be a tetramer in its active form. They also differ mechanistically; ThyX is a flavindependent protein and use NADPH as a cofactor, while ThyA de not. Although sequential mechanism model is proposed for both families of enzyme, the ping-pong type model is proposed for Chlamydia trachomatis ThyX. The aim of my work was to study the mechanism of C. Trachomatis ThyX, to evaluate the role of residues conserved among this family on the catalytic activity of M. Tuberculosis ThyX, and to discover new inhibitors of ThyX. The outcome of my work allows me to propose that ThyX of C. Trachomatis follows a catalytic sequential type model, such as the other members of ThyX family. Small angle x-ray scattering (SAXS) analyses allowed me to observe equilibrium in solution between the dimer, tetramer and hexamer form of C. Trachomatis ThyX. These results show that ThyX is also active as dimer form like ThyA. I have confirmed the essential role of residues of the “ThyX motif” in the catalytic activity of tha ThyX of M. Tuberculosis. The obtained results contributed to the extension of this “ThyX motif” to the sequence (Y/W)X19-40RHRX7-8SXR(Y/F)X68-114R. The optimization and validation of the oxidation test and deprotonation test which allow the measurement of ThyX activity, led me to screen four libraries for a total of 2610 compounds against ThyX of Paramecium bursaria chlorella virus 1, M. Tuberculosis, Borellia hermsei, and C. Trachomatis. I have identified six inhibitors of ThyX activity from these five organisms which also de not inhibit human ThyA. These six molacules also have an antimicrobial effect on a bacteria species possessing ThyX (e. G. H. Pylori MIC~1,25-2,5μg/ml), on a bacteria species possessing both ThyX and ThyA (M. Smegmatis), and have no effect on a bacteria species possessing ThyA (E. Coli)
APA, Harvard, Vancouver, ISO, and other styles
15

Chihi, Meriam. "Propagation internationale de la crise des subprimes et mécanismes de transmission à la sphère réelle." Nice, 2012. http://www.theses.fr/2012NICE0032.

Full text
Abstract:
L’objectif de cette thèse est d’étudier les effets de contagion de la crise des subprimes sur les marchés financiers et d’analyser les mécanismes de sa propagation à la sphère réelle des pays développés (les Etats-Unis, la France, l’Allemagne, l’Italie, la Grande-Bretagne et le Japon). Pour ce faire, nous nous sommes intéressés, d’abord, à la modélisation de la contagion du marché des crédits subprimes et de cinq autres marchés financiers américains. Nous avons adopté un modèle VAR et nous l’avons appliqué pour deux sous-périodes ; une période de crise et une période d’accalmie. Nos résultats confirment la transmission des perturbations du marché des crédits subprimes aux autres marchés financiers américains et montrent que cette crise s’est rapidement transformée en une sévère crise financière en 2008. Cette crise financière s’est rapidement propagée à travers le monde. Nous avons analysé la transmission des chocs et de la volatilité entre les marchés boursiers étudiés, d’une part, et les corrélations entre ces marchés, d’autre part. Nous avons estimé un modèle GARCH à changements de régimes afin de montrer l’existence d’effets de co-mouvements et de contagion entre les indices étudiés et le modèle GARCH-BEKK afin de tester la transmission de chocs et de la volatilité entre les marchés. Le modèle GARCH-DCC est estimé afin de montrer l’effet de la crise des subprimes sur l’augmentation de la volatilité et des corrélations des marchés boursiers ainsi que la présence de corrélations dynamiques qui les lient. Nos résultats confirment la transmission des perturbations entre les marchés financiers. Une fois généralisée dans les différents marchés financiers, cette crise a fini par entraîner la récession des économies avancées. De ce fait, nous avons utilisé des modèles VAR afin de tester l’existence des effets de contagion de la sphère financière à la sphère réelle dans les six pays développés étudiés. Nos résultats confirment que les perturbations financières ont un impact récessif sur la consommation et l’investissement
The objective of this thesis is to study the effects of contagion of the subprime crisis on the financial markets and analyze the mechanisms of its spread to the real economy of the developed countries such as (the United States, France, the Germany, Italy, Britain and Japan). To do this, we were interested, first, to modeling the contagion of subprimes market and five other U. S. Financial markets. We adopted a VAR model and applied it for two sub-periods, a period of crisis and a period of calm. Our results support the transmission of disturbances in the subprime market loans to other U. S. Financial markets and show that this crisis quickly turned into a severe financial crisis in 2008. This financial crisis has spread rapidly throughout the world. We analyzed the transmission of shocks and volatility between the stock markets surveyed, on the one hand, and the correlations between these markets, on the other. We estimated a Markov Switching GARCH model to show the existence of effects of co-movement and contagion between the indices studied and the BEKK-GARCH model to test the transmission of shocks and volatility across markets. The DCC-GARCH model is estimated to show the effect of subprime crisis on the increase in volatility and correlations in stock markets and the presence of dynamic correlations between them. Our results support the transmission of disturbances between financial markets. Once widespread in the various financial markets, this crisis eventually led to a recession in the advanced economies. Therefore, we used the VAR models to test the existence of the contagion effects from the financial to the real economy in the six developed countries studied. Our results confirm that the financial turmoil has a recessionary impact on consumption and investment
APA, Harvard, Vancouver, ISO, and other styles
16

Soro, Alexandre. "Mécanismes de fiabilisation pro-actifs." Toulouse, ISAE, 2010. http://www.theses.fr/2010ESAE0018.

Full text
Abstract:
Depuis l'avènement de la théorie de l'information, la question de la fiabilisation des transmissions est allée de pair avec l'évolution des technologies et des applications. La fiabilisation des transmissions couvre l'ensemble des techniques permettant de lutter contre les erreurs et les pertes d'un canal de transmission. Parmi les mécanismes existants, la fiabilisation pro-active consiste à mettre en place une redondance au niveau d'un émetteur, celle-ci permettant de compenser à priori les pertes subies par le canal. La fiabilisation pro-active trouve son sens lorque l'émetteur ne peut avoir d'information sur l'état actuel du canal de transmission, ou lorque elle est inutile du fait de contraintes temporelles, mais aussi lorsqu'un émetteur doit s'adapter aux contraintes de plusieurs récepteurs. Initialement, les mécanismes de fiabilisation pro-actifs utilisant cette redondance sont connus sous le nom de codes correcteurs. La problématique associée à ces codes est alors une problématique d'optimisation : il s'agit de créer des codes flexibles permettant une génération rapide de la redondance par l'émetteur et une récupération des données initiales par le récepteur à faible coût, tout en conservant lameilleure capacité de correction possible. Par extension, la question de la fiabilisation concerne également l'étude de l'impact de mécanismes de suppression de redondance sur la fiabilité d'un système. Dans des réseaux plus spécifiques, où la question de l'utilisation de la bande passante est cruciale, des mécanismes de compression protocolaire peuvent être mis en place afin de diminuer la proportion de trafic engendrée par les en-têtes protocolaires.
APA, Harvard, Vancouver, ISO, and other styles
17

Toumi, Sirine. "L’impact des mécanismes de gouvernance dans la gestion des risques bancaires et la performance des banques. "Cas de la France , l’Allemagne et le Japon"." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR0031/document.

Full text
Abstract:
Cette thèse porte sur l’étude des mécanismes internes de gouvernance bancaire et leurs effets sur le risque de crédit et la performance bancaire. A partir d’un échantillon composé de 13 banques françaises, 13 allemandes et 20 japonaises cotées durant la période 2005 – 2012, nous essayons de détecter l’impact des caractéristiques de gouvernance bancaire, à travers les conseils d’administration et leurs différents comités, en premier lieu sur le risque du crédit, et en deuxième lieu sur la performance bancaire. Nos résultats montrent que les mécanismes internes de gouvernance affectent certes, le niveau des crédits non performants et la performance financière des banques, mais avec des effets plutôt mitigés. Ils révèlent également des divergences entre les banques des pays étudiés
The study of the internal mechanisms of governance in particular the board of directors and its relationship with the credit risk as well as the performance is the main subject of this thesis. From a sample of 13 French banks, 13 German and 20 Japanese rated during the period 2005 - 2012, we are trying to detect the impact of the characteristics of the Board of Directors and its committees on the credit risk, and on the banking performance. Our results show that the internal mechanisms of governance affect certainly, the level of appropriations non-performing assets and the financial performance of banks, but with mixed effects; they reflect this divergence between countries
APA, Harvard, Vancouver, ISO, and other styles
18

Thullier, Philippe. "Clonage d'un Fab recombinant, neutralisant le virus de la dengue : Localisation de son epitope par criblage de banques de phages-peptides : Description de son mécanisme d'action." Paris, Muséum national d'histoire naturelle, 2001. http://www.theses.fr/2001MNHN0034.

Full text
Abstract:
Un Fab recombinant, neutralisant les quatre sérotypes du virus de la dengue, a été obtenu à partir d'un hybridome murin, 4E11. Sa chaîne légère présente des homologies avec deux autres anticorps dirigés contre d'autres virus. L'affinité de l'anticorps parental et du Fab 4E11 pour l'antigène est de 10(9)M(-1). Le pouvoir de neutralisation du Fab est inférieur à celui de l'anticorps parental, d'un facteur 4 à 8. L'épitope de l'anticorps 4E11 avait été situé dans la région de la protéine d'enveloppe du virus (E) comprise entre les résidus 296 et 400 [E(296-400)](Mégret et coll. ,1992). Cet épitope a été précisément localisé, par criblage de banques de phages-peptides. Un clone de phage-nonapeptide non contraint (C1) a été sélectionné avec une fréquence de 1/2, et présentai 3 résidus identiques avec la région E(306-314). Deux autres clones sélectionnés présentaient des homologies avec cette région. Un modèle tridimensionnel de la protéine E a montré que la région E(306-314) est exposé aux solvants. Le phage-nonapeptide C1, et le peptide synthétique correspondant à E(306-314), réagissent avec 4E11. Ce peptide synthétique neutralise le virus de la dengue in vitro et représente la majeure partie de l'épitope de 4E11. La région E(284-310) a été décrite (Chen et al,1997) comme pouvant être impliquée dans la fixation du virus de la dengue aux héparanes sulfates fortement sulfatés (HSFS), présents à la surface des cellules-hôtes. Il a été montré que l'anticorps 4E11 bloque la fixation d'un fragment recombinant de la protéine E sur un modèle d'héparance sulfate fortement sulfaté, donc le mécanisme de neutralisation proposé pour l'anticorps 4E11 est celui de l'inhibition de la fixation du virus de la dengue aux HSFS de la surface des cellules hôtes.
APA, Harvard, Vancouver, ISO, and other styles
19

Boussois, Kévin. "Céramiques silicatées à résistance mécanique et ténacité élevées." Limoges, 2013. https://aurore.unilim.fr/theses/nxfile/default/409cf415-f1bf-4a2e-883f-2b79387c362d/blobholder:0/2013LIMO4022.pdf.

Full text
Abstract:
Des céramiques multicouches à microstructure organisée ont été obtenues à partir de kaolin et de fibres silico-alumineuses. Ce type de microstructure permet d’améliorer significativement la contrainte à la rupture et la ténacité, qui sont des propriétés essentielles des céramiques d'utilisation courante. Les deux voies principales qui favorisent l'organisation microstructurale sont (i) l'utilisation d'un procédé de mise en forme favorisant l'orientation préférentielle de particules de forme anisotrope dans le compact de poudre. C'est le cas des mélanges de kaolinite et de fibres mis en forme par pressage et surtout par coulage en bande; (ii), la recristallisation de cristaux aciculaires de mullite au cours du frittage se fait dans des directions préférentielles à partir des feuillets de kaolinite et des fibres qui ont un rôle de templates pour la croissance orientée de la mullite. Il en résulte un processus anisotrope de frittage dans les directions parallèle et perpendiculaire à l'orientation des feuillets de kaolin et des fibres. Simultanément à la densification, la croissance de la mullite est aussi fortement anisotrope, induisant la formation d’une microstructure micro composite organisée dans laquelle la majorité des grands cristaux de mullite sont principalement orientés dans la direction de coulage et perpendiculairement aux fibres. A l'échelle macroscopique, les matériaux présentent des propriétés mécaniques fortement corrélées au degré d'organisation des cristaux de mullite dans la microstructure. Les valeurs de contrainte à la rupture et surtout de ténacité sont significativement améliorées malgré la faible teneur en fibres (entre 1 et 5% volumique), en comparaison des propriétés de céramiques silicatées usuelles
Multilayer ceramic materials with organized microstructures were obtained from kaolin and alumino-silicate fibers. This kind of microstructure can significantly improve tensile strength and toughness, which are essential properties for conventional ceramics. The two main ways promoting microstructural organization are (i) the use of an adapted shaping process favoring the preferential orientation of anisotropic particles in the compact powder. This is the case of mixtures composed of kaolinite and fibers shaped by pressing and especially by tape casting; (ii) the recrystallization of mullite needle crystals during sintering occurs in preferred directions from the layers of kaolinite and fibers. This addition of template contributes to impose the mullite growth direction. An anisotropic sintering is then obtained in the directions parallel and perpendicular to the orientation of the layers of kaolin and fibers. Simultaneously to the densification, the growth of mullite is highly anisotropic, inducing the formation of a micro composite with an organized microstructure in which the majority of large mullite crystals are mainly oriented in the casting direction and perpendicular to the fibers. At the macroscopic scale, materials exhibit mechanical properties strongly correlated to the organization degree of mullite crystals in the microstructure. The values of tensile strength and toughness are mostly increased despite the low fiber content (between 1 and 5 vol. %) compared to the properties of usual silicate ceramics
APA, Harvard, Vancouver, ISO, and other styles
20

Lostec, Lionel. "Elaboration par coulage en bande et caractérisation microstructurale et mécanique de composites SiC-MAS-L." Limoges, 1997. http://www.theses.fr/1997LIMO0006.

Full text
Abstract:
Les proprietes thermomecaniques d'un composite fibreux a matrice ceramique sont largement dependantes de sa texture et de sa microstructure. En particulier, l'existence d'une porosite matricielle au sein des torons de fibres peut influencer la propagation de microfissures et donc la rupture du composite sous contrainte de traction. L'utilisation du coulage en bande comme procede de mise en forme des cmc permet d'accroitre l'homogeneite intra et extra-toron des plis preimpregnes et donc des composites apres frittage sous charge. Cette technique de mise en forme a ete appliquee avec succes aux composites a fibres si-c-o et matrice mas-l, fabriques par ailleurs par l'aerospatiale selon un procede classique d'infiltration en barbotine et d'enroulement filamentaire. Apres traitement thermique vers 750 c et broyage, les particules de mas-l possedent les proprietes chimiques (nature de la surface) et physiques (granulometrie et surface specifique) adaptees a l'impregnation des torons de fibres par coulage en bande. La definition de la composition de coulage et l'etude du comportement rheologique de la barbotine conduisent a un taux d'impregnation proche de 100 % et un degre d'homogeneite eleve a l'interieur meme des torons de fibres. L'optimisation des conditions de thermocompression permet d'accroitre la densite en cru des composites. Des plaques de matrice mas-l sont fabriquees dans les memes conditions. La caracterisation de la matrice et des composites ainsi realise a ete entreprise sur le plan microstructural et mecanique, a temperature ambiante et au cours de traitement isothermes jusqu'a 1100c sous differentes atmospheres. Une technique ultrasonore a permis de suivre les variations du module d'elasticite de la matrice d'une part, et des composites d'autre part le comportement a haute temperature des composites est different selon l'atmosphere. Il a ete interprete sur la base des evolutions microstructurales de la matrice et de reactions chimiques a l'interface fibre/matrice mettant en jeu la fibre, la matrice et l'interphase fibre/matrice.
APA, Harvard, Vancouver, ISO, and other styles
21

Zhang, Jinchi. "Microscopie acoustique large bande : modélisation des réponses échographiques et validation expérimentale." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0059.

Full text
Abstract:
Ce travail est une contribution à la microscopie acoustique, large bande. II présente un aspect assez fondamental, du fait de la part importante consacrée à la modélisation des phénomènes acoustiques et à leur validation. Nous nous sommes intéressés à l'étude des réponses échographiques de transducteurs focalisés de très forte ouverture angulaire lorsqu'ils sont placés en face d'un réflecteur plan, immergé dans de l'eau. Deux modélisations de la réponse échographique du transducteur, l'une directement dans le domaine temporel, l'autre par synthèse des réponses harmoniques, ont été développées. Ces deux approches différentes conduisent à des résultats identiques. La méthode d'intégration directe exploite des fonctions de Green temporelles pour le champ acoustique réfléchi. Cette approche imposant un calcul très long compliqué, nous avons eu recours à une méthode de synthèse harmonique qui s'est avérée plus efficace. L'étude préalable du régime harmonique nous a conduit à une expression intégrale des courbes V(z), qui met clairement en évidence la fonction pupille exacte de coupelles uniformes ou non. A partir de ce modèle harmonique, la réponse échographique impulsionnelle a été obtenue par transformée de Fourier inverse analytique. Les réponses calculées sont en excellent accord avec les résultats expérimentaux obtenus à l'aide d'un transducteur concave dont l'élément actif est un film de PVDF, prouvant ainsi la validité de l'hypothèse sur l'uniformité de vibration de la coupelle. Enfin deux applications ont été présentées, démontrant l’intérêt de cette approche impulsionnelle
This work is mainly a fundamental contribution to the wide band acoustic microscopy, due to the important part devoted to the modeling of acoustic phenomena and to their validation. We have been interested in the study of the impulse choreographic responses produced by large aperture spherical transducers immersed in water, in front of various solid plane reflectors. Two models were developed in order to predict these responses, the first operates directly in the time domain and the second makes use of the harmonic synthesis. These two methods lead to identical results. The temporal approach consists in adding the elementary contributions of the transient Green functions for the reflected field. This calculation is complicated and time consuming and therefore we have chosen a more efficient method based on a preliminary study in the frequency domain. For that purposed we derived a new formulation of the well-known V(z) curves, characterised by an exact expression of the pupil function for spherical caps vibrating uniformly or not. By Fourier transforming these exact harmonic results, the impulse echographic response was deduced. In the case of a semi infinite reflector, an interesting analytical expression has been obtained. The numerical simulations are in perfect agreement with the experimental results obtained with a wideband concave transducer, whose piezoelectric element is a thin PVDF film. This proves that our hypothesis, on the uniformity of the vibration of the concave surface, is satisfactory. At last, two applications were presented, demonstrating the interest of this wideband approach
APA, Harvard, Vancouver, ISO, and other styles
22

Makhlouf, Abderrahim. "Étude des mécanismes de l'équite de la qualité de service dans les réseaux Ad-Hoc." Paris 6, 2009. http://www.theses.fr/2009PA066744.

Full text
Abstract:
Avec l'émergence des applications multimédia dans les réseaux Ad-Hoc, des garanties de la qualité de service (QoS) sont de plus en plus exigées. Le premier obstacle à franchir consiste à connaître l'état du réseau en terme de délai ou de bande passante, que ce soit par la modélisation ou par le biais de mesures. Dans le cadre de cette thèse, nous nous sommes intéressés à l'étude de l'équité dans des réseaux Ad-Hoc basés sur le protocole 802. 11. Nous les avons tous d'abord modélisé et ensuite déduit les services offrant de la QoS. Dans un réseau Ad-Hoc, les communications fonctionnent en mode semi-duplex et les nœuds peuvent interférer. Dans ce contexte, les nœuds du réseau Ad-Hoc n'offrent pas un accès équitable aux ressources du réseau. L'allocation équitable des ressources est alors étudiée pour l'ensemble des nœuds dans un réseau en étoile. Nous nous sommes centrés sur l'équité au sein du réseau et sur les paquets reçus par chaque nœud. L'équité est évaluée pour des topologies de réseaux statiques appelé réseau simple étoile ou réseau double étoile. L'objectif est d'analyser le nombre de paquets reçus par chaque nœud et par conséquent le comportement de l'équité. Grâce au simulateur NS2, nous avons validé notre modèle analytique. Nous avons implémenté différents protocoles et étudié leurs performances en terme de service. L'équité est alors mesurée par un facteur de mesure appelé indice d' Pour les réseaux simple étoile, nous avons contrôlé la réception des paquets, ce qui nous a permis d'avoir une équité au sein de ce réseau et pour les réseaux double étoile nous avons pu établir un encadrement de l'indice de l'équité dans certains cas.
APA, Harvard, Vancouver, ISO, and other styles
23

Cheballah, Chafé. "Étude des mécanismes physiques à l'origine de la permittivité colossale observée dans certaines céramiques." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1779/.

Full text
Abstract:
Ces dernières années, des matériaux céramiques présentant une permittivité relative colossale ont été découverts. Les premiers travaux de recherche ont montré qu'une forte corrélation existe entre les propriétés électriques et la structure de ces matériaux. Ainsi, plusieurs types de caractérisations électriques ont été entrepris. La mesure par spectroscopie d'impédance est, de loin, la plus utilisée ; elle a permis à partir d'une modélisation par des circuits électriques équivalents d'avancer quelques hypothèses sur une polarisation interfaciale. Jusqu'à présent, ces interprétations sont toujours sujet à discussion et aucun modèle ne tient en compte toutes les propriétés connues pour ces matériaux, plus particulièrement, une réponse directionnelle (non symétrique) par rapport au champ électrique. L'enjeu de ce travail est de savoir s'il y a une relation entre toutes les caractéristiques de ces matériaux et d'avoir une explication par des mécanismes physiques les plus simples possibles de l'origine de la permittivité colossale. Des travaux antérieurs ont montré l'importance des effets d'interfaces dans ces matériaux à permittivité colossale, qu'ils soient associés à leurs contacts avec les électrodes métalliques, ou bien à une non homogénéité électrique entre les grains et les joints de grains qui les constituent. Afin de comprendre quelles sont les interfaces qui contrôlent les comportements de ces matériaux, et spécialement leur réponse non symétrique, un panel de caractérisations électriques ont été effectuées ; aussi bien à l'échelle macroscopique (pastille du matériau métallisé) qu'à un niveau local de grains et joints de grains individuels ; avec un soin particulier à la qualité des mesures (conditions, reproductibilité. . . Etc). Les résultats de ce panel élargi de caractérisations sont analysés et confrontés aux modèles existants dans la littérature afin d'améliorer ou de proposer un nouveau modèle qui décrit le plus complètement possible ce type de matériaux. Les caractérisations électriques du CCTO (CaCu3Ti4O12) ont montré des propriétés différentes de celles des matériaux diélectriques classiques, notamment la nonsymétrie et la " faible résistivité " qui mènent à reconsidérer la nature diélectrique de ce type de matériaux. Une caractérisation capacité-tension (C-V) utilisé habituellement pour caractériser les matériaux semi-conducteurs a révélé une structure de type Métal/Isolant/Semi-conducteur au contact matériau/électrodes. Une telle structure arrive à corréler les différents comportements électriques du matériau et à expliquer l'origine de la permittivité colossale apparente observée dans ces matériaux
In recent years, ceramic materials presenting a colossal relative permittivity have been largely studied. The first research works showed that a strong correlation exists between the electric properties and the structure of these materials. Impedance spectroscopy measurement is, by far, the most used one; it allowed from a modeling by electrical equivalent circuits to advance some hypotheses on an interfacial polarization. Until now, these interpretations are subject to discussion and no model takes into account all the known properties of these materials; particularly, the directional response (nonsymmetrical) in regard of the applied electrical field is still unexplained. The aim of this work is to know if there is a relation between all the characteristics of these materials to the microstructure, in order to understand the underlying physical mechanisms responsible of the observed colossal permittivity. Previous works showed the importance of interfaces effects on these colossal permittivity materials; even they are associated to their contacts with the metallic electrodes, or to an electrical heterogeneity of their microstructure composed of grains and grain boundaries. To understand which interfaces control the behavior of these materials, and specially their non-symmetrical response, a panel of electrical characterizations were made; both at the macroscopic scale (pellet of the metalized material) as at a local level of individual grains and grain boundaries; with a particular care in the quality of the measurements (conditions, reproducibility. . . Etc. ). Results of this widened panel of characterizations are analyzed and confronted to the existing models in order to amend the model that describes this type of materials. The electrical characterizations of the CaCu3Ti4O12 (CCTO) showed properties different from those of classical dielectric materials, in particular the non-symmetry and a "low resistivity" which lead to better define the scope where the material can be considered as a dielectric. A capacitance-voltage (C-V) characterization usually used to evaluate semiconductor materials revealed a Metal/ Insulator/Semiconductor structure at the material/electrode contact. Such a structure is proposed to explain some of the electric behavior of this material particularly the non-symmetrical response observed in these colossal dielectric constant materials
APA, Harvard, Vancouver, ISO, and other styles
24

Balasoiu, Dimitri. "Modélisation et simulation du comportement mécanique de floes de glace." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM045.

Full text
Abstract:
Cette thèse s'inscrit dans un projet global de recherche sur la modélisation de la banquise, mené conjointement par TOTAL S.A. et l'université Grenoble Alpes. Ce projet à ammené au développement d'un modèle granulaire pour simuler l'évolution de la banquise, ainsi que le comportement mécanique des floes de glace. Une implémentation informatique du modèle permet de simuler les collisions d'un million de blocs de glace, ainsi que leurs interactions avec des structures rigides. La présente thèse améliore ce modèle granulaire, en proposant un modèle efficace de fracture des blocs de glace. Dans une première partie, on propose un modèle de fracture d’un floe de glace lorsque celui-ci est soumis à un déplacement de son bord. Notre modèle est un modèle variationnel, dans la lignée du modèle de Francfort et Marigo, et consiste à minimiser l'énergie totale du matériau. On montre que, sous certaines hypothèses, cette fonctionnelle d'énergie possède bien un minimum. Le modèle proposé est efficace, et peut être intégré dans le modèle de collision, qui gère le comportement d'un grand nombre de blocs. Cette efficacité repose sur une hypothèse géométrique forte, bien qu'atténuée par l'utilisation d'un chargement quasi-statique : nous supposons que les seules fractures admissibles sont des segments de droites. Dans une seconde partie, on cherche à dériver les conditions au bord lors de la percussion à partir d'un modèle mécanique discret. Pour ce faire, on se propose de considérer un matériau élastique comme la limite d'un réseau isotrope de masses, reliées entre elles par des ressorts. Sur un réseau discret, on connaît l'équation différentielle qui régit le mouvement de chaque masse ; on peut espérer en dériver une expression du déplacement au bord. Une première étape est de montrer que l'état d'équilibre du réseau discret approche l'état d'équilibre d'un matériel élastique, lorsqu'on fixe un déplacement du bord. On présente plusieurs résultats de Gamma-convergence de fonctionnelles discrètes, définies sur différents réseaux de ressorts, vers la fonctionnelle d'énergie élastique classique. On utilisera en particulier un réseau isotrope, obtenu à partir d'un processus stochastique ponctuel sur lequel on construit une triangulation de Delaunay. Dans ce cas, on proposera un résultat de Gamma-convergence presque sûre
This doctoral dissertation is part of a research project on sea ice modeling, initiated by TOTAL S.A. and the Université Grenoble Alpes.This project lead to the development of a granular model for the evolution of sea ice, and in particular the mechanical behavior of ice floes in the marginal ice zone.The implementation of the model can simulate the collisions of one million ice floes, and their interaction with rigid structures.This PhD thesis improves the current granular model by adding an efficient model for ice floe fracture.Firstly, we present a fracture model for an ice floe subject to a boundary displacement.This model is a brittle fracture model, relying on the work of citeauthor{GRIFFITH1921}.It is written in a variational framework inspired from that of citeauthor{FM98}'s model: we minimize the total energy of the material.We show that, under some hypothesis, the total energy of the ice floe has a minimum.This variational model is efficient, and can be used in the collision model which simulates the behavior of a large number of floes.This efficiency relies on a strong geometric hypothesis, although mitigated by the use of a quasistatic loading : we restrict the space of admissible fractures to the set of segment lines.Secondly, we present a research strategy to obtain an expression of the boundary displacement during the percussion of two ice floes.The strategy is the following : we consider the ice floe as the limit of an isotropic mass-spring lattice.For a given lattice, we can write the differential equation verified by each mass, and thus we hope to derive an expression of the boundary displacement.We identify three mathematical limits which we deem necessary to the understanding of the percussion phenomenon, and we obtain two of them.Doing so, we prove two Gamma-convergence results of discrete functionals, defined on different lattices, to the classical elastic energy.In particular, we work with a stochastic isotropic lattice, built as the Delaunay triangulation of a stochastic point process.In that case, we will prove the almost-sure Gamma-convergence
APA, Harvard, Vancouver, ISO, and other styles
25

Rozenberg, Yannick. "Modélisation analytique du bruit aérodynamique à large bande des machines tournantes : utilisation de calculs moyennés de mécanique des fluides." Phd thesis, Ecole Centrale de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00678225.

Full text
Abstract:
Le bruit à large bande constitue aujourd'hui une part importante, parfois dominante, du bruit généré par certains ventilateurs à basse vitesse ou soufflantes de turbomachines. Ce travail de thèse propose une approche hybride combinant les méthodes analytiques avec le post-traitement de simulations des équations moyennées de la mécanique des fluides.Une synthèse bibliographique du bruit à large bande généré par les profils d'aile est effectuée. Les modèles analytiques développés par Amiet pour le bruit d'impact de turbulence et le bruit de bord de fuite sont présentés, et des extensions en sont également proposées. Dans une seconde partie, les pales d'un ventilateur axial à basse vitesse sont instrumentées, afin de mesurer la statistique de pression en paroi. Le modèle analytique du bruit de bord de fuite est ici étendu au cas d'une pale de ventilateur puis validé par comparaison de la pression acoustique mesurée en chambre anéchoïque avec le modèle. Une extension est ensuite proposée pour appliquer, à titre prospectif, cette formulation en champ libre au calcul de la puissance acoustique d'une soufflante de turbomachines. Dans un contexte industriel, les informations disponibles sur l'écoulement autour d'un ventilateur ne sont que les données moyennes, issues d'une simulation des équations moyennées de Navier-Stokes (RANS). Dans des cas simples, des modèles semi-empiriques permettent d'en déduire le spectre des fluctuations de pression en paroi. En revanche, ils ne peuvent pas être appliqués à un écoulement soumis à un gradient de pression positif. Une augmentation du niveau spectral dans ce cas est observée et un nouveau modèle empirique est proposé.
APA, Harvard, Vancouver, ISO, and other styles
26

Azrak, Edy Edward. "Croissance et caractérisation des Nanofils GeSn et SiSn obtenue par le mécanisme Solide-liquide-Solide." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR135/document.

Full text
Abstract:
L’alliage germanium-étain est un semiconducteur qui suscite une grande attention en raison de ses propriétés électriques et optiques. L’incorporation de Sn dans le germanium permet d’ajuster la largeur de bande interdite (gap) et d’améliorer la mobilité des électrons et des trous, et pour une quantité suffisante d’étain, le matériau passe d’un gap indirect à direct. Cet alliage est versatile parce qu’il peut être intégré d’une façon monolithique sur le Si, c’est ce qui en fait un matériau idéal dans les domaines de l'optoélectronique à base de silicium. Cette thèse est sur la fabrication et la caractérisation de nanofils cristallins Ge1-xSnx à haute concentration en Sn. Des nouvelles stratégies ont été employées pour fabriquer de nombreux types de nanofils GeSn. Les résultats ont été expliqués en fonction des modèles cinétiques existants. Un nouveau mécanisme de croissance y est décrit: le mécanisme solide-solide-solide – SSS. Il consiste à faire croître des nanofils de GeSn dans le plan du substrat à l’aide de catalyseurs d’étain à une température inférieure au point de fusion de Sn. Quatre modèles de transport de masse sont proposés pour le mécanisme de croissance du SSS. Diverses caractérisations (par exemple TEM et APT) ont été effectuées pour étudier les propriétés physiques, et chimiques des nanofils
Germanium-Tin alloy is a unique class semiconductor gaining a strong attention because of its significant electrical and optical properties. Sn incorporation in Ge allows straightforward band-gap engineering enabling to enhance the electron and hole mobilities, and for a sufficient Sn amount an indirect-to-direct band-gap transition occurs. Its versatility rises due the possible monolithic integration on Si-platforms making it an ideal material in domains of optoelectronics, and high speed electronic devices. This thesis has focused on the fabrication and characterization of crystalline Ge1-xSnx nanowires with high Sn concentrations. New strategies were designed to fabricate many types of GeSn nanowires. The results have been explained as function of the existing kinetic models. A new growth mechanism was reported (i.e. Solid-Solid-Solid mechanism – SSS), it consists of growing in-plane GeSn nanowires using Sn catalysts below the melting point of Sn. Four mass transport models were proposed for the SSS growth mechanism. Various characterizations (e.g. TEM and APT) were done to investigate the physical and chemical properties of the obtained nanowires
APA, Harvard, Vancouver, ISO, and other styles
27

Bodiou, Loïc. "Etude des mécanismes d’excitation et d’émission de couches minces de nitrure de gallium dopées Eu3+, Er3+ et Tm3+ pour nouveaux dispositifs électroluminescents." Caen, 2007. http://www.theses.fr/2007CAEN2039.

Full text
Abstract:
Cette thèse porte sur les mécanismes d’excitation et d’émission des couches minces de nitrure de gallium dopées par des ions de terre rare (Eu3+, Er3+ et Tm3+) suite à une excitation optique (photoluminescence) ou électrique (électroluminescence) du matériau semi-conducteur. A l’intérieur du GaN, deux catégories de site d’incorporation d’ions de terre rare peuvent être distinguées, à savoir les ions de terre rare "isolés" (c’est-à-dire ne contenant aucun défaut dans leur voisinage) et les complexes associant un ion de terre rare avec un piège, celui-ci pouvant provenir du dopage lui-même ou d’un défaut cristallin. L’excitation non-résonante est réservée au second type de centres et a lieu par transfert d’énergie lors de la recombinaison non radiative d’un exciton lié sur un piège proche de la terre rare. La comparaison d’échantillons de GaN dopés in situ et par implantation ionique par l’ion Eu3+ montre que ces films présentent chacun deux types de complexes "Eu3+-piège" dont l’un est commun à tous les échantillons. Les différences d’efficacité d’excitation respectives des deux complexes s’expliquent par la proximité du piège correspondant. Grâce à des expériences pompe-sonde combinant des lasers impulsionnel et continu, le chemin d’excitation des ions de terre rare est confirmé expérimentalement et deux des mécanismes d’extinction de leur luminescence (la photo-ionisation de pièges et l’effet Auger avec des porteurs libres) sont étudiés. L’excitation électrique du GaN:Er3+ est également présentée. Les études en fonction de la température, du courant parcourant l’échantillon ou de la tension de polarisation mettent en évidence l’excitation par impact des ions de terre rare
The PhD dissertation is devoted to the understanding of the excitation and quenching mechanisms of rare-earth (Eu3+, Er3+ and Tm3+) doped gallium nitride thin films. Rare-earth doping of GaN thin films results in two different types of incorporation sites for rare-earth ions: "isolated" ions (without any defect in their vicinity) and "rare-earth - trap" complexes. This trap can originate from the lattice distortion induced by the doping itself or from defects. Non-resonant excitation is reserved to this second kind of centres and occurs by energy transfer arising from the non radiative recombination of an exciton trapped in the vicinity of the rare-earth ion. Eu-implanted and in situ doped gallium nitride samples have been compared. Each presents two optically active "rare-earth - trap" complexes, one of which is common to all samples. Excitation efficiency differences between these complexes are found to be dependent on the distance between the trap and the rare-earth ion. Pump-probe experiments confirm experimentally the excitation path towards rare-earth ions and allow the study two quenching mechanisms namely photo-ionisation of traps and Auger effect with free carriers. Electroluminescence of GaN:Er3+ is also presented. Temperature, current and voltage dependant measurements indicate that electrical excitation of rare-earth ions take place by impact excitation
APA, Harvard, Vancouver, ISO, and other styles
28

Kuhm, David. "Contribution à la modélisation et à l'optimisation d'accumulateurs de bandes flexibles, incluant l'étude du frottement bande/rouleau." Thesis, Mulhouse, 2011. http://www.theses.fr/2011MULH4271.

Full text
Abstract:
Cette étude se focalise principalement sur la modélisation et l’amélioration d’un accumulateur industriel de bande. Le premier chapitre présente la modélisation non-linéaire, puis la linéarisation autour d'un point de fonctionnement, d’un accumulateur industriel comportant un chariot pneumatique ou motorisé. Cette modélisation complète prend en compte les non-linéarités des différents types d’actionneurs du chariot. Les paramètres mécaniques les plus influents sur les performances de ces accumulateurs sont mis en évidence, puis les stratégies de commandes industrielles classiques sont testées sur ces accumulateurs. Le second chapitre présente l’optimisation des performances de l’accumulateur. Des améliorations de la commande sont réalisées : prise en compte de la robustesse, optimisations multi-objectifs, nouvelles structures de commandes. Ces améliorations montrent un net gain des performances concernant la tension de bande à la sortie de l'accumulateur. De nouvelles structures d’accumulateurs incluant un danseur sont proposées, améliorant fortement les performances. Une comparaison des performances des différents accumulateurs est présentée. Le dernier chapitre présente l’étude du frottement bande textile/rouleau. Le comportement au frottement de bandes textiles glissant sur un rouleau est identifié. L'évolution du coefficient de frottement est déterminée expérimentalement pour différents paramètres et types de bandes. Suite à ces mesures, un modèle de bande défilant sur un rouleau, incluant coefficient de frottement et perte d’adhérence est proposé et montre l’influence du coefficient de frottement sur la réponse du système à une variation de vitesse de bande
This study focuses mainly on modeling and optimization of industrial web accumulators. The chapter one presents the nonlinear model of an industrial accumulator including a pneumatic actuated or a motorized carriage. The nonlinear model is then linearized around a working point. This model takes into account nonlinearities of both carriage actuators. The most influent mechanical parameters on the accumulator performances are highlighted and then, classical industrial control strategies are tested on the modeled accumulators. The chapter two concerns the accumulator performances optimization. Firstly, controllers are improved by taking into account the robustness against parameter variations, by using multi-objective controllers optimization or by using new control strategies. All these improvements show drastic performances gain. New accumulator structures including a dancer roll are proposed and improve also the accumulator performances. A performances comparison of the entire presented accumulator is presented at the end of this chapter. The last chapter presents the study of the friction between textile fabric and roll. The friction behavior of a web sliding on a roll is identified. The friction coefficient evolution is experimentally determined for different experimental parameters and kind of webs. These measures have permitted to build a model of a web sliding on a roll. This model, including the friction coefficient and the adherence loss between web and roll highlights the response of the web/roll system against web velocity variation
APA, Harvard, Vancouver, ISO, and other styles
29

Bailly, Guillaume. "Développement de la transduction microonde appliquée à la détection d'ammoniac : du nanomatériau au capteur large bande, compréhension des mécanismes et influence des traces d'eau." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK029/document.

Full text
Abstract:
L’objectif principal de cette thèse est de proposer une analyse des spécificités de la transduction microonde dans le cadre d’une application capteur d’ammoniac. Les deux spécificités principales sont la caractérisation large bande (1 et 8 GHz) et les matériaux sensibles (diélectriques). Cette méthode de transduction repose sur l’interaction entre un gaz polluant et un matériau sensible déposé à la surface d’une structure propagative spécifique aux microondes. La réponse du capteur n’est pas directement induite par les propriétés diélectriques de la molécule gazeuse, mais plutôt par celles de l’espèce cible adsorbée à la surface du matériau sensible. Cette adsorption provoque une modification des paramètres du capteur mesurés par un analyseur de réseau vectoriel. Contrairement à des transductions conventionnelles comme la conductimétrie, ce principe fonctionne à température ambiante avec tout type de matériau, y compris les isolants électriques.Les premiers travaux réalisés durant cette thèse ont conduit au développement d’un nouveau banc expérimental. Il est spécifiquement adapté à l’étude de capteurs microondes par mesures des coefficients de réflexion et de transmission. Ce développement comprend la conception de deux nouvelles générations de capteurs, recouverts d’oxydes métalliques (fer ou titane) commerciaux ou synthétisés dans le cadre de l’étude. Le premier capteur comporte des circuits interdigités tandis que le second est un résonateur trapézoïdal. Ce dernier est caractérisé par une série de fréquences d’intérêt distribuées régulièrement entre 1 et 8 GHz. L’association d’un spectromètre de masse au banc de mesure a permis de suivre les adsorptions/désorptions de l’espèce cible qui est l’ammoniac (10-100 ppm), mais également le comportement du gaz vecteur utilisé, l’argon, et de l’eau adsorbée initialement sur le matériau sensible ou volontairement ajoutée en cours de l’expérience. L’objectif est d’étudier le rôle de l’eau comme interférent vis-à-vis de la détection de l’ammoniac. Une troisième molécule d’intérêt, l’éthanol, a été également été utilisée durant les expériences afin d’estimer de potentielles différences de comportement entre les molécules détectées. Les résultats expérimentaux ont été exploités au moyen de protocoles de traitement de données spécifiquement établis durant cette thèse. Des traitements temporels ont été conduits afin d’étudier le comportement cinétique du capteur, tandis que des traitements spectraux ont permis d’appréhender l’aspect large bande de la réponse du capteur en présence de polluants.Le premier résultat majeur est l’augmentation significative de la sensibilité à l’ammoniac, qui a permis d’abaisser le seuil de détection à des concentrations d’ammoniac de l’ordre de 10 ppm. Le dioxyde de titane a été identifié comme un bon candidat pour la détection d’ammoniac, avec des variations de coefficient de réflexion allant jusqu’à 6 dB pour 300 ppm d’ammoniac. Le rôle de l’eau initialement adsorbée sur le matériau sensible a été élucidé, montrant que son influence n’est significative que lors des premières minutes des expérimentations. Ainsi, il est possible de détecter l’ammoniac en présence d’humidité. Les processus liés aux expositions aux flux gazeux et particulièrement au gaz vecteur ont été identifiés et ont confirmé que la réponse du capteur était uniquement due à son interaction avec les molécules cibles. Un autre résultat majeur est la définition des conditions opératoires nécessaires à l’établissement de la sélectivité. Notre analyse théorique a clairement démontré l’intérêt des mesures large bande en termes de discrimination de molécules cibles. Cette analyse a été testée dans le cadre d’expériences multicibles utilisant l’ammoniac, l’eau et l’éthanol. Ces observations ont permis d’établir un cahier des charges d’une nouvelle génération de capteurs microondes, garantissant une discrimination systématique entre ces trois molécules
The main objective of this thesis is to propose an analysis of the microwave transduction specificities in the framework of ammonia sensing applications. The two main features of this transduction are its broadband characterization (1 to 8 GHz) as well as its sensitive materials (dielectrics). This transduction method is based on the interaction between a polluting gas and a sensitive material deposited on the surface of a microwave-specific propagating structure. The response of the sensor is not directly induced by the dielectric properties of the gaseous target molecule, but rather by those of the target species adsorbed on the surface of the sensitive material. This adsorption causes a modification of the sensor parameters measured by a vector network analyzer. Unlike more conventional transducers such as conductimetry, this principle works at room temperature with any type of material, including electrical insulators.The first work carried out during this thesis led to the development of a new experimental bench adapted specifically for the study of microwave gas sensors by measuring the S-parameters in reflection and transmission modes. This development includes the design of two new generations of sensors, coated with metal oxides (iron or titanium oxides) commercially available or synthesized during the study. The first sensor comprises interdigital circuits while the second sensor is a trapezoidal resonator. The latter is characterized by a series of frequencies of interest regularly distributed between 1 and 8 GHz. The association of a mass spectrometer with the measurement bench allowed to follow the adsorption and desorption behavior of the target species which is ammonia (10-100 ppm), but also the behavior of the vector gas conventionally used, argon, and water initially adsorbed on the sensitive material or intentionally added during the experiment. The objective is to study the role of water as interfering with the detection of ammonia, the main target species. A third molecule of interest, ethanol, was also used during the experiments in order to estimate the possible differences in the detected molecules behaviors. The experimental results were exploited using specific data processing protocols established during this thesis. Temporal treatments were carried out to study the kinetic behavior of the sensor, while spectral treatments allowed to apprehend the broadband aspect of the sensor response in the presence of pollutants.The first major result is the significant increase in sensitivity to ammonia, which significantly lowered the detection threshold to ammonia concentrations in the 10 ppm range. Titanium dioxide has been identified as a good candidate for ammonia detection, with reflection coefficient variations up to 6 dB for 300 ppm. The role of the water initially adsorbed on the sensitive material has been elucidated, showing that its influence is significant only during the first few minutes of the experiments. Thus, it is possible to detect ammonia in the presence of residual moisture. The processes induced by the gaseous exposures and particularly by the carrier gas were identified, and confirmed that the sensor response was solely due to its interaction with the target molecules. Another major result is the definition of the operating conditions that are necessary for the establishment of the selectivity. Our theoretical analysis clearly demonstrated the interest of broadband measurements in terms of discrimination of target molecules. This analysis has been tested in multitarget experiments using ammonia, water and ethanol. These observations allowed to establish the specifications of a new generation of microwave sensors, guaranteeing systematic discrimination between these three molecules
APA, Harvard, Vancouver, ISO, and other styles
30

Soalla, Wendkouni Lydie Sophie. "L'action des institutions financières internationales et leur impact sur les systèmes nationaux : aspects budgétaires et fiscaux. Le cas du Burkina Faso." Thesis, Lyon 3, 2012. http://www.theses.fr/2012LYO30083.

Full text
Abstract:
Depuis son accession à l’indépendance, le Burkina Faso est à la recherche d’une politique publique de développement qui lui permette de sortir de son état de « sous-développement ». La politique budgétaire a, de ce fait, été instituée en catalyseur d’un développement économique et social durable. Mais les errements budgétaires des Gouvernements qui se sont succédé ont plutôt entraîné une triple crise : une crise de la dette, une crise des déficits publics et une crise économique. A compter des années 1990, le FMI et la Banque Mondiale sont intervenus, aux côtés des autorités burkinabé, dans le cadre d’une double assistance technique et financière afin de réformer, structurellement, la politique budgétaire. Cette intervention va s’installer durablement dans la politique interne burkinabé. En deux décennies, la politique des finances sera orientée au gré de la doctrine budgétaire et des priorités définies par le FMI et la Banque Mondiale : les programmes d’ajustement structurel, puis la politique de lutte contre la pauvreté vont tenter de réaliser les objectifs de croissance économique, puis de croissance économique et sociale, grâce à une réforme de la politique de dépenses budgétaires et de la politique de ressources budgétaires. Seulement, quelque soit l’objectif pris en considération, les résultats atteints restent bien éloignés des résultats escomptés en termes de restructuration de la dette, des dépenses et des ressources budgétaires. Cette dynamique de réformes permet néanmoins de s’interroger, au vu des expériences passées, sur le rôle à attribuer à l’Etat au Burkina Faso, à la politique budgétaire, au FMI et à la Banque Mondiale, aux institutions communautaires ouest-africaines dans le processus de développement que le Burkina Faso doit nécessairement relancer, afin que ces décennies de réformes ne soient pas considérées comme inutiles
Since its independence, Burkina Faso is seeking public policy development that allows him to leave his state of "underdevelopment". Fiscal policy has, therefore, been established as a catalyst for sustainable economic and social development. But mistakes budget successive Governments have instead led to a triple crisis: a debt crisis, a crisis of deficits and an economic crisis. Beginning in the 1990s, the IMF and the World Bank intervened alongside Burkinabe authorities, within a double technical and financial assistance to reform structurally fiscal policy. This intervention will settle permanently in the internal politics of Burkina Faso. In two decades, finance policy will be geared to suit the budget doctrine and priorities defined by the IMF and the World Bank: the structural adjustment programs and the political fight against poverty will try to achieve the objectives of economic growth, and economic growth and social reform through policy and budgetary spending policy of budgetary resources. But whatever the goal under consideration, the results achieved are far removed from the expected results in terms of debt restructuring, expenditure and budgetary resources. This dynamic reforms can nevertheless wonder, in view of past experience, the appropriate role for the state in Burkina Faso, fiscal policy, the IMF and the World Bank, the Community institutions in West Africa the development process as Burkina Faso must necessarily raise, so that decades of reforms are not considered necessary
APA, Harvard, Vancouver, ISO, and other styles
31

Louati, Fatma. "Trafics bidirectionnels et asymétrie : mécanismes pour optimiser les performances et maximiser l'utilisation des liens de l'Internet." Phd thesis, Nice, 2004. http://tel.archives-ouvertes.fr/tel-00408683.

Full text
Abstract:
Les réseaux asymétriques sont des réseaux ne présentant pas la même capacité en terme de bande passante sur le lien ascendant et sur le lien descendant. Si de plus nous avons un trafic bidirectionnel sur de tels réseau, paquets de données et paquets d'acquittement se partagent les ressources. Cette cohabitation de paquets pose d'énormes problèmes au protocole TCP. Afin d'y remédier, une multitude de solutions ont été proposées dans la littérature.
Dans cette thèse, nous analysons les problèmes qu'une telle situation engendre, puis nous décrivons quelques unes des solutions les plus prometteuses. Nous démontrons aussi par une étude de cas leur inéfficacité.
Nous proposons ensuite deux nouveaux ordonnanceurs ayant pour but commun de maximiser l'utilisation d'un lien asymétrique et satisfaire ainsi l'utilisateur de tels liens. Nous proposons ACQ de l'anglais Adaptive Class-based Queuing. ACQ manipule des agrégats de trafics, classés dans deux catégories et dont l'ordonanncement s'adapte au trafic qui passe afin d'avoir toujours une utilisation maximale du lien asymétrique. Nous proposons aussi VAQ de l'anglais Virtual Ack-based Queueing. VAQ suit une approche à granularité fine, c'est-à-dire qu'il manipule directement des paquets de données et d'acquittement en ayant toujours pour objectif de maximiser l'utilisation du lien asymétrique. Nous mettons en évidence dans cette thèse l'augmentation importante de l'utilisation des liens asymétriques obtenue avec ACQ et VAQ. Nous montrons d'autre part la robustesse de ACQ et de VAQ face à des changements dans les paramètres et la topologie du réseau ainsi que leur impact favorable sur d'autres critères de la qualité de service.
APA, Harvard, Vancouver, ISO, and other styles
32

Biri, Aroua. "Proposition de nouveaux mécanismes de protection contre l'usurpation d'identité pour les fournisseurs de services Internet." Thesis, Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0009/document.

Full text
Abstract:
De plus en plus d’organisations sont informatisées et plus une organisation est grande, plus elle peut être la cible d’attaques via Internet. On note également que les internautes utilisent de plus en plus Internet pour faire des achats sur des sites de commerce électronique, pour se connecter à l’administration en ligne, pour voter de manière électronique, etc. Par ailleurs, certains d’entre eux ont de plus en plus d'équipements électroniques qui peuvent être raccordés à Internet et ce dans divers sites (domicile, voiture, lieu de travail, etc.). Ces équipements forment ce qu’on appelle un réseau personnel qui permet la mise en place de nouvelles applications centrées sur l’internaute. Les fournisseurs de services Internet peuvent ainsi étoffer leurs offres de services en présentant une offre de sécurisation de ce genre de réseau. Selon le rapport du cabinet « Arbor Networks » intitulé « Worldwide Infrastructure Security Report », les menaces identifiées comme les plus sévères sont relatives aux attaques de déni de service distribué. Ce type d’attaque a pour but de rendre indisponible un service en empêchant les utilisateurs légitimes de l'utiliser. Il utilise la technique de l’usurpation d’identité qui consiste en la création de paquets (de type IP, ARP, etc.) avec une adresse source forgée et ce dans le but d’usurper un système informatique ou d’usurper l’identité de l’émetteur. La technique de l’usurpation d’identité permet ainsi de rendre un service indisponible, d’écouter, de corrompre, de bloquer le trafic des internautes ou de nuire au bon fonctionnement des protocoles de routage et des réseaux personnels des clients. De plus, la technique de l’usurpation d’identité est également utilisée pour des activités interdites par la loi « Hadopi » en rigueur en France comme le téléchargement illégal. De ce fait, les fournisseurs de services Internet se doivent de prémunir leurs clients des attaques basées sur la technique de l’usurpation d’identité. Ces dits fournisseurs comptent sur les protocoles de routage qu’ils déroulent pour participer au bon acheminement des données de leurs clients. Cependant, le protocole intra-domaine OSPF et le protocole inter-domaine BGP sont vulnérables aux attaques utilisant la technique de l’usurpation d’identité qui peuvent conduire à l’acheminement des paquets vers des destinataires non légitimes ou au déni de service. Nous proposons donc deux mécanismes dédiés respectivement au protocole intra-domaine OSPF et au protocole inter-domaine BGP. D’une part, afin de protéger les routeurs OSPF contre les attaques utilisant la technique d’usurpation d’identité, nous avons préconisé le stockage de l’identité et du matériel cryptographique dans un coffre-fort électronique que sont les cartes à puce. Les cartes déroulent ensuite un algorithme de dérivation de clés avec les cartes des routeurs voisins ainsi qu’avec celle du routeur désigné. Les clés dérivées entre les cartes à puce servent à signer les messages OSPF et à authentifier le niveau MAC. Nous avons décrit par la suite la plateforme du démonstrateur et les scénarios de tests adoptés pour évaluer les performances de notre prototype et les comparer avec ceux du logiciel Quagga sur la base de trois critères : le temps requis pour traiter une annonce d'état de liens, le temps de convergence ainsi que le temps de re-calcul d’une table de routage après un changement. Ces temps augmentent peu avec l’introduction de la carte à puce implémentant les fonctions de sécurité proposées. Ainsi, cette solution permet de renforcer la sécurité du protocole OSPF avec un impact raisonnable sur les performances. D’autre part, afin de protéger les routeurs BGP contre les attaques utilisant la technique d’usurpation d’identité, nous avons préconisé la « clustérisation » des domaines Internet et la sécurisation des liens entre les clusters ainsi qu’au sein de chacun d’eux grâce aux paradigmes de « web of trust » et de la cryptographie sans certificats […]
More and more organizations are computerized and more an organization is great, plus it can be the target of Internet attacks. Moreover, some of them have a growing number of electronic equipments that can be connected to the Internet from various locations (home, car, workplace, etc.). These devices form a so-called personal area network that allows the development of new applications centered on users. The ISPs can then expand their service offerings by providing a secure supply of such networks. According to the report of the firm “Arbor Networks”, entitled "Worldwide Infrastructure Security Report ", the most severe threats are related to distributed denial of service. This type of attack aims to make available a service by preventing legitimate users from using it. It uses the technique of identity theft that involves the creation of packages (like IP, ARP, etc.) with a forged source address and that in order to usurp the Identity of the issuer or of the computer system. Thus, the technique of identity theft allows to render a service unavailable, to listen, to corrupt, to block traffic from Internet users or to undermine the legitimate operation of routing protocols and personal networks. Moreover, the technique of identity theft is also used for prohibited activities by "HADOPI" law in France and related to illegal downloading issues. Thus, the ISPs have a duty to protect their customers from attacks based on the technique of identity theft. The mechanisms of protection against spoofing attacks for access networks are crucial for customer adoption of new applications offered by Internet service providers. This part of the doctoral thesis is part of the European project “MAGNET Beyond" whose vision is to put into practice the concept of personal networks, with the ultimate objective to design, develop, prototype and validate the concept. In the context of user equipment’s access to the network of an Internet services provider from a public place, we proposed a cross-layer protocol based on the principles of information theory. This protocol fixes the security hole not addressed by other proposals that is the attack of identity theft that occurs at the beginning of communication and thus protects users against the middle man attacks. We proposed that the person who wants to have secure access to the Internet must be on a specific circle has been called "RED POINT" so that the attacker is not able to be on the same circle at the same time. The proposed cross-layer protocol can be divided into three phases: the phase of checking the position of the user, the extraction phase of the shared secret of the physical layer and the phase of the derivation of the shared key at the MAC layer. We subsequently validated our solution through a formal tool AVISPA and presented the results of its implementation. In a private context, communication between devices convey users' personal data which may be confidential, so we must prevent equipment not belonging to the legitimate user to access its network. Thus, we proposed two mechanisms of protection against attacks based on spoofing so that illegitimate equipment is unable to impersonate legitimate equipment. The first phase will be dedicated to personal networks and the second will be dedicated to the particular case of medical networks. Regarding the mechanism dedicated to personal networks, we have proposed the use of a protocol based on out-of-band channel in order to provide certificates to user equipments. We derive bilateral key for personal network’s equipments of the same site and between equipments at remote sites. Concerning the particular case of medical networks, we proposed to cover their deployment phases and their operational phases. This proposal was submitted to the IEEE 802.15.6 working group that conducts research for the standardization of medical networks […]
APA, Harvard, Vancouver, ISO, and other styles
33

Coeffier, Claude. "Étude de la commande de traction dans les entrainements de bande de métal." Vandoeuvre-les-Nancy, INPL, 1992. http://www.theses.fr/1992INPL061N.

Full text
Abstract:
Le présent travail concerne la modélisation et la commande d'un système multivariable de grandes dimensions: le comportement en traction dans une bande de métal transportée au travers d'un four vertical de recuit. Dans une première partie, un modèle de connaissance du procédé est construit. L'application des techniques de perturbations singulières permet d'élaborer des expressions analytiques simples des gains et des pôles du système en fonction de ses paramètres physiques. Elle permet également d'expliquer des propriétés liées aux conditions aux limites. Dans la seconde partie du travail, une identification du système est mise en œuvre dans le but de valider le modèle de connaissance et d'estimer certains de ses paramètres méconnus. Un problème important est alors posé: comment identifier le procédé multivariable étudié dans le but de valider le modèle de connaissance proposé? Nous présentons notre démarche et l'expérience acquise sur ce système physique. Dans la dernière partie de ce mémoire, l'algorithme que nous avons développé, réalisant un calcul optimal de la régulation implantée sur site (une régulation proportionnelle-intégrale cascade) est présente. Son application au procédé réel est exposé
APA, Harvard, Vancouver, ISO, and other styles
34

Billon, Kevin. "Composites périodiques fonctionnels pour l'absorption vibroacoustique large bande." Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2018/document.

Full text
Abstract:
Ces travaux de thèse sont consacrés à l’analyse des phénomènes ondulatoires se produisant dans les structures périodiques : des phénomènes comme les réflexions de Bragg ou les résonances locales qui émergent dans de telles structures permettent de contrôler la propagation des ondes, et ces structures présentent donc des propriétés spécifiques. Dans le premier chapitre, des outils numériques permettant de déterminer les relations de dispersion dans les structures périodiques sont présentées, et notamment la méthode de Floquet-Bloch qui sert de référence dans l’analyse des milieux périodiques. Cette technique consiste à résoudre le problème sur une cellule unitaire avec des conditions limites adaptées, cependant l’introduction d’amortissement dans les cas 2D et 3D n’est pas facile. Elle est mise en œuvre dans le deuxième chapitre pour étudier la propagation des ondes dans un méta matériau comprenant des performations rectangulaires, hiérarchiques et auxétiques (coefficient de poisson négatif). L’influence des paramètres géométriques de la cellule sur la dispersion et les propriétés mécaniques de la structure est investiguée en utilisant une méthode d’homogénéisation. Une validation expérimentale est effectuée sur un réseau en polyméthacrylate de méthyle (PMMA) en utilisant un vibromètre3d à balayage. Dans le troisième chapitre, une alternative à la méthode de Floquet-Bloch pour étudier la propagation d’ondes dans des milieux dissipatifs est décrite : la méthode intitulée « Shift cell operator ». Elle est basée sur une reformulation du problème aux équations aux dérivés partielles, la périodicité étant incluse dans le comportement global de la structure et des conditions de continuité sur les bords de la cellule sont imposés. Cette stratégie permet de résoudre le problème quelle que soit l’évolution en fréquence de propriétés de la cellule. Des outils de post-traitement des diagrammes de dispersion avec amortissement sont proposés basés notamment sur une analyse de la vitesse de groupe. Dans le dernier chapitre, la démarche est appliquées sur une structure périodique amortie consistant en un guide d’ondes bidirectionnel infini mêlant aluminium et polymère hautement dissipatif. Les résultats obtenus sur une structure finie intégrant une interface composée d’un ensemble distribué de ces cellules unitaires confirment le caractère adaptatif du méta matériau ainsi conçu. Une confrontation de ces résultats à des résultats expérimentaux a permis de confirmer ce comportement
The understanding of wave propagation in periodic structures is proposed in this work. Periodic structures exhibit very specific properties in terms of wave propagation. First, some numerical tools for dispersion analysis of periodic structures are presented. The classical Floquet-Bloch approach is first presented, as a reference. This technique uses proper boundary conditions on the unit cell, but dealing with damping is not easy for 2D or 3D cases. Secondly, a metamaterial with hierarchical, auxetic (negative Poisson ratio) rectangular perforations is presented using the Floquet-Bloch method as a reference. Some numerical eigenvalue tools are used for the dispersion analysis of this structure. A geometric parametric investigation of these rectangular perforations using a numerical asymptotic homogenisation finite element approach is done. The experimental validation is performed with a network based on polymethyl methacrylate (PMMA) using a 3D scanning vibrometer. Third, the Shift cell operator technique is described. It consists in a reformulation of the PDE problem by shifting in terms of wave number the space derivatives appearing in the mechanical behavior operator inside the cell, while imposing continuity boundary conditions on the borders of the domain. Damping effects can be introduced in the system. This strategy make it possible to solve the problem with an arbitrary frequency dependency of the physical properties of the cell. A focus is proposed on tools for the post-processing of dispersion diagrams in damped configurations like group velocity. Finally, an adaptive metamaterial based on the combination of metallic parts with highly dissipative polymeric interface is designed. In order to validate the design and the adaptive character of the metamaterial, results issued from a full 3D model of a finite structure embedding an interface composed by a distributed set of the unit cells are presented. After this step, a comparison between the results obtained using the tunable structure simulation and the experimental results is presented
APA, Harvard, Vancouver, ISO, and other styles
35

Girard, Lucas. "Vers un nouveau cadre de modélisation rhéologique de la banquise." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENU021.

Full text
Abstract:
Fine couche de glace flottant à la surface des océans polaires, la banquise est un objet dynamique qui joue un rôle clé dans le système climatique. Isolant l'océan de l'atmosphère, la banquise contrôle par l'intermédiaire de l'épaisseur de glace et de la fraction d'eau libre les flux d'énergie entre ces deux milieux, et ce de manière fortement non linéaire : dans une banquise dont 0. 5% de la surface est constituée de fractures, 50% des flux de chaleur s'effectuent le long de ces fractures. Il apparait donc essentiel de mieux comprendre et modéliser les processus de déformation et de rupture de la banquise. Dans la première partie de ce travail, le cadre de modélisation mécanique actuellement utilisé dans les modèles de banquise, la rhéologie Visqueuse-Plastique (VP), est évalué sur la base des propriétés statistiques et propriétés d'échelle des vitesses de dérive et de déformation de la banquise. Ces propriétés jouent un rôle important pour les flux de chaleur air-mer et la production de glace, d'autre part elles peuvent être considérées comme une empreinte du comportement mécanique de la banquise. Cette évaluation met en évidence les limitations du cadre de modélisation VP et notamment son incapacité à reproduire les propriétés de déformation de la banquise. Cela suggère que la rhéologie VP n'est pas adaptée à la modélisation de la banquise. Le nouveau cadre de modélisation mécanique developpé au cours de cette thèse fait l'hypothèse que la déformation de la banquise est principalement accommodée par fracturation et glissement le long de failles (comportement fragile) sur une vaste gamme d'échelles (transmission de contraintes à grande distance). Dans ce nouveau modèle, baptisé la rhéologie Elasto-Fragile (EB), la banquise est considérée comme une plaque solide élastique, permettant les interactions à grande distance, associée à une loi d'endommagement progressive, décrivant un comportement fragile. Le modèle EB est premièrement utilisé pour mener une étude fondamentale sur la rupture dans les matériaux hétérogènes. Une divergence de la longueur de corrélation est mise en évidence à partir des fonctions de corrélation des évènements d'endommagement ainsi que par l'analyse d'échelle du champ de déformation. Les propriétés d'échelles du champ de déformation qui émergent à l'approche de la rupture sont proche de celles observées pour la déformation fragile des objets géophysiques tel que la banquise ou la croûte terrestre. Ces résultats soutiennent l'analogie entre rupture et point critique. Une application idéalisée de la rhéologie EB à la banquise Arctique, adaptée à des simulations courtes (3 jours), est présentée. Les propriétés statistiques et propriétés d'échelle obtenues pour la déformation simulée sont comparables à celles obtenues pour la banquise. Ces premiers résultats prometteurs soutiennent que les propriétés de déformation de la banquise émergent du comportement mécanique élasto-fragile de la banquise et motivent l'implémentation de la rhéologie EB dans les modèles globaux de banquise. Sur des périodes de temps plus longues, l'effet du regel des failles et fractures présentent au sein de la banquise doit être pris en compte. Une loi de cicatrisation décrivant ce processus est présentée ainsi que des résultats préliminaires de simulations prenant en compte cet aspect. Finalement, une méthodologie pour l'implémentation de la rhéologie EB dans un modèle global de banquise est présentée
In this thesis, new approaches are used to model the mechanical behavior of sea ice and to evaluate sea ice models in terms of ice drift and deformation. It is first shown how the statistical and scaling properties of sea ice drift and deformation can be used as an evaluation metric for sea ice models. These properties are known to play an important role regarding ice growth estimates and should therefore be captured in sea ice models. The evaluation metric is applied to simulations performed with a coupled ocean/sea ice model, where the mechanical behavior of sea ice is represented using the Viscous-Plastic (VP) rheology, as in most current global ocean and climate models. The VP model is shown to be unable to capture the statistical and scaling properties of sea ice deformation. As these properties are a signature of the ice mechanical behavior, it suggests that the VP rheology is inappropriate for sea ice modeling. The new mechanical model developped during this thesis is based on the hyopthesis that sea ice deformation is mainly accommodated by fracturing and frictional sliding (brittle behavior) over a wide range of scales (stresses can be transmitted on long distances). The main characteristics of this new model, named the Elasto-Brittle (EB) rheology, are progressive damage to represent the brittle behavior, and an elastic constitutive law to allow long-range elastic interactions to take place. The EB rheology is first used to carry out a fundamental study of fracture in heterogeneous media. Simulations show that fracture is preceded by a divergence of the correlation length, measured from a correlation analysis of discrete events and from a scaling analysis of the continuous strain-rate field. The scaling properties of deformation that emerge in the vicinity of failure ressemble those observed for the brittle deformation of geophysical objects such as sea ice or the earth's crust. These results, that argue for a critical point interpretation of fracture, are discussed in the context of fracture at geophysical scales. Secondly, short term simulations of the winter Arctic sea ice cover are carried out using the EB rheology. The results show that the EB rheology captures well the statistical and scaling properties of sea ice deformation, motivating the implementation of the EB rheology in global sea ice models. On longer time scales, sea ice can recover its mechanical properties through refreezing of fractures. A healing law accounting for this process is presented along with preliminary results from simulations accounting for the effect of healing. Finally, a methodology for the implementation of the EB rheology within a global sea ice model is presented and discussed
APA, Harvard, Vancouver, ISO, and other styles
36

Ballas, Grégory. "Modèle structural, mécanique et pétrophysique de la localisation de la déformation dans les grès poreux(Provence, France)." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01001389.

Full text
Abstract:
Cette étude est destinée à améliorer la compréhension des caractéristiques structurales, pétrophysiques et mécaniques des bandes de déformation dans les grès poreux ainsi que de leur rôle potentiel sur la migration ou le piégeage des fluides en milieu réservoir. L'analyse structurale et pétrophysique des réseaux de bandes de Provence montre que leur perméabilité découle principalement de l'intensité de la cataclase dans leur microstructure et des processus diagénétiques qui peuvent s'y localiser avec la profondeur. L'analyse régionale de ces réseaux de bandes souligne l'influence majeure du régime tectonique sur leur distribution, leur organisation et leur perméabilité. Les bandes associées au régime normal (cataclactiques et peu perméables) sont localisées autour des failles cartographiques, tandis que les bandes associées au régime inverse (modérement cataclastiques et perméables) sont distribuées dans toute la région. Les bandes inverses sont fortement cataclastiques et imperméables uniquement autour du chevauchement de Roquemaure ce qui montre le rôle potentiel de la présence de grande faille sur les caractéristiques structurales et pétrophysiques de ces bandes. D'autre part, cette analyse suggère que la granulométrie de l'encaissant peut influencer l'initiation et l'organisation des réseaux. L'analyse mécanique des bandes de déformation a ensuite été réalisée à partir des résultats obtenus en Provence. L'enveloppe de plasticité de ces matériaux est calculée à l'aide d'une solution analytique. Les essais triaxiaux menés sur le grès de la carrière de l'Etang (orange) confirment la forme de ces enveloppes estimées théoriquement. Les essais réalisés sur les sables de Boncavaï (Uchaux) montrent que la taille des grains, le tri et de la compaction dans ces matériaux peu lithifiés influent sur leurs enveloppes de plasticité et la localisation des bandes cataclastiques à faibles profondeurs. Les trajets de contraintes sont estimés pour les phases d'enfouissement et de chargement tectonique (extension et compression) à partir de la relation entre contrainte principale et contraintes secondaires (K0), calibrée à partir de données de forage. Ces résultats sont intégrés à un modèle permettant d'estimer la nature et les caractéristiques structurales des bandes susceptibles de se former dans un contexte géologique donné. Un modèle structural, mécanique et pétrophysique a été établir à partir de ces différents résultats. Ce modèle est calibré à partir des données de perméabilité mesurées sur les bandes de Provence et des résultats du modèle mécanique de localisation cité précédemment. Ce modèle a ensuite été confronté à une synthèse des données de perméabilité disponibles dans la littérature et confirme l'influence des différents paramètres de contrôle pris en compte dans le modèle. Ce modèle a enfin pu être appliqué sur deux sites d'explorations/exploitations d'uranium en réservoir gréseux poreux et validé par les résultats obtenus, en concordance avec les observations de terrain.
APA, Harvard, Vancouver, ISO, and other styles
37

Millot, Anthony. "Etude d'un réseau de capteurs environnementaux en bande ISM." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00573695.

Full text
Abstract:
Cette thèse présente l'étude d'un réseau de capteurs pour la surveillance en temps réel de la qualité des eaux souterraines. L'objectif est de réussir à communiquer dans la bande de fréquences libre à 433MHz sur plusieurs dizaines de kilomètres. Le problème majeur des bandes libres est la présence de transmissions parasites (brouilleurs). Nous avons donc, en premier lieu, mis en évidence de la présence de ces brouilleurs et étudier leur impact sur les communications. Après analyse, il s'avère que les brouilleurs sont très nombreux et puissants mais que leur répartition dans la bande est inégale. Une étude spectrale de la bande semble nécessaire, avant la mise en place du réseau, afin de transmettre dans les canaux les moins pollués. Des communications nocturnes sont également à privilégier car les brouilleurs sont moins nombreux la nuit. Nous présentons ensuite une architecture réseau, adaptée au cahier des charges et à cette bande de fréquences. Nous avons également testé un composant RF dédié aux transmissions en bande ISM. Les résultats montrent que les performances de ce composant sont faibles pour des communications longues distances en présence de brouilleurs. Un récepteur radiofréquence simple ne permet donc pas de réaliser des communications fiables dans ces conditions. Le prototype complet du réseau, développé durant ces travaux, est ensuite décrit. Pour finir, nous proposons un nouveau concept de récepteur, utilisant un réseau d'antennes phasé et un détecteur cyclostationnaire, pour pallier au problème des brouilleurs. Le but est de stocker les signaux reçus pour les traiter en temps différé à l'aide d'algorithmes de filtrage spatial. Des simulations montrent l'efficacité de ce concept.
APA, Harvard, Vancouver, ISO, and other styles
38

Roessner, Daniel. "Contribution à l'étude du comportement mécanique des carcasses textiles de bandes transporteuses : optimisation de la jonction." Thesis, Mulhouse, 2010. http://www.theses.fr/2010MULH4553/document.

Full text
Abstract:
La bande transporteuse est utilisée dans l’industrie pour acheminer de la matière ou des objets dans de multiples domaines d’applications tels que les mines souterraines ou aériennes, les carrières, l’industrie alimentaire, l’industrie agricole ou les supermarchés. Ses composants lui permettent de travailler dans des conditions extrêmement difficiles. L’intérêt est porté sur les bandes transporteuses de mines de fond dont les contraintes de fonctionnement et d’acheminement sont particulières. En effet, la bande est acheminée sur rouleaux et jonctionnée sur le site de l’utilisateur pour former une bande sans fin. La jonction est le point faible de la bande transporteuse car sa résistance représente 50% seulement de la force de rupture nominale de la bande. L’objet de cette étude est de proposer une nouvelle solution de jonctionnement.Après avoir analysé les différentes contraintes mécaniques et chimiques auxquelles la bande transporteuse est soumise, une étude comparative sur les différents types de jonctions a été menée.Il y a les jonctions chimiques et les jonctions mécaniques. Chacune a des avantages et des inconvénients en termes de coût ou de longévité, qui ont été présentés. Dans un troisième temps, une étude a été menée sur la compréhension du comportement de rupture de la jonction mécanique. L’étude sur la jonction a été réalisée à l’aide d’un montage expérimental conçu spécifiquement. L’influence des paramètres de la jonction a pu être évaluée grâce à un nouvel indicateur adimensionnel représentant l’efficacité de la jonction par rapport à la bande normale (Junction Tensile Strength Efficiency : JTSE). Dans un quatrième temps, une étude a été faite sur un système de jonction innovant par couture. La jonction réalisée a été testée sur un banc de traction pour en vérifier l’efficacité, puis des essais ont été effectués sur un banc dynamique pour en étudier la fatigue. La jonction cousue est une innovation qui permet de dégager de nouvelles perspectives dans le jonctionnement des bandes transporteuses
The conveyor belt is used as a material and object transportation tool in a lot of industries such as underground mines, quarries, food industries, agribusinesses or supermarkets. The studied subject is the underground mine conveyor belt, because of their transportation and use difficult conditions.Indeed, the conveyor belt must be cut to be dispatched using belt reeling and joined afterwards in the underground mine forming an endless belt. However, the junction is the weakest part of the conveyor belt due to the 50% belt weakening. The aim of this study is to propose a new junction solution. After analysing the underground belt mechanical and chemical use conditions, the different junction types have been analysed. A junction advantage and inconvenience comparison has been presented. Then, the junction mechanical behaviour has been studied using an original mechanical setup reproducing the mechanical junction. The different parameter influence has been evaluated using a new adimensional indicator called junction tensile strength efficiency. In the last part, a new junction solution made by a sewn has been explored. The sewn junction tensile efficiency has been tested on a tensile strength machine and its fatigue efficiency has been verified through dynamic tests. New outlines in the conveyor belt joining are open as a result of the sewn junction solution development
APA, Harvard, Vancouver, ISO, and other styles
39

Biri, Aroua. "Proposition de nouveaux mécanismes de protection contre l'usurpation d'identité pour les fournisseurs de services Internet." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0009.

Full text
Abstract:
De plus en plus d’organisations sont informatisées et plus une organisation est grande, plus elle peut être la cible d’attaques via Internet. On note également que les internautes utilisent de plus en plus Internet pour faire des achats sur des sites de commerce électronique, pour se connecter à l’administration en ligne, pour voter de manière électronique, etc. Par ailleurs, certains d’entre eux ont de plus en plus d'équipements électroniques qui peuvent être raccordés à Internet et ce dans divers sites (domicile, voiture, lieu de travail, etc.). Ces équipements forment ce qu’on appelle un réseau personnel qui permet la mise en place de nouvelles applications centrées sur l’internaute. Les fournisseurs de services Internet peuvent ainsi étoffer leurs offres de services en présentant une offre de sécurisation de ce genre de réseau. Selon le rapport du cabinet « Arbor Networks » intitulé « Worldwide Infrastructure Security Report », les menaces identifiées comme les plus sévères sont relatives aux attaques de déni de service distribué. Ce type d’attaque a pour but de rendre indisponible un service en empêchant les utilisateurs légitimes de l'utiliser. Il utilise la technique de l’usurpation d’identité qui consiste en la création de paquets (de type IP, ARP, etc.) avec une adresse source forgée et ce dans le but d’usurper un système informatique ou d’usurper l’identité de l’émetteur. La technique de l’usurpation d’identité permet ainsi de rendre un service indisponible, d’écouter, de corrompre, de bloquer le trafic des internautes ou de nuire au bon fonctionnement des protocoles de routage et des réseaux personnels des clients. De plus, la technique de l’usurpation d’identité est également utilisée pour des activités interdites par la loi « Hadopi » en rigueur en France comme le téléchargement illégal. De ce fait, les fournisseurs de services Internet se doivent de prémunir leurs clients des attaques basées sur la technique de l’usurpation d’identité. Ces dits fournisseurs comptent sur les protocoles de routage qu’ils déroulent pour participer au bon acheminement des données de leurs clients. Cependant, le protocole intra-domaine OSPF et le protocole inter-domaine BGP sont vulnérables aux attaques utilisant la technique de l’usurpation d’identité qui peuvent conduire à l’acheminement des paquets vers des destinataires non légitimes ou au déni de service. Nous proposons donc deux mécanismes dédiés respectivement au protocole intra-domaine OSPF et au protocole inter-domaine BGP. D’une part, afin de protéger les routeurs OSPF contre les attaques utilisant la technique d’usurpation d’identité, nous avons préconisé le stockage de l’identité et du matériel cryptographique dans un coffre-fort électronique que sont les cartes à puce. Les cartes déroulent ensuite un algorithme de dérivation de clés avec les cartes des routeurs voisins ainsi qu’avec celle du routeur désigné. Les clés dérivées entre les cartes à puce servent à signer les messages OSPF et à authentifier le niveau MAC. Nous avons décrit par la suite la plateforme du démonstrateur et les scénarios de tests adoptés pour évaluer les performances de notre prototype et les comparer avec ceux du logiciel Quagga sur la base de trois critères : le temps requis pour traiter une annonce d'état de liens, le temps de convergence ainsi que le temps de re-calcul d’une table de routage après un changement. Ces temps augmentent peu avec l’introduction de la carte à puce implémentant les fonctions de sécurité proposées. Ainsi, cette solution permet de renforcer la sécurité du protocole OSPF avec un impact raisonnable sur les performances. D’autre part, afin de protéger les routeurs BGP contre les attaques utilisant la technique d’usurpation d’identité, nous avons préconisé la « clustérisation » des domaines Internet et la sécurisation des liens entre les clusters ainsi qu’au sein de chacun d’eux grâce aux paradigmes de « web of trust » et de la cryptographie sans certificats […]
More and more organizations are computerized and more an organization is great, plus it can be the target of Internet attacks. Moreover, some of them have a growing number of electronic equipments that can be connected to the Internet from various locations (home, car, workplace, etc.). These devices form a so-called personal area network that allows the development of new applications centered on users. The ISPs can then expand their service offerings by providing a secure supply of such networks. According to the report of the firm “Arbor Networks”, entitled "Worldwide Infrastructure Security Report ", the most severe threats are related to distributed denial of service. This type of attack aims to make available a service by preventing legitimate users from using it. It uses the technique of identity theft that involves the creation of packages (like IP, ARP, etc.) with a forged source address and that in order to usurp the Identity of the issuer or of the computer system. Thus, the technique of identity theft allows to render a service unavailable, to listen, to corrupt, to block traffic from Internet users or to undermine the legitimate operation of routing protocols and personal networks. Moreover, the technique of identity theft is also used for prohibited activities by "HADOPI" law in France and related to illegal downloading issues. Thus, the ISPs have a duty to protect their customers from attacks based on the technique of identity theft. The mechanisms of protection against spoofing attacks for access networks are crucial for customer adoption of new applications offered by Internet service providers. This part of the doctoral thesis is part of the European project “MAGNET Beyond" whose vision is to put into practice the concept of personal networks, with the ultimate objective to design, develop, prototype and validate the concept. In the context of user equipment’s access to the network of an Internet services provider from a public place, we proposed a cross-layer protocol based on the principles of information theory. This protocol fixes the security hole not addressed by other proposals that is the attack of identity theft that occurs at the beginning of communication and thus protects users against the middle man attacks. We proposed that the person who wants to have secure access to the Internet must be on a specific circle has been called "RED POINT" so that the attacker is not able to be on the same circle at the same time. The proposed cross-layer protocol can be divided into three phases: the phase of checking the position of the user, the extraction phase of the shared secret of the physical layer and the phase of the derivation of the shared key at the MAC layer. We subsequently validated our solution through a formal tool AVISPA and presented the results of its implementation. In a private context, communication between devices convey users' personal data which may be confidential, so we must prevent equipment not belonging to the legitimate user to access its network. Thus, we proposed two mechanisms of protection against attacks based on spoofing so that illegitimate equipment is unable to impersonate legitimate equipment. The first phase will be dedicated to personal networks and the second will be dedicated to the particular case of medical networks. Regarding the mechanism dedicated to personal networks, we have proposed the use of a protocol based on out-of-band channel in order to provide certificates to user equipments. We derive bilateral key for personal network’s equipments of the same site and between equipments at remote sites. Concerning the particular case of medical networks, we proposed to cover their deployment phases and their operational phases. This proposal was submitted to the IEEE 802.15.6 working group that conducts research for the standardization of medical networks […]
APA, Harvard, Vancouver, ISO, and other styles
40

Zaidi, Donia. "Étude des mécanismes pathogéniques dépendants des microtubules dans les progéniteurs neuronaux conduisant aux malformations corticales." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS159.pdf.

Full text
Abstract:
Les cellules de glie radiaire apicale (RG) sont des cellules clés du développement cortical, capables d'auto-renouvellement ou de génération neuronale, possédant un noyau restreint à la zone ventriculaire (VZ) qui migre en fonction des phases du cycle cellulaire via un phénomène nommé migration nucléaire intercinétique (MNI). Les RG ont une forme bipolaire, avec un long processus basal soutenant la migration neuronale et un court processus apical faisant face au ventricule où un cil primaire (PC), ancré à un centrosome modifié (‘corps basal’), émerge et sert de plateforme de signalisation. Des mutations génétiques peuvent altérer le fonctionnement des RG, affectant le développement cortical et conduisant à des malformations corticales. Ces malformations sont associées chez les patients à de l’épilepsie et à des déficiences intellectuelles. Il est donc important de déterminer comment les processus moléculaires et cellulaires mis en jeu au niveau des RG peuvent être perturbés par des mutations génétiques. Mon travail de thèse a porté sur l’étude de deux gènes mutés conduisant à deux malformations corticales rares. Tout d’abord, le gène codant pour la chaine lourde de la protéine motrice dynéine (DYNC1H1) a été retrouvé muté chez des patients présentant une malformation corticale complexe avec une microcéphalie (petit cerveau) et une dysgyrie (défauts de gyrifications). Lors de mon travail de thèse, j’ai étudié les RG à la mi-corticogenèse dans un modèle murin Knock-In (KI) pour ce gène, reproduisant une mutation faux sens retrouvée chez un patient, en le comparant avec un modèle murin muté pour ce même gène mais conduisant à des neuropathies périphériques. Nous avons découvert des anomalies de MNI, de cycle cellulaire et de migration neuronale. Également, des défauts d’organelles tels que les mitochondries et l’appareil de Golgi ont été identifiés dans les RG, et sont spécifiques à la mutation faux-sens conduisant à la malformation corticale. Deuxièmement, l'hétérotopie sous-corticale (SH) est une malformation caractérisée par la présence anormale de neurones dans la substance blanche. Le gène codant pour EML1 (Echinoderm microtubule associated protein like 1) a été retrouvé muté chez certains patients SH. Lorsqu’Eml1 est muté chez la souris, une proportion de RG se retrouvent en dehors de la VZ, suggérant qu’elles se détachent coté apical. Au niveau apical, des anomalies de PC et des corps basaux ont été décrits. En étudiant un nouveau modèle de souris mutant, inactivé pour Eml1, mon travail s'est concentré sur les altérations subcellulaires et cellulaires des RG afin de comprendre les mécanismes pathogéniques conduisant à leur détachement et donc à la formation de SH. Etudiant les RG en interphase, en analysant les centrosomes, j’ai déterminé que leur structure est affectée dans les cellules de patients et de souris mutante, et ces défauts sont résolus par la stabilisation des microtubules. Le recrutement de protéines aux centrosomes est altéré et la protéine centrosomale Cep170 s'est avérée être un partenaire d'interaction spécifique d’EML1, cette interaction étant perdue quand EML1 présente une mutation SH. Les centrosomes et le PC étant intimement liés au cycle cellulaire, j’ai poursuivi par l'analyse du cycle cellulaire des RG et identifié des altérations de sa cinétique à deux stades de développement. Le séquençage de l'ARN des cellules uniques a permis d'identifier des dérèglements dans l'expression des gènes du cycle cellulaire. Le détachement anormal des RG est plus massif au début du développement que plus tard, ce qui suggère que les altérations de centrosomes et du cycle cellulaire à ce stade peuvent être en amont du détachement anormal des RG. Mon travail de thèse apporte ainsi de nouveaux éléments essentiels à la compréhension des mécanismes altérés dans les progéniteurs neuronaux dans le contexte de malformations corticales rares
In mammals, cortical development is a finely regulated process that leads to the formation of a functional cortex. Apical radial glial cells (RG) are key progenitor cells du ring cortical development, capable of self-renewal or neuronal generation, with a soma restricted to the ventricular zone (VZ) in rodents. Their nucleus migrates according to the phases of the cell cycle by a process called interkinetic nuclear migration (INM). RG have a bipolar shape, with a long basal process supporting neuronal migration and a short apical process facing the ventricle where a primary cilium (PC), anchored to a modified centrosome (‘basal body’), emerges and detects molecules present in the embryonic cerebrospinal fluid. Genetic mutations can alter the function of RG, affecting cortical development and leading to cortical malformations. These malformations are associated in patients with epilepsy, intellectual disabilities and also neuropsychiatric disorders. It is therefore important to determine how the molecular and cellular processes involving RG can be disrupted by genetic mutations. Thus, my thesis work focused on the study of mutations affecting two different genes in the context of two rare cortical malformations. First, the gene encoding for the motor protein dynein heavy chain (DYNC1H1) was found mutated in patients with a complex cortical malformation associated with microcephaly (small brain) and dysgyria (gyri defects). We generated a Knock-In (KI) mouse model for this gene, reproducing a missense mutation found in a patient. During my thesis, I studied RG at mid-corticogenesis of this KI model and, by comparing it with a mouse model mutant for the same gene but leading to peripheral neuropathies, we showed RG alterations specific to the KI model. We found abnormalities in INM, cell cycle and neuronal migration. Also, defects of key organelles, such as mitochondria and Golgi apparatus were identified in progenitors and are specific in the cortical malformation KI model. Secondly, subcortical heterotopia (SH) is a cortical malformation characterized by the abnormal presence of neurons in the white matter. Mutations in the gene coding for EML1 (Echinoderm microtubule associated protein like 1) were identified in certain SH patients. When Eml1 is mutated in mice, numerous RG are found in basal positions of the cortical wall outside the VZ, suggesting that they detach apically. Within the apical process, abnormal PC formation and basal bodies were described. By studying a new mutant mouse model where Eml1 is inactivated, my work focused on subcellular and cellular alterations of RG to understand the pathogenic mechanisms leading to their detachment and thus to SH formation. In interphase RG, focusing on mechanisms upstream of PC formation, I analyzed centrosomes and determined that their structure is affected in patient and mouse mutant cells, and these defects are rescued by stabilizing microtubules. Recruitment of key centrosomal proteins is altered early in development, and the centrosomal protein Cep170 was found to be a specific interacting partner of EML1, this interaction being lost when EML1 carries a patient mutation. Because centrosomes and cilia are intimately linked to the cell cycle, I proceeded to analyze the RG cell cycle and identified alterations in cell cycle kinetics during early and mid-development. Single-cell RNA sequencing at two key developmental stages identified deregulations in cell cycle gene expression. Abnormal RG detachment appears greater in early compared to mid-development, suggesting that centrosomal and cell cycle alterations at this stage may be upstream of abnormal RG detachment. My thesis work thus brings new elements essential to the understanding of the altered mechanisms in neural progenitors related to rare cortical malformations
APA, Harvard, Vancouver, ISO, and other styles
41

Dansereau, Véronique. "Un modèle Maxwell-élasto-fragile pour la déformation et dérive de la banquise." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU003/document.

Full text
Abstract:
De récentes analyses statistiques de données satellitales et de bouées dérivantes ont révélé le caractère hautement hétérogène et intermittent de la déformation de la banquise Arctique, démontrant de ce fait que le schéma rhéologique visco-plastique utilisé traditionnellement en modélisation climatique et opérationnelle ne simule pas adéquatement le comportement dynamique des glaces ainsi que les efforts mécaniques en leur sein.Un cadre rhéologique alternatif, baptisé "Maxwell-Élasto-Fragile" (Maxwell-EB) est donc développé dans le but de reproduire correctement la dérive et la déformation des glaces dans les modèles continus de la banquise à l'échelle régionale et globale. Le modèle se base en partie sur un cade de modélisation élasto-fragile utilisé pour les roches et la glace. Un terme de relaxation visqueuse est ajouté à la relation constitutive d'élasticité linéaire ainsi qu'une viscosité effective, ou "apparente", laquelle évolue en fonction du niveau d'endommagement local du matériel simulé, comme son module d'élasticité. Ce cadre rhéologique permet la dissipation partielle des contraintes internes par le biais de déformations permanentes, possiblement grandes, le long de failles (ou "leads") lorsque le matériel est fortement endommagé ainsi que la conservation de la mémoire des contraintes associées aux déformations élastiques dans les zones où le matériel reste relativement peu endommagé.The schéma numérique du modèle Maxwell-EB est basé sur des méthodes de calcul variationnel et par éléments finis. Une représentation Eulérienne des équations du mouvement est utilisée et des méthodes dites Galerkin discontinues sont implémentées pour le traitement des processus d'advection.Une première série de simulations idéalisées et sans advection est présentée, lesquelles démontrent que la rhéologie Maxwell-Élasto-Fragile reproduit les caractéristiques principales du comportement mécanique de la banquise, c'est-à-dire la localisation spatiale, l'anisotropie et l'intermittence de la déformation ainsi que les lois d'échelle qui en découlent. La représentation adéquate de ces propriétés de la déformation se traduit par la présence de très forts gradients au sein des champs de contrainte, de déformation et du niveau d'endommagement simulés par le modèle. Des tests visant à évaluer la diffusion numérique découlant de l'advection de ces gradients extrêmes ainsi qu'à identifier certaines contraintes numériques du modèle sont ensuite présentés. De premières simulations en grandes déformations, incluant les processus d'advection, sont réalisées, lesquelles permettent une comparaison aux résultats d'une expérience de Couette annulaire sur de la glace fabriquée en laboratoire. Le modèle reproduit en partie le comportement mécanique observé. Par ailleurs, les différences entre les résultats des simulations et ceux obtenus en laboratoire permettent d'identifier certaines limitations, numériques et physiques, du modèle en grandes déformations. Finalement, le modèle rhéologique est utilisé pour modéliser la dérive et la déformation des glaces à l'échelle de la banquise Arctique. Des simulations idéalisées de l'écoulement de glace dans un chenal étroit sont présentées. Le modèle simule une propagation localisée de l'endommagement, définissant des failles en forme d'arche, et la formation de ponts de glace stables
In recent years, analyses of available ice buoy and satellite data have revealed the strong heterogeneity and intermittency of the deformation of sea ice and have demonstrated that the viscous-plastic rheology widely used in current climate models and operational modelling platforms does not simulate adequately the drift, deformation and mechanical stresses within the ice pack.A new alternative rheological framework named ''Maxwell-Elasto-Brittle” (Maxwell-EB) is therefore developed in the view of reproducing more accurately the drift and deformation of the ice cover in continuum sea ice models at regional to global scales. The model builds on an elasto-brittle framework used for ice and rocks. A viscous-like relaxation term is added to a linear-elastic constitutive relationship together with an effective viscosity that evolves with the local level of damage of the material, like its elastic modulus. This framework allows for part of the internal stress to dissipate in large, permanent deformations along the faults/leads once the material is highly damaged while retaining the memory of small, elastic deformations over undamaged areas. A healing mechanism is also introduced, counterbalancing the effects of damaging over large time scales.The numerical scheme for the Maxwell-EB model is based on finite elements and variational methods. The equations of motion are cast in the Eulerian frame and discontinuous Galerkin methods are implemented to handle advective processes.Idealized simulations without advection are first presented. These demonstrate that the Maxwell-EB rheological framework reproduces the main characteristics of sea ice mechanics and deformation : the strain localization, the anisotropy and intermittency of deformation and the associated scaling laws. The successful representation of these properties translates into very large gradients within all simulated fields. Idealized numerical experiments are conducted to evaluate the amount of numerical diffusion associated with the advection of these extreme gradients in the model and investigate other limitations of the numerical scheme. First large-deformation simulations are carried in the context of a Couette flow experiment, which allow a comparison with the result of a similar laboratory experiment performed on fresh-water ice. The model reproduces part of the mechanical behaviour observed in the laboratory. Comparison of the numerical and experimental results allow identifying some numerical and physical limitations of the model in the context of large-deformation and laboratory-scale simulations. Finally, the Maxwell-EB framework is implemented in the context of modelling the drift and deformation of sea ice on geophysical scales. Idealized simulations of the flow of sea ice through a narrow channel are presented. The model simulates the propagation of damage along arch-like features and successfully reproduces the formation of stable ice bridges
APA, Harvard, Vancouver, ISO, and other styles
42

Charlemagne, Sébastien. "Modélisation et commande d'un système de transport de bande textile : application des concepts multimachines." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-337.pdf.

Full text
Abstract:
Les applications de type "transport de bande" sont omniprésentes dans la fabrication des produits textiles. Toutefois, la problématique commune à ces processus est simple : assurer la qualité du traitement et du rembobinage pour le produit. Dans cette optique, deux grandeurs sont capitales : la vitesse de défilement et la tension du produit. La commande d'un tel système est donc chargée de contrôler indépendamment ces deux grandeurs. Après une description de procédés textiles à base de déroulement-enroulement, c'est donc le comportement des matières élastiques en défilement qui est étudié. L'utilisation des concepts multimachines et de la répresentation énergétique macroscopique (REM), par ailleurs couramment employés pour l'étude des couplages dans les entraînements et systèmes électriques, débouche sur un modèle mathématique et sa représentation causale, pour un cas général, puis pour une application particulière : la broche de bobinoir. L'objectif poursuivi est la synthèse d'une commande rigoureuse et efficace pour cette application. Une structure maximale de commande est d'abord déduite du modèle. Le choix des correcteurs et des dynamiques associées est fait à partir de l'analyse rigoureuse des problèmes présentés par le transport de bande. Trois solutions sont proposées et testées : un placement des pôles global, un découplage des dynamiques et enfin une loi de commande fondée sur les propriétés de platitude du système. Les points faibles de cette structure de commande (pour les trois synthèses différentes) sont mis en évidence est servent de jalons vers l'élaboration d'une structure de commande plus adaptée à l'application envisagée. Cette dernière stratégie donne des résultats de simulation satisfaisants pour la qualité du découplage entre tension de fil et vitesse de bobinage. La validation expérimentale est effectuée sur un banc multimachine général et une structure d'émulateur de charge est donc proposée en vue de l'implantation. Les résultats expérimentaux montrent la faisabilité de la structure de commande innovante, ses performances en termes de respect du cahier des charges et de robustesse sont finalement mises en évidence dans différents tests.
APA, Harvard, Vancouver, ISO, and other styles
43

Bodiou, Loic. "Etude des mécanismes d'excitation et d'émission de couches minces de GaN dopées Eu3+, Er3+ et Tm3+ pour nouveaux dispositifs électroluminescents." Phd thesis, Université de Caen, 2007. http://tel.archives-ouvertes.fr/tel-00324656.

Full text
Abstract:
Cette thèse porte sur les mécanismes d'excitation et d'émission des couches minces de nitrure de gallium dopées par des ions de terre rare (Eu3+, Er3+ et Tm3+) suite à une excitation optique (photoluminescence) ou électrique (électroluminescence) du matériau semi-conducteur.
A l'intérieur du GaN, deux catégories de site d'incorporation d'ions de terre rare peuvent être distinguées, à savoir les ions de terre rare "isolés" (c'est-à-dire ne contenant aucun défaut dans leur voisinage) et les complexes associant un ion de terre rare avec un piège, celui-ci pouvant provenir du dopage lui-même ou d'un défaut cristallin. L'excitation non-résonante est réservée au second type de centres et a lieu par transfert d'énergie lors de la recombinaison non radiative d'un exciton lié sur un piège proche de la terre rare.
La comparaison d'échantillons de GaN dopés in situ et par implantation ionique par l'ion Eu3+ montre que ces films présentent chacun deux types de complexes "Eu3+-piège" dont l'un est commun à tous les échantillons. Les différences d'efficacité d'excitation respectives des deux complexes s'expliquent par la proximité du piège correspondant.
Grâce à des expériences pompe-sonde combinant des lasers impulsionnel et continu, le chemin d'excitation des ions de terre rare est confirmé expérimentalement et deux des mécanismes d'extinction de leur luminescence (la photo-ionisation de pièges et l'effet Auger avec des porteurs libres) sont étudiés.
L'excitation électrique du GaN:Er3+ est également présentée. Les études en fonction de la température, du courant parcourant l'échantillon ou de la tension de polarisation mettent en évidence l'excitation par impact des ions de terre rare.
APA, Harvard, Vancouver, ISO, and other styles
44

Baudry, Florian. "Étude et réalisation d’accéléromètres thermiques d’étendue de mesure et bande passante supérieures à 10 000g et 5 kHz respectivement." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS116.

Full text
Abstract:
Cette thèse porte sur l’adaptation d’un concept d’accéléromètre thermique à convection, pour la mesure d’accélération supérieure à 10 000 g. Les travaux que j’ai développé m’ont permis de réaliser à partir d’un concept innovant, un accéléromètre permettant de mesurer des accélérations de plus de 10 000 g avec une bande passante supérieure à 5 kHz.Cet accéléromètre est en totale rupture technologique avec les dispositifs actuellement commercialisé, car il utilise une masse d’air chauffé comme élément sensible, et non pas une masse sismique solide. Cette caractéristique le rend bien plus robuste et apte à endurer des conditions environnementales sévères.Le déroulement de mon travail a consisté à étudier le modèle comportemental des phénomènes thermiques qui assurent le fonctionnement du dispositif, afin d’en déduire les différents paramètres permettant de l’adapter à la mesure de fortes accélérations. En parallèle, une étude mécanique a été entreprise afin de prévoir une éventuelle défaillance ou influence de ces niveaux d’accélération sur le bon fonctionnement du capteur. Puis l’accéléromètre a été testé en conditions réelles afin de valider ses performances, ainsi que le concept d’un accéléromètre thermique à haute étendue de mesure
This PhD thesis deals with the adaptation of a thermal convective accelerometer concept, for the acceleration measurement greater than 10 000 g. The work that I developed allowed me to realize from an innovative concept, an accelerometer able to measure accelerations values upper than 10 000 g with a bandwidth greater than 5 kHz.This accelerometer is totally different from the current marketed devices because it uses a heated air mass as a sensitive element, and not a solid seismic mass. This feature makes it much more robust and able to withstand severe environmental conditions.The course of my work consisted in studying the behavioral model of the thermal phenomena that ensure the functioning of the device, in order to deduce the different parameters allowing to adapt it to the measurement of strong accelerations. In parallel, a mechanical study was undertaken to predict a possible failure or influence of these acceleration levels on the proper functioning of the sensor. Then the accelerometer was tested under real conditions to validate its performance, as well as the concept of a thermal accelerometer with a large measurement range
APA, Harvard, Vancouver, ISO, and other styles
45

Xing, Bin. "Confrontation des aspects statistiques et déterministes de l'amorçage des fissures de fatigue dans les alliages d'aluminium." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0592.

Full text
Abstract:
Le travail de cette thèse comprend l'étude du phénomène de la distribution de la durée de vie de fatigue, qui présente deux zones pour l'alliage aluminium des séries 2000 et 7000. De nombreuses éprouvettes sont soumises à des chargements d'amplitude constante. Les résultats d'essais sont analysés par la méthode statistique. Les surfaces de rupture et les surfaces libres des éprouvettes sont observées et analysées pour étudier le mécanisme d'amorçage des fissures. Les fissures courtes sont observées et étudiées avec plusieurs méthodes d'examen améliorées. Enfin, une nouvelle courbe de Wolhler est établie avec tous les résultats d'étude. Avec cette courbe, un moyen de prévision de vie de l'amorçage des fissures est donc trouvé. Il est facile à utiliser dans les cas rencontres usuellement dans le mode aéronautique.
APA, Harvard, Vancouver, ISO, and other styles
46

Vysotskyi, Bogdan. "Récupérateur d'énergie vibratoire MEMS électrostatique à large bande pour applications biomédicales." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS278/document.

Full text
Abstract:
Ce travail de recherche porte sur le développement et la mise au point d'un récupérateur d'énergie vibratoire MEMS à transduction capacitive dédié aux applications biomédicales et plus particulièrement aux stimulateurs cardiaques sans sondes autonomes. Cette application impose une miniaturisation poussée (volume inférieur à 1 cm³), une puissance de sortie dans la gamme allant de 1 à 10 µW et une compatibilité vis-à-vis des systèmes d'Imagerie à Résonance Magnétique (IRM). Ces contraintes ainsi que l'effet de la gravité ont été pris en compte sur tout le flot de conception afin d'obtenir un dispositif innovant en technologie MEMS silicium capable de fournir une puissance de sortie suffisante quelle que soit son orientation une fois implanté. Afin de convertir efficacement les battements cardiaques ayant un spectre étendu (de 1 à 50 Hz) pour une amplitude d'accélération faible (inférieure à 1 g), le système emploie des bras de suspension ayant une raideur non-linéaire ce qui permet d'étendre notablement la bande passante effective du système. Cette non-linéarité est ici induite de manière originale en faisant en sorte que la forme initiale des bras de suspension soit une combinaison linéaire des modes de déformée propre d'une poutre doublement encastrée. Un soin particulier a été apporté afin de modéliser ceci dans le but de prédire la réponse mécanique du système quels que soient les stimuli imposés. Afin de réaliser les différents dispositifs de test, une technologie MEMS de type SOG (Silicon-On-Glass) a été développée. Cette technologie permet d'obtenir des structures en silicium monocristallin avec un fort rapport d'aspect tout en limitant le budget thermique et se montre donc compatible avec une éventuelle industrialisation. Ceci a été prouvé via la réalisation de multiples véhicules de test qui se sont montrés totalement fonctionnels. Ainsi la pertinence des modèles théoriques permettant de prédire le comportement non-linéaire des ressorts employés a été prouvée de manière expérimentale. De même, les récupérateurs d'énergie réalisés ont été testés en régime harmonique mais également via des stimuli cardiaques et ont montré une large bande passante avec une puissance de sortie équivalente à celle donnée dans l'état de l'art et ce, quelle que soit leur orientation par rapport à la gravité
Present work addresses question of MEMS capacitive vibrational energy harvesting for biomedical applications, and notably for powering an autonomous leadless pacemaker system. Such an application imposes several critical requirements upon the energy harvesting system, notably the sufficient miniaturization (<1cm³), power output in range of 1-10 µW, compatibility with Magnetic Resonant Imaging (MRI). This work addresses a problematic of MEMS energy harvester design, simulation, fabrication and characterization fulfilling such a requirement. Moreover, a gravity effect is studied and taken into account in the conception of the device to ensure the power output at various orientations of the harvester. To attain a heartbeat frequencies (1-50 Hz) and acceleration amplitudes (<1g), the use of nonlinear springs is proposed. A nonlinear stiffness is implemented in original way of introducing a natural bending mode shapes in the initial beam form. A mechanical description of bending mode coupling along with its impact on a reaction force of the suspension springs is presented. An innovative clean room technology based on silicon-on-glass (SOG) wafers is developed for the fabrication of the innovative energy harvesters with high width-to-depth aspect ratio. A straightforward and rapid low-temperature process with the possibility of future industrialization is validated by multiple experimental realizations of miniaturized MEMS energy harvesters. Fabricated microsystems are tested mechanically and electrically. Proposed theoretical model of the curved beam is validated with reactive force measurements of the MEMS springs. Energy harvesting experiments are performed for both harmonic and heartbeat mechanical excitations, which demonstrate the large bandwidth in low frequencies domain and a sufficiently large state-of-the-art power output for envisaged application under different orientations with respect to the gravity
APA, Harvard, Vancouver, ISO, and other styles
47

Ramachandran, Laavanya. "Comportement électrique large bande des composites polymère - fils submicroniques d'or : corrélation avec la structure et les propriétés mécaniques." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30072/document.

Full text
Abstract:
L'objectif principal de ce travail est d'étudier les propriétés d'un composite polymère-métal d'un point de vue physique, thermique, mécanique et électrique large bande. Pour cela, des fils d'or à haut facteur de forme (190) ont été élaborés par un procédé d'électrodéposition dans un template. Les fils submicroniques d'or ont été dispersés dans une matrice polymère PVDF pour l'élaboration des composites conducteurs faiblement chargés. Le comportement électrique des composites met en évidence le phénomène de la percolation électrique, avec un seuil de 1,33 %vol. La dispersion des fils submicroniques d'or au sein de la matrice PVDF est homogène, avec une légère orientation. L'analyse mécanique permet de mettre en évidence le rôle de renfort des fils d'or dans la matrice PVDF et l'influence des fils sur la structure physique du PVDF. Cela se traduit par une rigidification de la matrice PVDF et plus particulièrement l'effet sur la relaxation ac , associée à l'interface cristallite-phase amorphe du PVDF. L'étude de la conductivité statique et dynamique en basse (10-2 à 106 Hz) et haute (106 à 109 Hz) fréquence montre un changement de régime de transport de charge avec une activation thermique. La conduction par tunneling est prédominante à basse température, tandis que la conductivité au-delà est expliquée par les modèles d'Efros et Shklovskii et le modèle de saut de barrières corrélés (CBH), respectivement pour la partie statique et dynamique. Les paramètres déterminés avec les modèles présentent une bonne corrélation avec les propriétés mécaniques, ce qui permet d'améliorer la compréhension des phénomènes de transport de charge dans des systèmes hétérogènes tels les composites polymère-métal faiblement chargés
The aim of this work is to study the properties of a polymer-metal composite, with regards to physical, thermal, mechanical and broad band electrical analyses. High aspect ratio gold nanowires (Au NW) were prepared using a template electrodeposition method (aspect ratio of 190 determined by image analysis). The gold nanowires were dispersed in a PVDF polymer matrix to form low-filled conducting composites. The electrical conductivity of the composites exhibit electrical percolation behaviour with a critical volume fraction of 1.33%. SEM images show a slightly oriented but homogenous dispersion of AU NWs within the PVDF matrix. Mechanical analysis confirms that the homogenous dispersion Au NWs reinforces the PVDF matrix and highlights the influence of Au NWs on the physical structure of the PVDF matrix. This is confirmed by an increase in G' values and more specifically the ac relaxation process (associated with the crystallite-amorphous phase interface). Analysis of static and dynamic conductivity for low (10-2 to 106 Hz) and high frequency (106 to 109 Hz) regions reveals a thermally-activated charge transport process: tunneling being the predominant mechanism at low temperatures, the Efros and Shklovskii (ES) and Correlated Barrier Hopping (CBH) models being responsible for static and dynamic conductivity, respectively. The models were found to be coherent with the structure and mechanical properties of the composites, leading to a better understanding of charge transport mechanisms in low-filled polymer-metal composites
APA, Harvard, Vancouver, ISO, and other styles
48

Pech, Ponia. "Incidence de la prise en compte des effets de mécanismes de lutte contre les affaiblissements (FMT) en bande Ka sur la gestion des ressources dans un système d'accès multimédia par satellite géostationnaire." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2003. http://www.theses.fr/2003ESAE0022.

Full text
Abstract:
La bande Ka pour les communications satellitaires a été l'objet d’un immense intérêt ces dernières années du fait de la congestion des bandes de fréquence conventionnelles. Les concepteurs de systèmes satellitaires se trouvent ainsi confrontés à une double contrainte : la première émane des effets troposphériques importants en bande Ka, notamment une forte atténuation du signal due à la pluie et à la scintillation d’amplitude. Ceci oblige à employer des techniques de contre-mesure (Fade Mitigation Techniques ou FMT) pour compenser l'atténuation dans le but d’assurer une disponibilité suffisante au système ; la seconde est directement liée à la nature même du satellite pour lequel les ressources radio et à bord sont limitées et coûteuses. Cette dernière contrainte impose de rendre la gestion des ressources la plus rationnelle, efficace et optimale possible à partager entre les différents utilisateurs, tout en leur assurant les Qualités de Service (QoS) requises. Les présents travaux de recherche empruntent l'architecture du projet SAGAM initié par le RNRT (Réseau National de Recherche en Télécoms) visant à étudier un système de troisième génération d’accès multimédia par satellite régénératif géostationnaire à commutation ATM. Leur contribution spécifique consiste en l'analyse de procédures de gestion des ressources au niveau de la couche accès, en tenant compte des contraintes et modifications d’architecture apportées par l'introduction dans le système d’informations issues du canal et des FMT. Dans une première partie, le contexte et l'architecture SAGAM seront précisés. Ensuite, dans une deuxième partie, la problématique propre à la modélisation du canal Ka sera exposée, et appliquée directement à l'analyse des performances des couches supérieures, avec une description détaillée de plusieurs approches de modélisation possibles. Une troisième partie est dédiée aux problématiques et performances propres à la contre-mesure. La quatrième partie est axée sur la problématique de la gestion des ressources combinée à une FMT à bande variable. Les protocoles MAC de contrôle d’accès aux ressources radio de type DAMA (Demand Assignment Multiple Access) sont premièrement examinés ; ensuite, les propriétés recherchées pour un contrôle d’admission des connexions (CAC) adapté au système décrit sont passées en revue avant la description d’un modèle prédictif de CAC à capacité variable exploitant la connaissance statistique des instants de réduction de capacité dans le système. Une dernière mais nécessaire partie est consacrée entièrement à la description de la plate-forme de simulation réseau développée au cours de la thèse, et basée sur le logiciel commercial OPNET®. L'aspect innovant de cette plate-forme est d‘intégrer des informations de propagation, sous la forme à la fois de séries chronologiques d’atténuation du canal, et de cartes radar représentant le champ de précipitation sur une zone géographique délimitée. Cette partie se clôt avec un certain nombre de résultats de simulation obtenus à partir de la plate-forme présentée.
APA, Harvard, Vancouver, ISO, and other styles
49

Rolland, Joran. "Etude numérique à petite et grande échelle de la bande laminaire-turbulente de l'écoulement de Couette plan transitionnel." Phd thesis, Palaiseau, Ecole polytechnique, 2012. https://pastel.hal.science/docs/00/75/54/14/PDF/these_rolland.pdf.

Full text
Abstract:
La thèse propose une étude numérique et une modélisation de la transition vers la turbulence dans l'écoulement de Couette plan. On se concentre particulièrement sur le régime de bandes oblique laminaire turbulentes, au coeur de la transition. On suit deux types d'approches selon le type d'échelles considérées. D'une part on étudie le détail à petite échelle de l'écoulement. A l'aide de DNS, une instabilité de cisaillement créant de la vorticité transverse est mise en évidence, et la vitesse d'advection des perturbations est mesurée. La modélisation de l'écoulement turbulent et cette instabilité vient confirmer ces mécanismes et met en évidence la transition absolue/convective à l'entrée des bandes. Une description du maintien de la turbulence en termes de cycle auto-entretenu est proposée. D'autre part, on étudie l'écoulement 'a l'échelle de la bande. Des outils statistiques permettent d'étudier les bandes en termes de formation de motif. L'effet du bruit intrinsèque issu de la turbulence est mis en évidence, en particulier dans les changements d'orientation. La modélisation du motif en termes d'équation de Landau-Langevin et d'équation de Fokker-Planck correspondante fait le parallèle avec les motifs bruités et les phénomènes critiques. Partant de ce modèle on peut comprendre les retournements en termes de temps de premier passage moyen. Finalement, on regarde deux autres types de problèmes en couplant les approches microscopiques et macroscopiques. L'étude des relaminarisations tant au seuil de disparition de la turbulence qu'au seuil d'apparition du motif permet de mettre en évidence les mécanismes de disparition de la turbulence. L'étude de spots turbulents propose un aperçu de leur zoologie et permet d'approcher les mécanismes petite échelle à plus grand nombre de Reynold
The thesis proposes a numerical study and modelling of the transition to turbulence in plane Couette flow. It is focused on the laminar-turbulent oblique bands regime at the centre of the transition. Two types of approaches are taken, based on the scales considered. On the one hand, one can study the microscopic details of the flow. Direct Numerical simulations are used to identify and characterise a shear instability that creates spanwise vorticity, and allows to measure the advection velocity of these perturbations. The modelling of the background turbulent flow is used to study the instability in term of linear analysis. The convective/absolute transition in the intermediate zone between turbulent and pseudo-laminar flow is emphasised. From these data, a description of the sustaining of turbulence in term of a cycle is proposed. On the other hand, the flow can be seen at the scale of the band. Statistical tools are used to study the oblique band in term of pattern formation. The effect of the intrinsic turbulent noise is studied, particularly with the orientation fluctuation of the band. The modelling in term of Landau--Langevin and corresponding Fokker--Planck equation draws a parallel with the noisy pattern formation and critical phenomena. Using this model, the orientation fluctuations can be understood in term of mean first passage time. Eventually, several topics are considered from both points of view. The study of relaminarisations both at the threshold of disappearance of turbulence and of appearance of the bands helps to identify the mechanisms of local death of turbulence. The study of turbulent spots presents part of their zoology and helps to study the small scale mechanisms at higher Reynolds numbers
APA, Harvard, Vancouver, ISO, and other styles
50

Rolland, Joran. "Etude numérique à petite et grande échelle de la bande laminaire-turbulente de l'écoulement de Couette plan transitionnel." Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00755414.

Full text
Abstract:
La thèse propose une étude numérique et une modélisation de la transition vers la turbulence dans l'écoulement de Couette plan. On se concentre particulièrement sur le régime de bandes oblique laminaire turbulentes, au coeur de la transition. On suit deux types d'approches selon le type d'échelles considérées. D'une part on étudie le détail à petite échelle de l'écoulement. A l'aide de DNS, une instabilité de cisaillement créant de la vorticité transverse est mise en évidence, et la vitesse d'advection des perturbations est mesurée. La modélisation de l'écoulement turbulent et cette instabilité vient confirmer ces mécanismes et met en évidence la transition absolue/convective à l'entrée des bandes. une description du maintien de la turbulence en termes de cycle auto-entretenu est proposée. D'autre part, on étudie l'écoulement 'a l'échelle de la bande. Des outils statistiques permettent d'étudier les bandes en termes de formation de motif. L'effet du bruit intrinsèque issu de la turbulence est mis en évidence, en particulier dans les changements d'orientation. La modélisation du motif en termes d'équation de Landau-Langevin et d'équation de Fokker-Planck correspondante fait le parallèle avec les motifs bruités et les phénomènes critiques. Partant de ce modèle on peut comprendre les retournements en termes de temps de premier passage moyen. Finalement, on regarde deux autres types de problèmes en couplant les approches microscopiques et macroscopiques. L'étude des relaminarisations tant au seuil de disparition de la turbulence qu'au seuil d'apparition du motif permet de mettre en évidence les mécanismes de disparition de la turbulence. L'étude de spots turbulents propose un aperçu de leur zoologie et permet d'approcher les mécanismes petite échelle à plus grand nombre de Reynolds.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography