To see the other types of publications on this topic, follow the link: Contrôle du débit de fuite.

Dissertations / Theses on the topic 'Contrôle du débit de fuite'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Contrôle du débit de fuite.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Azzam, Tarik. "Aérodynamique et contrôle de l'écoulement de jeu dans un ventilateur axial obtenu par rotomoulage." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0080/document.

Full text
Abstract:
Aujourd’hui, la fabrication des turbomachines est conditionnée par des normes de plus en plus restrictives. L'enjeu industriel pour les chercheurs est d'envisager des solutions optimales visant à réduire les sources de perte d'énergie, d'instabilité et du bruit, en particulier l'écoulement de jeu (débit de fuite). Des actions préliminaires ont été élaborées à Arts & Métiers ParisTech sur le rotomoulage du ventilateur axial de refroidissement d'automobile. L'idée de ce travail est d'utiliser la forme creuse induite par le rotomoulage afin de l'exploiter dans le controle de l'écoulement de jeu radial par soufflage rotatif. Pour cela, la virole comporte des trous d'injection orientés de façon à réduire simultanément le débit de fuite et le couple. Dans ce travail, trois parties ont été traité. La première concerne la réalisation du ventilateur par rotomoulage. La deuxième concerne l'étude expérimentale menée dans le banc d'essai ISO 5801. Cette étude comporte la réalisation d'un montage dédié au contrôle par soufflage rotatif, la métrologie menée pour la détermination des performances globales et la caractérisation de la vitesse axiale du sillage proche. La troisième partie traite la modélisation numérique des conditions expérimentales rentables ensuite l'extrapolation du travail vers des taux d'injection importants. Pour ce dernier, on arrive à annuler le débit de fuite avec un gain considérable du couple mettant ainsi le ventilateur en autorotation
Nowadays, the manufacture of turbomachinery is conditioned by more and more restrictive rules. The industrial challenge for researchers has to consider optimal solutions to reduce sources of energy loss, instability and noise, particularly the tip clearance flow (leakage flow rate). Preliminary actions have been developed at Arts & ParisTech on rotational molding process used for the automobile cooling axial fan. The idea of this work is to use the hollow shape induced by rotational molding process in order to exploit it in the control of tip clearance flow through rotary steady air injection. For this, the shroud ring is composed of injection holes oriented in such away to reduce both of leakage flow rate and the torque. In this work, the thesis focuses on three parts. The first concerns the build of the fan by rotational molding process. The second concerns the experimental study carried out in the ISO 5801 test bench. This study involves the realization of drive system dedicated to rotary steady air injection, metrology for performance determination and the characterization of the near wake axial velocity. The third part deals with the numerical modeling of efficient experimental conditions, then the extrapolation of work towards high injection rates. For this latter, it is possible to cancel leakage flow rate with a considerable gain of the torque thus putting the fan in autorotation
APA, Harvard, Vancouver, ISO, and other styles
2

Sogbossi, Hognon Eric Arnaud. "Etude de l'évolution de la perméabilité du béton en fonction de son endommagement : transposition des résultats de laboratoire à la prédiction des débits de fuite sur site." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30210/document.

Full text
Abstract:
Les enceintes de confinement des centrales nucléaires sont conçues pour assurer des propriétés de confinement et d'étanchéité précises en situations d'usage normal et en cas d'accident nucléaire, afin d'éviter la dissémination de radioéléments dans l'environnement. Ces enceintes étant construites en béton, la maîtrise de l'évaluation de la perméabilité du béton et de ses évolutions sous contraintes permettrait d'évaluer les débits de fuite susceptibles d'intervenir dans le temps sous certaines sollicitations. Jusqu'aujourd'hui, il existe plusieurs techniques de mesure de la perméabilité et ces techniques aboutissent à des résultats différents pour une même éprouvette de béton. La première étude que nous avons réalisée a été donc de proposer une normalisation de la mesure de la perméabilité : cette normalisation a abouti à la détermination d'une perméabilité caractéristique du béton et indépendante de la technique de mesure. Parallèlement à cette démarche, nous avons aussi proposé d'évaluer la perméabilité du béton à l'aide d'observables du Contrôle Non Destructif comme la permittivité et la résistivité électrique. Les résultats obtenus montrent la possibilité d'estimer la perméabilité dans les conditions du béton sur site. La deuxième étude réalisée est relative à la maîtrise de la perméabilité sous contraintes. Au laboratoire, nous avons étudié la perméabilité d'éprouvettes en béton de différentes tailles dans diverses conditions de séchage, de sollicitation thermique, d'endommagements mécanique et couplés. Nous avons ainsi pu établir des modèles perméabilité-endommagements en fonction de chaque source d'endommagement. La troisième étude réalisé porte sur la transposition des résultats de laboratoire au site, à travers l'utilisation de maquette d'enceinte nucléaire de dimensions plus importantes et représentatives de l'ouvrage réel (VeRCoRs à l'échelle 1/3). L'ensemble des résultats des deux premières études ont été mise à contribution et ont permis d'aboutir à des calculs des débits de fuite et des Temps d'Etablissement du Régime Permanent d'Ecoulement cohérents avec les hypothèses de calculs
The building reactor of the nuclear power plants are designed to provide precise containment and sealing properties in normal use situations and in the event of a nuclear accident, to prevent the spread of radioelements in the environment. Since these enclosures are made of concrete, controlling the evaluation of the permeability of concrete and its evolutions under stress would make it possible to evaluate the leakage rates that may occur over time under certain conditions. Until today, there are several techniques for measuring permeability and these techniques lead to different results for the same concrete specimen. The first study we carried out was therefore to propose a standardization of the permeability measurement: this standardization resulted in the determination of a characteristic permeability of concrete and independent of the measurement technique. In parallel with this approach, we also proposed to evaluate the permeability of concrete using observables from Non-Destructive Testing such as permittivity and electrical resistivity. The results obtained show the possibility of estimating the permeability under concrete conditions on site. The second study carried out relates to the control of the permeability under constraints. In the laboratory, we investigated the permeability of concrete specimens of different sizes under various conditions of drying, thermal stress, mechanical and coupled damage. We could establish permeability-damage models according to each source of damage. The third study carried out relates to the transposition from laboratory results to the site, using nuclear power plants mock-up of larger dimensions and representative of the actual structure (VeRCoRs at scale 1/3). All the results of the first two studies have been used and have led to calculations of leak rates and Time to Reach Steady State (TRSS) consistent with the calculation assumptions
APA, Harvard, Vancouver, ISO, and other styles
3

Hammi, Rim. "Contrôle actif de transmission de flux vidéo par régulation du débit." Paris 13, 2002. http://www.theses.fr/2002PA132024.

Full text
Abstract:
La vidéo temps réel sur ordinateur est devenue une réalité aujourd'hui. Nous pouvons recevoir à partir d'un micro-ordinateur de bureau un concert à distance, un match de football en direct, nous pouvons aussi participer, dans le cadre d'une visioconférence, à un séminaire ou à une réunion de travail. Les logiciels de visioconférence sur l'Internet sont maintenant d'usage courant. L'amélioration des normes de compression encourage aussi la distribution de la vidéo sur IP. Cependant, la transmission des flux vidéo temps-réel sur l'Internet présente des contraintes de temps que ne subit pas le simple échange de fichier. Les contraintes de temps qui caractérisent les applications vidéo imposent une politique de contrôle et de signalisation particulière pour résoudre les problèmes de transmission IP ainsi que pour adapter en temps réel la communication aux variations de ressources. Nous avons exploré, dans cette thèse, les possibilités que les réseaux actifs offrent pour introduire un nouveau concept de contrôle actif par régulation du débit vidéo par le réseau. Les travaux présentés ont un objectif double. Le premier est de proposer des solutions aux problèmes de transmission d'un flux vidéo temps réel à travers l'Internet Best-Effort. Le second est de montrer les apports et les fonctionnalités d'une nouvelle technologie dite réseau actif. Le réseau, dans notre approche, surveille à l'aide des statistiques de transmission (délai, gigue, taux de pertes et débit) des paquets vidéo prises par les routeurs actifs, la communication et réagit aux variations de flux au plus vite, dans le but d'éviter une dégradation brusque de la qualité perçue provoquée par les pertes de données. Les routeurs du réseau envoient directement et périodiquement au codeur vidéo la valeur du débit dont le réseau dispose instantanément pour son flux. Cette valeur est calculée à l'aide d'un algorithme de compensation basé sur la théorie de l'automatique. Ce dernier a été implanté au niveau des noeuds actifs pour calculer, à l'aide des statistiques de transmission des paquets vidéo, le débit disponible dans le réseau pour la communication vidéo.
APA, Harvard, Vancouver, ISO, and other styles
4

Poulin, Annie. "TRENTE PIASTRES de récompense : Le contrôle et la fuite d’esclaves à la Nouvelle-Orléans, 1816-1827." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5407.

Full text
Abstract:
Ce mémoire se concentre sur la fuite d’esclaves à la Nouvelle-Orléans entre 1816 et 1827. Plus de mille annonces de fuite des journaux Le Courrier de la Louisiane et La Gazette de la Louisiane sont analysées dans le but de mieux comprendre les diverses stratégies de résistance des esclaves louisianais à travers leur marronnage. En dépit des règlements qui sont censés contrôler les esclaves, comment parviennent-ils à s’enfuir? Comment parviennent-ils à s’octroyer une certaine liberté? Plusieurs lieux de fuite se dessinent à la Nouvelle-Orléans. Les bayous, les cyprières, les maisons de jeux, les marchés de viande à la levée sont tous des endroits susceptibles, parmi d’autres, de cacher des marrons. La journée du dimanche passée à la Place Congo reflète aussi une autre réalité des résistances. À cet endroit, esclaves et libres interagissent entre eux au su et au vu de tous. Des amitiés se tissent et l’entraide se développe de part et d’autre de la barrière raciale. Les nombreuses lois ne suffisent pas à contrôler adéquatement les gestes des esclaves. En dépit des contrôles, ils réussissent à se forger des micro-espaces de liberté dans une nouvelle géographie des résistances. Qui sont ces esclaves fugitifs ? Le profil type d’un esclave marron est un jeune homme d’environ 26 ans qui fuit seul. Par contre, mon mémoire démontre qu’il n’y a pas qu’un seul profil d’esclave fugitif. Enfants, femmes enceintes et personnes âgées peuvent décider de fuir. Quels sont les divers moyens utilisés pour réussir sa fuite? Ce mémoire tentera de répondre à tous ces questionnements.
APA, Harvard, Vancouver, ISO, and other styles
5

Hrarti, Miryem. "Optimisation du contrôle de débit de H. 264/AVC basée sur une nouvelle modélisation Débit-Quantification et une allocation sélective de bits." Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/181e500b-af8c-42a0-b134-b1ce33fd4c56.

Full text
Abstract:
Cette thèse se focalise sur l'optimisation de l'algorithme du contrôle de débit du standard H. 264/AVC. Cet algorithme constitué de deux parties fondamentales : allocation de bits et détermination du paramètre de quantification (QP), ne présente pas les meilleures performances et loin d’être optimal. Ainsi, nous avons proposé de nouvelles techniques permettant de déterminer de manière plus appropriée le QP et d'allouer finement le budget de bits tout en intégrant des propriétés du système visuel humain. Pour une meilleure estimation du QP, deux modèles Débit-Quantification (R-Q) sont proposés. Le premier modèle conçu pour les trames Intra, est un modèle non-linéaire utilisé pour déterminer de manière optimale le QP initial en exploitant la relation entre le débit cible et la complexité des trames Intra. Le second modèle logarithmique, est conçu pour les unités de codage Inter. Outre ses performances, ce modèle se substitue aux deux modèles utilisés par le contrôleur de débit de H. 264/AVC, et offre ainsi une réduction de la complexité calculatoire. L'allocation de bits au niveau trame du profil de base de H. 264/AVC reste basique car elle alloue équitablement le nombre de bits aux unités Inter indépendamment de leur complexité. Pour une allocation plus fine, deux mesures de complexité sont exploitées. La première est un rapport de mouvement déterminé à partir de bits réels utilisés pour coder les trames précédentes. La seconde mesure exploite la différence entre trames adjacentes et l'histogramme de cette différence. Enfin, et pour mieux contrôler la qualité, une carte de saillance est intégrée au processus d'allocation de bits. Au niveau trame, elle est utilisée pour réajuster le QP et attribuer plus de bits aux trames contenant plus de régions saillantes qui sont plus importantes. Au niveau macrobloc, la carte de saillance est exploitée pour répartir efficacement le nombre de bits entre les macroblocs d'une même trame. Cette répartition par "région" d'intérêt permet d'améliorer la qualité visuelle de la trame. Les nombreuses simulations effectuées montrent que chacun des modèles proposés, quand il est comparé avec deux algorithmes (JM15. 0 et JVT-O016), apporte des améliorations qui sont significatives aussi bien au niveau du débit moyen que du PSNR moyen. Une qualité plus consistante et donc un lissage de qualité à travers les trames est également observé
The explosion of multimedia applications is largely due to the efficiency of the compression techniques used. H. 264/AVC, also known as MPEG-4 Part 10 is the newest video coding standard. It is more effective than previous standards (MPEG1, MPEG2, part 4, H26x…) and achieves significant compression gains. As for other standards, the rate control is a key element of H. 264/AVC because it helps to regulate the visual quality of the reconstructed sequence while respecting the bandwidth constraints imposed by the channel transmission. In accordance with the specified target bit-rate, the rate control algorithm determines appropriately the quantization parameters. Basically, a first Rate-Quantization function elaborates a relationship between the rate and the quantization parameter (QP). A second function called Distortion-Quantization estimates the distortion (or quality) of the reconstructed video based on the used quantization parameter. These two functions lead together to a relationship (usually quadratic) between the quantization parameter, the target number of bits and the basic unit (Frame, Slice, macroblock or set of macroblocks) statistics. These functions have been the subject of several studies. The models that have been adopted and therefore recommended by the group standardization, do not generally offer better performances and they are far from optimal. This thesis is in this context. Its main objective is to develop and design new techniques to improve the performance of the rate control algorithm and those of the H. 264/AVC standard. These techniques are based on both a detailed analysis of the major current limitations and a wide literature review. Our purpose is to provide a more appropriate determination of the quantization parameter, a selective bit allocation that integrates Human Visual System properties and enhances the reconstructed video quality. To determine accurately the quantization parameter, two Rate-Quantization models (R-Q) have been proposed. The first model designed for Intra-Frames, is a non-linear one. It is used to determine the optimal initial quantization parameter, while exploiting the relationship between the target bit-rate and the complexity of Intra-Frames. The second model is a logarithmic one and it is designed for Inter coding units. It replaces the two models used by the H. 264/AVC rate controller and reduces the computational complexity. The frame layer bit allocation of the H. 264/AVC baseline profile remains basic. It assumes that GOPs (Groups Of Pictures) have similar characteristics and the target number of bits are fairly allocated to coding units regardless of their complexity. For a more accurate bit allocation, a new model has been proposed including two complexity measures. The first is a motion ratio determined from the actual bits used to encode the previous frames. The second measure uses the difference between adjacent frames and the histogram of this difference. Finally, to better control the visual quality of the reconstructed video, a saliency map is included into the bit allocation process. The saliency map generated by a bottom-up approach, simulates the human visual attention. It has been used to adjust the quantization parameter at frame layer. This adjustment allows the assignment of more bits to frames containing more salient regions (supposed to be more important than others). At macroblock layer, the saliency map is exploited to efficiently allocate the number of bits among the macroblocks of the same frame. This bit repartition by ''region'' of interest improves the visual quality of the frame. Experimental simulations show that the proposed models, when compared with two recent algorithms of rate control (JVT-O016 and JM15. 0), improve significantly the coding performances in terms of average bit-rates and PSNR. More consistent quality and therefore a quality smoothness through frames is also observed
APA, Harvard, Vancouver, ISO, and other styles
6

Bara, Aude. "Contribution à l'étude de l'efficacité des rideaux d'eau face à une fuite d'ammoniac." Aix-Marseille 1, 2000. http://www.theses.fr/2000AIX11051.

Full text
Abstract:
L'objectif de cette thèse est de mettre en œuvre des essais expérimentaux de dispersion d'ammoniac afin d'observer l'efficacité des dispositifs de "rideau d'eau" générés à partir de la lance queue de paon employée par les sapeurs-pompiers. Pour cela, sont étudiées en première partie les différentes problématiques rencontrées dans ce contexte. Il s'agit d'abord de comprendre le phénomène de débit diphasique d'ammoniac à partir d'une bouteille de ce gaz liquéfié sous pression, puis celui de la dispersion du nuage de gaz lourd constitué à l'occasion de cette émission. Enfin, les caractéristiques des rideaux d'eau sont globalement décrites et explicitées, en dépit du peu de littérature traitant du sujet, et qui plus est en matière de rideau d'eau ascendant et qualifiable d' " incontrôlable " tel que l'est celui utilisé ici. La seconde partie du mémoire explicite la méthodologie de mise en œuvre des essais expérimentaux, ainsi que les différentes expériences réalisées en termes de conditions sur le terrain et de concentrations mesurées. L'ensemble de ces paragraphes a mis en évidence la complexité du phénomène étudié ici, liée entre autres à la multiplicité des paramètres interférents. Un dernier chapitre laisse la place à l'interprétation des résultats en terme d'efficacité, et l'étude de différents paramètres (absorption, effet d'obstacle, dilution, réchauffement du nuage et accélération de l'évaporation, influence de la distance entre l'écran et la fuite, débit d'ammoniac, météorologie). La modélisation mathématique est ensuite abordée : l'intérêt de cette étude était également de vérifier l'aptitude des différents modèles, que ce soit pour l'évaluation du débit d'ammoniac, que pour approcher au mieux les concentrations en gaz auxquelles on peut être confronté sur le terrain. En conclusion, un certain nombre d'axes d'amélioration sont proposés pour des études à venir.
APA, Harvard, Vancouver, ISO, and other styles
7

Girin, Fanny. "La « sécurité » en fuite : la construction du contrôle à partir des relations entre groupes dans une raffinerie." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0214/document.

Full text
Abstract:
Le thème de la sécurité invite généralement à aborder les pratiques de travail dans les industries à risques à partir des règles. Cette thèse décale le questionnement vers l’analyse d’une activité non explicitée dans une organisation formelle : l’entretien des installations. Un collectif diffus se forme sur cette base ; il unit plusieurs collectifs situés, définis à partir de l’organisation sans s’y restreindre. L’entretien consiste à rattraper un fonctionnement productif qui échappe continuellement à toute emprise, en raison de la dégradation matérielle des installations et des contraintes de flux tendu. Dans une ambiance d’urgence, les travailleurs essayent d’éviter les accidents et l’arrêt de la production, intriqués et toujours latents. Ils régulent leurs coopérations en essayant d’avoir prise à la fois sur les machines, sur leurs trajectoires professionnelles et, par là, sur la composition des collectifs. Parallèlement, les procédures de sécurité relèvent d’un dispositif bureaucratique plus large, à la fois insaisissable et omniprésent. Au nom de la « sécurité », ce dernier est censé concilier une production en flux tendu avec la prévention des accidents par un contrôle de la main-d’œuvre. Il intervient en pratique comme repère mais surtout en tant que menace : incapables de mesurer les écarts entre la réalité et la prescription, les travailleurs redoutent d’être mis en cause en cas d’accident. Les démarches de participation censées améliorer ce dispositif ne permettent pas de faire valoir le caractère incontrôlable des machines. Les membres du collectif diffus évitent alors de participer pour minimiser l’emprise hiérarchique sur l’ordre social construit en interne
The theme of security generally invites to consider work practices in hazard industries from the point of view of rules. This thesis shifts the questioning towards the analysis of a non-explicit activity in a formal organization: the maintenance of facilities. A diffuse collective is formed on this basis; it units several sited collectives, defined from the organization without being restricted to it. The maintenance consist in catching up an efficient operation that constantly escapes beyond any control, due to material deterioration of facilities and to just-in-time constraints. In an urgency atmosphere, the workers try to avoid accidents and production arrests, intricately linked and always latent. They regulate their cooperation by trying to gain control on machines and on their own career paths, and thus on the composition of collectives. In parallel, security procedures relate to a larger bureaucratic apparatus, which is both elusive and omnipresent. On behalf of « security », this latest is supposed to conciliate just-in-time production with accident prevention through a control of workforces. It intervenes in practice as a benchmark but mainly as a threat: workers, unable to measure the deviations from reality to requirements, fear to be charged in case of accident. Participative actions supposed to improve this apparatus do not allow emphasizing the uncontrollable nature of machines. The members of the diffuse collective thus avoid participating in order to minimize the hierarchical hold on the in-house-built social order
APA, Harvard, Vancouver, ISO, and other styles
8

Ruiz, Marta. "Contrôle actif de la perte par transmission d'une plaque par minimisation du débit volumique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0031/MQ67324.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Jiang, Shengming. "Techniques de contrôle d'accès à haut débit basées sur l'ATM pour les applications multimédia." Versailles-St Quentin en Yvelines, 1995. http://www.theses.fr/1995VERS0001.

Full text
Abstract:
Le protocole de contrôle d'accès au canal (en anglais mac pour meduim access control) à haut débit, qui doit être capable de garantir la qualité de service (en anglais qos pour quality of service) et d'offrir les débits demandés par les services multimédias, est indispensable pour la nouvelle génération de réseaux locaux et de réseaux métropolitains à support partagé. En même temps, celui-ci doit être compatible au rnis-lb (réseau numérique à intégration de services large bande) qui est basé sur la technique temporelle asynchrone (en anglais atm pour asynchronous transfer mode), pour faciliter l'interconnexion des réseaux entre eux. Les protocoles mac dans les réseaux existants sont destines à supporter, aux débits bas ou moyens, les applications de données sensibles aux pertes mais pas au délai. Les débits demandés par les services multimédias varient de débit bas jusqu'à des débits très hauts. Par conséquent, les protocoles mac ne peuvent pas convenir simultanément à la transmission des trafics multimédias sensibles aux pertes et au délai. Cette thèse est consacrée au développement d'un protocole mac qui peut satisfaire toutes les exigences des services multimédias. Plus précisément, à partir d'une étude sur les caractéristiques du trafic multimédia, nous analysons plusieurs protocoles mac très connus et nous examinerons des techniques de contrôle d'accès au canal, utilisées par des protocoles mac. Nous améliorons l'efficacité du réseau dqdb et nous proposons un nouveau protocole mac pour répondre aux problèmes rencontres. Enfin, nous discuterons des problèmes relatifs à la couche mac au niveau de l'implémentation
APA, Harvard, Vancouver, ISO, and other styles
10

Ruiz, Marta. "Contrôle actif de la perte par transmission d'une plaque par minimisation du débit volumique." Mémoire, Université de Sherbrooke, 2000. http://savoirs.usherbrooke.ca/handle/11143/1121.

Full text
Abstract:
Le mémoire de maîtrise présenté ici porte sur l'étude du contrôle de la perte par transmission d'une plaque rectangulaire. Il s'agit d'un contrôle actif réalisé à l'aide d'actuateurs en céramique piezoélectrique. L'étude a, dans un premier temps, permis d'évaluer les paramètres qui sont impliqués dans le contrôle actif utilisé. Les rôles divers que ces paramètres jouent dans le processus de contrôle de la perte par transmission ont été analysés grâce à une simulation informatique. Des valeurs numériques pour ces paramètres ont alors pu être extraites et ont servis à mettre en oeuvre, dans un deuxième temps, l'expérimentation de ce contrôle. Cette dernière a fait l'objet de deux sessions. La première session a pu être effectuée à l'Université de Sherbrooke (Québec) sous la direction du professeur Alain Berry et la collaboration de François Charrette. Elle a consisté dans la mise au point de la plaque et de ses divers capteurs ainsi que dans sa caractérisation (analyse modale). La deuxième session a eu lieu au Vibrations and Acoustics Laboratory (Blacksburg, Virginie) sous la direction de Catherine Guigou. Cette seconde partie de l'expérimentation a permis l'étude proprement dite du contrôle de la perte par transmission de la plaque placée dans une chambre de transmission. Le mémoire qui suit est présenté dans l'ordre chronologique dans lequel l'étude a été faite, c'est-à-dire, la théorie suivie de l'expérience permettant de la valider. Comme le montrent les graphiques du quatrième chapitre, une bonne performance de la méthode utilisée sur le contrôle des vibrations transmises par la plaque a été obtenue malgré des conditions expérimentales relativement simples. Ce résultat permet d'espérer que le futur pourrait bénéficier d'un monde plus silencieux.
APA, Harvard, Vancouver, ISO, and other styles
11

Nicoletti, Nathalie. "Contrôle dimensionnel par vision : Une application à des pièces découpées sur presses à grand débit." Besançon, 1988. http://www.theses.fr/1988BESA2036.

Full text
Abstract:
Automatisation du controle de qualite par vision. Les pieces sont positionnees par un mecanisme a quatre barres. Les traitements d'image permettent d'obtenir des resolutions superieures aux precisions des cameras
APA, Harvard, Vancouver, ISO, and other styles
12

Chesneau, Olivier. "Un outil d'aide à la maîtrise des pertes dans les réseaux d'eau potable : La modélisation dynamique de différentes composantes du débit de fuite." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/CHESNEAU_Olivier_2006.pdf.

Full text
Abstract:
Le vieillissement des réseaux d’eau potable entraîne une dégradation de la qualité du service. L’importance des enjeux financiers impliqués dans son maintien impose une gestion patrimoniale motivée et maîtrisée. Les fuites, dont les effets sont particulièrement préjudiciables à la ressource, constituent un des indicateurs du niveau de détérioration des infrastructures. Ce travail présente un outil capable de prévoir l’évolution des fuites, intégrant leur croissance naturelle avec le temps et les différents types d’interventions de l’exploitant visant à les réduire. Pour cela, nous disposons de chroniques de débits de fuite et de réparations sur des réseaux sectorisés qui servent au calage du modèle dynamique élaboré, appelé modèle trois états. Il est basé sur la double hypothèse que les fuites apparaissent selon un processus de Yule et qu’elles se transforment avec le temps pour passer par trois états successifs (fuites diffuses, fuites non repérées et casses manifestes). S’appuyant sur l’âge moyen des secteurs, le modèle reconstitue dans un premier temps les différentes chroniques sélectionnées en décomposant le débit de fuite en une part liée aux fuites diffuses et une autre composée des fuites non repérées. Dans un second temps, il permet de suivre l’évolution de ce débit à différents horizons lorsque le secteur est soumis à divers scénarios de gestion. La simulation des effets d’opérations de recherche de fuites ou de renouvellement est rendue possible par la formulation du modèle et peut ainsi orienter les choix et la programmation des interventions du gestionnaire
The degradation of the performance of water networks due to ageing has to be fought. The high financial stakes involved in keeping the quality of service at an acceptable level impose the need for a controlled and motivated management of assets. Leaks, whose effects are particularly detrimental for the resource, are one of the key indicators of the infrastructures deterioration. This study presents a tool to foresee the evolution of leaks, considering both the natural growth in time and the interventions of the operator to reduce them. Leak flows and repair records on District Metered Areas are used to elaborate this tool and calibrate a dynamic model, named the “three states model”. It is based on the double hypothesis that the leaks appear according to a Yule process and that they transform with time to pass through three successive states (background leaks, unreported leaks and manifest bursts). Considering the mean age of the DMAs, the model first restores the selected records by decomposing the leak flow into a part due to the background leaks and another part linked with the unreported leaks. Then, it allows the evolution of the leak flow at several time steps to be followed when various management scenarios are applied to the DMA. The simulation of the benefits of leak-finding or renewal operations is made possible by the model formulation and so can guide the choices and the programming of operator interventions
APA, Harvard, Vancouver, ISO, and other styles
13

Omnès, Nathalie. "Analyse d'outils de contrôle de la qualité de service dans les réseaux de paquets haut débit." Rennes 1, 2001. http://www.theses.fr/2001REN10134.

Full text
Abstract:
Dans un réseau de télécommunication, les flux correspondant aux applications ayant des contraintes temporelles sont appelés flux rigides. Il faut leur garantir un faible délai de traversée, et parfois les resynchroniser avant de les remettre à l'application. Nous étudions dans la partie B les pertes de paquets induites par cette resynchronisation. Nous y déterminons une borne pour la proportion moyenne de perte. Un contrôleur espaceur permet d'estimer les besoins d'un tel flux. Nous étudions son dimensionnement dans la partie C. Nous établissons une borne pour la probabilité de perte au niveau cellule. Enfin, les flux élastiques peuvent s'adapter aux ressources instantanément disponibles. Nous définissons dans la partie D un protocole distribué qui gère dynamiquement l'allocation du débit à un tel flux. Nous développons un modèle de ce protocole grâce aux réseaux de Petri stochastiques. L'analyse stationnaire est menée via l'étude d'un processus régénératif de Markov.
APA, Harvard, Vancouver, ISO, and other styles
14

German, Yolla. "L'imagerie cellulaire à haut débit révèle le contrôle de la synapse immunologique par le cytosquelette d'actine." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30015.

Full text
Abstract:
Les lymphocytes cytotoxiques dépendent du remodelage du cytosquelette d'actine pour atteindre leur fonction. En particulier, les lymphocytes T cytotoxiques et les cellules NK assemblent la synapse immunologique (SI), structure complexe riche en actine qui permet l'interaction avec des cellules cibles et la distribution polarisée de granules lytiques (GL). Bien que le remodelage du cytosquelette d'actine soit connu pour être une force motrice de l'assemblage et de la dynamique de la SI, la compréhension du contrôle moléculaire du remodelage de l'actine soutenant la dynamique de la SI reste fragmentée. Ce projet de thèse a consisté à développer une approche d'imagerie à haut débit pour définir de manière impartiale les métriques de la SI des lymphocytes T et NK et caractériser les exigences d'intégrité du cytosquelette d'actine dans l'organisation de l'architecture de la SI.À cette fin, la stimulation et coloration des lignées cellulaires et cellules primaires dans des plaques à puits multiples et l'acquisition d'un ensemble unique d'images confocales avec un imageur à haut contenu entièrement automatisé ont été optimisées. Les images ont été analysées avec deux pipelines complémentaires avec CellProfiler pour définir les caractéristiques morphologiques associées aux différents traitements et à l'état de la maladie. Nous avons d'abord extrait 16 caractéristiques morphologiques se rapportant à la F-actine, LFA-1 ou aux GL, sur la base d'une connaissance préalable de l'assemblage de la SI, et inclus des caractéristiques relatives au noyau. Nous montrons que l'assemblage de la SI dans les lignées est caractérisé par une augmentation de l'intensité de la F-actine et la surface cellulaire. Pour les cellules Jurkat, nous rapportons une augmentation de l'intensité et de la surface LFA-1, et de la de la détection des LG sur le plan SI pour les cellules NK-92. Le traitement des cellules NK-92 avec 7 drogues affectant différents aspects de la dynamique de l'actine et l’étude des effets associés sur les caractéristiques de la SI montrent des effets dépendants de la concentration sur l'intensité de l’actine et sur la polarisation des GL. De plus, un profilage morphologique à haute résolution basé sur> 300 caractéristiques montre que chaque drogue inflige des altérations distinctes sur la morphologie de la SI. Nous avons appliqué ce pipeline à des cellules NK primaires isolées du sang de donneurs sains. Des caractéristiques morphologiques distinctes définissent les cellules NK de différents donneurs, soulignant la sensibilité de notre approche, mais révélant également une variabilité insoupçonnée des morphologies des cellules immunitaires parmi les donneurs. Nous avons appliqué notre approche aux cellules T CD8+ primaires de patients présentant une immunodéficience rare due à des mutations dans le gène codant pour le régulateur d'actine ARPC1B. La carence en ARPC1B entraîne une diminution de l'intensité de l'actine et de la polarisation des GL. Cela nous a incités à évaluer la capacité lytique de ces cellules, qui a été considérablement réduite. Ces résultats illustrent comment l'analyse systématique de la SI pourrait être utilisée pour aider à l'exploration des défauts fonctionnels des populations de lymphocytes dans des contextes pathologiques.En conclusion, notre étude révèle que, bien que l'assemblage de la SI puisse être caractérisé par quelques caractéristiques telles que l'intensité de l'actine et la propagation cellulaire, la capture de fines altérations résultant de la dérégulation du cytosquelette nécessite une analyse à haut débit. Le pipeline développé est prometteur pour le profilage morphologique des lymphocytes de patients atteints d'immunodéficiences primaires dont le défaut génétique n'a pas encore été identifié. De plus, le pouvoir discriminant de notre approche pourrait être exploité pour caractériser la réponse des lymphocytes à divers stimuli et surveiller leur activation dans de multiples pathologies et traitements
Cytotoxic lymphocytes rely on actin cytoskeleton remodeling to achieve their function. In particular cytotoxic T lymphocytes and NK cells assemble the immunological synapse (IS), a complex actin-rich structure that allows the interaction with target cells, such as infected cells or tumor cells, and permits the polarized delivery of lytic granules. Although actin cytoskeleton remodeling is known to be a driving force of IS assembly and dynamics, our understanding of the molecular control of actin remodeling sustaining IS dynamics remains fragmented. This PhD project consisted in developing a high-content imaging approach to unbiasedly define the metrics of IS from human T and NK lymphocytes and to characterize the requirements for actin cytoskeleton integrity in organizing the IS architecture.For that purpose, the stimulation and staining of cell lines and primary cells in multiwell plates and acquisition of a unique set of >100.000 confocal images with a fully automatized high-content imager was optimized. The images were analyzed with two complementary CellProfiler analytical pipelines to characterize the morphological features associated with different treatments and disease status. We first extracted 16 morphological features pertaining to F-actin, LFA-1 or lytic molecules based on prior knowledge of IS assembly, and included features pertaining to the nucleus. We show that IS assembly in Jurkat and NK-92 cells is characterized by increased F-actin intensity and cell area. For Jurkat cells, we report an increase in LFA-1 intensity and surface area, and for NK-92 cells an increase in lytic granule detection at the IS plane. We then treated NK-92 cells with seven drugs known to affect different aspects of actin dynamics and investigated the associated effects on IS features. We report concentration dependent effects, not only on F-actin intensity, as expected, but also on lytic granule polarization. Furthermore, using a high-resolution morphological profiling based on >300 features, we show that each drug inflicts distinct alterations of IS morphology. In a next step, we applied our experimental pipeline to primary NK cells isolated from the blood of healthy donors. Distinct morphological features were characterized among the NK cells from different donors, highlighting the sensitivity of our approach, but also revealing an unsuspected variability of immune cell morphologies among donors. We then further applied our approach to primary CD8+ T cells from patients with a rare immunodeficiency due to mutations in the gene encoding the actin regulator ARPC1B. ARPC1B deficiency results in decreased F-actin intensity, as well as in lytic granule polarization. This prompted us to assess the ability of these cells to kill target cells, which was markedly reduced. These results illustrate how the systematic analysis of the IS might be used to assist the exploration of fonctional defects of lymphocyte populations in pathological settings. In conclusion, our study reveals that although assembly of the IS can be characterized by a few features such as F-actin intensity and cell spreading, capturing fine alterations of that complex structure that arise from cytoskeleton dysregulation requires a high-content analysis. The pipeline we developed through this project holds promises for the morphological profiling of lymphocytes from primary immunodeficiency patients whose genetic defect has not yet been identified. Moreover, the discriminative power of our high-content approach could be exploited to characterize the response of lymphocytes to various stimuli and to monitor lymphocyte activation in multiple immune-related pathologies and treatment settings
APA, Harvard, Vancouver, ISO, and other styles
15

Khalifé, Hicham. "Techniques de contrôle pour réseaux sans fils multi-sauts." Paris 6, 2008. http://www.theses.fr/2008PA066458.

Full text
Abstract:
Nous proposons dans cette thèse trois nouvelles techniques de contrôle spécialement développées pour améliorer le débit observé par un utilisateur final dans un réseau sans fil multi-sauts. Nous présentons d’abord un modèle mathématique qui permet d’évaluer les pertes dues au terminal caché. Ce modèle est ensuite exploité pour présenter une solution au niveau de la couche MAC permettant d’améliorer le débit des connexions TCP. La deuxième technique tente d’exploiter les propriétés de diffusion du canal radio. En effet, HbH, utilise le fait que chaque transmission sans fil peut être entendue par les noeuds à proximité, pour détecter la panne d’un noeud voisin. Avec HbH, chaque noeud et après la transmission d’un message procède à une écoute du canal afin de savoir si son voisin a retransmis le paquet avant que le premier ne prenne la décision de le jeter. HbH peut être utilisé pour détecter la disparition de noeuds voisins due à la mobilité par exemple. Finalement, nous nous intéressons aux réseaux radios cognitifs. Dans ce nouveau, des problèmes de base restent encore non résolus. Une première technique de contrôle envisageable consiste à présenter des mécanismes de routage capables d’établir un chemin de bout en bout tout en tenant compte de l’instabilité de ces réseaux. Pour ces raisons, nous proposons MPP, un algorithme de routage spécialement conçu pour les réseaux radios cognitifs multi-sauts. Notre protocole établit un chemin et un ensemble de canaux radios à utiliser entre un nœud source et une destination en se basant sur des calculs probabilistes qui prennent en compte l’emplacement et l’activité des noeuds primaires plus prioritaires sur les canaux en questions.
APA, Harvard, Vancouver, ISO, and other styles
16

Fnaiech, Emna-Amira. "Développement d'un outil de simulation du procédé de contrôle non destructif des tubes ferromagnétiques par un capteur à flux de fuite." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00752882.

Full text
Abstract:
Le principe du contrôle par flux de fuite magnétique (Magnetic Flux Leakage MFL) consiste à aimanter la pièce à contrôler par un champ magnétique et à détecter à l'aide d'un capteur magnétique les fuites des lignes du champ qui résultent de la présence d'un défaut dans la pièce. Dans le but d'améliorer les performances d'un dispositif de détection, le CEA et la société Vallourec collaborent pour développer un modèle numérique dédié au contrôle virtuel des défauts longitudinaux dans les tubes ferromagnétiques. Le dispositif expérimental comprend un circuit magnétique tournant à une vitesse constante autour du tube qui défile. Dans le cadre de cette thèse, on débute le problème de la modélisation sans tenir compte des effets de la vitesse de rotation, il s'agit donc de résoudre un problème d'électromagnétisme en régime magnétostatique.Pour résoudre ce problème, on propose de comparer une approche semi-analytique basée sur le formalisme des équations intégrales (EI) et une approche purement numérique utilisant les éléments finis (EF).Dans la première partie de cette thèse, après avoir établi le formalisme théorique par EI, un premier modèle considérant des matériaux ferromagnétiques à perméabilité magnétique constante (régime linéaire) a été mis en œuvre en 2D. Ce modèle a été appliqué pour un exemple de système extrait de la littérature et validé numériquement par une comparaison des résultats EI/EF. Pour une meilleure détection, il est opportun de saturer magnétiquement la pièce. Le matériau ferromagnétique est alors caractérisé par une courbe B(H) non-linéaire. Par conséquent, la deuxième partie de la thèse a été consacrée à la mise en œuvre du modèle en régime non linéaire qui tient compte de cette caractéristique.Différentes méthodes de discrétisation ont été étudiées afin de réduire le nombre d'inconnues et le temps de calcul. L'originalité de la thèse réside dans l'utilisation des fonctions d'interpolation d'ordre élevé (polynôme de Legendre) pour une discrétisation des équations intégrales par une approche de type Galerkin. Les premiers essais de validation numérique de ce modèle ont été effectués sur un système MFL simplifié. Des premiers essais de validation expérimentale pour des données obtenues par EF ont été effectués en deux phases : La première a consisté à vérifier le distribution du champ magnétique pour un tube sain et en régime magnétostatique. La deuxième phase a consisté à calculer la réponse d'un défaut dans le tube ferromagnétique en tenant en compte les effets éventuels de la rotation du circuit magnétique par rapport au tube.
APA, Harvard, Vancouver, ISO, and other styles
17

Fnaiech, Emna Amira. "Développement d’un outil de simulation du procédé de contrôle non destructif des tubes ferromagnétiques par un capteur à flux de fuite." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112311/document.

Full text
Abstract:
Le principe du contrôle par flux de fuite magnétique (Magnetic Flux Leakage MFL) consiste à aimanter la pièce à contrôler par un champ magnétique et à détecter à l'aide d'un capteur magnétique les fuites des lignes du champ qui résultent de la présence d'un défaut dans la pièce. Dans le but d'améliorer les performances d'un dispositif de détection, le CEA et la société Vallourec collaborent pour développer un modèle numérique dédié au contrôle virtuel des défauts longitudinaux dans les tubes ferromagnétiques. Le dispositif expérimental comprend un circuit magnétique tournant à une vitesse constante autour du tube qui défile. Dans le cadre de cette thèse, on débute le problème de la modélisation sans tenir compte des effets de la vitesse de rotation, il s'agit donc de résoudre un problème d'électromagnétisme en régime magnétostatique.Pour résoudre ce problème, on propose de comparer une approche semi-analytique basée sur le formalisme des équations intégrales (EI) et une approche purement numérique utilisant les éléments finis (EF).Dans la première partie de cette thèse, après avoir établi le formalisme théorique par EI, un premier modèle considérant des matériaux ferromagnétiques à perméabilité magnétique constante (régime linéaire) a été mis en œuvre en 2D. Ce modèle a été appliqué pour un exemple de système extrait de la littérature et validé numériquement par une comparaison des résultats EI/EF. Pour une meilleure détection, il est opportun de saturer magnétiquement la pièce. Le matériau ferromagnétique est alors caractérisé par une courbe B(H) non-linéaire. Par conséquent, la deuxième partie de la thèse a été consacrée à la mise en œuvre du modèle en régime non linéaire qui tient compte de cette caractéristique.Différentes méthodes de discrétisation ont été étudiées afin de réduire le nombre d'inconnues et le temps de calcul. L'originalité de la thèse réside dans l'utilisation des fonctions d'interpolation d'ordre élevé (polynôme de Legendre) pour une discrétisation des équations intégrales par une approche de type Galerkin. Les premiers essais de validation numérique de ce modèle ont été effectués sur un système MFL simplifié. Des premiers essais de validation expérimentale pour des données obtenues par EF ont été effectués en deux phases : La première a consisté à vérifier le distribution du champ magnétique pour un tube sain et en régime magnétostatique. La deuxième phase a consisté à calculer la réponse d'un défaut dans le tube ferromagnétique en tenant en compte les effets éventuels de la rotation du circuit magnétique par rapport au tube
The principle of the non destructive testing by magnetic flux leakage (MFL) is to magnetize the part to be inspected by a magnetic field and to detect a flaw thanks to magnetic leakage field lines due to the strong decreasing of the magnetic permeability in the flawed region. In order to improve the performance of detection, the CEA and the Vallourec society collaborate to develop a numerical model dedicated to the virtual NDT of longitudinal defects in ferromagnetic tubes. The experimental system includes a magnetic circuit rotating at a constant speed around the tube to be inspected. The modeling task is started without considering the effects of the rotational speed, so the magnetostatic regime is considered to solve the modeling problem. In the framework of this thesis, we propose to compare a semi-analytical approach based on the formalism of integral equations method (IEM) and a purely numerical approach using finite element method (FEM).In the first part of this thesis, the theoretical formalism was established. A first simple discretization scheme is been implemented in the linear regime considering a constant magnetic permeability. This first numerical model has been validated for a simplified MFL configuration extracted and modified from the literature.For better detection, it is wishable to magnetically saturate the piece under-test. The ferromagnetic material is then characterized by a B(H) curve. Therefore, the second part of the thesis was devoted to the implementation of the model in the non-linear regime that takes into account this non-linear characteristic. Different discretization schemes have been studied in order to reduce the number of unknowns and the computational time. The originality of the thesis lies in the use of basis function of high order (Legendre polynomials) associated to a Galerkin approach for the discretization of integral equations. The first numerical result has been validated on a simplified MFL system. The first results of the experimental validation based on simulated data obtain by FEM have been performed in two steps. The first one consists to verify the distribution of the magnetic field for a ferromagnetic tube without any defect and in the magnetostatic regime. The objective of the second one was to compute the response of the flaw and to evaluate the effects of the rotational speed of the magnetic circuit around the tube
APA, Harvard, Vancouver, ISO, and other styles
18

Claudio, Karim. "Mise en place d'un modèle de fuite multi-états en secteur hydraulique partiellement instrumenté." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0482/document.

Full text
Abstract:
L’évolution de l’équipement des réseaux d’eau potable a considérablement amélioré le pilotage de ces derniers. Le telérelevé des compteurs d’eau est sans doute la technologie qui a créé la plus grande avancée ces dernières années dans la gestion de l’eau, tant pour l’opérateur que pour l’usager. Cette technologie a permis de passer d’une information le plus souvent annuelle sur les consommations (suite à la relève manuelle des compteurs d’eau) à une information infra-journalière. Mais le télérelevé, aussi performant soit-il, a un inconvénient : son coût. L’instrumentation complète d’un réseau engendre des investissements que certains opérateurs ne peuvent se permettre. Ainsi la création d’un échantillon de compteurs à équiper permet d’estimer la consommation totale d’un réseau tout en minimisant les coûts d’investissement. Cet échantillon doit être construit de façon intelligente de sorte que l’imprécision liée à l’estimation ne nuise pas à l’évaluation des consommations. Une connaissance précise sur les consommations d’eau permet de quantifier les volumes perdus en réseau. Mais, même dans le cas d’une évaluation exacte des pertes, cela ne peut pas suffire à éliminer toutes les fuites sur le réseau. En effet, si le réseau de distribution d’eau potable est majoritairement enterré, donc invisible, il en va de même pour les fuites. Une fraction des fuites est invisible et même indétectable par les techniques actuelles de recherche de fuites, et donc irréparable. La construction d’un modèle de fuite multi-états permet de décomposer le débit de fuite suivant les différents stades d’apparition d’une fuite : invisible et indétectable, invisible mais détectable par la recherche de fuite et enfin visible en surface. Ce modèle, de type semi-markovien, prend en compte les contraintes opérationnelles, notamment le fait que nous disposons de données de panel. La décomposition du débit de fuite permet de fait une meilleure gestion du réseau en ciblant et adaptant les actions de lutte contre les fuites à mettre en place en fonction de l’état de dégradation du réseau
The evolution of equipment on drinking water networks has considerably bettered the monitoring of these lasts. Automatic meter reading (AMR) is clearly the technology which has brought the major progress these last years in water management, as for the operator and the end-users. This technology has allowed passing from an annual information on water consumption (thanks to the manual meter reading) toan infra-daily information. But as efficient as AMR can be, it has one main inconvenient : its cost. A complete network instrumentation generates capital expenditures that some operators can’t allowed themselves. The constitution of a sample of meters to equip enables then to estimate the network total consumption while minimizing the investments. This sample has to be built smartly so the inaccuracy of the estimator shouldn’t be harmful to the consumption estimation. A precise knowledge on water consumption allowsquantifying the water lost volumes on the network. But even an exact assessment of losses is still not enough to eliminate all the leaks on the network. Indeed, if the water distribution network is buried, and so invisible, so do the leaks. A fraction of leaks are invisible and even undetectable by the current technologies of leakage control, and so these leaks are un-reparable. The construction of a multi-state model enables us to decompose the leakage flow according to the different stages of appearance of a leak : invisible and undetectable, invisible but detectable with leakage control and finally detectable. This semi-Markovian model takes into account operational constrains, in particular the fact that we dispose of panel data. The leakage flow decomposition allows a better network monitoring but targeting and adapting the action of leakage reduction to set up according to the degradation state of the network
APA, Harvard, Vancouver, ISO, and other styles
19

Brochu, Francis. "Amélioration du contrôle de qualité de produits sanguins utilisant la spectrométrie de masse à haut-débit et l'apprentissage automatique." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29875.

Full text
Abstract:
Ce mémoire décrit plusieurs travaux concernant le traitement de données et l’analyse de spectres de masse à haut débit. La spectrométrie de masse est une méthode connue de mesure chimique. Appliquée à des échantillons biologiques, la spectrométrie de masse devient alors une technique de mesure métabolomique, c’est-à-dire mesurant l’ensemble des métabolites de l’échantillon, soit les petites molécules composant le fluide biologique et qui interagissent avec le métabolisme. Le projet présenté ici est effectué en partenariat avec Héma-Québec afin de concevoir de nouveaux tests de contrôle de qualité à partir de spectrométrie de masse. L’application de la technologie de la source LDTD à la spectrométrie de masse permet d’acquérir des spectres à haut-débit. Cela représente un bénéfice au coût de l’acquisition des spectres ainsi qu’à la rapidité du processus. On peut ainsi obtenir de grandes quantités de spectres afin de construire des ensembles de données. On peut ensuite appliquer le domaine informatique de l’apprentissage automatique à ces données. On peut utiliser ce domaine afin de classifier les spectres d’échantillons de produits sanguins et fournir des garanties statistiques sur cette classification. L’utilisation d’algorithmes parcimonieux et interprétables peut aussi mener à la découverte de biomarqueurs. Les travaux présentés ici concernent la conception de deux méthodes de traitement des spectres de masse. La première méthode est la correction par masses de verrouillage virtuelles, utilisée pour corriger les biais de mesure uniformes. La seconde est une méthode d’alignement, qui est un outil de correction d’erreurs de lecture. De plus, une nouvelle méthode à noyau, soit une méthode mathématique de comparaison entre des exemples, fut mise au point spécifiquement pour le travail avec des spectres de masse. Finalement, des résultats de classification sur spectres de masse acquis par LDTD et par spectrométrie de masse avec chromatographie liquide sont présentés.
This memoir describes work concerning the treatment and analysis of high-throughput mass spectrometry. Mass spectrometry is a tried and tested method of chemical measurement in a sample. Applied to biological samples, mass spectrometry becomes a metabolomic measurement technique, meaning that it measures the metabolites contained in a sample, which are small molecules present in the biological fluid that interact with the individual’s metabolism. The project that is presented here is a partnership with Hema-Québec in order to conceive new quality control tests from mass spectrometry measurements. The application of the LDTD ionisation source in mass spectrometry makes the acquisition of spectra in high-throughput possible. This represents a large benefit in terms of experimental costs and in time. Large datasets of mass spectra can then be obtained in a short period of time. The computer science domain of machine learning can then be applied to this data. Statistical machine learning can then be used to classify the spectra of blood product samples and provide statistical guarantees on this classification. The use of sparse and interpretable machine learning algorithms can also lead to the discovery of biomarkers. The work presented in this memoir concerns the design of two methods of treatment of mass spectra. The first of these methods is the correction by virtual lock masses, used to correct any uniform shift in the masses in a spectra. The second is a new method of peak alignment used to correct slight measuring errors. In addition, a new kernel method, a method to mathematically compare examples, was designed specifically for application on mass spectra data. Finally, results of classification on mass spectra acquired with an LDTD ionisation source and by liquid chromatography mass spectrometry will be presented.
APA, Harvard, Vancouver, ISO, and other styles
20

Harb, Hassan. "Conception du décodeur NB-LDPC à débit ultra-élevé." Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS504/document.

Full text
Abstract:
Les codes correcteurs d’erreurs Non-Binaires Low Density Parity Check (NB-LDPC) sont connus pour avoir de meilleure performance que les codes LDPC binaires. Toutefois, la complexité de décodage des codes non-binaires est bien supérieure à celle des codes binaires. L’objectif de cette thèse est de proposer de nouveaux algorithmes et de nouvelles architectures matérielles de code NB-LDPC pour le décodage des NBLDPC. La première contribution de cette thèse consiste à réduire la complexité du nœud de parité en triant en amont ses messages d’entrées. Ce tri initial permet de rendre certains états très improbables et le matériel requis pour les traiter peut tout simplement être supprimé. Cette suppression se traduit directement par une réduction de la complexité du décodeur NB-LDPC, et ce, sans affecter significativement les performances de décodage. Un modèle d’architecture, appelée "architecture hybride" qui combine deux algorithmes de l’état de l’art ("l’Extended Min Sum" et le "Syndrome Based") a été proposé afin d’exploiter au maximum le pré-tri. La thèse propose aussi de nouvelles méthodes pour traiter les nœuds de variable dans le contexte d’une architecture pré-tri. Différents exemples d’implémentations sont donnés pour des codes NB-LDPC sur GF(64) et GF(256). En particulier, une architecture très efficace de décodeur pour un code de rendement 5/6 sur GF(64) est présentée. Cette architecture se caractérise par une architecture de check node nœud de parité entièrement parallèle. Enfin, une problématique récurrente dans les architectures NB-LDPC, qui est la recherche des P minimums parmi une liste de taille Ns, est abordée. La thèse propose une architecture originale appelée first-then-second minimum pour une implantation efficace de cette tâche
The Non-Binary Low Density Parity Check (NB-LDPC) codes constitutes an interesting category of error correction codes, and are well known to outperform their binary counterparts. However, their non-binary nature makes their decoding process of higher complexity. This PhD thesis aims at proposing new decoding algorithms for NB-LDPC codes that will be shaping the resultant hardware architectures expected to be of low complexity and high throughput rate. The first contribution of this thesis is to reduce the complexity of the Check Node (CN) by minimizing the number of messages being processed. This is done thanks to a pre-sorting process that sorts the messages intending to enter the CN based on their reliability values, where the less likely messages will be omitted and consequently their dedicated hardware part will be simply removed. This reliability-based sorting enabling the processing of only the highly reliable messages induces a high reduction of the hardware complexity of the NB-LDPC decoder. Clearly, this hardware reduction must come at no significant performance degradation. A new Hybrid architectural CN model (H-CN) combining two state-of-the-art algorithms - Forward-Backward CN (FB-CN) and Syndrome Based CN (SB-CN) - has been proposed. This hybrid model permits to effectively exploit the advantages of pre-sorting. This thesis proposes also new methods to perform the Variable Node (VN) processing in the context of pre-sorting-based architecture. Different examples of implementation of NB-LDPC codes defined over GF(64) and GF(256) are presented. For decoder to run faster, it must become parallel. From this perspective, we have proposed a new efficient parallel decoder architecture for a 5/6 rate NB-LDPC code defined over GF(64). This architecture is characterized by its fully parallel CN architecture receiving all the input messages in only one clock cycle. The proposed new methodology of parallel implementation of NB-LDPC decoders constitutes a new vein in the hardware conception of ultra-high throughput rate decoders. Finally, since the NB-LDPC decoders requires the implementation of a sorting function to extract P minimum values among a list of size Ns, a chapter is dedicated to this problematic where an original architecture called First-Then-Second-Extrema-Selection (FTSES) has been proposed
APA, Harvard, Vancouver, ISO, and other styles
21

Djafa, tchuspa Steve moses. "Développement et optimisation d'un modèle numérique 3D pour la simulation d'un système dédié au contrôle non destructif des tubes ferromagnétiques par flux de fuite." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00953405.

Full text
Abstract:
Le principe du contrôle non destructif par Flux de Fuite Magnétique (FFM) consiste à magnétiser une pièce à contrôler par un champ magnétique intense et à détecter à l'aide d'un capteur magnétique les fuites des lignes de champ qui résultent de la présence d'un défaut dans la pièce. Les méthodes de contrôle FFM sont très employées notamment lors du processus de fabrication des tubes ferromagnétiques par la société Vallourec, le leader mondial des fabricants de tube. Dans le but d'améliorer les performances des systèmes de contrôle installés en usine, le CEA LIST et le centre de recherches de Vallourec (VRA) collaborent pour développer des outils de simulation rapides dédiés au contrôle virtuel des tubes ferromagnétiques. Le système expérimental existant concerne plus particulièrement la détection des défauts longitudinaux. Le problème de modélisation se pose en termes de modélisation d'un système électromagnétique à géométrie complexe en régime magnétostatique non-linéaire. Les courants de Foucault induits par le mouvement relatif entre la pièce et le circuit magnétique sont négligés. Dans ce contexte, une approche semi-analytique reposant sur le formalisme des équations intégrales (EI) a été choisie. Les travaux effectués dans cette thèse ont pour but de traiter des géométries complexes 3D mais limitées dans une première étape aux matériaux linéaires. Toutefois, le caractère non-linéaire de la relation liant l'induction magnétique et le champ magnétique dans un matériau ferromagnétique doit être envisageable lors du choix de la formulation du problème. Après une étude des paramètres influents du système expérimental existant, menée par des simulations par éléments finis, nous avons considéré deux stratégies de modélisation. La première consiste à proposer un schéma de résolution qui combine un module de calcul 2D et un module d'extension du 2D vers le 3D. Le manque de généralisation de cette première approche simplifiée nous a conduits à proposer une deuxième stratégie qui résout le problème complet de magnétostatique 3D. La formulation par équations intégrales porte sur une quantité scalaire auxiliaire : la densité surfacique de charges magnétiques. Afin de pouvoir résoudre à terme un problème 3D non-linéaire, le schéma numérique proposé considère deux hypothèses : la pièce ferromagnétique est divisée en un ensemble de cellules hexaédriques dans lesquelles la perméabilité magnétique est constante et les inconnues du problème, les densités surfaciques de charge sur les faces de chaque cellule sont projetées sur des fonctions de base d'ordre 0. Le calcul numérique des intégrales singulières s'effectue de manière analytique. Plusieurs résultats de simulation confirment la validité du modèle numérique présenté. Même si le modèle présente encore aujourd'hui quelques limitations notamment sur le manque de précision des calculs en présence de défaut, celui-ci donne satisfaction en absence de défaut. Diverses configurations géométriques ont été traitées grâce à l'emploi du mailleur libre Gmsh. Le travail réalisé débouche sur un modèle 3D linéaire intégrable dans un procédé itératif pour effectuer une simulation en régime non-linéaire. Les inconvénients liés au formalisme des équations intégrales sont aujourd'hui contournables grâce aux méthodes de compression de matrices. Ce modèle est un bon candidat pour servir d'outil de simulation pour le contrôle virtuel des matériaux plans ou cylindriques par flux de fuite.
APA, Harvard, Vancouver, ISO, and other styles
22

Paparone, Julien. "Contrôle de l’émission dans des nanostructures plasmoniques : nanoantennes multimères et plasmons long-range." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1178/document.

Full text
Abstract:
L'objet de cette thèse est le couplage entre des nanocristaux luminescents et des nanostructures métalliques. Ces structures présentent nombre d'intérêts dans un large panel d'applications de par l'apparition de modes électromagnétiques de surface (dénommés plasmons) que l'on contrôle via la géométrie de ces structures. Dans cette thèse, j'étudie deux types de nanostructures métalliques différentes : les plasmons « long-range» et les nanoantennes plasmoniques.Dans un premier temps je me suis intéressé à une géométrie qui couple deux plasmons propagatifs en deux modes hybrides au travers d'une fine couche de métal pour former des plasmons à forte longueur de propagations. En couplant des nanocristaux luminescents à ces modes, la répartition en énergie de l'émission dans les différents canaux de désexcitation disponibles a été étudiée. J'ai aussi montré que le métal pouvait augmenter leur taux d'émission spontanée d'un facteur 1,7. La contribution non négligeable des modes de guide conventionnels à l'émission dans ces structure a également été mise en évidence.Dans un second temps, j'ai étudié la potentielle utilisation de nanoparticules métalliques comme nanoantennes pour exalter et rediriger l'émission spontanée. La structure sera composée d'un dimère métallique créant un «point chaud » placé à proximité d'un plot métallique permettant la redirection. Des calculs FDTD montrent qu'une géométrie en pilier permet à la fois des pertes faibles (<10%), une forte augmentation de la cadence d'émission(>x80), une redirection de la lumière et ouvre la possibilité de multiplexage directif en longueur d'onde de l'information. Ces structures présentent l'avantage d'être compatibles avec les techniques modernes d'élaboration en couche mince. Des réalisations préliminaires ont alors été présentées
The object of this thesis is the coupling between luminescent nanocristals and metallic nanostructures. These structures show numerous interest in a large variety of applications thanks to the apparition of electromagnetic surface wave known as plasmons whose properties are tailored with the geometry of these structures. In this thesis, two types of geometry will be adressed : the long-range plasmons, and plasmonic nanoantennas. In a first time, the study focuses on a geometry in which two propagative surface plasmons are coupled through a thin metal film; creating a new type of plasmons with extended propagation lenghts. By coupling the emission of nanocristals in such a geometry, the energy repartition in the different desexcitation channels available has been adressed. The viccinity of the metal has also proved to increase the spontaneous decay rate up to 1.7. The non trivial contribution of conventional waveguide modes has also been demonstrated. In a second time, the potential of using metallic nanoparticles in a pillar geometry as nanoantennas to enhance and redirect the spontaneous emission has been investigated. The structure is composed of a metallic dimer creating a hotspot on top of which another metallic nanoparticles has been placed. FDTD simulations has shown that this kind of geometry can lead to few loss (<10%), a strong enhancement of the emission rate (>x80), a redirection of the emission and paves the way to wavelenght multiplexing possibilities. Besides, these structures present the advantage to be compatible with modern thin film elaboration techniques. Preliminary realisations have then been introduced
APA, Harvard, Vancouver, ISO, and other styles
23

Peigat, Laurent. "Modélisation d'un joint viscoplastique pour la filière hydrogène." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00756297.

Full text
Abstract:
L'Electrolyse de la Vapeur d'eau à Haute Température (EVHT) est l'un des procédésde production d'hydrogène les plus prometteurs. Dans l'optique d'une économie del'hydrogène produit par EVHT, de nombreux verrous restent à lever. L'un d'entre euxporte sur l'étanchéité. En effet, dans un EVHT, la gestion des gaz est primordiale. Ilfaut pouvoir gérer et prévoir dans le temps le comportement des joints afin d'éviter unedégradation des performances. Or, en EVHT, les températures de fonctionnement sontélevées (classiquement autour de 800 °C), des phénomènes de fluage ou de relaxationapparaissent, le différentiel de dilatation thermique entre les cellules électrochimiques encéramique et les interconnecteurs métalliques doit être pris en compte. Enfin, il convientde maintenir l'étanchéité de l'empilement à faible niveau d'effort pour ne pas risquerd'endommager la partie céramique.L'objet du travail de cette thèse démarre par un constat simple : nous ne disposons pasd'outils de prédimensionnement des joints à haute température permettant de prévoirun débit de fuite. Dès lors que l'on est amené à changer un paramètre de fonctionnement,comme la température, la pression, la stratégie de chargement, la géométrie ou la naturedu joint, une nouvelle expérience doit être menée.A partir d'essais d'étanchéité et de simulations numériques aux éléments finis, un modèleoriginal est proposé. Ce modèle qui a été validé en fonction de différents paramètresexpérimentaux permet d'estimer le débit de fuite associé à un joint en Fecralloy (Fe-CrAl) selon sa forme, ses conditions de serrage et du temps de maintien. Offrant ainsila possibilité de concevoir à moindre coût des joints spécifiques pour l'application visée.
APA, Harvard, Vancouver, ISO, and other styles
24

Laffay, Paul. "Réduction du bruit propre d'une pale de ventilateur par la mise en place d'une fente de soufflage et de dents de scie sur le bord de fuite du profil." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/7966.

Full text
Abstract:
Le bruit généré par les machines tournantes telles que les hélices, les ventilateurs ou encore les turbomachines est une problématique actuelle importante sur laquelle les industriels sont amenés à travailler. En effet, afin de faire face à l'exigence grandissante des consommateurs, mais aussi à la multiplication des normes environnementales en termes d'acoustique, ils sont amenés à travailler sur le développement de moyens de réduction de bruit afin de diminuer les sources acoustiques de ces systèmes. L'objectif de cette maîtrise est de concevoir une maquette de profil de pale de ventilateur modulable et instrumentée afin de pouvoir recevoir différents moyens de réduction de bruit. Les deux solutions de contrôle qui sont utilisées dans le cadre de ce projet sont deux moyens passifs: le soufflage qui consiste à souffler de l'air sur le bord de fuite de la pale et l'utilisation de dents de scie sur le bord de fuite. Cette maquette est ensuite testée dans la soufflerie anéchoïque du laboratoire du GAUS (Groupe d'Acoustique de l'Université de Sherbrooke) afin d'étudier les effets acoustiques et aérodynamiques de ces différents moyens de réduction de bruit. Les dents de scie montrent une réduction acoustique allant jusqu'à 10 dB sur une plage fréquentielle croissante avec la vitesse de l'écoulement pour un angle d'attaque compris entre 0° et 8°. Le bruit tonal est également fortement atténué par la présence des dents de scie. Pour les forts angles d'attaque, le régime d'écoulement est pleinement turbulent et aucune réduction de bruit n'apparaît. Les mesures aérodynamiques montrent que les dents de scie permettent d'augmenter le mélange au niveau du bord de fuite du profil. Le soufflage montre également une réduction acoustique allant jusqu'à 8 dB à basse fréquence pour les faibles vitesses (<24 m/s) et pour les angles d'attaques allant jusqu'à 8°. Cependant, une forte augmentation du bruit à haute fréquence est engendrée par le bruit du jet de soufflage. D'un point de vue aérodynamique, le soufflage permet d'ajouter de l'énergie au sillage et de l'affiner. Il réduit fortement la taille des fluctuations de vitesse à l'extrados du profil.
APA, Harvard, Vancouver, ISO, and other styles
25

Gallezot, Matthieu. "Simulation numérique du contrôle non-destructif des guides d’ondes enfouis." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0040/document.

Full text
Abstract:
De nombreux éléments de structures de génie civil sont élancés et partiellement enfouis dans un milieu solide. Les ondes guidées sont souvent utilisées pour le contrôle non destructif (CND) de ces éléments. Ces derniers sont alors considérés comme des guides d’ondes ouverts, dans lesquels la plupart des ondes sont atténuées par des fuites dans le milieu environnant. D’autre part le problème est non borné, ce qui le rend difficile à appréhender sur le plan numérique. La combinaison d’une approche par éléments finis semi-analytique (SAFE) et de la méthode des couches parfaitement adaptées (PML) a été utilisée dans une thèse antérieure pour calculer numériquement trois types de modes (modes piégés, modes à fuite et modes de PML). Seuls les modes piégés et à fuite sont utilisés pour la représentation des courbes de dispersion. Les modes de PML sont non intrinsèques à la physique. L’objectif premier de cette thèse est d’obtenir, par superposition modale sur les modes calculés, les champs émis et diffracté dans les guides d’ondes ouverts. Nous montrons dans un premier temps que les trois types de modes appartiennent à la base modale. Une relation d’orthogonalité est obtenue dans la section du guide(incluant la PML) pour garantir l’unicité des solutions. La réponse forcée du guide peut alors être calculée rapidement par une somme sur les modes en tout point du guide. Des superpositions modales sont également utilisées pour construire des frontières transparentes au bord d’un petit domaine élément fini incluant un défaut, permettant ainsi de calculer le champ diffracté. Au cours de ces travaux, nous étudions les conditions d’approximation des solutions par des superpositions modales, limitées seulement aux modes à fuite, ce qui permet de réduire le coût des calculs. De plus, la généralité des méthodes proposées est démontrée par des calculs hautes fréquences (intéressantes pour le CND) et sur des guides tridimensionnels. Le deuxième objectif de cette thèse est de proposer une méthode d’imagerie pour la localisation de défauts. La méthode de l’imagerie topologique est appliquée aux guides d’ondes. Le cadre théorique général, de type optimisation sous contrainte, est rappelé. Le formalisme modal permet un calcul rapide de l’image. Nous l’appliquons pour simuler un guide d’onde endommagé, et nous montrons l’influence du type de champ émis (monomodal, dispersif,multimodal) ainsi que des configurations de mesure sur la qualité de l’image obtenue
Various elements of civil engineering structures are elongated and partially embedded in a solid medium. Guided waves can be used for the nondestructive evaluation (NDE) of such elements. The latteris therefore considered as an open waveguide, in which most of waves are attenuated by leakage losses into the surrounding medium. Furthermore, the problem is difficult to solve numerically because of its unboundedness. In aprevious thesis, it has been shown that the semi-analytical finite-element method (SAFE) and perfectly matched layers(PML) can be coupled for the numerical computation of modes. It yields three types of modes: trapped modes,leaky modes and PML modes. Only trapped and leaky modes are useful for the post-processing of dispersion curves. PML modes are non-intrinsic to the physics. The major aim of this thesis is to obtain the propagated and diffracted fields, based on modal superpositions on the numerical modes. First, we show that the three types of modes belong to the modal basis. To guarantee the uniqueness of the solutions an orthogonality relationship is derived on the section including the PML. The forced response can then be obtained very efficiently with a modal expansion at any point of the waveguide. Modal expansions are also used to build transparent boundaries at the cross-sections of a small finite-element domain enclosing a defect, thereby yielding the diffracted field. Throughout this work, we study whether solutions can be obtained with modal expansions on leaky modes only, which enables to reduce the computational cost. Besides, solutions are obtained at high frequencies (which are of interest for NDE) and in tridimensional waveguides, which demonstrates the generality of the methods. The second objective of this thesis is to propose an imaging method to locate defects. The topological imaging method is applied to a waveguide configuration. The general theoretical framework is recalled, based on constrained optimization theory. The image can be quickly computed thanks to the modal formalism. The case of a damaged waveguide is then simulated to assess the influence on image quality of the emitted field characteristics (monomodal, dispersive or multimodal)and of the measurement configuration
APA, Harvard, Vancouver, ISO, and other styles
26

Larrieu, Nicolas. "Contrôle de congestion et gestion du trafic à partir de mesures pour l'optimisation de la qualité de service dans l'Internet." Toulouse, INSA, 2005. http://www.theses.fr/2005ISAT0007.

Full text
Abstract:
La métrologie n'est appliquée dans la recherche, l'ingénierie et la conception des réseaux Internet que depuis peu de temps (le début des années 2000), mais cette approche est de plus en plus populaire et devrait tendre à se généraliser. Ses principes consistent à étudier, caractériser, analyser et modéliser le trafic existant sur les liens de l'Internet, afin de comprendre les principes qui régissent le comportement du réseau par rapport à un trafic qui s'avère méconnu. En particulier, garantir la QdS (Qualité de Service) dans l'Internet est un problème essentiel aujourd'hui. L'objectif de cette thèse est de trouver des protocoles de transport qui réduisent la LRD du trafic afin d'optimiser l'utilisation des ressources de communication. Ainsi, ce travail de thèse présente une nouvelle approche pour l'Internet, dont l'objectif est d'améliorer la gestion du trafic, la QdS et plus généralement, les services réseaux. Cette approche, appelée MBN (Measurement Based Networking), repose principalement sur l'utilisation de techniques de métrologie actives et passives qui permettent de mesurer en temps réel différents paramètres du réseau et de son trafic pour ainsi réagir très rapidement et très précisément à des évènements spécifiques se produisant dans le réseau (apparition de congestion par exemple). Nous illustrerons en particulier l'approche MBN au travers du développement d'un mécanisme de contrôle de congestion orienté mesures intitulé MBCC (Measurement Based Congestion Control) et nous l'évaluerons au travers de simulations NS-2 pour montre, en particulier, comment ce nouveau mécanisme permet d'améliorer les caractéristiques du trafic ainsi que la QdS dans l'Internet
Internet monitoring has only been used for research, engineering and design of Internet networks since few years (since the beginning of years 2000), but it is more and more popular and spreads rapidly. It deals with studying, characterizing, analyzing and modeling traffic on the different Internet links in order to understand network behaviors when facing traffics which are largely unknown at this time. In particular, guarantying QoS for the Internet is currently one of the most challenging issues. This thesis aims at designing new communication protocols and architectures able to reduce the traffic LRD in order to optimize the use of communication resources. Then, new protocol and architectural mechanisms could be perfectly suited to users’ needs and traffic constraints. Thus, this PhD work deals with a new approach for the Internet, aiming at improving traffic management, QoS and more generally network services. This approach, called Measurement Based Networking (MBN), is built on the use of active and passive monitoring techniques to evaluate in real time different network parameters and analyze its traffic in order to react very quickly and accurately to specific events arising in the network (for instance, congestion events). We will illustrate, in particular, the MBN approach by designing a new measurement based congestion control mechanism (MBCC) which will be evaluated thanks to NS-2 simulations. We will show, in particular, how this new mechanism can improve traffic characteristics as well as Internet QoS, despite the complexity and variability of current Internet traffics
APA, Harvard, Vancouver, ISO, and other styles
27

Batchati, Pinalessa. "Étude d'une distribution hydraulique pilotée par P. W. M. Et modélisation et contrôle de débit d'une pompe à cylindrée variable pilotée par microprocesseur." Compiègne, 1994. http://www.theses.fr/1994COMPD702.

Full text
Abstract:
Ce travail traite d'une part de la modélisation et la commande d'une distribution hydraulique pilotée en M. L. I. (Modulation en Largeur d'Impulsions) de son application dans un asservissement de position de vérin hydraulique et d'autre part de la modélisation et la commande de débit d'une pompe à cylindrée variable. Après la caractérisation générale de ladite distribution, une modélisation approfondie des différents phénomènes régissant son fonctionnement a été abordée. Les simulations dans le domaine temporel du modèle fortement non linéaire établi, ont permis d'en arriver à la corrélation et l'influence des diverses variables. La technique de linéarisation autour du point de fonctionnement a été introduite pour l'établissement des fonctions de transfert de la distribution en vue de la commande. La faisabilité du contrôle avec cette distribution étant démontrée, la structure de 2 distributeurs a été retenue pour la réalisation et l'étude de l'asservissement de position de vérin hydraulique dont la bande passante est de 2 à 3 Hz. Les structures de correction numérique approchées par une compensation statique des non linéarités suivie d'une compensation dynamique ont permis d'obtenir une bande passante de 5 Hz. La recherche des champs d'application de cette distribution nous a conduit à entreprendre la modélisation d'une pompe à cylindrée variable dont le mécanisme de variation d'angle du plateau est piloté par une servodistribution. La démarche de modélisation identique à celle de la distribution à permis d'établir un modèle dynamique servant de support pour la réalisation et l'étude de l'asservissement de position de plateau de pompe. Malgré le cout économique moindre de cette distribution, ses diverses non linéarités n'autorisent pas son implantation sur ce type de pompe (boucle fermée de bande passante : 8 Hz. ).
APA, Harvard, Vancouver, ISO, and other styles
28

Croville, Guillaume. "Séquençage et PCR à haut débit : application à la détection et la caractérisation d'agents pathogènes respiratoires aviaires et au contrôle de pureté microbiologique des vaccins." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEP028/document.

Full text
Abstract:
La capacité de détection des agents pathogènes est un enjeu croissant tant les maladies infectieuses représentent un risque pour la santé animale et humaine. La globalisation des échanges commerciaux et des voyages, l’évolution des pratiques agricoles, les changements climatiques ou encore les migrations de masse sont autant de facteurs bouleversant la biologie des micro-organismes et de fait, leurs capacités d’émergence. Ce manuscrit décrit trois approches complémentaires, basées sur trois techniques innovantes de biologie moléculaire pour la détection d’agents pathogènes et appliquées à trois contextes différents : (i) la recherche d’une liste précise de micro-organismes par PCR quantitative en temps réel en format microfluidique, (ii) la détection sans a priori d’agents infectieux dans un milieu complexe par métagénomique et séquençage Illumina (Miseq) et (iii) le génotypage d’un agent infectieux sans amplification préalable des génomes par NGS (Nouvelles Générations de séquençage) de troisième génération, le MinION d’Oxford Nanopore Technologies. Ces trois études ont permis de montrer l’apport de ces techniques, qui présentent toutes des caractéristiques distinctes, adaptées à différentes applications. Au-delà de l’application de ces techniques au domaine du diagnostic microbiologique, leur utilisation dans le cadre du contrôle des médicaments immunologiques vétérinaires est une perspective prioritaire de ce travail. En effet, les préparations vaccinales vétérinaires sont soumises à l’obligation de recherche d’une liste d’agents pathogènes à exclure mais également à la vérification de l’identité génétique des souches vaccinales. L’accessibilité et les performances exponentielles des nouvelles technologies de PCR et de séquençage ouvrent ainsi des perspectives révolutionnaires dans le domaine du diagnostic et du contrôle microbiologique
Detection of pathogens becomes an increasing challenge, since infectious diseases represent major risks for both human and animal health. Globalization of trade and travels, evolution of farming practices and global climatic changes, as well as mass migrations are impacting the biology of pathogens and their emerging potential. This manuscript describes three approaches, based on three innovative technologies of molecular biology applied to the detection of pathogens in three different settings : (i) detection of a list of pathogens using real-time quantitative PCR on a microfluidic platform, (ii) unbiased detection of pathogens in complex matrix, using metagenomics and Illumina (Miseq) sequencing and (iii) genotyping of pathogens without isolation of PCR-enrichment using a 3rd generation NGS (Next Generation Sequencing) platform MinION from Oxford Nanopore Technologies. The three studies shown the contribution of these techniques, each representing distinctive features, suitable for the respective applications. Beyond application of these techniques to the field of microbial diagnostics, their use for the control of veterinary immunological drugs is a priority of this project. Veterinary vaccines are not only submitted to mandatory detection of listed pathogens to be excluded, but also to validation of the genetic identity of vaccine strains. The exponential availability and performances of new PCR or sequencing technologies open cutting-edge perspectives in the field of microbial diagnostic and control
APA, Harvard, Vancouver, ISO, and other styles
29

Sarazin, Alexis. "Analyse bioinformatique du contrôle des éléments transposables par les siARN chez Arabidopsis thaliana." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112258/document.

Full text
Abstract:
De nombreux mécanismes contrôlent et limitent la prolifération des éléments transposables (ET) dans les génomes dont ils menacent l'intégrité structurale et fonctionnelle. Chez les plantes l'interférence ARN (ARNi) joue un rôle important dans ces contrôles via des petits ARN d'environ 20nt qui guident la régulation de l'expression de séquences endogènes ou exogènes par deux types de mécanismes. Un premier mécanisme, partagé par de nombreux organismes eucaryotes, inhibe l'activité d'ARNm par un contrôle post-transcriptionnel. Un deuxième type de régulation, permet un contrôle transcriptionnel de l'activité des ET via un mécanisme appelé RNA directed DNA Methylation (RdDM) qui implique des siARN (« short-interfering RNA ») de 24nt qui guident la méthylation de l'ADN spécifiquement au niveau des séquences d'ET. Les siARN sont impliqués également dans la restauration progressive de la méthylation de l'ADN après une perte induite par la mutation du gène DDM1 (Decrease in DNA Methylation 1). L'objectif de cette thèse est de tirer avantage des technologies de séquençage à haut débit pour caractériser le contrôle des ET par les siARN chez la plante modèle Arabidopsis thaliana.Dans un premier temps, j'ai développé des méthodes et outils bioinformatiques afin de gérer efficacement les données de séquençage à haut débit de banques de petit ARN. Ces outils, regroupés en pipeline, visent à permettre l'étude de l'accumulation des siARN correspondant aux séquences d'ET ou de familles d'ET ainsi que leur visualisation de manière globale ou détaillée.Ces outils ont ensuite été appliqués pour caractériser, dans un contexte sauvage, l'association entre les siARN et les ET afin de déterminer des facteurs pouvant expliquer les différences d'abondance en siARN observées. Ces analyses, réalisées en tenant compte de l'état de méthylation de l'ADN et du contexte génomique des ET apportent une vue statique du contrôle des ET par les siARN et de leur impact sur les gènes situés à proximité.L'analyse de banques de petits ARN de mutants de la voie de l'ARNi a ensuite été réalisée afin mieux caractériser l'impact de la perte de méthylation de l'ADN sur les populations de siARN et notamment définir les mécanismes impliqués dans la production des siARN de 21nt induite dans le mutant ddm1. Ces analyses comparatives du contrôle des ET lors d'une perte de la méthylation de l'ADN ont permis de mettre en évidence une production de siARN de 24nt indépendante de la voie classique du RdDM et de proposer un modèle permettant d'expliquer la production de siARN de 21nt dans le mutant ddm1.Dans un dernier temps, j'ai cherché à mieux définir l'implication des siARN dans la restauration des états de méthylation de l'ADN. Les variations de méthylation de l'ADN induites par la mutation ddm1 ont été caractérisées ainsi que leur stabilité transgénérationnelle au sein d'une population d'epiRIL. La stabilité de l'hypométhylation de l'ADN a été étudiée, au regard de données de séquençage à haut débit de banques de petits ARN de lignées WT, ddm1 ainsi que pour 4 lignées epiRIL, afin d'apporter une notion temporelle à l'étude du contrôle des ET par les siARN.Les résultats soulignent le rôle majeur des petits ARN pour le contrôle des éléments transposables afin de préserver l'intégrité structurale et fonctionnelle du génome et ce, via des mécanismes variés en fonction des ET. Ce travail ouvre la voie vers une analyse du contrôle des ET par les siARN basée sur une approche regroupant les ET en réseaux en fonction des séquences de siARN qu'ils partagent. Cela permettrait d'étudier les « connections-siARN » entre ET afin de, par exemple, explorer l'action en trans des siARN pour la restauration de la méthylation de l'ADN
Many mechanisms control and limit the proliferation of transposable elements (TEs) which could otherwise threaten the structural and functional integrity of the genome. In plants RNA interference (RNAi) plays an important role in this control through small RNAs that guide the expression regulation of endogenous or exogenous sequences by two types of mechanisms. The first such mechanism, shared by many eukaryotic organisms, acts at the post-transcriptionnal level to inhibit the activity of mRNA. A second type of regulation allows the transcriptional control of TEs activity through a mechanism called RNA directed DNA methylation (RdDM) which involves 24nt long siRNA ("short-interfering RNA") that guide DNA methylation specifically on TEs sequences. Furthermore, siRNAs are also involved in the progressive restoration of DNA methylation after a loss induced by mutation of the DDM1 gene (Decrease in DNA Methylation 1). The aim of this thesis is to take advantage of high-throughput sequencing technologies to characterize these TEs controls mechanisms by siRNA in the model plant Arabidopsis thaliana .At first, I developed methods and bioinformatics tools to effectively manage data produced by high-throughput sequencing of small RNA libraries. These tools, combined in a pipeline, are designed to allow the study the accumulation of siRNA corresponding to TE sequences or TE families as well as their global or detailed visualization.These tools were applied to characterize, in a wild type background, the association between siRNA and TEs in order to define factors that may explain the observed differences in siRNA abundance . These analyses were performed by taking into account both DNA methylation states and genomic context. It provides a static view of siRNA control of TEs and their impact on nearby genes. Then, analysis of small RNA libraries from mutants of the RNAi pathway was performed to better characterize the impact of DNA methylation loss on siRNA populations and to define the mechanisms involved in the production of 21nt siRNA induced in the ddm1 mutant. These comparative analyses of the TE control after loss of DNA methylation allow us to highlight the production of 24nt siRNA independently of the classical RdDM pathway and to propose a model explaining the production of 21nt siRNA in the ddm1 mutant. At last, I tried to clarify the involvement of siRNA in the restoration of DNA methylation. Changes in DNA methylation induced by ddm1 mutation were characterized as well as their transgenerational stability in an epiRIL population. The stability of DNA hypomethylation has been studied in relation to high-throughput sequencing of small RNAs data from WT, ddm1 and 4 epiRIL lines. It provides a temporal view of the TE control by siRNA. The results highlight the important role of small RNAs in the control of transposable elements in order to preserve structural and functional integrity of the genome through a variety of mechanisms depending on TE sequences. This work opens the way to the analysis of the siRNA control on TEs based on approaches that combine TEs in networks based on their shared siRNA sequences. It would allow to study "siRNA-connections" between TEs in order to explore, for example, the action in trans of siRNA in the restoration of DNA methylation defect
APA, Harvard, Vancouver, ISO, and other styles
30

Khelalfa, Raouf. "Contribution à l'étude des écoulements de filtration au voisinage du point critique." Paris 6, 2008. http://www.theses.fr/2008PA066173.

Full text
Abstract:
L’assemblage de certaines pièces métalliques par des brides, engendre un chemin de fuite qui peut laisser passer un fluide. L’étude suivante a pour objet, la compréhension de la phénoménologie d’un écoulement confiné traversant le voisinage du point critique et son influence sur le débit de fuite. Le problème a été limité aux situations stationnaires et visqueuses. Le chemin de filtration a été assimilé à un capillaire dont la paroi est maintenue à la température critique. Une différence de pression a été imposée, entre une entrée supercritique et une sortie subcritique. L’approche phénoménologique a permis de mettre en évidence l’existence d’une zone de transition au passage du point critique. Dans cette région de forte dilatation, on a montré l’existence d’un couplage thermo-dynamique et l’importance de la convection thermique qui s’associé à la conduction pour assurer le transport de chaleur. Au final, il a été trouvé que la progression du fluide vers l’extérieur est ralenti par un phénomène de bouchon
The assembling of some metal parts by flanges, creates a path of leakage which can let a fluid pass. In this study we aim at understanding the phenomenology of confined flow through the vicinity of critical point and its influence on the value of the mass flow. The problem is limited to viscous stationary flows. The leakage geometry has assimilated to a capillary tube. The wall temperature is fixed at the fluid critical value. A difference of pressure was imposed between a supercritical inlet and subcritique outlet. The phenomenology approach has revealed the existence of a transition zone at passing the critical point. In this region of strong expansion, it has shown the existence of a coupling thermo-dynamics and importance of thermal convection mechanism associated with the conduction for the heat transport. In the end, it was found that the fluid increase outwards is slowed by a stopper phenomenon
APA, Harvard, Vancouver, ISO, and other styles
31

Alvim, Mário. "Des approches formelles pour le cachement d'information: Une analyse des systèmes interactifs, contrôle de divulgation statistique, et le raffinement des spécifications." Phd thesis, Ecole Polytechnique X, 2011. http://tel.archives-ouvertes.fr/tel-00639948.

Full text
Abstract:
Cette thèse traite des mesures des flux d'information dans les systèmes informatiques. Nous exploitons les similarités entre des différents scénarios où la sécurité est une préoccupation, et nous appliquons les concepts de la théorie de l'information pour évaluer le niveau de protection offerte. Dans le premier scénario, nous considérons le problème de la définition des fuites d'information dans les systèmes interactifs où les éléments secrets et les éléments observables peuvent s'alterner au cours du calcul. Nous montrons que l'approche classique de la théorie de l'information qui interprète des systèmes tels que des canaux bruités (simples) n'est plus valide. Toutefois, le principe peut être récupéré si l'on considère les canaux d'un type plus compliqué, que, dans Théorie de l'information sont connus en tant que canaux avec mémoire et rétroaction. Nous montrons qu'il existe une correspondance parfaite entre les systèmes interactifs et ce type de canaux. Dans le deuxième scénario, nous considérons le problème de la vie privée dans les bases de données statistiques. Dans la communauté des bases de données, le concept de Differential Privacy est une notion qui est devenue très populaire. En gros, l'idée est qu'un mécanisme d'interrogation aléatoire assure la protection suffisante si le rapport entre les probabilités que deux ensembles de données adjacentes donnent la même réponse est lié par une constante. On observe la similarité de cet objectif avec la principale préoccupation dans le domaine des flux de l'information: limiter la possibilité de déduire les éléments secrets à partir des éléments observables. Nous montrons comment modéliser le système d'interrogation en termes d'un canal d'information-théorique, et l'on compare la notion de Differential Privacy avec le concept information mutuelle basé sur le travail de Smith. Nous montrons que Differential Privacy implique une borne sur l'information mutuelle, mais pas vice-versa. Nous avons également réfléchir à l'utilité du mécanisme de randomisation, ce qui représente la proximité entre les réponses aléatoires et les vraies, en moyenne. Nous montrons que la notion de Differential Privacy implique une borne serrée sur l'utilité, et nous proposons une méthode qui, sous certaines conditions, construit un mécanisme de randomisation optimale. Déménagent de l'accent mis sur des approches quantitatives, nous abordons le problème de l'utilisation des équivalences des processus pour caractériser des propriétés de protection d'information. Dans la littérature, certains travaux ont utilisé cette approche, fondée sur le principe selon lequel un protocole P avec une variable x satisfait de ces biens si et seulement si, pour chaque paire de secrets s1 et s2, P [s1 / x] est équivalent à P [s2 / x]. Nous montrons que, en présence de non-déterminisme, le principe ci-dessus repose sur l'hypothèse que le scheduler "travaille pour le bénéfice du protocole", et ce n'est généralement pas une hypothèse valable. Parmi des équivalences non-secoures, en ce sens, il y a l'équivalence des traces complètes et la bisimulation. Nous présentons un formalisme dans lequel on peut spécifier schedulers valides et, en conséquence, des versions sécurité des équivalences sur dessus. Nous montrons que notre version de bisimulation est toujours une congruence. Enfin, nous montrons que nos équivalences de sécurité peuvent être utilisées pour établir les propriétés de protection d'information.
APA, Harvard, Vancouver, ISO, and other styles
32

Burel, Catherine. "Le contrôle de la digestion anaérobie des eaux usées : signification des différents paramètres de la méthanisation : choix du débit de biogaz comme indicateur de fonctionnement." Compiègne, 1986. http://www.theses.fr/1986COMPI229.

Full text
Abstract:
Ayant étudié le processus biologique de méthanisation, il a paru nécessaire, dans une optique de mise en place industrielle, d'optimiser ses performances et sa conduite : — en choisissant un protocole de conduite des installations efficace, — en maintenant un taux de biomasse important dans le réacteur (procédés intensifs), — en évitant tout déséquilibre de ce processus fermentaire, par un suivi attentif des paramètres de contrôle de la fermentation. Ces deux derniers points sont importants, en raison du faible taux de croissance des bactéries méthanigènes ; un lessivage ou un mauvais état de cette biomasse a pour conséquence redémarrage difficile de la fermentation. Il reste que la méthanisation est actuellement utilisée comme technique de traitement biologique de certains rejets et déchets agricoles ou industriels. L’utilisateur recherche le traitement de ses déchets au moindre coût, il souhaite une automatisation de l'installation. Le contrôle d'un fermenteur de méthanisation se heurte principalement aux problèmes de coût et d’automatisation des capteurs (problème d’encrassement par exemple). Cette étude a pour objectifs : — de faire le point sur les paramètres de la méthanisation, en les définissant, en étudiant leur signification, leur importance et leur mesure, — de proposer des paramètres de suivi nécessaires et suffisants pour le contrôle d'un digesteur, en précisant les qualités et limites du contrôle choisi. Nous nous intéresserons à un paramètre « d’alerte », de mesure simple et si possible automatisable, permettant de détecter assez rapidement les accidents de fermentation la nature et l’importance de l’accident ne seront pas pour autant déterminés. Le suivi du digesteur est donc peu précis mais relativement efficace et surtout simple à manier. Les moyens utilisés pour mener à bien cette étude ont été : — une recherche bibliographique, — le suivi d'un pilote de méthanisation, sur une durée d’environ une année (Janvier 1984 - Janvier 1985) le réacteur était de taille semi-industrielle (1. 37 M3) et d'un système complet de mesure. Les points étudiés dans ce rapport sont les suivants — recherche bibliographique. Le processus et les procédés de méthanisation ont été décrits. Les paramètres qui caractérisent le système de méthanisation et ceux qui contrôlent son bon fonctionnement ont été passés en revue et définis minutieusement. Il a été fait une étude cinétique et stoëchiométrique de cette fermentation, permettant une approche vers la modélisation. Des exemples d’accidents de fermentation ont été décrits, quelques propositions de conduite et de suivi d'un fermenteur de méthanisation ont été détaillées. — description du matériel et des méthodes analytiques utilisées lors de nos essais. Un point important concerne la mesure de certains paramètres de suivi : PH, débit de gaz, analyse du gaz, rendement D. C. O. (totale et soluble), A,G,V„ etc. . . , et leurs possibles automatisations. — exploitation des résultats des essais. Nous avons analysé l’évolution de certains paramètres de suivi précédemment cités. Le débit de gaz semble rendre compte, avec un temps de réponse court et de façon très nette, de l’évolution de la charge entrante d’alimentation du digesteur. La mesure de ce paramètre est relativement aisée, son automatisation possible, ce qui ne semble pas le cas pour la mesure des A. G. V. . . Ces constatations ont été appuyées par l’examen de données bibliographiques. L’étude stoëchiométrique et cinétique du processus de méthanisation nous a alors suggéré d’étudier sur ces points d’équilibre (pas d’inhibition de l’activité bactérienne), pour une biomasse adaptée au substrat, les corrélations suivantes : M3 gaz x M-3 DIG x J-1 = f (kg DCO entrée x M—3 DIG x J—1) - M3 CH4 x = fn (kg DCO éliminée x J—1). Nous avons étudié les conditions d’existence de ces corrélations, sur nos résultats et à partir de données de la littérature (traitements d'un effluent de sucrerie à Thumeries par la société S. G. N. D'un effluent de laiterie sur filtre par la société Degrémont, de boues à Achères, etc…). Notre démarche a ensuite été la suivante : — à partir des régressions présentant des valeurs de i2 correctes (r2 >0. 6), calcul d'une zone de confiance de la corrélation linéaire, — étude des points d’accidents de la fermentation et calcul de la probabilité, pour ces points, de se situer en dehors de la zone de confiance, — proposition d'un protocole d' alerte du fonctionnement du digesteur, basé sur le paramètre production de gaz et la connaissance de la zone de confiance de la corrélation correspondante, établie à partir des résultats des essais. Nous avons, en conclusion, établi les limites et les avantages d'une telle proposition de suivi d'un digesteur.
APA, Harvard, Vancouver, ISO, and other styles
33

Guillier, Romaric. "Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2009. http://tel.archives-ouvertes.fr/tel-00529664.

Full text
Abstract:
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
APA, Harvard, Vancouver, ISO, and other styles
34

Attar, Batoul. "Modélisation réaliste en conditions extrêmes des servovalves électrohydrauliques utilisées pour le guidage et la navigation aéronautique et spatiale." Toulouse, INSA, 2008. http://eprint.insa-toulouse.fr/archive/00000184/.

Full text
Abstract:
Les actionneurs électrohydrauliques sont largement utilisés dans les commandes de vol (asservissement de position). Ils comportent une servovalve électrohydraulique qui constitue l'amplificateur de puissance entre la commande électrique et la puissance hydraulique. La simulation de la servovalve est une étape importante dans le cycle de prototypage virtuel afin de reproduire son comportement quelles que soient les conditions environnementales. Pour cela, le travail est divisé en trois parties essentielles. 1) Le premier concerne le développement d’un modèle du fluide hydraulique reproduisant l'évolution de ses propriétés physiques en fonction de la température et de la pression. L'accent est particulièrement mis sur la méthodologie d'élaboration du modèle à partir des données fournies par les normes. 2) Le second porte sur l'élaboration d'un modèle avancé permettant de reproduire la caractéristique hydraulique de l'étage de puissance de la servovalve. Il s’agit en particulier de rendre compte des effets qui affectent les performances d’asservissement comme le gain en pression, le gain en débit et la fuite. Une approche réaliste à paramètres localisées est associée à un modèle original couvrant l'ensemble des modes d'opération (recouvrement ou découvrement, écoulement laminaire ou turbulent). 3) Le denier point traite de la modélisation externe de la dynamique de la servovalve. Elle fournit un modèle de représentation qui reproduit l’effet de la pression d’alimentation, l’amplitude du signal d’entrée sur les performances dynamiques de la servovalve. Les modèles sont identifiés et validés pour une servovalve aéronautique et une servovalve industrielle de même gabarit
The electro-hydraulic actuators are widely used in the flight controls (like as a position control). They include an electro-hydraulic servovalve that is a power amplifier between the electrical and the hydraulic one. The simulation of the servovalve is an important step in the cycle of virtual prototyping in order to reproduce its behaviour whatever the work’s conditions. For this purpose, this work is divided into three parts: The first concerns the development of the model for the hydraulic fluid whose the physical properties change as a function of temperature and pressure. The methodology of developing the model using provided data by the standards was presented. The second concerns the development of an advanced model to reproduce the characteristic of the hydraulic stage of the servovalve (2nd one). It is particularly important to study the characteristics that affect the performance as the pressure gain, the flow rate gain and the leakage. A realistic lumped parameters approach was associated with an original model that covering all modes of operation (positive or negative opening, laminar or turbulent flow). The last item deals with the external model of the dynamics of servovalve. It provides a model that reproduces the effect of the supply pressure, the amplitude of the input signal on the dynamic performance of the servovalve. The models are identified and validated for an aeronautic servovalve and a similar industrial servovalve
APA, Harvard, Vancouver, ISO, and other styles
35

Slimani, Hicham. "Protocoles coopératifs pour réseaux sans fil." Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/10309/1/slimani.pdf.

Full text
Abstract:
La technique MIMO (Multiple-Input Multiple-Output) est l’une des techniques de base qui offre une diversité spatiale. Elle associe plusieurs antennes à l’émission et à la réception. En plus de la diversité spatiale, le système MIMO permet d’augmenter le gain de multiplexage sans avoir besoin de plus de bande passante ou de puissance d’émission. Cependant, la technique MIMO a des limites liées au coût d’installation de plusieurs antennes sur un terminal, et a l’écart minimal exigé entre les antennes. La communication coopérative a été proposée comme une technologie alternative, dans laquelle la diversité spatiale peut être réalisée en coordonnant plusieurs nœuds qui sont proches géographiquement pour former des réseaux d’antennes virtuelles. La coopération permet de lutter contre l’instabilité du canal radio et de faire face aux phénomènes qui le perturbent comme les évanouissements, les bruits, ou les interférences. Elle permet aussi d’améliorer les performances du système en termes de débit global, d’énergie consommée et d’interférences, etc. Dans le cadre des communications coopératives, nous avons proposé deux protocoles MAC coopératifs dans le contexte des réseaux ad hoc. La première proposition est le protocole RACT (Rate Adaptation with Cooperative Transmission). Ce protocole combine la coopération avec un mécanisme d’adaptation de débit. Lorsqu’un lien entre une source et une destination subit de mauvaises conditions de canal, une station relais est sélectionnée dans le voisinage des deux nœuds de sorte que la liaison directe à faible débit de transmission soit remplacée par un lien à deux sauts avec un débit de données plus élevé. La sélection du meilleur relais est fondée sur un processus de contention distribué. La procédure ne nécessite aucune connaissance de la topologie et aucune communication entre les relais potentiels. Lorsque la qualité de la liaison directe est bonne et que la transmission coopérative n’est pas nécessaire, le protocole fonctionne comme un mécanisme d’adaptation de débit. L’adaptation de débit de données est également réalisée sans aucune signalisation supplémentaire. La sélection du meilleur relais et l’adaptation de débit sont fondés sur des mesures instantanées du canal pour s’adapter aux conditions dynamiques du canal radio. Dans le but d’améliorer davantage les performances du système, nous avons proposé notre deuxième protocole MAC coopératif PRACT (Power and Rate Adaptation with Cooperative Transmission). Ce protocole combine un mécanisme d’adaptation de puissance et de débit (TPRC : Transmit Power and Rate Control) avec un mécanisme de coopération. C’est en cela que cette contribution se distingue des solutions proposées dans la littérature. Notre objectif avec cette contribution est d’atteindre une efficacité d’énergie pour la transmission des données tout en augmentant le débit global du réseau. PRACT propose d’ajuster dynamiquement la puissance et le débit de transmission en s’adaptant aux variations de la qualité du canal radio. Cela permet de gagner davantage dans l’énergie économisée. En outre, le contrôle de puissance, réduit les interférences et augmente la réutilisation spatiale entre cellules ad hoc adjacentes en utilisant la même fréquence de transmission. L’idée de base du protocole est de permettre à chaque nœud dans le réseau ad hoc de créer une table avec les combinaisons puissance-débit optimales, en se fondant seulement sur les spécifications de la carte réseau, à savoir, les débits de transmission possible et la consommation en énergie de la carte. Avec la connaissance des qualités des liens obtenue grâce à l’échange des trames de contrôle et en recherchant dans la table puissance-débit, les nœuds choisissent la stratégie de transmission la plus adaptée pour chaque transmission de trames de données, ainsi que le mode de transmission (direct ou coopératif).
APA, Harvard, Vancouver, ISO, and other styles
36

Pampouille, Eva. "Analyse haut-débit du déterminisme de défauts musculaires impactant la qualité de la viande chez le poulet." Thesis, Tours, 2019. http://www.theses.fr/2019TOUR4010.

Full text
Abstract:
L’objectif de la thèse est de préciser les mécanismes génétiques et biologiques mis en jeu dans l’apparition des défauts musculaires de type white striping (WS) et wooden breast (WB) chez le poulet de chair. La deuxième année a consisté à réaliser une caractérisation moléculaire fine des défauts au sein d’un génotype sélectionné par Hubbard sur la croissance et le rendement en filet, et significativement affecté par les deux types de défauts. Pour ce faire, une analyse protéomique de muscles visuellement sains, sévèrement atteints de WS, de WB ou des deux défauts a été mise en œuvre pour les protéines sarcoplasmiques principalement impliquées dans le métabolisme énergétique. 40 protéines différentielles ont été identifiées entre les muscles sains et ceux atteins des deux défauts, mettant en évidence deux voies métaboliques principales liées au stress oxydant et au repliement protéique. Afin de progresser dans la compréhension des modifications structurales et des acteurs moléculaires impliqués dans ces physiopathologies musculaires, nous avons mis en œuvre des études histologiques et une analyse transcriptomique sur des muscles issus d’animaux à Croissance Lente (CL) et des muscles issus d’animaux à Croissance Rapide et visuellement Indemnes de défauts (I-CR), ou atteints de WS (WS-CR), de WB (WB-CR) ou des deux défauts à la fois (WSWB-CR). Grâce à différents co-marquages, nous avons pu mettre en évidence une augmentation marquée du collagène en présence du WB et du tissu adipeux en présence de WS. De nombreuses lésions sont observées en cas de WB (associé ou non au WS). La mise en place d’un début de fibrose et l’existence de lésions chez les animaux à croissance rapide visuellement indemnes de défauts (I-CR) par rapport à la souche à croissance lente (CL) illustrent les modifications histologiques associées à la sélection pour une plus forte croissance musculaire et qui s’amplifient en présence des défauts. Au niveau moléculaire, une première approche deux à deux a permis d’identifier les sondes différentiellement exprimées entre les groupes CL, I-CR et WSWB-CR. Les 10482 gènes différentiellement exprimés dans au moins une des trois comparaisons et ayant les mêmes profils d’expression entre les groupes ont été regroupés en clusters. L’analyse fonctionnelle de ces clusters, grâce à une annotation de Gene Ontology (GO), montre une activation du métabolisme du collagène ainsi qu’un développement de structures de type embryonnaire dans les muscles atteints de WS et WB. Ces observations moléculaires sont cohérentes avec les observations histologiques montrant une extension du tissu conjonctif et des phénomènes de régénération des fibres musculaires dans les muscles atteints de défauts. Les biomarqueurs géniques identifiés lors de la première année de thèse ont également été mesurés par RT-PCR quantitative afin d’évaluer leur intérêt dans de nouvelles populations génétiques et valider l’analyse transcriptomique. Les objectifs de la dernière année de thèse sont de : - Finaliser la caractérisation histologique des défauts et l’analyse transcriptomique avant de rédiger la publication associée. - Mettre en œuvre les méthodologies de détection de QTL acquises lors de la première année de thèse pour préciser les marqueurs génétiques du WS et WB et optimiser la sélection contre ces défauts au sein d’une souche d’intérêt pour l’entreprise. Rédiger le manuscrit de thèse. Les objectifs de la deuxième année ayant été atteints (ponctués par la publication d’un premier article et la rédaction en cours d’un second), et la programmation de la dernière année étant bien définie, sauf souci majeur, la thèse sera soutenue dans les délais impartis
Poultry industry is facing muscular defects which that impair chicken meat quality. Genetic and genomic studies were carried out in addition to histological measuremnets to better understand the etiology of these defects and to contribute to the development of new indicators useful for diagnosis and selection. Studies focused on two complementary genetic models : 1) two divergent chicken lines selectied on breast meat ultimate pH and 2) a line with strong muscular development more severely affected by the defects, qwhich was studied in comparison with a slow-growing strain free from lesions. The thesis helped to describe the metabolic and structural changes observed in case of severe myopathies. It also led to the identification of the first QTL regions controlling muscular defects in chicken and to the establishment of a set of genes correlated with histological measurements of myopathies that will serve after validation as tool for selection and breeding
APA, Harvard, Vancouver, ISO, and other styles
37

Lopez, Pacheco Dino Martín. "Propositions pour une version robuste et inter-operable d' eXpliciit Control Protocol dans des réseaux hétérogènes à haut débit." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00295072.

Full text
Abstract:
Les protocoles de contrôle de congestion ont pour but d'autoriser un partage équitable des ressources entre les utilisateurs et d'éviter la congestion dans les réseaux de communications. Dans cette thèse, nous avons commencé par comparer la performance des différents protocoles dans des modèles de réseaux qui intègrent la notion de variation de bande passante produit par l'agrégation/désagrégation des flux ainsi que la présence des mécanismes fournissant de la Qualité du Service.

Ainsi, nous avons montré que ce sont les protocoles basés sur l'assistance de routeurs fournissant aux émetteurs un taux d'émission explicite (``Explicit Rate Notification'' - ERN) partagent mieux les ressources du réseaux entre les utilisateurs et évitent mieux la congestion que les protocoles de bout-en-bout (comme les protocoles basés sur TCP). Cependant, l'absence d'inter-opérabilité des protocoles ERN avec les routeurs non-ERN (par exemple, les routeurs DropTail) et les protocoles de congestion de bout-en-bout (comme TCP), empêche leur mise en place dans les réseaux actuels.

Pour résoudre les problèmes d'inter-opérabilité des protocoles ERN avec des routeurs non-ERN, nous avons proposé des stratégies et des mécanismes capables de détecter les groupes des routeurs non-ERN entre deux routeurs ERN, d'estimer la bande passante minimale disponible à l'intérieur de ces groupes, et de créer des routeurs virtuels qui remplacent chaque groupe de routeurs non-ERN par un routeur ERN.

Nous avons également proposé un système d'équité intra-protocolaire entre les protocoles ERN et les protocoles de bout-en-bout. Avec notre solution, les routeurs ERN dans une première étape estiment les besoins en terme de bande passante des flux ERN et non-ERN puis, dans une deuxième étape, limitent le débit des flux non-ERN en rejetant leurs paquets avec une probabilité qui dépend des résultats de la première étape.

Le succès des protocoles ERN est basé sur l'information de rétroalimentation, calculée par les routeurs, et renvoyée par les récepteurs aux émetteurs. Nous avons montré que les protocoles ERN deviennent instables face aux pertes de l'information de rétroalimentation dans des environnements hétérogènes et à bande passante variable. Dans ce cadre là, nous avons proposé une nouvelle architecture qui améliore la robustesse des protocoles ERN, ainsi que la réactivité des émetteurs.

Toutes nos propositions, applicables sur d'autres protocoles ERN, ont été expérimentées et validées sur le protocole eXplicit Control Protocol (XCP). Ainsi, nous avons montré que nos solutions surmontent les défis concernant les problèmes d'inter-opérabilité des protocoles ERN dans un grand nombre des scénarios et de topologies.

De cette façon, nous avons développé les bases pour bénéficier d'un protocole ERN capable d'être déployé dans des réseaux hétérogènes à grand produit bande passante - délai où le transfert de grande quantité des données est nécessaire, tels que les réseaux de grilles (ex. GÉANT).
APA, Harvard, Vancouver, ISO, and other styles
38

Farah, Elias. "Detection of water leakage using innovative smart water system : application to SunRise Smart City demonstrator." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10103/document.

Full text
Abstract:
Le travail de thèse porte sur l'utilisation des réseaux d’eau potable intelligents pour la détection des fuites. Il s’inscrit dans le cadre du projet SunRise qui vise à transformer la Cité Scientifique de l’Université de Lille en une ville intelligente et durable. Le campus représente une petite ville de 25000 habitants. Ce travail fait également partie du projet européen SmartWater4Europe, qui vise à développer 4 démonstrateurs des réseaux d’eau intelligents. Le travail comporte 5 parties. La première partie comprend une étude bibliographique sur les technologies pour la détection des fuites. La deuxième partie présente le démonstrateur SunRise Smart City, qui sert de support pour cette thèse. Cette partie détaille les instrumentations installées dans le site et les tests de simulation des fuites pour analyser l’efficacité d’un système acoustique de détection des fuites. La troisième partie comporte une analyse de consommation d’eau à différentes échelles pour les sous-compteurs et les compteurs généraux. Cette analyse est menée à l’aide d’une plateforme développée pour faciliter l’agrégation et l’interprétation des données. Cette partie présente aussi les fuites majeures en 2015. La quatrième partie concerne la détection des fuites en se basant sur le bilan d’eau. Elle présente aussi la stratégie du Contrôle Actif des Fuites (CAF) appliquée sur le site afin de réduire le niveau de l’Eau Non-Vendue (ENV). La dernière partie comporte l’application des méthodes avancées pour la détection des fuites. Ces méthodes comprennent l’approche CFPD ‘Comparison of Flow Pattern Distribution’, la méthode du Débit Nocturne Minimal (DNM) et deux approches statistiques développées
This work concerns the use of the Smart Water Technology for the detection of water leakage. It is a part of SunRise project which aims at turning the Scientific Campus of the University of Lille into a large scale demonstrator site of the "Smart and Sustainable City". The campus is representative to a small town of 25000 inhabitants. This work is also a part of the European Project SmartWater4 Europe, which aims to develop 4 demonstrators of the Smart Water Technology. This thesis includes five parts. The first part includes a literature review concerning the technologies used in leakage detection. The second part presents the SunRise Smart City demonstrator, which is used as a basis for this thesis. This section details the instrumentation installed in the demo site as well as leak simulations tests to analyze the efficiency of an acoustic system of leakage detection. The third part focuses on the analysis of the water consumption at different time scales. Analysis concerns both sub-meters and bulk meters. It is conducted using a platform for the aggregation and the interpretation of the data. This part presents also major leakage events in 2015. The fourth part concerns leak detection using the water balance calculation based on the top down and bottom up approaches. It also presents the Active Leakage Control (ALC) strategy applied to the demo site in order to reduce the level of Non-Revenue Water (NRW). The last part concerns the use of advanced methods for leak detection with application on the campus data. These methods include the Comparison of Flow Pattern Distribution Method (CFPD), the Minimum Night Flow (MNF) method and two developed statistical approaches
APA, Harvard, Vancouver, ISO, and other styles
39

Fedida, Vincent. "Etude des défauts des machines électriques tournantes par analyse du champ magnétique de fuite : Application au diagnostic de machines de faibles puissances dans un contexte de production en grande série." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT023.

Full text
Abstract:
Diagnostiquer et identifier des défauts dans des machines électriques (moteur asynchrone monophasé à condensateur en priorité) à l'aide de mesures sur le champs électromagnétiques et acoustiques
Diagnostic and identification of defaults providing in electrical machines (mainly single phased asynchrone motors) by stray flux measurement
APA, Harvard, Vancouver, ISO, and other styles
40

Boussa, Hocine. "Structures en béton soumises à des sollicitations thermomécaniques sévères : évolution des dommages et des perméabilités." Cachan, Ecole normale supérieure, 2000. http://www.theses.fr/2000DENS0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Karray, Mohamed Kadhem. "Evaluation analytique des performanes des réseaux sans-fil par un processus de Markov spatial prenant en compte leur géométrie, leur dynamique et leurs algorithmes de contrôle." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003009.

Full text
Abstract:
Nous proposons des algorithmes de contrôle de charge pour les réseaux cellulaires sans fil et développons des méthodes analytiques pour l'évaluation des performances de ces réseaux par un processus de Markov spatial prenant en compte leur géométrie, dynamique et algorithmes de contrôle. D'abord, nous caractérisons la performnace d'un lien unique en utilisant les techniques de communication numérique. Ensuite les interactions entre les liens sont prises en compte en formulant un problème d'allocation de puissances. Nous proposons des algorithmes de contrôle de charge décentralisés qui tiennent compte de l'influence de la géométrie sur la combinaison des interférences inter-cellules et intra-cellules. Afin d'étudier les performances de ces algorithmes, nous analysons un générateur d'un processus Markovien de saut qui peut être vu comme une généralisation du générateur de naissance-et-mort spatial, qui tient compte de la mobilité des particules. Nous donnons des conditions suffisantes pour la régularité du générateur (c.-à-d., unicité du processus de Markov associé) aussi bien que pour son ergodicité. Enfin nous appliquons notre processus de Markov spatial pour évaluer les performances des réseaux cellulaires sans fil utilisant les algorithmes de contrôle de charge basés sur la faisabilité de l'allocation de puissance.
APA, Harvard, Vancouver, ISO, and other styles
42

Jaumouillé, Elodie. "Contrôle de l'état hydraulique dans un réseau d'eau potable pour limiter les pertes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00443827.

Full text
Abstract:
Les fuites non détectées dans les réseaux d'eau potable sont responsables en moyenne de la perte de 30% de l'eau transportée. Il s'avère donc primordial de pouvoir contrôler ces fuites. Pour atteindre cet objectif, la modélisation de l'écoulement de l'eau dans les conduites en tenant compte des fuites a été formulée de différente manière. La première formulation est un système d'équations différentielles ordinaires représentant des fuites constantes, réparties uniformément le long des conduites. Le système peut s'avérer être numériquement raide lorsque des organes hydrauliques sont rajoutés. Deux méthodes implicites ont été proposées pour sa résolution : la méthode de Rosenbrock et la méthode de Gear. Les résultats obtenus montrent que le débit varie linéairement le long des conduites et que les pertes en eau par unité de longueur sont identiques sur chaque conduite. La seconde formulation prend en compte la relation entre les fuites et la pression. Un système de deux équations aux dérivées partielles a été proposé. L'EDP de transport-diffusion-réaction, contenant l'opérateur du p-Laplacien, est résolue par une méthode à pas fractionnaires. Deux méthodes ont été testées. Dans la première, la réaction est couplée avec la diffusion et dans la seconde, elle est couplée avec le transport. Les résultats indiquent que les pertes en eau ne sont pas réparties de façon homogène sur le réseau. Cette formulation décrit de manière plus réaliste les réseaux d'eau potable. Enfin, le problème du contrôle du volume des fuites par action sur la pression a été étudié. Pour cela, un problème d'optimisation est résolu sous la contrainte que la pression doit être minimale pour réduire les fuites et être suffisante pour garantir un bon service aux consommateurs. Les résultats trouvés confirment que la réduction de la pression permet de réduire le volume des fuites de façon significative et que le choix de l'emplacement du ou des points de contrôle est primordial pour optimiser cette réduction.
APA, Harvard, Vancouver, ISO, and other styles
43

Gadari, M’hammed El. "Étude expérimentale et numérique du comportement des joints à lèvre." Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT2304/document.

Full text
Abstract:
Cela fait environ soixante ans que l'on s'intéresse à la compréhension et à la modélisation du comportement Elastohydrodynamique (EHD) des joints à lèvres. Cependant, on peut considérer que, jusqu'à présent, leur modélisation n'a pas été totalement et rigoureusement traitée. En effet, même si de nombreuses études ont été consacrées à cette modélisation, plusieurs questions ont été soulevées et font toujours l'objet de controverses entre les chercheurs, à savoir l'impact sur les performances des joints à lèvre de l'effet des surfaces texturées de l'arbre, de la loi adoptée pour le comportement mécanique des joints à lèvre, de la démarche utilisée pour l'élaboration de la matrice de compliance (matrice de souplesse), de l'importance de supposer l'arbre lisse ou rugueux, ainsi que la valeur du rapport entre la largeur du contact et la longueur d'onde du défaut suivant la direction circonférentielle de la lèvre.Dans cette thèse, nous avons tenté d'apporter de façon rigoureuse des réponses claires et précises à toutes ces questions en élaborant et en validant un outil de simulation EHD complet pour les joints à lèvre qui tienne compte de presque tous les paramètres, à savoir une loi de comportement du matériau du joint précise, une matrice de souplesse rigoureusement validée et un arbre qui peut être lisse, rugueux et/ou texturé. De plus, un second modèle analytique est proposé. Il traite le comportement vibratoire du "squeeze film", en tenant compte de la non linéarité des caractéristiques intrinsèques du joint et du film
It's about sixty years that we are interested in understanding and modeling the Elastohydrodynamic behavior (EHD) of rotary lip seals. However, we can consider that, until now, their modeling has not been accurately treated. Even though many studies have been devoted to this model, several questions have been raised and are still the subject of controversy among researchers, namely the parameters influencing on the rotary lip seals performance, such as: the shaft surface textured, the law adopted for the mechanical behavior of lip seals, the approach used to develop the matrix of compliance, the importance of assuming the smooth or rough shaft, and finally the ratio between the width of contact and the wavelength according the circumferential direction of the lip roughness.The main goal of this thesis is to answer rigorously these questions by developing and validating a numerical tool for EHD rotary lip seals modeling, that takes into account: the lip law behavior, the compliance matrix rigorously validated by assuming smooth shaft case, or rough and textured shaft case. In addition, an analytical approach is proposed, models the vibratory behavior of the "squeeze film". This implies a nonlinear comportment that is taken into account
APA, Harvard, Vancouver, ISO, and other styles
44

Morlot, Thomas. "La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU029/document.

Full text
Abstract:
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? »
Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? »
APA, Harvard, Vancouver, ISO, and other styles
45

Tran, Minh Anh. "Insensibilité dans les réseaux de files d'attente et applications au partage de ressources informatiques." Phd thesis, Télécom ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00196718.

Full text
Abstract:
Nous abordons dans cette thèse le problème de l'insensibilité dans les réseaux de files d'attente et quelques applications au partage de ressources informatiques. Tout d'abord, nous montrons que les réseaux de files d'attente symétriques avec le routage de Jackson ou de Kelly sont tous insensibles à la distribution des demandes de service même si à l'arrivée, au départ ou au changement de files d'un client quelconque, les autres clients dans chaque file sont permutés au hasard selon certaine loi dépendante de l'état du réseau. Nous identifions également certaines disciplines de service non symétriques pour lesquellesla propriété d'insensibilité est satisfaite. Ensuite, nous proposons deux nouvelles métriques de débit pour les réseaux de données. Nous montrons quelques propriétés génériques satisfaites par ces deux métriques et nous illustrons leur différence à travers quelques exemples. Enfin, nous montrons que l'équilibrage de sources de trafic élastique détériore la performance en termes de débit, et en présence de contrôle d'admission, de probabilité de blocage.
APA, Harvard, Vancouver, ISO, and other styles
46

Li, Ao. "Performances des codes correcteurs d’erreur LDPC appliqués au lien Fronthaul optique haut-débit pour l’architecture C-RAN du réseau 5G : conception et implantation sur FPGA." Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0110/document.

Full text
Abstract:
De nos jours, l’architecture du réseau mobile est en pleine évolution pour assurer la montée en débit entre les Centraux (CO) (réseaux coeurs) et différents terminaux comme les mobiles, ordinateurs, tablettes afin de satisfaire les utilisateurs. Pour faire face à ces défis du futur, le réseau C-RAN (Cloud ou Centralized-RAN) est connu comme une solution de la 5G. Dans le contexte C-RAN, toutes les BBUs (Base Band Units) sont centralisées dans le CO, seules les RRH (Remote Radio Head) restent situées à la tête de la station de base (BS). Un nouveau segment entre les BBUs et RRHs apparait nommé « fronthaul ». Il est basé sur des transmissions D-ROF (digital radio-overfiber) et transporte le signal radio numérique à un débit binaire élevé en utilisant le protocole CPRI (Common Public Radio Interface). En prenant en compte le CAPEX et l’OPEX, le projet ANR LAMPION a proposé la technologie RSOA (Reflective Semiconductor Optical Amplifier) auto alimenté afin de rendre la solution plus flexible et s’affranchir d’émetteurs/récepteurs colorés dans le cadre de transmission WDM-PON (Wavelength Division Multiplexing Passive Optical Network). Néanmoins, il est nécessaire d’ajouter un FEC (forward error corrector) dans la transmission pour assurer la qualité de service. Donc l’objectif de cette thèse est de trouver le FEC le plus adéquat à appliquer dans le contexte C-RAN. Nos travaux se sont focalisés sur l’utilisation de codes LDPC, choisis après comparaisons des performances avec les autres types de codes. Nous avons précisé les paramètres (rendement du code, taille de la matrice, cycle, etc.) nécessaires pour les codes LDPC afin d'obtenir les meilleures performances. Les algorithmes LDPC à décisions dures ont été choisis après considération du compromis entre complexités de circuit et performance. Parmi ces algorithmes à décision dures, le GDBF (gradient descent bit-flipping) était la meilleure solution. La prise en compte d’un CAN 2-Bit dans le canal nous a amené à proposer une variante : le BWGDBF (Balanced weighted GDBF). Des optimisations ont également été faites en regard de la convergence de l'algorithme et de la latence. Enfin, nous avons réussi à implémenter notre propre algorithme sur le FPGA Spartan 6 xc6slx16. Plusieurs méthodes ont été proposées pour atteindre une latence de 5 μs souhaitée dans le contexte C-RAN. Cette thèse a été soutenue par le projet ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical networks)
Nowadays, the architecture of the mobile network is in full evolution to ensure the increase in terms of bit rate between the Central (CO) (core networks) and various terminals such as mobiles, computers, tablets in order to satisfy the users. To address these challenges of the future, the C-RAN (Cloud or Centralized-RAN) network is known as a 5G solution. In the C-RAN context, all BBUs (Base Band Units) are centralized in the CO, only the RRH (Remote Radio Head) remain at the head of the base station (BS). A new segment between BBUs and RRHs appears called "fronthaul". It is based on D-ROF (digital radio-overfiber) transmissions and carries the digital radio signal at a high bit rate using the Common Public Radio Interface (CPRI) protocol. Taking into account CAPEX and OPEX, the ANR LAMPION project has proposed the Self-seeded Reflective Semiconductor Optical Amplifier (RSOA) technology in order to make the solution more flexible and overcome the need for colored transmitters / receivers in the context of PON-WDM (Wavelength Division Multiplexing Passive Optical Network). Nevertheless, it is necessary to add a FEC (forward error corrector) in the transmission to ensure the quality of service. So the objective of this thesis is to find the most suitable FEC to apply in the C-RAN context. Our work has focused on the use of LDPC codes, chosen after performance comparisons with other types of codes. We have specified the parameters (code performance, matrix size, cycle, etc.) required for LDPC codes to obtain the best performance. Hard-decision LDPC algorithms were chosen after considering the tradeoff between circuit complexities and performance. Among these hard-decision algorithms, the GDBF (gradient descent bit-flipping) was the best solution. Taking into account a CAN 2-Bit in the channel led us to propose a variant: the BWGDBF (Balanced weighted GDBF). Optimizations have also been made with respect to the convergence of the algorithm and latency. Finally, we managed to implement our own algorithm on the Spartan FPGA 6 xc6slx16. Several methods have been proposed to achieve a latency of 5 μs desired in the C-RAN context. This thesis was supported by the project ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical Networks)
APA, Harvard, Vancouver, ISO, and other styles
47

Boineau, Frédéric. "Applications du fluxmètre gazeux à pression constante ; caractérisation métrologique et comparaisons aux méthodes de référence pour les mesures de débit de 4×10-12 mol/s à 4×10-7 mol/s." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1072/document.

Full text
Abstract:
Ce mémoire traite de la mise au point et des applications d’un fluxmètre gazeux à pression constante, instrument de référence primaire pour la mesure de très faibles débits gazeux, couramment utilisé par les Laboratoires nationaux de métrologie. Il intervient dans la traçabilité des basses pressions absolues, via la méthode d’expansion continue, et celle des fuites d’hélium, liées aux applications dans le domaine du vide. De plus, nous avons montré que le fluxmètre à pression constante du Laboratoire commun de métrologie (LCM) permettait le raccordement des mesures de micro-débits, sous-domaine de la débitmétrie. Outre les points clés de la conception et la caractérisation métrologique, ce mémoire décrit l’étude de l’expansion continue ainsi que les travaux de comparaison du fluxmètre gazeux à pression constante avec les méthodes de référence employées au LCM, en particulier la méthode de gravimétrie dynamique
This dissertation concerns the development and applications of a constant pressure gas flowmeter, the primary reference instrument used by National metrology laboratories to measure very low gas flows. It guarantees the traceability of low absolute pressures, via the continuous expansion method, and that of helium leaks, both related to applications in the field of vacuum. In addition, we have shown that the Laboratoire commun de métrologie (LCM) constant pressure flowmeter is well suited to micro-flow measurements, a sub-field of flow metering. Besides key points of the design and metrological characterization, this document describes the study of the continuous expansion method and work on comparisons of the constant pressure gas flowmeter with reference methods used at LCM, in particular the dynamic gravimetric method
APA, Harvard, Vancouver, ISO, and other styles
48

Rojatkar, Ashish. "Développement d'une méthodologie pour l'évaluation de l'exposition réelle des personnes aux champs électromagnétiques." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC028/document.

Full text
Abstract:
Le travail présenté dans cette thèse a pour objectif l’étude des conditions nécessaires pour évaluer l'exposition radio fréquence (RF) due aux téléphones mobiles dans un scenario d’utilisation réelle et le développement d’une méthodologie permettant de prédire et de comparer les téléphones mobiles en fonction de leurs expositions RF réelles. Les téléphones mobiles sont caractérisés par leur débit d'absorption spécifique (DAS) et leur performance en émission et en réception (over-the-air, OTA). En utilisant le DAS et la puissance totale rayonnée (PTR), un indice d'exposition appelée l'indice SAROTA a été proposé précédemment afin de prévoir l'exposition réelle des téléphones mobiles. L’indice SAROTA sert ainsi de métrique permettant de comparer les téléphones mobiles. Afin de déterminer expérimentalement l’exposition réelle aux RF, plusieurs téléphones avec des modifications logicielles permettant d’enregistrer les paramètres du réseau, sont utilisés pour l’étude qui est menée comme suit : (a) caractérisation des outils et des ressources disponibles pour effectuer des mesures ciblées, (b) identification des ressources radio et des paramètres importants pour effectuer ces mesures, (c) étude de la mise en œuvre effective du mécanisme de contrôle de puissance observé dans un réseau mobile réel pour différents niveaux et de qualités du signal reçus, (d) étude de la corrélation entre la performance OTA des téléphones mobiles et l’étendue effective du contrôle de puissance appliquée par le réseau, (e) comparaison entre la valeur réelle de l’exposition et la valeur prédite en utilisant l’indice SAROTA. Comme les défis logistiques et techniques sont plus difficiles à surmonter pour les mesures dans un environnement multi-trajets extérieur, les expériences ont été limitées à des environnements intérieurs pour assurer une meilleure répétabilité des mesures. Lors d’une première phase de l’étude, la stabilité de l’environnement intérieur a été évaluée. Lors d’une deuxième phase, l’influence de la main sur le DAS et la PTR des téléphones mobiles ainsi que sur l’évaluation de l’exposition réelle prédite par l’indice SAROTA a été étudiée. Lors d’une troisième phase, un ensemble de téléphones mobiles identiques ont été modifiés et des mesures effectuées pour vérifier que l’indice SAROTA permet bien de prédire l’exposition réelle des personnes
The work presented in the thesis is directed towards addressing the requirement for determining the radio frequency (RF) exposure due to mobile phones under typical usage/ real-life scenarios and also to develop a method to predict and compare mobile phones for their real-life RF exposure. The mobile phones are characterized for their specific absorption rate (SAR) and for transmit and receive performance given by the over-the-air (OTA) characterization. Using the SAR and the total radiated power (TRP) characterization, an exposure index referred to as the SAROTA index was previously proposed to predict the real-life exposure due to mobile phones which would also serve as a metric to compare individual phones. In order to experimentally determine the real-life RF exposure, various software modified phones (SMP) are utilized for the study. These phones contain an embedded software capable of recording the network parameters. The study is undertaken in the following order: (a) Characterization of the available tools and resources for performing targeted measurements/experiments, (b) identifying the important radio resource parameters and metrics to perform the targeted measurements, (c) investigation of the actual implementation of the power control mechanism in a live network for various received signal level and received quality environments, (d) investigating the correlation of the over-the-air performance of the mobile phones and the extent of actual power control realization, (e) comparing the actual exposure and the real-life exposure as predicted by the SAROTA index. Based on the logistical and technical challenges encountered, the experiments were restricted to indoor environments to enable repeatability. During the first phase of the study, the stability of the indoor environment was evaluated. During the second phase, the influence of hand phantom on the SAR and TRP of the mobile phones and the capability of the SAROTA index to predict the exposure was investigated. Further developing on the insights from the hand phantom experiments, in the third phase, a set of identical software modified phones were externally modified to alter the TRP performance and the methodology to determine the real-life exposure and also verify the capability of the SAROTA index to predict the exposure levels was investigated. The experiments demonstrate that the SAROTA index is capable of predicting the real-life exposure and comparing the mobile phones
APA, Harvard, Vancouver, ISO, and other styles
49

Lopez-Pacheco, Dino-Martin. "Propositions for a robust and inter-operable eXplicit Control Protocol on heterogeneous high speed networks." Lyon, École normale supérieure (sciences), 2008. http://www.theses.fr/2008ENSL0459.

Full text
Abstract:
Dans cette thèse, nous avons montré que les protocoles basés sur l'assistance de routeurs fournissant aux émetteurs un taux d'émission explicite (explicit rate notification-ern) partagent mieux les ressources du réseaux entre les utilisateurs et évitent mieux la congestion que les protocoles de bout-en-bout (comme les protocoles basés sur tcp). Cependant, l'absence d'interopérabilité des protocoles ern (par ex. Xcp : explicit control protocol) avec les technologies actuelles empêche leur mise en place dans les réseaux. Nos travaux ont abouti à un ensemble de solutions qui fournissent de l'équité inter-protocolaire, de la robustesse face aux pertes de données et l'interopérabilité entre les équipements ern et les équipements réseaux ip classiques. Cette thèse a jeté les bases pour pouvoir déployer les protocoles ern dans des réseaux hétérogènes à haut débit où le transfert de grande quantité des données est nécessaire
[The congestion control protocols aim to fairly share the network resources between users and avoid congestion. In this thesis, we have shown that the routers-assisted protocols providing explicit rate notification (ern protocols) accomplish those goals better than end-to-end protocols (e. G. Tcp-based protocols). However, ern protocols, like the explicit control protocol (xcp), are not interoperable with current technologies. Thus, ern protocols cannot be gradually deployed in current networks. Our research in this thesis resulted in a set of solutions that allow ern protocols to be tcp-friendly, robust against losses of routers informations and interoperable with non-ern networks equipments in a wide range of scenarios. Thus, we provided the basis for creating an ern protocol able to be gradually deployed in current heterogeneous high speed networks, where users frequently move very large amount of data]
APA, Harvard, Vancouver, ISO, and other styles
50

Samara, Ziyad. "Etude de l’origine du comportement chaotique de la ventilation." Paris 6, 2008. http://www.theses.fr/2008PA066243.

Full text
Abstract:
En dépit des apparences, le débit ventilatoire humain n’est pas périodique mais chaotique. Ceci signifie qu’il dépend de mécanismes déterministes mais que sa dynamique, bien que confinée dans des limites définies, est complexe, sensible aux conditions initiales et imprédictible à long terme. La théorie du chaos offre des outils mathématiques pour quantifier ces caractéristiques. La signification physiologique et l’intérêt clinique du chaos ventilatoire dépendront de sa source. Le but de cette thèse était de contribuer à l’identifier. En comparant, chez l’homme, le débit ventilatoire enregistré à la bouche avec un pneumotachographe à celui reconstitué par pléthysmographie d’inductance, nous avons montré que ni la voie respiratoire (nez ou bouche), ni la méthode d’enregistrement n’affectait la nature du chaos, même si elles changeaient sa complexité. Elles n’en étaient donc pas la source. L’imposition de charges inspiratoires, à seuil ou résistives, ne modifiait ni la nature ni les caractéristiques du chaos ventilatoire, alors que la compensation respiratoire de ce type de charge dépend du cortex pré-moteur. Celui-ci n’est donc probablement pas une source de chaos ventilatoire. Nous avons finalement montré que la ventilation fictive produite in vitro par le tronc cérébral isolé de têtard post-métamorphique était toujours chaotique. Sa stimulation par le CO2 augmentait l’intensité du chaos. Le chaos était plus rarement détecté dans les préparations pré-métamorphiques, suggérant une influence de l’ontogenèse. En conclusion, la commande automatique de la ventilation, située dans le tronc cérébral, pourrait être une source suffisante de chaos dans la ventilation
Although the human ventilatory flow resembles a periodic phenomenon, it is not and is truly chaotic. This means that the trajectory of the flow is bounded and depends on deterministic processes, but at the same time, is also complex, sensitive to the initial conditions and unpredictable in the long-term. The theory of chaos provides mathematical tools for quantifying these characteristics. However, physiological significance and clinical interest of ventilatory chaos will depend on its source that is unclear. The gaol of this thesis was thus to contribute to its identification. By comparing, in humans, the ventilatory flow recorded at the mouth with a pneumotachometer to that reconstructed by inductive plethysmography, we showed that neither the respiratory route (nose or mouth), nor the recording technique affected the nature of chaos, even if they changed its complexity. Therefore, they could not be its origin. Inspiratory threshold or resistive loading changed neither the nature nor the features of the chaotic dynamics of the ventilatory flow, though respiratory compensation of these kinds of load depends on the pre-motor cortex. The latter is probably not a source of ventilatory chaos either. We finally showed that the neural respiratory output of in vitro isolated brainstems of post metamorphic tadpoles was always chaotic. Stimulation of this output by CO2 augmented the intensity of chaos. Chaos was rarely found in pre-metamorphic preparations, suggesting ontogenetic changes. In conclusion, the intrinsic properties of the automatic ventilatory command, located in the brainstem, could be a sufficient source of ventilatory chaos
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography