To see the other types of publications on this topic, follow the link: Identification de la charge utile.

Dissertations / Theses on the topic 'Identification de la charge utile'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Identification de la charge utile.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Brizard, Denis. "Contrôle des vibrations de charge utile sur lanceur spatial." Thesis, Ecully, Ecole centrale de Lyon, 2011. http://www.theses.fr/2011ECDL0041/document.

Full text
Abstract:
Les lanceurs spatiaux sont soumis à un certain nombre d’excitations complexes durant les différentes phases de vie du produit. Ces excitations sont transmises à la charge utile par voie solidienne ou aérienne. Pour assurer la protection de la charge utile, l’architecture du lanceur étant figée au début du projet, l’amélioration des comportements dynamiques passe par l’introduction de systèmes secondaires. La partie essentielle des travaux de thèse est donc consacrée à l’implantation optimale de systèmes capables de diminuer les réponses vibratoires en utilisant des modèles adaptés. C’est pourquoi une méthode de double synthèse modale est mise en place, permettant ainsi de calculer la réponse vibratoire de la structure à l’aide de bases réduites et offrant des performances améliorées par rapport aux méthodes classiques. L’ajout d’un dispositif amortissant local nécessite la prise en compte d’une ou plusieurs modifications structurales dans le modèle, une méthode dédiée est alors développée. Le choix du dissipateur se porte sur un dissipateur frottant. Un prototype est conçu et réalisé. Il est dans un premier temps caractérisé seul et le modèle de comportement identifié est un modèle constitué d’un ressort en série avec un patin ; la loi de frottement adaptée est une loi de Coulomb simple. En parallèle, une maquette représentative du dernier étage d’un lanceur est dimensionnée et réalisée. Le frotteur est alors monté en pied de propulseur de la maquette et permet une diminution significative des vibrations de la charge utile au passage du mode de propulseur
Space launchers undergo a certain amount of complex excitations during their lifecycle. These excitations are transmitted to the payload in a structure-born or air-born way. To improve the dynamic behaviour and thus ensure the protection of the payload, secondary systems must be added to the launcher – indeed, the architecture of the launcher is fixed at the beginning of the project. The essential part of this thesis work is dedicated to the optimal fitting of a system capable of reducing the vibration response of the payload, using appropriate models. Therefore a double modal synthesis method is implemented, allowing to calculate the vibrational response of the structure with reduced bases and offering improved performances over conventional methods. The addition of a local damping device requires the consideration of one or more structural modifications in the model, a dedicated method is thus developped along with a specific continuation algorithm. A friction damper is retained, a prototype is designed and built. It is first characterized alone ; the identified behaviour is that of a spring in series with a dry friction element, a simple Coulomb friction law enables to reproduce the experimental curves. A scale model of the launcher’s last stage is designed and built. The friction device is then mounted inside the scale model and leads to a significant reduction of the payload vibration levels
APA, Harvard, Vancouver, ISO, and other styles
2

Tout, Bilal. "Identification of human-robot systems in physical interaction : application to muscle activity detection." Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2024. https://ged.uphf.fr/nuxeo/site/esupversions/36d9eab3-c170-4e40-abb6-e6b4e27aeee2.

Full text
Abstract:
Ces dernières années, l’interaction physique humain-robot est devenue un sujet de recherche important, par exemple pour des applications de rééducation. Cette thèse vise à améliorer ces interactions, dans le cadre du développement de contrôleurs basés modèles, par des approches d’identification paramétrique des modèles des systèmes en interaction. Le but est de développer des méthodes d’identification en tenant compte de la variabilité et de la complexité du corps humain, et en n'utilisant que les capteurs du système robotique pour éviter l'ajout de capteurs externes. Les différentes approches présentées dans cette thèse sont testées expérimentalement avec un système robotique à un degré de liberté (1-DDL) permettant d'interagir avec la main d'une personne.Après un 1er chapitre présentant l'état de l'art, le 2e chapitre aborde les méthodes d'identification développées en robotique ainsi que la problématique du filtrage, analysée en simulation et expérimentalement. La question du réglage du filtre passe-bas est adressée, et en particulier le choix de la fréquence de coupure qui reste délicate pour un système non-linéaire. Pour surmonter ces difficultés, une technique de filtrage utilisant un filtre de Kalman étendu (EKF) est développée à partir du modèle dynamique du robot. La formulation EKF proposée permet un réglage en fonction des propriétés connues du capteur et de la confiance dans l’estimation initiale des paramètres. Cette méthode est comparée en simulation puis expérimentalement avec différentes méthodes existantes en analysant la sensibilité à l’initialisation et au réglage du filtre. Les résultats montrent que la méthode proposée est prometteuse si l’EKF est correctement réglé.Le 3e chapitre porte sur l'identification en continu des paramètres du modèle dynamique d'un système passif en interaction avec un système robotique, en combinant des méthodes d’identification de la charge utile avec des algorithmes en ligne, sans capteurs externes. Ces méthodes sont validées en simulation et expérimentalement en utilisant le système à 1-DDL dont la poignée est attachée à des bandes élastiques pour imiter une articulation humaine passive. L’analyse de l’effet de l’ajustement des méthodes en ligne met en évidence qu’un compromis est nécessaire entre la vitesse de convergence et la précision des estimations des paramètres. Enfin, la comparaison des méthodes d’identification de la charge utile montre que les méthodes identifiant séparément les paramètres du système robotique et de l’humain passif donnent une meilleure précision et une plus faible complexité de calcul.Le 4e chapitre porte sur l'identification durant l'interaction humain-système robotique. Un modèle à raideur quadratique est proposé afin de mieux représenter le comportement de l’articulation humaine passive qu’un modèle linéaire. Par la suite, ce modèle est utilisé avec une méthode d’identification itérative basée sur le rejet d’outliers, pour détecter l’activité musculaire de l’humain sans capteurs externes. Cette méthode est comparée expérimentalement à une méthode non-itérative utilisant des signaux d’électromyographie (EMG), en adaptant le système à 1-DDL pour interagir avec le poignet et permettre d’évaluer l’activité des muscles fléchisseurs et extenseurs de deux sujets. La méthode itérative proposée sans signaux EMG donne des résultats proches de ceux obtenus avec la méthode utilisant les signaux EMG lorsqu’un modèle représentant bien le comportement de l’articulation humaine passive est choisi. Les résultats de détection de l’activité musculaire obtenus avec ces deux méthodes montrent un niveau de similarité satisfaisant avec ceux obtenus directement à partir des signaux EMG
Over the last years, physical human-robot interaction has become an important research subject, for example for rehabilitation applications. This PhD aims at improving these interactions, as part of model-based controllers development, using parametric identification approaches to identify models of the systems in interaction. The goal is to develop identification methods taking into account the variability and complexity of the human body, and only using the sensor of the robotic system to avoid adding external sensors. The different approaches presented in this thesis are tested experimentally on a one degree of freedom (1-DOF) system allowing the interaction with a person’s hand.After a 1st chapter presenting the state-of-the-art, the 2nd chapter tackles the identification methods developed in robotics as well as the issue of data filtering, analyzed both in simulation and experimentally. The question of the low-pass filter tuning is addressed, and in particular the choice of the cut-off frequency which remains delicate for a nonlinear system. To overcome these difficulties, a filtering technique using an extended Kalman filter (EKF) is developed from the robot dynamic model. The proposed EKF formulation allows a filter tuning depending on the known properties of the sensor and on the confidence on the initial parameters estimations. This method is compared in simulation and experimentally to different existing methods by analyzing its sensitivity to initialization and filter tuning. Results show that the proposed method is promising if the EKF is correctly tuned.The 3rd chapter concerns the continuous identification of the parameters of the model of a passive system interacting with a robotic system, by combining payload identification methods with online identification algorithms, without external sensors. These methods are validated in simulation and experimentally with the 1-DOF system whose handle is attached to elastic rubber bands to emulate a passive human joint. The analysis of the effects of the online methods tuning highlights a necessary trade-off between the convergence speed and the accuracy of the parameters estimates. Finally, the comparison of the payload identification methods shows that methods identifying separately the robotic system and the passive human parameters give better accuracy and a lower computation complexity.The 4th chapter deals with the identification during the human-robot interaction. A quadratic stiffness model is proposed to better fit the passive human joint behavior than a linear stiffness model. Then, this model is used with an iterative identification method based on outlier rejection technique, to detect the human user muscle activity without external sensors. This method is compared experimentally to a non-iterative method that uses electromyography (EMG), by adapting the 1-DOF system to interact with the wrist and to allow the detection of the flexor and extensor muscle activity of two human users. The proposed iterative identification method not using EMG signals achieves results close to those obtained with the non-iterative method using EMG signals when a model that correctly represents the passive human joint behavior is selected. The muscle activity detection results obtained with both methods show a satisfactory level of similarity compared to those obtained directly from EMG signals
APA, Harvard, Vancouver, ISO, and other styles
3

Camino, Jean-Thomas. "Co-optimisation charge utile satellite et système télécom." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30401.

Full text
Abstract:
L'augmentation continue des besoins en télécommunications dans notre société se traduit par une suite de défis technologiques pour les systèmes fournissant ce type de services, qu'il s'agisse de télédiffusion, de téléphonie, ou bien d'échange de données. Les satellites de télécommunications sont ainsi particulièrement concernés par ce besoin d'innover, à la fois sur les technologies mises en orbite, mais aussi et surtout au niveau de l'exploitation de ces ressources embarquées. Sur ce dernier point, pour une mission de télécommunications définie précisément en termes de zone à servir, de type, de quantité et de qualité de service à fournir, il faut effectivement être capable de dimensionner de la manière la plus adéquate possible la charge utile du satellite de télécommunications, sous les différentes contraintes auxquelles elle est soumise : masse, volume, coût, et consommation énergétique des équipements embarqués. Cette thèse développe ainsi une approche algorithmique pour un tel dimensionnement dans le cas particulier des systèmes de télécommunications dits "multifaisceaux". Une procédure d'optimisation globale de ces systèmes satellitaires est ainsi proposée. Elle repose sur une décomposition en un ensemble de problèmes mathématiques interconnectés dont les complexités respectives, réduites par rapport au problème global, permettent d'espérer des solutions algorithmiques efficaces. Ce travail a permis d'exhiber deux problèmes phares dans ce dimensionnement de la charge utile satellite, adressés par l'angle de la recherche opérationnelle : l'optimisation du placement de faisceaux, et l'optimisation de plans de fréquences. Ce premier problème de placement de faisceaux sous contraintes de charge utile a été l'occasion de proposer des méthodologies inédites de gestion des contraintes en norme euclidienne sur des variables continues pour les problèmes mixtes non-linéaires non-convexes. Ces techniques ont alors été appliquées avec succès au sein de solutions à ce premier problème qui s'appuient pleinement sur la programmation linéaire mixte. Dans un deuxième temps, une exploitation novatrice de certaines propriétés du clustering en k-moyennes est proposée et permet de simplifier ces modèles mathématiques et ainsi accélérer l'optimisation du placement des faisceaux. Ces algorithmes de programmation mathématique sont ensuite confrontés à une heuristique gloutonne randomisée également développée dans le cadre de ces travaux. Le deuxième problème central de dimensionnement identifié au cours de ces travaux de thèse est la définition de plans de fréquences. Il s'agit d'une allocation de ressource disponible à bord du satellite aux différents faisceaux de ce dernier, tels qu'ils ont été définis dans le problème précédent de placement de faisceaux. Avec un objectif de minimisation du nombre d'un certain type d'équipement à embarquer dans la charge utile satellite, on cherche à satisfaire la mission de télécommunications qui s'exprime en une demande de chaque utilisateur au sol. Ce problème complexe a lui-même donné lieu à une décomposition en deux sous-problèmes d'allocation de fréquences, puis d'allocation d'équipements de la charge utile, qui sont traités par programmation par contraintes et programmation linéaire en nombres entiers, en exploitant des résultats théoriques qui servent à la fois à la modélisation des problèmes, mais aussi à leur résolution
The continuous growth in telecommunication needs in our society translates into a series of technical challenges for the systems that provide such services, whether it is television broadcasting, telephone, or data exchange. The telecommunication satellites are particularly concerned by this need for innovation, both on the embarked technologies but also on the way the resulting resources are exploited for the end users. On the latter point, for a telecommunication mission defined precisely in terms of service zone, type, quantity and quality of service, one has to be able to size as adequately as possible the telecommunication satellite payload, under the several constraints it is subject to: mass, volume, cost, and power consumption of the embarked hardware. This thesis develops an algorithmic approach for a such a sizing in the particular case of the telecommunication systems that are said to be "multi-beam". A global optimization process of these satellite system is proposed. It relies on a decomposition into a set of mathematical problems whose respective complexities, reduced with respect to the original problem, allow to reasonably aim for efficient algorithmic solutions. This work allowed to identify two key problems in this satellite payload sizing, addressed through an operations research angle: the beam layout optimization and the frequency plan optimization. This first beam layout problem under payload constraints has been an occasion to propose novel ways to handle Euclidean norm constraints on continuous variables for non-convex non-linear mixed programs. These techniques have been then successfully applied in for the generation of solutions to this first problem that fully exploits the mixed integer linear programming formalism. Then, a novel exploitation of some of the properties of the k-means clustering has been proposed as it allows to simplify these mathematical models and therefore accelerate the beam layout optimization. These mathematical programming algorithms have been then compared to a greedy heuristic developed during this thesis work. The second central sizing problem that has been identified is the frequency plan definition. It consists in a resource allocation of on-board satellite resources to the several beams that have been defined in the preceding beam layout optimization problem. With an objective of minimizing the number of a certain type of hardware to be embarked on the payload, the satisfaction of the telecommunication mission defined by an individual demand of all the end users on the ground is aimed. This complex problem itself lead to a decomposition into two sub-problems of frequency and on-board payload hardware allocation, that are treated with constraints programming and integer linear programming, exploiting theoretical results that are useful both at the problem modeling and problem solving levels
APA, Harvard, Vancouver, ISO, and other styles
4

Rebeyrol, Emilie. "Optimisation des signaux et de la charge utile Galileo." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00004315.

Full text
Abstract:
Le système de positionnement Galileo est un nouveau système de navigation par satellite en cours de développement pour l'Union Européenne, qui devrait être opérationnel en 2013. Tout en fournissant un service de positionnement autonome, Galileo sera interopérable avec les systèmes de navigation par satellite déjà existants comme le système américain GPS (Global Positioning System). En effet, un utilisateur pourra, avec un récepteur compatible, obtenir une position quelque soit le système utilisé. De plus, Galileo a pour objectif de garantir la disponibilité de certains services tels que le service commercial (CS) par exemple ou le service public réglementé (PRS). Mais Galileo fournit aussi, avec le service Sécurité de la vie (SOL), un message d'intégrité permettant de déterminer si l'information satellite est fiable, afin de l'utiliser pour des applications critiques telles que le transport aérien, maritime ou terrestre. Afin de fournir une position, une synchronisation et une information d'intégrité précises, en accord avec les besoins des utilisateurs, le système Galileo doit posséder des signaux et une architecture performants. L'étude de la conception de ces signaux, leur génération et leurs performances constitue le coeur de cette thèse. En effet, l'objectif principal de ce travail est l'optimisation de la charge utile et des signaux Galileo afin d'obtenir les meilleures performances possibles du point de vue du récepteur. Une analyse complète du système Galileo, de la charge utile au récepteur est d'abord effectuée. Elle montre que des distorsions peuvent affecter les signaux pendant leur génération, leur propagation et leur traitement dans le récepteur. Ces distorsions, dues aux instabilités d'horloges, aux non-linéarités de l'amplificateur, aux filtrages ou aux trajets multiples (multitrajets), réduisent la performance des signaux, en particulier lors de la poursuite du code ou lors de la poursuite de la phase de la porteuse. Pour éviter ces distorsions ou pour réduire leur impact, les signaux Galileo doivent présenter certaines propriétés, comme une enveloppe constante ou une large bande par exemple. Il est donc important d'analyser ces contraintes pour la conception d'une charge utile et de signaux performants. Une étude est ensuite menée afin de déterminer si les signaux Galileo proposés par la GJU (Galileo Joint Undertaking), en particulier en bande E5 et E1(E1-L1-E2), présentent ces propriétés et ainsi vérifient les contraintes de conception. La modulation Interplex et la modulation ALTBOC (Alternate Binary Offset Carrier) sont les solutions proposées pour multiplexer, respectivement, les signaux E1 et E5. Les expressions théoriques et les performances de ces modulations sont analysées afin de montrer qu'elles transmettent les signaux avec une enveloppe constante permettant de réduire les distorsions dues aux non-linéarités de l'amplificateur. Récemment, de nouvelles formes d'onde ont été proposées pour transmettre le signal " Open Service " de Galileo en bande E1, toujours avec l'objectif d'obtenir de meilleures performances. Ces nouveaux signaux sont basés sur la combinaison linéaire d'un signal BOC(1,1) avec un signal " Binary Coded Symbol (BCS) " ou avec une autre sous porteuse BOC. Ces signaux sont alors appelés Composite BCS (CBCS) ou Composite BOC (CBOC). Ces nouveaux signaux, conçus afin de réduire l'impact des multitrajets sur les performances, sont étudiés tout au long de la chaîne de transmission afin de contrôler s'ils vérifient les contraintes de conception et s'ils peuvent être transmis avec la modulation Interplex. Leurs performances sont aussi évaluées et comparées à celle du signal BOC(1,1), grâce à des observables qui caractérisent les performances en réception. Ces observables sont la fonction d'autocorrélation, la densité spectrale de puissance, le coefficient d'isolation spectrale et l'enveloppe d'erreur due aux trajets multiples. Pour terminer, des simulations permettent d'évaluer l'influence des distorsions dues aux équipements de la charge utile et du récepteur, sur les signaux Galileo et sur leur performance en réception, sont présentées. En particulier, l'influence des horloges, des amplificateurs et des filtres est évaluée grâce notamment au calcul de l'erreur de phase dans la boucle de poursuite du récepteur.
APA, Harvard, Vancouver, ISO, and other styles
5

Bessaih, Fawzi Cheik. "Optimisation et validation de la charge utile d'un satellite de télécommunication." Thesis, Avignon, 2013. http://www.theses.fr/2013AVIG0196/document.

Full text
Abstract:
Pour répondre à une demande sans cesse croissante en capacité et débit pour la télévision HD, la sécurité civile, les télécommunications haut débit etc., les opérateurs satellites doivent accroître de manière importante la capacité de leurs nouveaux satellites. Ces nouvelles capacités sont obtenues au prix d'une complexité accrue.La maîtrise de cette complexité impose la définition de nouvelles méthodes de conception et le développement de nouveaux outils informatiques associes.La conception des charges utiles de télécommunication répond aux contraintes particulières à l'environnement spatial qui se traduisent par des exigences draconiennes quant à la ¯abilit¶e, la masse des équipements à embarquer ou encore la limitation de la puissance disponible. EADS Astrium a ainsi développé une gamme de visant a valider et à optimiser les designs des satellites. Ces logiciels sont bases sur des et des méthodes standards d'optimisation de la recherche opérationnelle. Ils sont utilises lors des phases de conception,notamment pour traiter deux problématiques d'optimisation :{ La validation de la robustesse d'une charge utile nécessite la validation de plusieurs centaines de millions,voire plusieurs dizaines de milliards de cas dégradées. Pour chacun des cas dégradés envisages, il faut e®effectuer un calcul de reconfiguration de la charge utile de fa»con a valider la robustesse du design a cette anomalie. Pour permettre une validation exhaustive d'une charge utile en un temps raisonnable, un calcul de recon¯ ne doit pas dépasser quelques millisecondes.{ L’aménagement des équipements sur les murs d'un satellite est un processus complexe trµes contraint. nécessite de respecter le positionnement des ¶équipements selon des zones chaudes et des zones froides préalablement d¶e¯nies. A¯n de garantir un niveau d'ampli¯cation optimal, la longueur des guides d'ondes reliant les équipements doit ^être limitées et des contraintes de montage/démontage des guides doivent ^être respectées. Avec l'accroissement de la complexité des nouvelles générations rations de satellites, il devient critique pour EADS Astrium de d¶e¯nir de nouvelles méthodes d'optimisation de la charge utile. Nous nous proposons d'étudier ici ces deux problématiques. Une première problématique d’aménagement de guides d'ondes se rapporte une problématique de multi-routage dans un espace continu en trois dimensions. L'objectif est de fournir une estimation des pertes auto-référentielles directement déduite des longueurs des guides d'ondes obtenues lors du routage. Cette problématique s'inscrit dans le cadre de problématique de type Pipe Routing (littéralement,routage de canalisation).la seconde problématique concerne la validation de la robustesse d'une charge utile a un nombre de pannes préalablement ¯x¶e. Du fait d'une méthode de validation choisie, bas¶ee sur une énumération exhaustive des cas dépannes, cette problème¶s'apparente a la résolution successive de millions voire de milliards de problèmes de satisfaction de contraintes. Avec l'augmentation de la complexité¶des charges utiles, il devient urgent de proposer des améliorations significatives de l'outil de validation existant, a savoir SWITCHWORKS
Nc
APA, Harvard, Vancouver, ISO, and other styles
6

Cances, Jean-Pierre. "Adaptativité d'une charge utile de télécommunication multifaisceaux par reconfiguration de couverture /." Paris : École nationale supérieure des télécommunications, 1994. http://catalogue.bnf.fr/ark:/12148/cb35737325r.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Jean, Pierrick. "Isolation vibratoire par contrôle semi-actif d'amortisseurs magnéto-rhéologiques pour l'interface lanceur/charge utile." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2006. http://tel.archives-ouvertes.fr/tel-00352710.

Full text
Abstract:
Le travail présenté dans cette thèse a pour objet l'isolation vibratoire entre 5 et 100 Hz d'une charge utile durant les 150 premières secondes de son lancement, par contrôle semi-actif d'amortisseurs magnéto-rhéologiques. L'isolateur envisagé est une interface souple dont les modes, compris entre 2 et 7 Hz, sont amortis par le dispositif à amortissement contrôlable. Dans un premier temps, afin de réaliser des simulations de contrôle semi-actif réalistes, un modèle de l'amortisseur magnéto-rhéologique utilisé est identifié à partir des mesures de l'effort et de la vitesse du piston. Puis on étudie l'isolateur semi-actif à 1 degré de liberté, à la fois par simulations et expérimentalement. On s'intéresse en particulier au contrôleur skyhook damper et à ses performances d'isolation haute fréquence et d'amortissement basse fréquence pour différents types d'excitations large bande, performances qui sont systématiquement comparées à celles de l'isolateur passif optimal. On présente ensuite une étude originale qui concerne un isolateur semi-actif à 6 degrés de liberté, basé sur la plateforme de Stewart, dont un démonstrateur expérimental a été développé et testé. On détaille en particulier les résultats du contrôle par Integral Force Feedback semi-actif pour les excitations lanceur reproduites expérimentalement. Enfin, l'étude est étendue à la configuration échelle 1 pour laquelle on envisage les performances de confort et de sécurité de l'isolateur. On considère en particulier un cas d'excitation transitoire latérale, la rafale de vent, pour laquelle on développe un contrôleur on-off à seuil de déclenchement, lequel semble également efficace pour l'isolation vibratoire. L'isolateur semi-actif ainsi obtenu semble présenter de meilleures performances qu'un isolateur passif stationnaire, tout en étant conforme aux contraintes propres à l'environnement lanceur.
APA, Harvard, Vancouver, ISO, and other styles
8

Philoreau, Sandrine. "Contribution du calcul formel a l'ingenierie optique elaboration d'une methode de gestion des performances d'une charge utile optique." Nice, 1997. http://www.theses.fr/1997NICE5065.

Full text
Abstract:
Les specifications imposees par la mission guident les activites de conception d'un instrument d'optique. Pour repondre aux specifications d'interface et d'environnement, les specialistes possedent des outils specifiques a differentes disciplines et generiques a l'ensemble des instruments d'optique. Mais dans le cadre de la verification des exigences fonctionnelles, il n'existe pas d'outil generique a tous les instruments. L'objectif initial de cette these etait le developpement d'un outil d'aide a la verification des exigences fonctionnelles. La premiere originalite de ce travail reside dans l'utilisation des outils de calcul formel en ingenierie optique. Nous avons montre que ces outils repondent aux besoins des ingenieurs dans le cadre de la modelisation. Mais pour exploiter au mieux leurs avantages, notre etude a conduit a reformuler les methodes de travail en phase de conception. Notre demarche baptisee circe#1 est generique a l'ensemble des instruments. Pour la definir, nous avons tenu compte de l'ensemble des exigences de modelisation de toutes les phases de vie de la conception d'un instrument. Son organisation est originale sur plusieurs criteres. Tout d'abord la separation des activites de gestion des performances selon les espaces symbolique et numerique permet de repondre aux exigences de modelisation d'un instrument. Notre methode propose des regles logiques pour la capitalisation rigoureuse de l'expertise. La notion de modele de performances dans circe est egalement originale. Elle permet de reutiliser les modeles mathematiques selon les exigences imposees par la mission. Sa representation graphique fournit un excellent outil de communication entre specialistes. L'identification des parametres d'entree et de sortie des modeles de performances aide a la maitrise des performances de la chaine fonctionnelle des instruments. Notre methode a ete validee grace au developpement d'une version de logiciel circe 1. 0. #1 circe : complex instruments ranking with a new computational environment
APA, Harvard, Vancouver, ISO, and other styles
9

Bariant, Delphine. "Méthodologie d'aide à la conception électromagnétique de dispositifs microondes : Application au filtrage et au multiplexage de charge utile de satellite." Limoges, 2002. http://www.theses.fr/2002LIMO0050.

Full text
Abstract:
Les filtres et les multiplexeurs de sortie de charge utile de satellite suscitent de nombreux travaux de recherche ayant pour but l'amélioration des performances électriques, et la réduction des temps de conception et de réalisation. Les travaux de recherche présentés dans ce manuscrit se sont portés sur le développement de methodologies d'aide à la conception électromagnétique de ces dispositifs. Les méthodologies d'aide à la conception électromagnétique des filtres utilisées et développées dans cet ouvrage permettent d'une part, d'obtenir les dimensions géométriques finales des filtres en vue d'une réalisation expérimentale (usinage d'un seul jeu d'iris et de cavités d'où un gain de temps à la réalisation). Elles permettent également de caractériser rapidement et rigoureusement les filtres par une méthode électromagnétique. Ces méthodologies ont été validées par la conception et la réalisation de deux filtres en cavités bimodes fonctionnant en bande Ku et Ka. La caractérisation électromagnétique des filtres permet l'analyse de dispositifs plus complexes que sont les multiplexeurs. Les méthodologies d'aide à la conception électromagnétique des multiplexeurs qui sont développées dans ce rapport permettent de modéliser rigoureusement tous les éléments du dispositif pour une caractérisation précise de son comportement. Cette étude a été validée par la conception de 3 OMUX à 3 canaux adjacents fonctionnant en bande Ku. Cette seconde partie propose une méthode pour compenser la présence des modes supérieurs de cavités lors de la synthèse perturbant le bon fonctionnement des multiplexeurs. En conclusion, ces méthodologies ouvrent la possibilité d'une modélisation électromagnétique rigoureuse et rapide des multiplexeurs et ainsi de répondre aux problèmes liés à leur conception, particulièrement complexe lorsque le nombre de canaux devient important
The filters and the output multiplexers of payload of satellite are in the beginning of improvement of performance, time of design and time of realization. The research tasks presented here are on the development of methods of assistance to the electromagnetic design of these devices. The methods of assistance to the electromagnetic design of the filters, used and developed here, make it possible, on the one hand, to obtain final dimensions of the filters for an experimental realization (machining only one set of cavities and irises). They also make it possible to characterize quickly and efficiently the filters in an electromagnetic way. These methods were validated by the design of two filters in dual-mode cavities functionning in Ku-band and in Ka-band and were validated with experimental results. The electromagnetic characterization of the filters permits to consider the analysis of multiplexers. It was at the origin of the development of methods of assistance to the electromagnetic design of multiplexers. The methods presented contribute to the conception of multiplexers by modelling the dephasing introduced the excitation systems. The second axis presented permits to compensate for the influence of spurious modes disturbing the response of the OMUX. Then, these methods make it possible to consider a fast and rigorous electromagnetic characterization of multiplexers and thus, to answer the problems involved in the growing number of channels which constitute it
APA, Harvard, Vancouver, ISO, and other styles
10

Pazart, Lionel-Henri. "Recherche en méthodologie d'évaluation des pratiques médicales : contribution à l'élaboration d'une méthode directement utile à la prise en charge des patients analysés." Lille 2, 2005. http://www.theses.fr/2005LIL2S018.

Full text
Abstract:
Cette thèse est une recherche en méthodologie d'évaluation des pratiques professionnelles. L'approche originale consiste à proposer une méthode permettant d'atteindre un objectif double : d'une part utiliser immédiatement les résultats au bénéfice des patients inclus dans l'évaluation et d'autre part répondre à l'obligation d'évaluation des pratiques professionnelles telle qu'elle est préconisée actuellement par la Haute Autorité de Santé (HAS). Poursuivant le travail initié sur la méthodologie des enquêtes de pratiques appliquées à l'évaluation des pratiques de soins (9), et dans le cadre du Groupement d'Intérêt Public " ReQua " de Franche-Comté, nous avons vérifié avec des études sur différents thèmes qu'une évaluation des pratiques professionnelles poursuivant le double objectif décrit plus haut, était faisable, acceptable par les professionnels et reconnu par la HAS
This thesis is a research in methodology of evaluation of the professional practices. The original approach consists in proposing a method making it possible to achieve a double goal: on the one hand to immediately use the results for the benefit of the patients included in the evaluation and on the other hand to answer the obligation of evaluation of the professional practices such as she is currently recommended by the High Authority of Health (HAS). Continuing a work initiated on the methodology of the investigations of practices applied to the evaluation of the practices of care, and within the framework of the Grouping of Public Interest "ReQua" of Franche-comté, we checked with studies on various topics (psychiatry, nutrition, geriatrics) that an evaluation of the occupational practices pursuing the double goal describes higher, feasible, acceptable by the professionals and was recognized by the HAS
APA, Harvard, Vancouver, ISO, and other styles
11

Tany, Michel. "La prise en charge des toxicomanes entre la communauté thérapeutique et l’aventure de l’écoute psychanalytique." Thesis, Paris 10, 2014. http://www.theses.fr/2014PA100073.

Full text
Abstract:
La présente recherche se propose d’examiner les multiples intérêts de faire intégrer l’approche psychanalytique dans un cadre spécifique de prise en charge pour des sujets toxicomanes : la communauté thérapeutique (CT). A partir de mon expérience clinique au Liban avec des sujets addictés, rencontrés dans une CT, j’expose les écueils de cette modalité de soin basée uniquement sur l’approche comportementale. Je décris aussi la clinique de la toxicomanie comme “clinique du semblable”. Cette clinique repose sur des processus identificatoires qui prennent appui sur un trépied : le regard social vis-à-vis du phénomène toxicomaniaque, un certain discours scientifique concernant les addictions, mais surtout sur le fonctionnement psychique propre aux sujets toxicomanes. Le point nodal de ma réflexion se trouve dans le fait qu’à la rencontre d’un soignant qui n’a pas nécessairement été usager de drogue lui-même, la plupart des patients addictés arguent qu’il n’est pas semblable à eux, donc il ne comprendrait jamais leur souffrance. Cette situation peut être considérée comme une forme de résistance, mais elle me permet de concevoir la fonction de la drogue sous l’angle de la problématique identificatoire. Je me propose donc, en me basant sur la psychanalyse, à déconstruire un pseudo-savoir constitué autour d’un phénomène complexe, savoir qui tend à figer les toxicomanes dans des notions qui mènent à des pratiques controversées (notamment en CT). J’essaye ainsi de recentrer la question de l’usage de drogue sur le patient addicté lui-même, avec ses failles et ses fantasmes identificatoires qui l’incitent à s’agréger aux communautés de personnes ayant des comportements bien codifiés
This research intend to examine the multiple interests to integrate the psychoanalytic approach in a specific context of care for drug addicts : the therapeutic community (TC). Based on my clinical experience in Lebanon with drug abusers that I have met in CT, I expose the pitfalls of this form of care founded exclusively on the behavioral approach. I also describe the drug addiction as “clinic of the similar”. This clinic is based on identification processes that rely upon a tripod : the social opinions regarding the drug dependency phenomenon, some scientific discourse about addiction, but especially on the dependent subjects own psychological functioning. The central hub of my proposition is located in the fact that when they meet a caregiver who has not necessarily been drug user himself, most addicted patients argue that he is not similar to them, so he would never understand their pain. This situation can be considered as a form of resistance, but it allows me to conceive the function of the drug in terms of identificatory issues. I use psychoanalytic theory to deconstruct a pseudo-knowledge built around the complex phenomenon of drug addiction. This knowledge tends to freeze addicts in concepts that lead to controversial practices (including CT). I try to refocus the question of the substance abuse on the addicted patient himself, with his identification problems and fantasies that incite him to join a community of people having behaviors well codified
APA, Harvard, Vancouver, ISO, and other styles
12

Atienza, García María Terersa. "Identification and control of diffusive systems applied to charge trapping and thermal space sensors." Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/462165.

Full text
Abstract:
The work underlying this Thesis, has contributed to the main study and characterization of diffusive systems. The research work has been focused on the analysis of two kind of systems. On the one hand, the dynamics of thermal anemometers has been deeply studied. These sensors detect the wind velocity by measuring the power dissipated of a heated element due to forced convection. The thermal dynamics of different sensor structures have been analyzed and modeled during the Thesis work. On the other hand, we have dealed with microelectromechanical systems (MEMS). The dynamics of charge trapped in the dielectric layer of these systems has also been studied. It is know, that this undesired effect has been associated to diffusion phenomena. In this Thesis a characterization method based on the technique of Diffusive Representation (DR), for linear and nonlinear time-varying diffusive systems, is presented. This technique allows to describe a system with an arbitrary order state-space model in the frequency domain. The changes in the dynamics of a system over time may come as a result of the own actuation over the device or as a result of an external disturbance. In the wind sensor case, the time variation of the model comes from the wind, which is an external disturbance, whereas in the MEMS case, changes in the actuation voltage generate time-variation in the model. The state-space models obtained from DR characterization have proven to be able to reproduce and predict the behaviour of the devices under arbitrary excitations. Specifically, in the case of wind sensors, the thermal dynamics of these sensors, under constant temperature operation, has been predicted for different wind velocities using Sliding Mode Controllers. As it has been observed, these controllers also help to understand how the time response of a system, under closed loop, can be accelerated beyond the natural limit imposed by its own thermal circuit if the thermal filter associated to the sensor structure has only one significative time constant. The experimental corroboration of the thermal analysis is presented with various prototypes of wind sensors for Mars atmosphere. On one side, the time-varying thermal dynamics models of two different prototypes of a spherical 3-dimensional wind sensor, developed by the Micro and Nano Technologies group of the UPC, have been obtained. On the other side, the engineering model prototype of the wind sensor of the REMS (Rover Environmental Monitoring Station) instrument that it is currently on board the Curiosity rover in Mars has been characterized. For the characterization of the dynamics of the parasitic charge trapped in the dielectric layer of a MEMS device, the experimental validation is obtained through quasi-differential capacitance measurements of a two-parallel plate structure contactless capacitive MEMS.
El trabajo que subyace a esta Tesis, ha contribuido principalmente al estudio y la caracterización de los sistemas difusivos. El trabajo de investigación se ha centrado en el análisis de dos tipos de sistemas. Por un lado, la dinámica de los anemómetros térmicos ha sido estudiada en profundidad. Estos sensores detectan la velocidad del viento a través de la medida de la potencia disipada en un elemento caliente debido a la convección forzada. Durante el trabajo de esta Tesis, se ha analizado y modelado la dinámica térmica de diferentes sensores . Por otro lado, se han tratado también los sistemas microelectromecánicos (MEMS). Se ha estudiado la dinámica de la carga atrapada en la capa dieléctrica de estos sistemas. Este fenómeno lento e indeseado está asociado a fenómenos de difusión. En esta Tesis se presenta un método de caracterización basado en la técnica de Representación Difusa (DR), para sistemas difusivos lineales y no lineales que varían en el tiempo. Esta técnica permite describir un sistema con un modelo de variables de estado de orden arbitrario en el dominio frecuencial. Los cambios en la dinámica de un sistema a lo largo del tiempo pueden ser debidos a la propia actuación sobre el dispositivo o como resultado de una perturbación externa. En el caso del sensor de viento, la variación de tiempo del modelo proviene de la propia variación del viento, la cual es una perturbación externa, mientras que en el caso de los dispositivos MEMS, los cambios en la tensión de actuación generan variaciones en el tiempo en el modelo. Los modelos de variables de estado obtenidos a partir de la caracterización con Representación Difusiva tienen la capacidad de reproducir y predecir el comportamiento de dichos dispositivos ante excitaciones arbitrarias. En concreto, en el caso de los sensores de viento, la dinámica térmica de estos sensores, operando a temperatura constante, se ha predicho para diferentes velocidades de viento, usando la teoría de los Sliding Mode Controllers (Controladores de Modo Deslizante). Tal y como se ha observado, estos controladores ayudan también a comprender cómo la respuesta temporal de un sistema, en lazo cerrado, puede acelerarse más allá del límite natural impuesto por su propio circuito térmico si el filtro térmico asociado a la estructura del sensor tiene solo una constante de tiempo significativa. La corroboración experimental del análisis térmico se presenta con varios prototipos de sensores de viento para la atmósfera de Marte. Por un lado, se han obtenido los modelos de la dinámica térmica variable en el tiempo de dos prototipos diferentes de un sensor de viento 3D esférico, desarrollado por el grupo de Micro y Nano Tecnologías de la UPC. Por otro lado, se ha caracterizado el prototipo de modelo de ingeniería del sensor de viento del instrumento REMS (Rover Environmental Monitoring Station) que está actualmente abordo del rover Curiosity en Marte. Para la caracterización de la dinámica de la carga atrapada en la capa dieléctrica de un dispositivo MEMS, la validación experimental se ha obtenido a través de medidas cuasi-diferenciales de la capacidad de un dispositivo MEMS con estructura de dos placas paralelas.
APA, Harvard, Vancouver, ISO, and other styles
13

Vivos, Jonathan. "Méthode de conception de déphaseurs à métamatériaux par l'utilisation de lignes composites équilibrée et non équilibrée." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30327.

Full text
Abstract:
Pour effectuer une recombinaison sans pertes des signaux dans des structures parallèles telles que les matrices de Butler, il est nécessaire d'utiliser des déphaseurs, structures généralement constituées de deux lignes de transmissions déphasées entre elles. Le contrôle du déphasage dans ces équipements peut être obtenu par l'ajustement de la longueur d'une des lignes, ou par le rajout d'éléments en parallèle tels des lignes couplées ou des stubs. Cependant, ces solutions ne permettent pas de répondre aux nombreuses spécifications du déphaseur dans un contexte industriel. Les métamatériaux, structures composées de plusieurs éléments très petits devant la longueur d'onde, pourraient répondre aux différentes contraintes de par leur grand nombre de degrés de liberté. Il existe des lignes à métamatériaux déjà utilisées dans ce but. Cependant un cas particulier de ligne, la ligne équilibrée, est utilisée lors de la conception des déphaseurs. L'objectif de cette thèse est alors de concevoir des déphaseurs à métamatériaux en exploitant au maximum leurs degrés de liberté, c'est-à-dire sans se restreindre aux cas des lignes équilibrées. Pour cela, nous avons mis en œuvre une méthode de conception dédiée permettant d'obtenir à partir du cahier des charges d'un déphaseur des solutions aux performances suffisantes à leur intégration dans des systèmes industriels très contraints. Nous avons réalisé à l'aide de la méthode des prototypes de déphaseurs 180° sur une largeur de bande de 20% en bande C [4.95GHz -6.05GHz] afin de valider notre méthode de conception et d'en démontrer l'efficacité
Differential phase shifters (DPS) are used in in parallel structures such as Butler matrices, to avoid losses on signal recombination to avoid losses on signal recombination. The DPS are generally composed of two transmission lines out of phase with each other. The phase shift control in these devices line length adjustment, or by integrating elements such as coupled lines or stubs. However, these solutions do not meet the many specifications of the phase shifter in an industrial context. Metamaterials, which are known as structures composed of several small elements, with unique properties, could enable phase shift control with more degrees of freedom. To this end, metamaterials such as composite lines have already been investigated. However they exploit a particular case of metamaterial, the balanced line, to design phase shifters. This thesis objective is to design metamaterial phase shifters by exploiting as much as possible their degrees of freedom, namely without limiting the phase shift design to balanced lines. For this purpose, we have implemented a dedicated design method to obtain from phase shifter specifications solutions with adequate performances for integration on very constrained industrial systems. This method has been illustrated and validated through an application to a case of 180° phase shifter with a 20% bandwidth in C band [4.95GHz -6.05GHz]
APA, Harvard, Vancouver, ISO, and other styles
14

Zayane, Chadia. "Identification d'un modèle de comportement thermique de bâtiment à partir de sa courbe de charge." Phd thesis, Centre de géosciences (Fontainebleau, Seine et Marne), 2011. https://pastel.hal.science/pastel-00590810.

Full text
Abstract:
Dans un contexte de préoccupation accrue d'économie d'énergie, l'intérêt que présente le développement de stratégies visant à minimiser la consommation d'un bâtiment n'est plus à démontrer. Que ces stratégies consistent à recommander l'isolation des parois, à améliorer la gestion du chauffage ou à préconiser certains comportements de l'usager, une démarche préalable d'identification du comportement thermique de bâtiment s'avère inévitable. Contrairement aux études existantes, la démarche menée ici ne nécessite pas d'instrumentation du bâtiment. De même, nous considérons des bâtiments en occupation normale, en présence de régulateur de chauffage : inconnue supplémentaire du problème. Ainsi, nous identifions un système global du bâtiment muni de son régulateur à partir de : données de la station Météo France la plus proche ; la température de consigne reconstruite par connaissance sectorielle ; la consommation de chauffage obtenue par système de Gestion Technique du Bâtiment ou par compteur intelligent ; autres apports calorifiques (éclairage, présence de personnes. . . ) estimés par connaissance sectorielle et thermique. L'identification est d'abord faite par estimation des paramètres (7) définissant le modèle global, en minimisant l'erreur de prédiction à un pas. Ensuite nous avons adopté une démarche d'inversion bayésienne, dont le résultat est une simulation des distributions a posteriori des paramètres et de la température intérieure du bâtiment. L'analyse des simulations stochastiques obtenues vise à étudier l'apport de connaissances supplémentaires du problème (valeurs typiques des paramètres) et à démontrer les limites des hypothèses de modélisation dans certains cas
In a context of permanent concern of energy saving, the importance of developing strategies to minimize the energy consumption of a building is not to be any more demonstrated. Whether these strategies consist in recommending building insulation, suggesting the modification of the management of heating/air conditioning systems or advising the change of certain occupants' habits, a preliminary step of characterizing the thermal behavior of the building turns out inevitable. Contrary to the previous studies, the approach developed here does not require instrumentation of the building. Also, we consider buildings in normal occupation, that is in the presence of heating regulator, which is an additional unknown of the problem. So, we identify a global system of the building together with its heating system from: meteorological data of the closest Meteo France station; reference indoor temperature reconstructed by sector-based knowledge; heating consumption collected either from Building Management Systems or from smart meters; other heat supply (like lighting or presence of persons) estimated by sector-based and thermal knowledge. The identification is made at first by estimation of the parameters (7) defining the global model, by minimizing one step prediction error. Then we adopted an approach of bayesian inversion which provides a simulation of the posterior distributions of parameters and building indoor temperature. The analysis of the stochastic simulations aims at studying the contribution of additional knowledge of the problem (typical values of the parameters) and at showing the limits of the modeling hypotheses in the case of certain real data sets
APA, Harvard, Vancouver, ISO, and other styles
15

Zayane, Chadia. "Identification d'un modèle de comportement thermique de bâtiment à partir de sa courbe de charge." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00590810.

Full text
Abstract:
Dans un contexte de préoccupation accrue d'économie d'énergie, l'intérêt que présente le développement de stratégies visant à minimiser la consommation d'un bâtiment n'est plus à démontrer. Que ces stratégies consistent à recommander l'isolation des parois, à améliorer la gestion du chauffage ou à préconiser certains comportements de l'usager, une démarche préalable d'identification du comportement thermique de bâtiment s'avère inévitable.
Contrairement aux études existantes, la démarche menée ici ne nécessite pas d'instrumentation du bâtiment. De même, nous considérons des bâtiments en occupation normale, en présence de régulateur de chauffage : inconnue supplémentaire du problème. Ainsi, nous identifions un système global du bâtiment muni de son régulateur à partir de :
données de la station Météo France la plus proche ; la température de consigne reconstruite par connaissance sectorielle ; la consommation de chauffage obtenue par système de Gestion Technique du Bâtiment ou par compteur intelligent ; autres apports calorifiques (éclairage, présence de personnes...) estimés par connaissance sectorielle et thermique. L'identification est d'abord faite par estimation des paramètres (7) définissant le modèle global, en minimisant l'erreur de prédiction à un pas. Ensuite nous avons adopté une démarche d'inversion bayésienne, dont le résultat est une simulation des distributions a posteriori des paramètres et de la température intérieure du bâtiment.
L'analyse des simulations stochastiques obtenues vise à étudier l'apport de connaissances supplémentaires du problème (valeurs typiques des paramètres) et à démontrer les limites des hypothèses de modélisation dans certains cas.
APA, Harvard, Vancouver, ISO, and other styles
16

Marshall, Blake Ryan. "A methodology for designing staggered pattern charge collectors." Thesis, Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/43612.

Full text
Abstract:
With higher frequencies now being used in RFID systems, antennas are becoming much smaller resulting in more space on tags that can be used for innovative array designs to harvest more wireless energy. This master's thesis outlines and details a new methodology for designing and simulating the staggered pattern charge collector, a technique to improve harvesting wireless energy. Staggered pattern charge collectors enable RFID tag's to produce a higher DC voltage from a charge pump circuit by creatively using multiple arrays to increase the antenna power conversion gain without limiting the half power beamwidth. This thesis discusses the basics of patch antennas and charge pumps as well as an optimization technique for the staggered pattern array by maximizing integrated power conversion gain (IPCG). An example of a staggered pattern charge collector is fully specified from design through simulation, in preparation for fabrication. This methodology allows for the staggered pattern charge collectors to be designed, simulated, and fabricated quickly and effectively.
APA, Harvard, Vancouver, ISO, and other styles
17

Romero, Ugalde Héctor Manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0001/document.

Full text
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail
This report concerns the research topic of black box nonlinear system identification. In effect, among all the various and numerous techniques developed in this field of research these last decades, it seems still interesting to investigate the neural network approach in complex system model estimation. Even if accurate models have been derived, the main drawbacks of these techniques remain the large number of parameters required and, as a consequence, the important computational cost necessary to obtain the convenient level of the model accuracy desired. Hence, motivated to address these drawbacks, we achieved a complete and efficient system identification methodology providing balanced accuracy, complexity and cost models by proposing, firstly, new neural network structures particularly adapted to a very wide use in practical nonlinear system modeling, secondly, a simple and efficient model reduction technique, and, thirdly, a computational cost reduction procedure. It is important to notice that these last two reduction techniques can be applied to a very large range of neural network architectures under two simple specific assumptions which are not at all restricting. Finally, the last important contribution of this work is to have shown that this estimation phase can be achieved in a robust framework if the quality of identification data compels it. In order to validate the proposed system identification procedure, application examples driven in simulation and on a real process, satisfactorily validated all the contributions of this thesis, confirming all the interest of this work
APA, Harvard, Vancouver, ISO, and other styles
18

Romero, ugalde Héctor manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00869428.

Full text
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail.
APA, Harvard, Vancouver, ISO, and other styles
19

Tajany, Mostafa. "Égalisation adaptative de multitrajets dans des liaisons de télémesure à haut débit." Nantes, 1996. http://www.theses.fr/1996NANT2002.

Full text
Abstract:
Dernier-né des services de télédétection, le système commercial SPOT conçu par le Centre National des Études Spatiales (CNES) et opérationnel depuis 1986, transmet vers le sol les informations images numérisées. Pour diverses configurations du satellite, la qualité de la liaison est fortement dégradée par la présence de multi-trajet, dû aux interactions entre l'antenne d'émission et la structure du satellite. Les travaux présentés dans ce mémoire s'inscrivent dans le cadre de l'étude de l'adaptativité d'antenne bord et sol intervenant dans les liaisons de télémesure de charge utile (TMCU) à haut débit. Dans un premier temps, les conséquences du multi-trajet ont été quantifiées en terme d'interférence intersymboles et de taux d'erreurs sur les bits. On a déterminé la rejection nécessaire sur les trajets retardés pour approcher les performances nominales. Divers traitements au sol ont par la suite été envisagés sous forme d'un égaliseur. Une étude théorique des performances d'un égaliseur, menée sur une structure linéaire et sur une structure à décision dans la boucle (DFE), a permis de prédire les performances en taux d'erreurs et en erreur quadratique moyenne. Les résultats obtenus sont ceux de l'algorithme global et sont complétés par un test des autres principaux algorithmes adaptatifs. De plus, un ensemble de traitements a été simulé sur une chaine idéale et sur deux liaisons de TMCU. L'algorithme du gradient stochastique LMS a été testé sur un modèle de canal le plus probable. Les performances des structures d'égaliseur ont été élaborées sous une forme comparative. En vue d'une implantation pratique, la structure à décision dans la boucle fournit des meilleures performances avec deux coefficients dans la branche linéaire et deux coefficients dans la branche récursive DFE (2,2). Un traitement à bord du satellite a été proposé. Il consiste à adapter le diagramme de rayonnement de l'antenne active après son optimisation suivant un certain critère d'adaptation. Sur le plan matériel, en raison du grand débit numérique de transmission (50 mbit/s) de la liaison TMCU, les implémentations classiques d'un égaliseur ne peuvent pas être utilisées. Deux solutions de réalisation matérielle ont été proposées: la première est une solution hybride mêlant les techniques analogiques pour le filtrage et une approche numérique pour le calcul des coefficients. La seconde est totalement analogique. L'algorithme proposé est l'algorithme LMS intégré au démodulateur cohérent à quatre états de phase (mdp4). Cette approche a été simulée avec une structure DFE (2,2). Une étude de sensibilité aux défauts de réalisation a permis d'évaluer de façon plus approfondie la faisabilité de ces implémentations
APA, Harvard, Vancouver, ISO, and other styles
20

Dumont, Sarah. "Caractéristiques cliniques, moléculaires et prise en charge des Rhabdomyosarcomes de l'adulte et identification d'une polythérapie ciblée in vitro." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10311/document.

Full text
Abstract:
Le rhabdomyosarcome de l'adulte est une tumeur rare au pronostic. Le présent travail propose d'étudier les caractéristiques cliniques et moléculaires et la prise en charge des adolescents et adultes atteints de rhabdomyosarcome ainsi que la possibilité de combinaison de thérapie ciblées sur lignées cellulaires in vitro. Nous avons anamysé rétrospectivement 239 patients âgés de 10 ans ou plus, atteints de rhabdomyosarcome au MD Anderson Cancer Center entre 1957 et 2003 et leur statut fusionnel pour PAX-FOXO1 par hybridation in situ en fluorescence. Trois lignées cellulaire de sarcome à petites cellules ont été soumises à des combinaisons de thérapies ciblées avec analyse de la viabilité. Les patients de plus de 50 ans avaient une survie globale à 5 ans de 13 % (médiane de survi à 1.7 ans) en dépit d'une maladie localisée. Approximativement 13 % des patients métastasiques de moins de 50 ans ont eu une survie prolongée de plus de 15 ans. L'utilisation d'une stratégie thérapeutique triple, intégrant chirurgie, chimiothérapie et radiothérapie était signifcativement associée à une survie prolongée. Auniveau molécualire, la présence du transcrit de fusio PAX3/7-FOXO1 était significativement liée à un risque accru de maladie métastatique. L'étude in vitro de thérapies ciblées a permis d'identifier la combinaison du vorinostat plus le 17DMAG associée à la doxorubicine comme ayant une meilleure efficacité. La prise en charge du rhabdomyosarcome de l'adolescent et de l'adulte semble souffrir d'une approche moins agressive comparée au rhabdomyosarcome pédiatrique. De plus, des combianaisons de thérapies ciblées peuvent être intégrées aux protocoles de chimiothérapies standards
Rhabdomyosarcoma is a rare entity adult patient with unfavourable outcome. This work describes the clinical and molecular specificities of adolescent and adult type of rhabdomyosarcoma and investigates the optimal integration of targetd therapy combinations on small cell sarcoma cell lines in vitro. We retrospectively analyzed 239 patients, 10 years of age and greater, diagonsed withrhabdomyosarcoma at MD Anderson Cancer Center from 1957 trough 2003 and their PAX-FOXO1 fusion gene status by fluorescence in situ hybridization on tissues microarray. Three samll cell sarcoma cell lines were exposed to targetd agent combinations. PAtient with metastatic rhabdomyosarcoma were found to have a 18 % survival rate at 5 years from diagnosis with an 12 %survival past 15 years. This outcome was even poorer for patients over 50 of age, even with localized disease. Younger patients were more likely to receive multidisciplinary therapy than their older counterparts. The presence of PAX-FOXO1 tranlocation was significantly associated with a higher frequency of metastatic disease. The four agents with the exception of abacavir synergized two by two with each other in vitro but the triple combinations did not perform beter than the bitherapies. The dual therapies vorinostat 5HDAC inhibitor) plus 17-DMAG (Hsp90 inhibitor) added with doxorubicin achvied better results than dual or triple therapies. Adult patient with rhabdomyosarcoma present similar molecular and clinical characteristics compared pediatric patients but outcome decrease with age partly du to a less multimodal management. Moreover targeted combinations should be integrated to chemotherapy backbone
APA, Harvard, Vancouver, ISO, and other styles
21

Hamon, Pauline. "Modélisation et identification dynamiques des robots avec un modèle de frottement sec fonction de la charge et de la vitesse." Nantes, 2011. http://archive.bu.univ-nantes.fr/pollux/show.action?id=f707db5d-d950-4065-a4f1-96b0543b2c18.

Full text
Abstract:
Ce travail est le résultat d’une collaboration entre le CEA et l’IRCCyN dans les domaines de la téléopération et la cobotique où les robots fonctionnent à vitesse lente et avec des variations importantes de charge. Dans ce cas, l’effort de frottement sec est important par rapport aux efforts inertiels. Le modèle dynamique classique avec frottement sec constant ne permet pas une estimation précise des efforts d’interaction du robot avec son environnement matériel et humain. Cette thèse propose une modélisation originale du frottement sec, fonction de la charge et de la vitesse, son intégration dans le modèle dynamique multi-axes et son identification par modèle inverse et moindres carrés linéaires. Une étude expérimentale mono-axe de plusieurs robots conduit à proposer un modèle qui combine la variation du frottement sec par rapport à la charge du modèle de Coulomb et la variation par rapport à la vitesse du modèle de Stribeck, et qui couvre les 4 quadrants du plan (vitesse, charge) articulaire. Ce modèle mono-axe est intégré dans le modèle dynamique inverse multi-axes du robot en assurant la linéarité par rapport aux nouveaux paramètres dynamiques. La méthode d’identification par moindres carrés linéaires du modèle classique est étendue au nouveau modèle avec une procédure en 2 étapes : une identification axe par axe fixant certains paramètres de frottement, et une identification multi-axes pour les autres paramètres de frottements et d’inertie. Une validation expérimentale sur 7 cas mono-axes et sur un cas multi-axes (robot Stäubli TX40) prouve la pertinence de cette approche originale, pour les robots fonctionnant avec une forte variation de charge et/ou à vitesse lente
This work is the result of collaboration between CEA and IRCCyN in the area of teleoperation and cobotics, where robots work at low velocity and with high external forces variations. In this range of use, the joint dry friction force becomes significant compared with the inertial forces. The dynamic model with the usual constant dry sliding friction force model is no longer accurate enough to predict the joint forces and therefore to predict the interaction forces between the robot and its material or human environment. This thesis proposes an original dry friction model, which depends on the joint load and velocity. This model is merged into the multi-joint inverse dynamic model, which is identified with linear least squares techniques. An experimental study of several one-joint robots leads to propose a new dry friction model that combines the load-dependence of the Coulomb model and the velocity-dependence of the Stribeck model, and that is suitable for the 4 quadrants in the (velocity, load) frame. This model is incorporated into the multi-joint inverse dynamic model that remains linear in relation to the new dynamic parameters. The usual robotics identification method, based on linear least squares techniques, is divided in two steps for the new model: at first, a joint-by-joint procedure allows to identify some friction parameters, and then a multi-joint identification is carried out to estimate the other friction and inertial parameters. An experimental validation on seven one-joint cases and on a multi-joint case (4 joints of the Stäubli TX40 robot) proves the relevance of this original approach for robots working with high load variations and/or at low velocity
APA, Harvard, Vancouver, ISO, and other styles
22

Delmas, Hugues. "Expressions faciales et mensonges factuels : évaluation des croyances et identification des expressions produites lors d’un mensonge à forte charge cognitive." Thesis, Paris 8, 2018. http://www.theses.fr/2018PA080036.

Full text
Abstract:
Deux facteurs permettent d’augmenter la performance de détection du mensonge : (a)identifier les croyances erronées et lutter contre elles et (b) accroître les différences decomportements entre les menteurs et les personnes qui disent la vérité. Ce travail de thèse aétudié ces facteurs en lien avec les expressions faciales du mensonge. Pour ce faire, nous avonsinvestigué les croyances via l’utilisation d’un questionnaire photographique et utilisé un récitantéchronologique (narration à rebours) pour amplifier les différences de comportements(approche de la charge cognitive).Notre démarche expérimentale a questionné : (a) Les croyances les plus prégnantesrelatives aux expressions faciales du mensonge. (b) L’influence de l’expérience professionnelle,de l’enjeu du mensonge (grave ou anodin) et du comportement mensonger évalué (le sien oucelui d’autrui). (c) La pertinence de l’intensité des expressions faciales pour déceler lesmensonges lors d’un récit antéchronologique.L’ensemble de nos résultats ont mis au jour de nombreuses nouvelles croyances. Septd’entre elles étaient très partagées par les individus et cohérentes avec la vision stéréotypée dumenteur. L’expérience professionnelle, l’enjeu du mensonge et le comportement mensongerévalué ont peu modifié les croyances. Le récit antéchronologique a amplifié les différences entrementeurs et sincères ; et l’intensité des mouvements faciaux a été une mesure pertinente pourdéceler le mensonge. L’application de nos travaux est discutée
Two factors increase the lie detection performance: (a) identify and decrease false beliefsand (b) increase behavioral differences between liars and truth-tellers. These factors were studiedin relation to facial expressions of deception in this doctoral dissertation.The present work questioned (a) The most important beliefs about facial expressions ofdeception throught the use of a photographic questionnaire (b) The influence of professionalexperience, stakes of lie (serious or trivial) and the lying behavior evaluated (his own or that ofothers) (c) The relevance of facial expressions’ intensity to detect lies in an reverse orderinstruction which was used to magnify behavioral differences (cognitive load approach).Our results highlighted many new beliefs. Seven of them were very shared by people andconsistent with the stereotypical view of the liar. Beliefs were little infuenced by professionalexperience, the stakes of lie and the evaluated behavior. The reverse order instruction amplifieddifferences between liars and truth-tellers; and the intensity of facial movements was a relevantmeasure for detecting deception. Application of our research is discussed
APA, Harvard, Vancouver, ISO, and other styles
23

Maciel, Soares Julia. "La notion d'autre "suffisamment pareil" dans la rencontre intersubjective : implications dans la prise en charge de l'autisme." Paris 13, 2012. http://www.theses.fr/2012PA131008.

Full text
Abstract:
La pathologie autistique ne cesse d’interroger les diverses formulations théoriques qui s’efforcent de cerner les processus en jeu dans le développement psychique. Ce que propose la méthode des 3i comme prise en charge de l’autisme permet de pousser encore plus loin les questions que l’autisme pose particulièrement à la théorie psychanalytique, avec laquelle une articulation peut être élaborée. L’objectif des séances dans ce cadre de prise en charge étant l’interaction, des consignes sont données aux intervenants afin de créer des moments de rencontre, notamment celles d’imiter l’enfant et de ne pas lui dire « non » en séance. Nous proposons d’investiguer les enjeux de ces prémisses à partir d’une articulation avec ce qui se joue au premier temps de la constitution psychique. En retravaillant les premières rencontres intersubjectives, nous observons que l’imitation et l’ ccordage qui les caractérisent indiquent que ces rencontres avec l’autre sont plus marquées par la ressemblance que par la différence. Nous proposons de considérer l’autre des premières rencontres intersubjectives comme un autre « suffisamment pareil » au sujet. L’autisme étant la clinique de l’archaïque, nous pensons que ce type de rencontre où la différence n’est pas au premier plan renvoie à un type de relation avec l’autre que les enfants autistes seront en mesure de supporter. En s’appuyant principalement sur le cas d’un enfant atteint d’autisme pris en charge pendant 20 mois par la méthode des 3i, nous discutons les implications cliniques de notre proposition. La discussion, axée sur les principes d’intervention proposés par la méthode des 3i, indique qu’à partir des rencontres de cet ordre, possibles à l’enfant atteint d’autisme, « le suffisamment pareil » peut devenir de moins en moins pareil. Les progrès de l’enfant suivi nous permettent d’inférer les effets thérapeutiques de ce type de rencontre, amorcée par un autre qui se présente d’abord comme « suffisamment pareil » à l’enfant
Autism questions the several theoretical formulations that attempt to understand the processes involved in psychic development. What the French 3i method suggests as a treatment of autism allows to question further the psychoanalytic theory, with which a link can be proposed. Since the goal of the 3i therapeutic sessions is to establish interactions, a few orientations are given to adults to create moments of contact, for instance to imitate the child and to not to say "no" during the sessions. We propose to investigate the reasons of these assumptions in connection with what happens during the first period of the psychic development. When reworking the first intersubjective encounters, we observed that imitation and attunement that characterize them indicate that these encounters are marked by resemblance more then by difference. Our proposition is to consider the other of these first intersubjective encounters as a “similar enough other”. Being autism a clinic of the archaic period of psychic development, we think that this type of encounter where the difference does not stand out points to a type of relation with the other in a way that autistic children could accept. Based upon an autistic child that was seen for 20 months under the 3i method, we discuss the clinical implications of our proposition. The discussion, based upon the principles of the intervention proposed by this method, indicate that based on encounters of this nature, the "similar enough" can become gradually less similar. The progress of the child that was seen under the umbrella of the 3i method allows to infer some therapeutic benefits of this type of encounter, initiated by an other who presents himself at first as similar enough to the child
O autismo questiona as diversas formulações teóricas que se esforçam em compreender os processos implicados no desenvolvimento psíquico. O que propõe o método francês dos 3i como tratamento do autismo permite avançar as questões que o autismo coloca especialmente à teoria psicanalítica, com a qual uma articulação pode ser elaborada. Sendo a interação o objetivo das sessões 3i, algumas orientações são dadas aos adultos que intervém no sentido de criar momentos de encontro, dentre elas a de imitar a criança e a de não dizer “não” nas sessões. Propomos investigar os fundamentos dessas premissas a partir de uma articulação com o que se passa no primeiro tempo da constituição psíquica. Ao retrabalhar os primeiros encontros intersubjetivos, observamos que a imitação e a sintonia que lhes são característicos indicam que esses encontros são marcados mais pela semelhança e menos pela diferença. Nossa proposição é a considerar o outro desses primeiros encontros intersubjetivos como um outro “suficientemente similar” ao sujeito. Sendo o autismo uma clínica do tempo arcaico do psiquismo, pensamos que esse tipo de encontro onde a diferença não figura em primeiro plano remete a um tipo de relação com o outro que as crianças autistas são capazes de suportar. A partir do caso de uma criança autista atendida por 20 meses dentro dos moldes do método dos 3i, discutimos as implicações clínicas da nossa proposição. A discussão, que tem por eixos os princípios de intervenção propostos pelo método dos 3i, indica que a partir de encontros dessa natureza, possíveis à criança autista, o “suficientemente similar” pode tornar-se cada vez menos similar. A evolução do caso da criança atendida nos moldes do método 3i permite inferior alguns efeitos terapêuticos desse tipo de encontro, provocado por um outro que se apresenta inicialmente como suficientemente similar com a criança
APA, Harvard, Vancouver, ISO, and other styles
24

Chouihed, Tahar. "Identification des profils congestifs de l'insuffisance cardiaque aiguë pour guider les stratégies diagnostiques et thérapeutiques de prise en charge en urgence." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0065/document.

Full text
Abstract:
La dyspnée aigue due à une congestion pulmonaire dans le cadre d’une insuffisance cardiaque aiguë (ICA) est un motif d’admission fréquent aux Urgences. Actuellement, l’ICA est deux fois plus fréquente et est associée à un risque deux fois plus élevé de décès (8%) que les syndromes coronariens aigus (SCA). La prise en charge en pré hospitalier et aux urgences est devenue une étape clé du parcours de soin de ces patients. Ces dernières années ont vu émerger de nouveaux paradigmes autour de la prise en charge de l’ICA mettant en perspective la complexité de cette pathologie. On parle désormais de syndrome d’insuffisance cardiaque aiguë (SICA), terminologie qui souligne la pluralité des situations cliniques et la diversité des profils congestifs. Cependant, l’évaluation de la répartition de la congestion au cours d’un SICA, même s’il existe peu de données sur ce sujet, est actuellement principalement faite sur des arguments cliniques ; l’échographie pulmonaire et l’estimation du volume plasmatique (ePVS, basé sur un calcul intégrant hémoglobine et hématocrite) pourraient permettre de mieux préciser les profils congestifs. Plusieurs études rapportent que la rapidité et l’exactitude du diagnostic étiologique de dyspnée aigue sont associées au pronostic des patients. Malgré l’existence d’outils diagnostiques (biomarqueurs, examens de radiologie), l’incertitude quant au diagnostic étiologique reste importante dans le contexte d’un service d’urgence, ce qui rend difficile la diminution du « Time to therapy » promue par les recommandations de la société européenne de cardiologie 2016. Les objectifs de notre travail étaient d’identifier des profils de congestion distincts d’insuffisance cardiaque aigue, de préciser la valeur diagnostique et pronostique de ces profils dans le contexte d’une dyspnée aigue, et de déterminer si l’effet thérapeutique des modalités de prise en charge initiale en urgence est dépendant de ces profils congestifs. Dans le cadre de notre travail, nous avons pu montrer sur la base des analyses réalisées dans la cohorte DeFSSICA que les outils permettant de mieux préciser le profil congestif des patients (notamment l’échographie pulmonaire et l’ePVS) sont peu utilisés aux urgences. Dans un deuxième travail, nous avons montré sur la cohorte PARADISE (NCT02800122) – conçue dans le cadre de ce doctorat, que l’altération de fonction rénale, l’hyponatrémie et la dysglycémie sont associée de façon significative au pronostic des patients atteints de dyspnée aigue. Dans un troisième travail, nous avons montré que le volume plasmatique estimé est un outil diagnostique performant de SICA et qu’un niveau plus important de congestion évaluée par l’ePVS est associé à une mortalité intra-hospitalière des patients admis pour dyspnée aigue plus élevée. Notre travail a aussi permis de concevoir et démarrer l’étude PURPLE (Pathway and Urgent caRe of dyspneic Patient at the emergency department in LorrainE district – NCT NCT03194243) qui collecte les données cliniques et paracliniques des patients admis pour dyspnée aigue aux urgences de façon prospective dans la région Lorraine. Par ailleurs, ce travail de thèse a aussi permis de concevoir et faire financer le projet EMERALD-US (Evaluation de la faisabilité de la Mise en œuvre et de la performance d’un algorithme d’EchogRraphie Aux urgences pour Le diagnostic de Dyspnée aigue-UltraSound) qui vise à valider un algorithme spécifique aux urgences utilisant l’échographie pulmonaire, cardiaque et vasculaire pour le diagnostic étiologique de dyspnée aigue
Acute dyspnea due to pulmonary congestion in acute heart failure (AHF) is a common reason for admission to the ER. Currently, AHF is twice as common and associated with a twofold higher risk of death (8%) than acute coronary syndromes (ACS). Pre-hospital and emergency care has become the cornerstone of care of these patients. In recent years, new paradigms have emerged surrounding AHF management, highlighting the complexity of this disease. Hence the use of the term acute heart failure syndrome (AHFS), a terminology underscoring the plurality of clinical situations and the diversity of congestive profiles. However, the assessment of congestion distribution during an AHFS is currently predominantly based on clinical arguments in spite of limited data. Alternatively, lung ultrasound (LUS) and estimation of plasma volume (ePVS, based on hemoglobin and hematocrit) could allow for a better assessment of congestive profiles. Several studies report that the rapid and accurate etiological diagnosis of acute dyspnea is associated with prognosis. Despite the availability of diagnostic tools including clinical exam, biomarkers and radiology, there is still considerable uncertainty regarding etiological diagnosis in the emergency department (ED) setting, hence rendering it difficult in reducing the « Time to therapy » advocated by the recommendations of the European Cardiology Society 2016 for AHF. The objectives of the present work were to identify distinct congestion profiles of AHF, to clarify the diagnostic and prognostic value of these profiles in the context of acute dyspnea, and to determine whether the therapeutic effect of initial emergency management modalities is dependent on these congestive profiles. In the course of our work, we were able to demonstrate in the DeFSSICA cohort that the tools allowing a better assessment of the patient's congestive profile (particularly LUS and ePVS) are rarely used in ED. In a second study, we showed in the PARADISE cohort (NCT02800122) - designed as part of this PhD research project - that impaired renal function, hyponatremia and dysglycemia are significantly associated with prognosis in patients with acute dyspnea. In a third study, we showed that the ePVS is an effective AHF diagnostic tool and that a higher congestion level assessed by ePVS is associated with higher in-hospital mortality of patients admitted for acute dyspnea. Our work also enabled us to design and initiate the PURPLE (Pathway and Urgent caRe of dyspneic Patients at the emergency department in LorrainE district - NCT03194243) study, which collects clinical and paraclinical data of patients admitted for acute dyspnea on a prospective basis. Lastly, this PhD research project enabled designing and obtain funding for the EMERALD-US project (Evaluation of the feasibility of implementing and performance of an Emergency Echography algorithm for the diagnosis of Acute Dyspnea-UltraSound) which aims to validate an original algorithm specific to emergency situations using lung, cardiac and vascular ultrasound for the etiological diagnosis of acute dyspnea
APA, Harvard, Vancouver, ISO, and other styles
25

Hu, Yiran. "Identification and State Estimation for Linear Parameter Varying Systems with Application to Battery Management System Design." The Ohio State University, 2010. http://rave.ohiolink.edu/etdc/view?acc_num=osu1281368350.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Thouras, Jordan. "Amélioration des performances électriques d’un module de mélange optoélectronique privilégiant des dispositifs à semi-conducteurs : Applications dans les charges utiles de satellites." Thesis, Limoges, 2016. http://www.theses.fr/2016LIMO0127/document.

Full text
Abstract:
Les télécommunications par satellite prennent aujourd’hui de en plus d’importance, et le nombre d’abonnés à travers le monde ne cesse de croître. Partout où la fibre optique ne peut être déployée, elles sont un moyen fiable de fournir des débits très élevés aux utilisateurs, dont les pratiques nécessitent des bandes passantes toujours plus importantes (vidéo HD, visioconférences, téléchargement, cloud computing, jeux en ligne...). Elles garantissent également de très vastes zones de couverture. Pour les concepteurs de charges utiles de satellite, suivre les besoins du marché revient à augmenter constamment le nombre d’équipements embarqués, ce qui affecte le volume et la masse des systèmes et donc le coût de mise en orbite. Une des solutions envisagées afin de contrer ce phénomène consiste à employer des technologies optiques. Il a été démontré par Thales Alenia Space que pour un système de distribution de signaux de référence de 1 vers 64 équipements, la réduction du poids pourrait être de 70 %. Dans ce contexte nous avons développé 7 convertisseurs de fréquence RF réalisés à partir de composants photoniques semi-conducteurs. Ces convertisseurs font partie des composants clés des charges utiles car ils permettent d’isoler les transmissions montantes (vol vers satellite) et descendantes (satellite vers sol) afin d’éviter les interférences. Les performances des 7 architectures proposées, réalisées à partir de modulateurs électro-absorbants (EAM) et d’amplificateurs optiques à semi-conducteurs (SOA) ont été évaluées au travers de différentes simulations et en calculant le gain de conversion, le facteur de bruit, les isolations RF/FI et OL/FI, les rapports C/I3 et les coordonnées du point d’interception d’ordre 3. Nous avons obtenu des performances intéressantes, premières données pour de futures études et montré que ces convertisseurs seraient compatibles avec de nombreux plans de fréquence en bandes Ku/Ku, Ku+/Ku, et Ka/Ka. Des manipulations ont également permis de valider les modèles théoriques employés dans les simulations
Nowadays, Satellite telecommunications are becoming very popular and the number of subscribers worldwide is always growing. Wherever the optical fiber cannot be deployed, they are a reliable way to provide very high data rates to the users, whose activities are becoming more and more bandwidth-hungry (HD video, video conferencing, downloading, cloud computing, online games ...). They also guarantee very large coverage areas. In order to follow the market needs satellite payload designers have to increase the number of on-board equipment, which affects the volume and mass of the systems and therefore the launching cost. One of the solutions to solve the problem consists in using optical technologies. It has been demonstrated by Thales Alenia Space that In the case of a reference signal distribution system for 64 devices, a weight reduction of about 70% could be obtained. In this context we have developed 7 RF frequencydown-converters based on photonic semiconductor components. The down-converters are key components of satellite payloads, as their aim is to isolate uplink transmissions (ground to satellite) and downlink (satellite to ground) to avoid interference. Performance of the 7 architectures, incorporating electro-absorption modulators (EAM) and semiconductor optical amplifiers (SOA) were evaluated through various simulations and by calculating the conversion gain, noise figure, RF/IF and LO/IF isolations, the C/I3 ratio and the coordinates of the third order intercept point. We obtained interesting results, first data for futur works,and showed that these converters are compatible with many frequency plans in Ku/Ku, ku+/Ku, and Ka/Ka bands. Manipulations were also led and validated the theoretical models used in simulations
APA, Harvard, Vancouver, ISO, and other styles
27

Jablonski, Christine. "Santé de la femme et pathologie chronique : identification de comorbidités et facteurs de risque ; impact d'une prise en charge gynécologique spécifique : exemple de la mucoviscidose." Thesis, Lyon, 2020. https://n2t.net/ark:/47881/m6v987dw.

Full text
Abstract:
L’espérance de vie des patients atteints de mucoviscidose s’est améliorée grâce à différents types d’interventions thérapeutiques et organisationnelles. En conséquence, des problématiques et questions nouvelles émergent, comme celles de la prise en charge gynécologique et de la santé sexuelle des femmes adultes atteintes de mucoviscidose. L’objectif de ce travail de thèse a été d’évaluer la prise en charge gynécologique des femmes atteintes de mucoviscidose, de décrire leurs comorbidités gynécologiques, et de proposer des pistes d’amélioration de prise en charge et de prévention. Une première étude descriptive, réalisée au sein CRCM de Lyon, a mis en évidence une prise en charge gynécologique insuffisante (proportion et fréquence des femmes suivies, couverture contraceptive et dépistage cervical). L’impact d’une offre de consultation gynécologique sur le site du CRCM a ensuite été évalué deux ans après sa mise en place, avec une amélioration significative de la prise en charge (selon les trois mêmes indicateurs). Des comorbidités gynécologiques particulières à la mucoviscidose ont été mises en évidence, notamment une fréquence élevée de pathologie cervicale liée au papillomavirus (HPV) (chez les femmes transplantées, et non transplantées). Une étude prospective a ensuite été menée afin de mieux comprendre le lien physiopathologique entre mucoviscidose et pathologie cervicale, en explorant l’histoire naturelle de l’infection à HPV dans cette population spécifique. Le lien épidémiologique entre mucoviscidose et pathologie cervicale est également en cours d’évaluation par le biais d’une étude à l’échelle nationale de croisement de données du SNDS et du Registre français de la mucoviscidose. Enfin, nous avons décrits chez les jeunes filles atteintes de mucoviscidose un recours insuffisant à la vaccination HPV, méthode de prévention efficace, ainsi que les freins à cette vaccination. Une sensibilisation des soignants et des femmes sur l’intérêt d’une prise en charge gynécologique régulière et adaptée au contexte particulier de la mucoviscidose devraient permettre une amélioration des pratiques
Life expectancy of patients with cystic fibrosis (CF) improved through different types of therapeutic and organizational interventions. As a result, new issues are emerging, such as gynecological management and sexual health in adult women with CF. The main objective of this work was to evaluate the gynecological management of women with CF, to describe their gynecological comorbidities, and to propose means to improve their management and prevention.A first descriptive study conducted in Lyon CF centre, found an insufficient gynecological management (proportion and frequency of women followed, contraceptive coverage and cervical screening). The impact of a gynecological consultation offer in the CF centre was then assessed two years after its implementation, with a significant improvement in gynecological management (according to the same three indicators). Gynecological comorbidities specific to CF were described, including a high frequency of cervical disease due to papillomavirus (HPV) infection (in transplanted, and non-transplanted women). A prospective study was then conducted to better understand the pathophysiological link between CF and cervical disease, exploring the natural history of HPV infection in this specific population. The epidemiological link between CF and cervical disease is also being evaluated through a national-wide study based on french national health insurance data and the French CF Registry. Finally, we have described an insufficient HPV vaccination rate, as well as the barriers to this vaccination in young girls with CF. Sensitization of health care providers and of women on the importance of a regular and specific gynecological management, tailored to the particular context of CF should lead to improved practices
APA, Harvard, Vancouver, ISO, and other styles
28

Thieurmel, Ronan. "Identification des conditions de rupture fragile des gainages combustibles en alliage de zirconium oxydés sous vapeur d’eau à haute température et trempés sous charge axiale." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM022/document.

Full text
Abstract:
Lors d’un scénario hypothétique d’Accident par Perte de Réfrigérant Primaire (APRP), les gainages combustibles en alliage de zirconium subissent des sollicitations thermomécaniques sévères dans des environnements chimiques très oxydants. L’évolution des conditions de pression et de température ainsi que la présence du fluide réfrigérant peuvent entraîner dans un premier temps le ballonnement-éclatement puis l’oxydation sous vapeur et la prise d’hydrogène à haute température ainsi que des chargements mécaniques axiaux lors du renoyage final.L’objectif de la thèse est d’identifier les mécanismes et les paramètres clés qui gouvernent la rupture lors de la phase de renoyage sous traction. Des essais semi-intégraux, visant à reproduire un scénario APRP sur des tronçons de gaines de Zircaloy−4, ont été réalisés afin d’étudier le comportement de ce matériau dans de telles conditions.Un seuil fonction de la durée d’oxydation à haute température, à partir duquel la gaine rompt lors du renoyage, est mis en évidence. Deux lieux de rupture sont identifiés : la zone ballonnée où l’oxydation est maximale et la prise d’hydrogène nulle, ainsi que la zone dite « d’hydruration secondaire », sous la zone ballonnée, où la prise d’hydrogène est conséquente et l’oxydation moindre. Par ailleurs, un scénario de la rupture par rapport à la chronologie du renoyage a été établi.Cependant, le traitement macroscopique de ces essais ne permet pas de discriminer ces deux lieux de rupture, car la rupture intervient indépendamment dans le ballon et hors zone ballonnée en fonction du transitoire appliqué et de la morphologie du ballonnement-éclatement. Une approche locale a été mise en place, à partir de la caractérisation microstructurale et fractographique systématique des éprouvettes d’essai, afin d’établir un critère de rupture dépendant de l’état du matériau.La distribution complexe des éléments chimiques et des phases dans l’épaisseur de la gaine a été déterminée. Les changements de phase dans le ballon fortement oxydé, menant à une microstructure globalement fragile, ont été explicités. Une loi de seuil à rupture, en zone d’hydruration secondaire, a été identifiée à l’aide des mesures d’épaisseurs de phases et du profil de teneur en hydrogène
During hypothetical Loss-Of-Coolant-Accident (LOCA) scenarios, zirconium alloy fuel cladding tubes are subjected to severe thermo- mechanical loading conditions in highly oxidising chemical environments. Pressure and temperature evolution together with cooling water can lead to ballooning and burst followed by steam oxidation and hydrogen uptake at high temperature, and then axial loading during the final reflooding stage.This study focuses on the identification of mechanisms and key parameters which drive cladding fracture during the reflooding stage under axial tensile load.Laboratory-scale semi-integral tests simulating LOCA transients on Zircaloy−4 test rods have been realised. A fracture/no-fracture threshold of oxidation duration at high temperature has been determined. Two fracture locations have been identified: i) the burst zone with maximal oxidation and no hydrogen uptake, and ii) the “secondary hydriding” zone below the burst zone, with substantial hydrogen absorption and lower oxidation levels. Moreover, a scenario of fracture as a function of the reflooding chronology has been identified. Nevertheless, the macroscopic treatment of these tests has not permitted to discriminate these two fracture locations because fracture independently occurs in and out of the burst zone, whatever the applied transient and the balloon and burst morphologies.From systematic microstructural and fractographic characterisation of test specimens, a local approach aiming at identifying a fracture threshold as a function of the microstructural state of the material has been applied. The complex distribution of chemical elements and phases across the cladding thickness has been determined. Phase transformations in the highly-oxidised balloon, leading to a globally brittle microstructure have been explicated. In the secondary hydriding zone, a fracture threshold criterion has been identified by means of layer thickness measurements and hydrogen uptake profile
APA, Harvard, Vancouver, ISO, and other styles
29

Caiulo, Davide. "Charge readout analysis in Liquid Argon Time Projection Chambers for neutrino and astro-particle physics." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1065/document.

Full text
Abstract:
Un point crucial pour l'avenir de la Physique de Particules est représenté par la mesure de la masse et des paramètres qui gouvernent l'oscillation du neutrino, qui représentent la preuve de Physique au-delà du Model Standard. Depuis 2011, la valeur élevée de l'angle de mélange θ13 a ouvert la voie à l'étude sur la violation de symétrie CP dans le secteur de neutrinos. La nouvelle d'expérience DUNE (Deep Underground Neutrino Experiment) a un potentiel sans précédent pour effectuer une mesure très précise des paramètres d'oscillation de neutrinos. Les grands détecteurs souterrains nécessaires pour ces mesures sont également un milieu idéal pour la recherche sur la désintégration du proton et sur la détection de neutrinos provenant des supernovæ.Les détecteurs utilisés pour ces expériences sont des Chambres à Projection Temporelle (TPC) dont la cible, très massive, est constituée d'Argon liquide. Ce type de détecteur fournit une très bonne résolution de l'image reconstruite, une excellente résolution en énergie et la possibilité d'identifier les particules. Les interactions de neutrino produisent des particules secondaires qui ionisent l'Argon liquide. Les électrons produits par ionisation dérivent sur de longues distances, sous l'effet d'un champ électrique uniforme, jusqu'à rejoindre l‘anode, équipé pour la détection de la charge. Un signal électrique est alors produit et est utilisé pour la reconstruction 3D de l'interaction primaire. La TPC en double phase liquide-gaz permet l'amplification du signal d'ionisation par des avalanches qui se produisent dans la phase gazeuse, au-dessus du niveau de l'Argon liquide. Cette technique améliore les performances de TPC en augmentant son rapport signal-bruit.Le sujet de cette thèse est la reconstruction et l'analyse de la charge de ionisation dans une TPC à Argon liquide : la mesure de la charge déposée par ionisation fournit des informations sur l'énergie cinétique des particules chargées secondaires produites lors de l'interaction de neutrino. De cette manière, il est possible de reconstruire l'énergie du neutrino entrant, de reconnaître et d'exclure les gerbes électromagnétiques produites par la désintégration du π0, puis d'effectuer l'indentification des particules à partir de la mesure des pertes d'énergie par ionisation.La mesure de l'ionisation implique une connaissance approfondie de la réponse du détecteur et de l'algorithme de reconstruction. Afin d'atteindre cette connaissance nous avons effectué une analyse détaillée des pertes d'énergie simulée en étudiant les divergences entre les connaissances théoriques et la simulation. Ensuite, la simulation de la réponse du détecteur a été étudiée, en examinant les effets qui se produisent au cours de la dérive des charges et les effets liés à la réponse de l'instrumentation électronique. Ces effets systématiques qui affectent l'exactitude de l'algorithme de reconstruction sont alors caractérisés par rapport à la génération de Monte-Carlo.Par la suite, nous montrons comment il est possible d'effectuer la rejection du π0 en étudiant les pertes d'énergie. En mesurant les pertes par ionisation au début d'une gerbe électromagnétique, il est possible de comprendre si elle a été produite par un électron ou par un photon. Cela permet d'exclure le bruit dans la détection des produits d'interaction du neutrino électronique fondamental pour la recherche de la violation de CP.Par l'échantillonnage de la trajectoire d'une particule chargée et en mesurant ses pertes d'énergie, il est possible d'identifier sa nature. Une TPC à Argon liquide est également un milieu idéal pour la recherche de la désintégration du proton, en particulier en regardant certaines chaînes de désintégration exclusives, comme p  K + ν. Dans cette thèse, nous montrons ainsi comment il est possible d'identifier des particules à partir de la mesure des pertes d'énergie, et plus abordons plus précisément l'identification des kaons chargés
This is an important period for High Energy Physics: many recent results, including the Higgs discovery and its characterization, confirm the Standard Model. A crucial point for the future of Particle Physics is the study of neutrino masses and mixing representing the first established evidence of physics beyond the SM. Since 2011, the large value of the ?13 mixing angle opened the way to the investigation of CP violation in the neutrino sector. A next generation long baseline neutrino experiment (DUNE) has unprecedented potential to precisely measure the neutrino oscillation parameters, determine the neutrino mass hierarchy and has a very good chance to discover evidence for CP violation in the leptonic sector. The large underground neutrino detectors needed for this task will also address the search for proton decay and the observation of supernovae neutrinos. Giant Liquid Argon Time Projection Chambers (LAr TPCs) will be employed as neutrino targets and detectors. They provide bubble-chamber quality imaging coupled to excellent energy resolution and particles identification capabilities. Neutrino interactions produce secondary particles, which ionize the liquid argon. The ionization electrons drift for long distances along a uniform electric field until they reach finely segmented and instrumented anodes, producing electrical signals that are used for 3D imaging and analysis of the primary interactions. The dual-phase readout technique foresees the amplification of the ionization signal in avalanches occurring in the gas phase above the liquid argon level. This technique further enhances the performance of the LAr TPC by increasing its signal to noise ratio. The subject of thesis is the ionization charge reconstruction and analysis in the dual-phase LAr TPC: the ionization charges measurement provides information about the kinetic energy of secondary charged particles produced in neutrino interactions. In this way, it is possible to reconstruct the incoming neutrino energy, identify and reject electromagnetic shower generated by photons from pi0 decay and perform particles identification from the measurement of the specific ionization losses.The measurement of the ionization implies a detailed knowledge of the detector response and of the reconstruction algorithm. In order to achieve this knowledge a detailed analysis of the simulated energy losses has been performed by studying the differences between the theoretical knowledge and the simulation
APA, Harvard, Vancouver, ISO, and other styles
30

Fall, Meïssa. "Identification et caractérisation mécanique de graveleux latéritiques du Sénégal : application au domaine routier." Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL119N.

Full text
Abstract:
Les sols latéritiques compactés sont très largement employés comme remblais et matériaux de construction routière dans la plupart des pays tropicaux. Certaines caractéristiques techniques habituelles, sont déjà bien connues et ont fait l'objet d'études antérieures. Le travail actuel porte sur l'examen plus détaillé du comportement mécanique de trois graveleux latéritiques du Sénégal occidental compactes à l'optimum Proctor modifié. L'étude commence par une partie bibliographique qui traite de la formation et de la genèse des sols résiduels tropicaux. Par la suite, on aborde l'utilisation de ce matériau dans les travaux routiers, les différentes spécifications routières qui existent sur ce genre de sols et enfin quelques études faites sur les moyens de leurs identifications géotechniques et la connaissance de leurs propriétés geomécaniques. La deuxième partie du travail est consacrée à une étude statistique sur une banque de données géotechniques. Cette étude dégage d'abord des généralités sur les latérites du Sénégal et aboutit par une analyse de données statistiques qui conclut par la proposition de nouvelles spécifications routières avec les graveleux latéritiques du Sénégal. L'étude des interconnexions simples et multiples avec le CBR (recherches de corrélations entre le CBR et les caractéristiques physiques d'identification), montre que le facteur de portance est indépendant des autres caractéristiques. Une bonne évaluation de l'indice CBR passerait par une meilleure connaissance des qualités mécaniques de ces sols. La troisième partie de la thèse est expérimentale. Nous avons utilisé trois sols latéritiques compactés à l'optimum Proctor modifié et pour lesquels des essais triaxiaux ciu ont été faits sous des sollicitations monotones et cycliques. Une évaluation préliminaire a été faite à la boite de cisaillement de grande taille et montre des pertes de caractéristiques mécaniques en passant de l'état non imbibé à l'état imbibé, selon les conditions de l'essai CBR. Le comportement des sols est différent selon que l'on soit sous faibles contraintes (50 à 150 kpa) ou sous grandes contraintes (200 à 600 kpa), ce phénomène étant lié aux paramètres d'état initiaux. L'approche sous chargements répétés a montre que ces sols sont assez performants dans les conditions de variation de teneur en eau faible
APA, Harvard, Vancouver, ISO, and other styles
31

Roubertie, François. "Identification de substrats arythmogènes et des mécanismes de décompensation dans une population de tétralogie de Fallot à l’âge adulte et perspectives de prise en charge ultérieure." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0421/document.

Full text
Abstract:
Le nombre d’adultes porteurs d’une tétralogie de Fallot opérée dans l’enfance est en constante augmentation. Initialement, ces patients étaient considérés comme guéris. A l’âge adulte, ils présentent en fait des complications d’ordre rythmique, responsables de morts subites, et des complications d’ordre mécanique : dilatation du ventricule droit (VD) liée à l’insuffisance pulmonaire chronique, séquellaire de la première chirurgie de réparation de la cardiopathie. Les mécanismes de l’arythmie ainsi qu’une éventuelle interaction entre la dysfonction VD et la survenue de ces arythmies ne restent que partiellement élucidés. Dans ce travail, en couplant les données d’études cliniques et les données expérimentales issues d’un modèle animal (MA) mimant une tétralogie de Fallot réparée, nous avons montré que 1) l’échocardiographie ne pouvait pas se substituer à l’IRM pour la surveillance des patients avec tétralogie de Fallot réparée 2) la valvulation pulmonaire restait une intervention à risque de mortalité 3) une bioprothèse non stentée était une bonne solution pour effectuer cette valvulation 4) en cas de fuite tricuspidienne sévère lors de cette valvulation, une plastie était indispensable 5) plusieurs gènes participaient au remodelage ventriculaire droit (analyse génétique effectuée sur le MA) 6) le remodelage électrophysiologique du VD (MA) s’accompagnait de propriétés pro-arythmogènes. Les mécanismes de décompensation sont intriqués : un lien entre dysfonction VD et arythmie paraît bien établi. D’autres analyses électrophysiologiques sont en cours au niveau du ventricule gauche (MA), pour rechercher d’autres mécanismes pro-arythmogènes
The number of adults with a repaired tetralogy of Fallot is increasing. In the past, those patients were considered healed. Nonetheless, they present arrhythmogenic issues, with frequent sudden death, and mechanical complications: right ventricular dilation due to long lasting pulmonary valve regurgitation, secondary to surgical repair. The origin of arrhythmia and its interaction with right ventricular dysfunction is only partially understood. In this study, combining clinical with experimental data, we pointed out: 1) concerning the follow-up of this population, echocardiography is not a substitute to MRI 2) operative mortality of pulmonary valve replacement (PVR) still exists 3) a stentless bioprosthesis represents a valid solution for PVR 4) a valve repair is mandatory for severe tricuspid valve regurgitation at PVR 5) the genetic analysis carried out in an animal model of repaired tetralogy of Fallot, demonstrated the involvement of numerous genes in right ventricular remodeling 6) remodeling of the right ventricle in this animal model generates pro-arrhythmic substrate. Heart failure mechanisms in repaired tetralogy of Fallot are complex: a link between right ventricular dysfunction and arrhythmias is demonstrated. Further studies are needed to investigate other pro-arrhythmic mechanisms involving the left ventricle
APA, Harvard, Vancouver, ISO, and other styles
32

Weiler, Christoph Karl Felix [Verfasser], and Hans Georg [Akademischer Betreuer] Bock. "Optimum Experimental Design for the Identification of Gaussian Disorder Mobility Parameters in Charge Transport Models of Organic Semiconductors / Christoph Karl Felix Weiler ; Betreuer: Hans Georg Bock." Heidelberg : Universitätsbibliothek Heidelberg, 2014. http://d-nb.info/1179925246/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Theret, Laurent. "Identification, profil et prise en charge des deprimes des unites d'urgence des hopitaux generaux. A propos de 95 cas recueillis au chu de reims en 1991." Paris 6, 1994. http://www.theses.fr/1994PA066758.

Full text
Abstract:
Un nombre important de deprimes est admis en 1991 a l'unite d'accueil des urgences psychiatriques (uaup) du chu de reims (585 patients, soient 21% de la file active de l'uaup et 2% des entrees au service des urgences). Parmi 95 deprimes majeurs selon le dsm iii-r, le portrait-type est celui d'une femme d'environ 40 ans, de bas niveau socio-economique. L'episode depressif est souvent severe (score madrs moyen = 35) et recurrent. Alors que plus de huit sujets sur dix ont consulte recemment un medecin, seulement la moitie d'entre eux a recu un antidepresseur (les sujets conscients d'etre deprimes et ceux ayant consulte un psychiatre en ont recu plus souvent). Deux sous-types particuliers de sujets s'opposent d'apres une analyse des correspondances multiples. Le sejour a l'uaup apparait bref (6 heures en moyenne), avec un entretien psychiatrique le plus souvent unique (dans 8 cas sur 10) et conduit par un medecin peu experimente (dans deux tiers des cas). Un sujet sur deux est hospitalise en psychiatrie. La decision d'hospitalisation ne semble pas etre fondee a partir des criteres les plus pertinents (l'existence d'une tentative de suicide, la severite de la depression ou celle des idees suicidaires ne sont pas prises en compte). Seul un deprime sur cinq fait l'objet d'un suivi de secteur. Des solutions sont proposees afin d'ameliorer le depistage et la prise en charge des cas de depression (environ 150 000 par an) aux urgences des hopitaux generaux francais
APA, Harvard, Vancouver, ISO, and other styles
34

Nazer, Rouba Al. "Système de mesure d'impédance électrique embarqué, application aux batteries Li-ion." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT007/document.

Full text
Abstract:
La mesure d'impédance électrique en embarqué sur véhicule est un sujet clé pour améliorer les fonctions de diagnostic d'un pack batterie. On cherche en particulier à fournir ainsi des mesures supplémentaires à celles du courant pack et des tensions cellules, afin d'enrichir les indicateurs de vieillissement dans un premier temps, et d'état de santé et de charge dans un second temps. Une méthode classique de laboratoire pour obtenir des mesures d'impédance d'une batterie est la spectroscopie d'impédance électrochimique (ou EIS). Elle consiste à envoyer un signal sinusoïdal en courant (ou tension) de fréquence variable balayant une gamme de fréquences d'intérêt et mesurer ensuite la réponse en tension (ou courant) pour chaque fréquence. Une technique d'identification active basée sur l'utilisation des signaux large bande à motifs carrés est proposée. En particulier, des simulations ont permis de comparer les performances d'identification de différents signaux d'excitation fréquemment utilisés dans le domaine de l'identification et de vérifier les conditions correspondant à un comportement linéaire et invariant dans le temps de l'élément électrochimique. L'évaluation de la qualité d'estimation est effectuée en utilisant une grandeur spécifique : la cohérence. Cette grandeur statistique permet de déterminer un intervalle de confiance sur le module et la phase de l'impédance estimée. Elle permet de sélectionner la gamme de fréquence où la batterie respecte les hypothèses imposées par la méthode d'identification large bande. Afin de valider les résultats, une électronique de test a été conçue. Les résultats expérimentaux permettent de mettre en valeur l'intérêt de cette approche par motifs carrés. Un circuit de référence est utilisé afin d'évaluer les performances en métrologie des méthodes. L'étude expérimentale est ensuite poursuivie sur une batterie Li-ion soumise à un courant de polarisation et à différents états de charge. Des essais comparatifs avec l'EIS sont réalisés. Le cahier de charge établi à l'aide d'un simulateur de batterie Li-ion a permis d'évaluer les performances de la technique large bande proposée et de structurer son utilité pour l'estimation des états de vieillissement et de charge
Embedded electrical impedance measurement is a key issue to enhance battery monitoring and diagnostic in a vehicle. It provides additional measures to those of the pack's current and cell's voltage to enrich the aging's indicators in a first time, and the battery states in a second time. A classical method for battery impedance measurements is the electrochemical impedance spectroscopy (EIS). At each frequency, a sinusoidal signal current (or voltage) of a variable frequency sweeping a range of frequencies of interest is at the input of the battery and the output is the measured voltage response (or current). An active identification technique based on the use of wideband signals composed of square patterns is proposed. Particularly, simulations were used to compare the performance of different excitation signals commonly used for system identification in several domains and to verify the linear and time invariant behavior for the electrochemical element. The evaluation of the estimation performance is performed using a specific quantity: the spectral coherence. This statistical value is used to give a confidence interval for the module and the phase of the estimated impedance. It allows the selection of the frequency range where the battery respects the assumptions imposed by the non-parametric identification method. To experimentally validate the previous results, an electronic test bench was designed. Experimental results are used to evaluate the wideband frequency impedance identification. A reference circuit is first used to evaluate the performance of the used methodology. Experimentations are then done on a Li–ion battery. Comparative tests with EIS are realized. The specifications are established using a simulator of Li-ion battery. They are used to evaluate the performance of the proposed wide band identification method and fix its usefulness for the battery states estimation: the state of charge and the state of health
APA, Harvard, Vancouver, ISO, and other styles
35

Renault, Stéphane. "Application de l'automatique au contrôle actif d'écoulements pulsés." Poitiers, 1998. http://www.theses.fr/1998POIT2257.

Full text
Abstract:
Ce travail concerne l'utilisation d'un volet mobile afin de reduire la perturbation causee par des fluctuations de debit. Nous avons experimente son fonctionnement sur diverses applications industrielles dans des conditions tres differentes et notamment en utilisant simultanement plusieurs actionneurs. L'algorithme de commande adaptative temps-frequence pilotant le dispositif utilise un estimateur a moindres carres. L'emploi d'un estimateur robuste est, dans ce cas, preferable, d'ou notre choix de definir un estimateur a erreur bornee complexe et adaptatif. Enfin, il est possible de mettre a profit la forte non linearite du dispositif, afin d'en ameliorer le rendement. Il apparait alors qu'en donnant au volet une forme ovale, ses performances en sont ameliorees.
APA, Harvard, Vancouver, ISO, and other styles
36

Ghabach, Eddy. "Prise en charge du « copie et appropriation » dans les lignes de produits logiciels." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4056/document.

Full text
Abstract:
Une Ligne de Produits Logiciels (LPL) supporte la gestion d’une famille de logiciels. Cette approche se caractérise par une réutilisation systématique des artefacts communs qui réduit le coût et le temps de mise sur le marché et augmente la qualité des logiciels. Cependant, une LPL exige un investissement initial coûteux. Certaines organisations qui ne peuvent pas faire face à un tel investissement, utilisent le « Clone-and-own » C&O pour construire et faire évoluer des familles de logiciels. Cependant, l'efficacité de cette pratique se dégrade proportionnellement à la croissance de la famille de produits, qui devient difficile à maintenir. Dans cette thèse, nous proposons une approche hybride qui utilise à la fois une LPL et l'approche C&O pour faire évoluer une famille de produits logiciels. Un mécanisme automatique d’identification des correspondances entre les « features » caractérisant les produits et les artéfacts logiciels, permet la migration des variantes de produits développées en C&O dans une LPL. L’originalité de ce travail est alors d’aider à la dérivation de nouveaux produits en proposant différents scenarii d’opérations C&O à effectuer pour dériver un nouveau produit à partir des features requis. Le développeur peut alors réduire ces possibilités en exprimant ses préférences (e.g. produits, artefacts) et en utilisant les estimations de coûts sur les opérations que nous proposons. Les nouveaux produits ainsi construits sont alors facilement intégrés dans la LPL. Nous avons étayé cette thèse en développant le framework SUCCEED (SUpporting Clone-and-own with Cost-EstimatEd Derivation) et l’avons appliqué à une étude de cas sur des familles de portails web
A Software Product Line (SPL) manages commonalities and variability of a related software products family. This approach is characterized by a systematic reuse that reduces development cost and time to market and increases software quality. However, building an SPL requires an initial expensive investment. Therefore, organizations that are not able to deal with such an up-front investment, tend to develop a family of software products using simple and intuitive practices. Clone-and-own (C&O) is an approach adopted widely by software developers to construct new product variants from existing ones. However, the efficiency of this practice degrades proportionally to the growth of the family of products in concern, that becomes difficult to manage. In this dissertation, we propose a hybrid approach that utilizes both SPL and C&O to develop and evolve a family of software products. An automatic mechanism of identification of the correspondences between the features of the products and the software artifacts, allows the migration of the product variants developed in C&O in an SPL The originality of this work is then to help the derivation of new products by proposing different scenarios of C&O operations to be performed to derive a new product from the required features. The developer can then reduce these possibilities by expressing her preferences (e.g. products, artifacts) and using the proposed cost estimations on the operations. We realized our approach by developing SUCCEED, a framework for SUpporting Clone-and-own with Cost-EstimatEd Derivation. We validate our works on a case study of families of web portals
APA, Harvard, Vancouver, ISO, and other styles
37

Nlandu-Mputu, Madeleine. "Identification des enzymes intervenant dans le transfert des acides gras dans les végétaux : spécificité de ces enzymes vis-à-vis de la prise en charge d'acides gras inhabituels." Compiègne, 2009. http://www.theses.fr/2009COMP1847.

Full text
Abstract:
Les acides gras branchés possèdent des propriétés physico-chimiques intéressantes pour le domaine industriel. N’étant pas naturellement synthétisés dans les plantes oléagineuses, l'isolement des gènes impliqués dans leur synthèse, a permis aux chercheurs de générer des plantes dont la composition modifiée de l'huile lui confère une plus grande valeur ajoutée. Le rendement de production reste cependant modeste (moins de 25 %) pouvant s'expliquer par un manque de connaissance sur les systèmes de stockage des huiles dans les triglycérides de réserve. Dans ce contexte, nous nous sommes intéressés à la compréhension des mécanismes de synthèse et de stockage des huiles chez les plantes oléagineuses et particulièrement, à la spécificité et la sélectivité des enzymes impliquées dans le transfert vis-à-vis de ces acides gras inhabituels. Trois enzymes sont principalement impliquées dans ce mécanisme : les G3PAT, les LPAAT et les DAGAT (Voie Kennedy). Nos résultats ont montré que les G3PAT' des plantes étudiées (lin, colza et ricin) ne présentaient pas de spécificité particulière pour l'incorporation des acides gras inhabituels en position sn-1 des triglycérides. Cependant, les LPAAT et les DAGAT les incorporent de façon très limitée en position sn-2 et sn-3 des triglycérides dépendant de leur faible spécificité et sélectivité vis-à-vis de ces substrats atypiques. Les LPAAT de lin restent cependant les plus compétitives vis-à-vis des substrats cycliques, au même titre qu'une LPAAT de litchi isolée et testée dans cette étude. Au cours de ce travail, nous avons montré que d'autres systèmes de transfert pouvaient être mise en place par la plante. En effet, le ricin, producteur d'acides gras hydroxylés, utilise des voies alternatives (PDAT, CPT, PLA) pour une accumulation efficace de ses acides. La production de nouvelles huiles d'intérêt industriel chez les plantes agronomiques nécessite à l'avenir, un travail sur l'amélioration de la capacité de production des précurseurs de substrats inhabituels, l'identification d'enzymes plus sélectives et l'acquisition de connaissances sur les mécanismes de transport des substrats branchés
Branched chain fatty acids are of particular interest for the oleo-chemical industry. The cloning of genes involved in their biosynthesis has led scientists toward the design of new high value oilseed crops. However, their research resulted in very modest accumulation in seeds (less than 25 %) due to a limited knowledge of the lipid metabolism and fatty acids transfer in plants. Ln this context, we aimed to better understand the hpid synthesis and storage in oilseed plants and particularly, the substrate specificity and selectivity of Kennedy pathway acyltransferases (G3PAT, LPAAT and DAGAT) which are required for the incorporation of these fatty acids into storage triacylglycerols. Dur assays demonstrated that the G3PAT of the three studied species (flaxseed, rapeseed and castor beau seed) show no specificity toward usual and unusual substrates incorporation at the sn-l position of the triacylglycerol. But, our study shows that LPAAT and DAGAT have a limited ability to incorporate branched chain fatty acids at the sn-2 and sn-3 positions of the triacylglycerol due to their low specific and sélective activities for unusual substrates. However, the flaxseed LPAAT present a cyclopropane acyl-CoA incorporation rate similar to that observed for the isolated and studied litchi LPAAT in this study. In addition, our results show that other alternative pathways (PDAT, CPT, PLA) exist in unusual fatty acid producing plants for their efficient accumulation into triacylglycerides such as must be the case of the castor bean to explain the high level hydroxy fatty acid in its seed oil. Successful production of high value oilseed crops depends on : i) the optimization of unusual fatty acid precursor production, ii) the identification of high selectivity enzymes and iii) a better knowledge of branched chain fatty acid transfer mechanisms into triacylglycerols
APA, Harvard, Vancouver, ISO, and other styles
38

Demailly, Hélène. "Identification des coefficients aérodynamiques d'un projectile à partir de mesures prises en vol." Phd thesis, Université d'Orléans, 2011. http://tel.archives-ouvertes.fr/tel-00690639.

Full text
Abstract:
La maîtrise du comportement en vol d'un projectile est, en partie, conditionnée par la connaissance des coefficients associés à chaque effort aérodynamique. Différents outils sont utilisés dans l'industrie, tels que les codes numériques aérodynamiques ou les essais en soufflerie, afin d'obtenir une première estimation des coefficients en phase d'avant-projet. Il est ensuite nécessaire de vérifier la valeur des coefficients et de valider le comportement du projectile en vol au moyen de tirs instrumentés. Un outil automatisé est donc proposé afin d'identifier les coefficients aérodynamiques d'un projectile à partir des mesures issues d'un vol. La technique d'identification est pensée pour être applicable à une gamme la plus large de projectiles. Elle introduit un problème d'optimisation non linéaire en dimension finie. La fonctionnelle du problème contient deux termes : un terme d'écart entre les paramètres d'état et les mesures, de sorte à s'approcher au mieux des mesures et à les relaxer, et un terme de pénalisation prenant en compte les équations de la mécanique du vol. L'outil proposé est testé, pour un projectile de type flèche, avec des données simulées ou avec des données issues de tirs. Il permet l'identification des coefficients aérodynamiques recherchés. L'algorithme est robuste face au bruit et permet également la reconstruction d'une trajectoire débruitée.
APA, Harvard, Vancouver, ISO, and other styles
39

Maurer, Julien. "Mesure des performances de reconstruction des électrons et recherche de Supersymétrie dans les canaux avec deux leptons de même charge dans les données du détecteur ATLAS." Phd thesis, Aix-Marseille Université, 2013. http://tel.archives-ouvertes.fr/tel-00952904.

Full text
Abstract:
Les trois premières années de fonctionnement de l'expérience ATLAS au LHC, aux résultats fructueux, ont ouvert l'accès à la physique expérimentale à l'échelle du TeV. Les travaux effectués dans ce contexte ont porté à la fois sur des aspects de performance (reconstruction des électrons) et d'analyse (recherche de nouvelle physique). La première partie est consacrée aux mesures in situ des efficacités de reconstruction et d'identification des électrons. La méthodologie employée pour réaliser ces mesures dans les données est présentée en détails ainsi que les méthodes développées pour l'estimation du bruit de fond résiduel. La deuxième partie traite de la recherche de Supersymétrie dans les événements avec deux leptons (électrons ou muons) de charges identiques, accompagnés de jets et éventuellement d'énergie transverse manquante, basée sur l'ensemble des données collectées par ATLAS en 2012 (soit 21 fb-1 à sqrt s= 8 TeV). Ces états finaux sont particulièrement appropriés à la recherche de gluinos ou de squarks de troisième génération. Les principaux aspects de l'analyse sont décrits, notamment les méthodes d'estimation des différents bruits de fond. L'absence d'excès dans les régions de signal par rapport aux prédictions du Modèle Standard est interprétée en termes de limites sur les masses des superpartenaires, dans le cadre de modèles aux spectres de masse simplifiés. Ainsi, dans les modes de désintégrations étudiés, l'existence de gluinos de masse inférieure à 1 TeV, ou de sbottoms de masse inférieure à 500 GeV, est exclue.
APA, Harvard, Vancouver, ISO, and other styles
40

Maurer, J. "Mesure des performances de reconstruction des électrons et recherche de Supersymétrie dans les canaux avec deux leptons de même charge dans les données du détecteur ATLAS." Phd thesis, Aix-Marseille Université, 2013. http://tel.archives-ouvertes.fr/tel-00956354.

Full text
Abstract:
Les trois première s ann ées de fonctionnement de l'exp erience ATLAS au LHC, aux r esultats fructueux, ont ouvert l'acc es a la physique expérimentale a l' échelle du TeV. Les travaux effectues dans ce contexte ont port e a la fois sur des aspects de performance (reconstruction des électrons) et d'analyse (recherche de nouvelle physique). La première partie est consacrées aux mesures in situ des e cacit es de reconstruction et d'identi cation des électrons. La méthodologie employée pour réaliser ces mesures dans les donn ées est pr esent ée en d étails ainsi que les méthodes d evelopp ées pour l'estimation du bruit de fond r ésiduel. La deuxi ème partie traite de la recherche de Supersym etrie dans les ev enements avec deux leptons ( électrons ou muons) de charges identiques, accompagné es de jets et eventuellement d' energie transverse manquante, bas ee sur l'ensemble des donn ees collect ees par ATLAS en 2012 (soit 21 fb$^{-1}$ a $\sqrt{s}$ = 8 TeV). Ces états fi naux sont particulièr ement appropries a la recherche de gluinos ou de squarks de troisi eme g en eration. Les principaux aspects de l'analyse sont d ecrits, notamment les m ethodes d'estimation des di erents bruits de fond. L'absence d'exc es dans les r egions de signal par rapport aux prédictions du Mod ele Standard est interpr et ée en termes de limites sur les masses des superpartenaires, dans le cadre de mod èles aux spectres de masse simpli fiés. Ainsi, dans les modes de d esint egrations etudi es, l'existence de gluinos de masse inférieure a 1 TeV, ou de sbottoms de masse inf érieure a 500 GeV, est exclue.
APA, Harvard, Vancouver, ISO, and other styles
41

Lévêque, David. "Analyse de la tenue au délaminage des composites stratifiés : identification d'un modèle d'interface interlaminaire." Cachan, École normale supérieure, 1998. http://www.theses.fr/1998DENS0002.

Full text
Abstract:
L'objet de ce travail est l'identification d'un modèle d'interface inter laminaire pour la prédiction du délaminage dans les structures composites stratifiées, sous chargement statique. Les applications concernent le matériau m55j/m18 (fibres de carbone a très haut module / résine époxyde) utilise dans les applications spatiales. Le modèle développe est base sur la mécanique de l'endommagement et la mésomodélisation des composites stratifies. Ce concept, propose par p. Ladeveze, permet de déterminer l'évolution des endommagements principaux dans toute structure jusqu'a sa rupture à partir de la connaissance du comportement des plis et des interfaces qui la constituent. Le modèle du pli élémentaire a été identifie pour le m55j/m18 en utilisant la méthodologie précédemment développée au LMT/Cachan. En vue de l'identification précise des caractéristiques de l'interface inter laminaire, une base matériau tres complète a été obtenue en exploitant les essais classiques d'initiation (edt) et de propagation (dcb, enf, mmf et cls) du délaminage. Ces essais ont été réalisés pour différentes valeurs de ( = 0, 22,5et 45), étant l'orientation relative des couches adjacentes a l'interface. Une estimation de l'énergie dissipée dans les plis des éprouvettes de propagation a permis de classifier les interfaces (=0) comme étant indépendantes de cet angle d'un point de vue énergétique. Cependant l'instabilité du phénomène d'amorçage et la complexité des essais de propagation rendent ces essais classiques difficiles à exploiter. Les essais sur plaques trouées pour lesquels l'amorçage du délaminage est reproductible et sa propagation autour du trou relativement stable semblent à cet égard plus fiables. De plus, ce type d'essais offre des informations expérimentales relativement riches telles que formes et tailles des surfaces délaminées. Une première comparaison essais/calculs montre le potentiel de tels essais pour une identification globale du modèle d'interface.
APA, Harvard, Vancouver, ISO, and other styles
42

Abdennadher, Mohamed Karim. "Étude et élaboration d’un système de surveillance et de maintenance prédictive pour les condensateurs et les batteries utilisés dans les Alimentations Sans Interruptions (ASI)." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10101/document.

Full text
Abstract:
Pour assurer une énergie électrique de qualité et de façon permanente, il existe des systèmes électroniques d’alimentation spécifiques. Il s’agit des Alimentations Sans Interruptions (ASI). Une ASI comme tout autre système peut tomber en panne ce qui peut entrainer une perte de redondance. Cette perte induit une maintenance corrective donc une forme d’indisponibilité ce qui représente un coût. Nous proposons dans cette thèse de travailler sur deux composants parmi les plus sensibles dans les ASI à savoir les condensateurs électrolytiques et les batteries au plomb. Dans une première phase, nous présentons, les systèmes de surveillance existants pour ces deux composants en soulignant leurs principaux inconvénients. Ceci nous permet de proposer le cahier des charges à mettre en œuvre. Pour les condensateurs électrolytiques, nous détaillons les différentes étapes de caractérisation et de vieillissement ainsi que la procédure expérimentale de vieillissement standard accéléré et les résultats associés. D’autre part, nous présentons les résultats de simulation du système de surveillance et de prédiction de pannes retenu. Nous abordons la validation expérimentale en décrivant le système développé. Nous détaillons les cartes électroniques conçues, les algorithmes mis en œuvre et leurs contraintes d’implémentation respectifs pour une réalisation temps réel. Enfin, pour les batteries au plomb étanches, nous présentons les résultats de simulation du système de surveillance retenu permettant d’obtenir le SOC et le SOH. Nous détaillons la procédure expérimentale de vieillissement en cycles de charge et décharge de la batterie nécessaire pour avoir un modèle électrique simple et précis. Nous expliquons les résultats expérimentaux de vieillissement pour finir avec des propositions d’amélioration de notre système afin d’obtenir un SOH plus précis
To ensure power quality and permanently, some electronic system supplies exist. These supplies are the Uninterrupted Power Supplies (UPS). An UPS like any other system may have some failures. This can be a cause of redundancy loss. This load loss causes a maintenance downtime which may represent a high cost. We propose in this thesis to work on two of the most sensitive components in the UPS namely electrolytic capacitors and lead acid batteries. In a first phase, we present the existing surveillance systems for these two components, highlighting their main drawbacks. This allows us to propose the specifications which have to be implemented for this system. For electrolytic capacitors, we detail different stages of characterization ; the aging accelerated standard experimental procedure and their associated results. On the other hand, we present the simulation results of monitoring and failure prediction system retained. We discuss the experimental validation, describing the developed system. We detail the electronic boards designed, implemented algorithms and their respective constraints for a real time implementation. Finally, for lead acid batteries, we present the simulation results of the monitoring system adopted to obtain the SOC and SOH. We describe the aging experimental procedure of charging and discharging cycles of the batteries needed to find a simple and accurate electric models. We explain the aging experimental results and in the end we give suggestions for improving our system to get a more accurate SOH
APA, Harvard, Vancouver, ISO, and other styles
43

Burgess, Craig Neilson. "Identification of a suspect before being charged: legitimate freedom of speech or a threat to a fair trial?" Thesis, Queensland University of Technology, 2005. https://eprints.qut.edu.au/16178/1/Craig_Burgess_Thesis.pdf.

Full text
Abstract:
Identification of a person suspected of a heinous crime before being charged risks prejudicing a fair trial. Present laws place this type of publicity outside the reach of sub judice contempt. This thesis argues there should be a change in the law of sub judice contempt making it an offence for the media to publish the fact that a person is under investigation until the person has been charged.
APA, Harvard, Vancouver, ISO, and other styles
44

Burgess, Craig Neilson. "Identification of a suspect before being charged: legitimate freedom of speech or a threat to a fair trial?" Queensland University of Technology, 2005. http://eprints.qut.edu.au/16178/.

Full text
Abstract:
Identification of a person suspected of a heinous crime before being charged risks prejudicing a fair trial. Present laws place this type of publicity outside the reach of sub judice contempt. This thesis argues there should be a change in the law of sub judice contempt making it an offence for the media to publish the fact that a person is under investigation until the person has been charged.
APA, Harvard, Vancouver, ISO, and other styles
45

Courty, Alexis. "Architecture d'amplificateur de puissance linéaire et à haut rendement en technologie GaN de type Doherty numérique." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0067/document.

Full text
Abstract:
Les fortes capacités actuelles et envisagées des futurs liens satellites de communication pour la 5G conduisent les signaux traités dans les charges utiles à présenter simultanément d'importantes variations d'amplitude (PAPR>10dB) et de très larges bandes passantes instantanées (BW>1GHz). A l'intérieur du sous-système d'émission hyperfréquence, le fonctionnement du module d'amplification de puissance se trouve très contraint par les formes d'ondes véhiculées, il se présente comme l'un des postes de consommation énergétique des plus importants, et ayant le plus d'impact sur l'intégrité du signal émis. Dans ce contexte, les fonctions dédiées au traitement numérique des signaux et couramment implémentées par le processeur numérique (telles que le filtrage, la canalisation, et éventuellement la démodulation et la régénération des signaux bande de base) embarquées dans les charges utiles, représentent une solution à fort potentiel qui permettrait de relâcher les contraintes reportées sur la fonction d'amplification de puissance afin de gérer au mieux la ressource électrique allouée. Ces travaux de thèse proposent d'étudier les potentialités d'amélioration du fonctionnement en rendement et linéarité d'un amplificateur de type Doherty à double entrée de gamme 20W en technologie GaN et fonctionnant en bande C. La combinaison des signaux de puissance sur la charge RF est optimisée par une distribution optimale des signaux en amplitude et phase à l'entrée par des moyens numériques de génération. Dans un premier temps une méthodologie de conception large bande d'un amplificateur Doherty est introduite et validée par la conception d'un démonstrateur en bande C. Dans un second temps, l'outil expérimental permettant l'extraction des lois optimales de distribution d'amplitude et de phase RF est présenté en détail, et la caractérisation expérimentale du dispositif en double entrée est réalisée puis comparée aux simulations. Finalement, en perspective à ces travaux, une étude préliminaire des potentialités de l'architecture Doherty à double entrée pour la gestion d’une désadaptation de la charge de sortie (gestion de TOS) est menée et des résultats sont mis en avant
The high capabilities of current and future 5G communication satellite links lead the processed signals in the payloads to simultaneously exhibit large amplitude variations (PAPR>10dB) and wide instantaneous bandwidths (BW>1GHz). Within the microwave transmission subsystem, the operation of the power amplification stage is highly constrained by the transmitted waveforms, it is one of the most energy-consuming module of the payload affecting as well the integrity of the transmitted signal. In this context, the functions dedicated to digital signal processing and currently implemented by the digital processor (such as filtering, channeling, and possibly the demodulation and regeneration of baseband signals) embedded in the payloads, represent a potential solution that would reduce the constraints reported on the power amplification function and help to manage the allocated power ressource. This work proposes a study on the capability of dual input power amplifier architectures in order to manage the efficiency-linearity trade-off over a wide bandwidth. This study is carried out on a 20W GaN Doherty demonstrator operating in C band. The combination of the output signals on the RF load is managed by an optimal amplitude and phase distribution that is digitally controlled at the input. Firstly, a wideband design methodology of Doherty amplifier is introduced and validated on a C band demonstrator. In a second time the experimental tool allowing the extraction of amplitude and phase input distributions is presented, the dual input characterization is achieved and compared with simulation results. Finally, in perspective of this work, a preliminary study of the capabilities of the digital Doherty for the management of an output load mismatch (VSWR management) is carried out and the results are put forward
APA, Harvard, Vancouver, ISO, and other styles
46

Balma, Téegwendé Serge. "Caractérisation radioélectrique des satellites de télécommunications du futur." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC018.

Full text
Abstract:
Les paramètres radioélectriques des satellites sont actuellement mesurés directement, à l’aide d’une base compacte. Cependant, les li-mites de ces bases sont atteintes à cause de l’augmentation des dimensions des satellites, du nombre et de la complexité des antennes qu’ils comportent.Les techniques de champ proche constituent une solution prometteuse sous la forme de base pla-naire. Ces techniques consistent à mesurer le champ rayonné à proximité de la source pour en déduire, par traitement mathématique, le champ à grande distance.Ce travail de thèse porte sur l’adaptation des techniques de champ proche au test des satellites de télécommunications. La caractérisation du rayonnement des antennes par ces techniques estaujourd’hui largement utilisée. Toutefois, un développement théorique doit être complété et des méthodes de mesures proposées pour le test de l’ensemble des paramètres de la charge utile. Des difficultés spécifiques liées à la fonction du satellite (transpondeur) et à l’accès limité aux antennes et à l’électronique du satellite doivent être prise en compte dans la mise en oeuvre de ces méthodes de mesure.Enfin les mesures en champ proche sont affectées par plusieurs causes d’erreurs. L’identification des sources de ces erreurs et l’évaluation de leurs contributions au résultat final constituent une partie importante du travail de thèse. L’étude globale permet de dimensionner un système de mesure complet bénéficiant d’un bon niveau d’optimisation
Nowadays, the radioelectric charac-teristics of satellites are directly measured by means of a com-pact range basis. However, the limits of these bases are affected by the growth of the satellite dimensions, in addition to the number and the complexity of the integrated an-tennas.On the other hand, near field techniques formed a promising solution under the planar range form. These techniques consist of measuring the radiated field near the source and accordingly deduce the far field by the means of mathemati-cal analysis.The purpose of this thesis is to adapt near field techniques for testing telecommunication satel-lites. In fact, these techniques are widelyused for antenna pattern measurements. However, a theoretical development has to be completed and measurement methods need to be proposed for testing all payload parameters. Unfortunately, specific difficulties related to the satellite function (transponder) and the limited access to antennas and satellite electronics have to be taken into account in the implementation of these measurement methodologies.Finally, the near field measurements are affected by many causes of errors. The identification of the error sources and the evaluation of their contribution to the final results constitute an important part of the thesis work. The global study allows dimensioning a complete measurement system with a good optimization
APA, Harvard, Vancouver, ISO, and other styles
47

Turelli, Lorenzo. "Étude de nouveaux motifs d'espaceurs dans la construction de conjugués anticorps-médicaments." Electronic Thesis or Diss., Strasbourg, 2023. http://www.theses.fr/2023STRAF063.

Full text
Abstract:
La classe des conjugués anticorps-médicaments (ADC) représente l'un des traitements à la croissance la plus rapide en oncologie, permettant l'utilisation de composés hautement cytotoxiques liés de manière covalente à un anticorps monoclonal (mAb) qui peut se fixer sélectivement à un antigène exprimé à la surface de la cellule cancéreuse, assurant ainsi la précision de cette thérapie. Le motif de liaison, qui relie le mAb au médicament, est essentiel pour contrôler la libération du médicament ainsi que pour la pharmacocinétique et la pharmacodynamique de l'ensemble du conjugué. Cependant, le développement d'un nouveau linker est un processus long et coûteux, dans lequel le motif idéal doit assurer à la fois la stabilité en circulation sanguine et une cinétique rapide dans la libération du médicament à l'intérieur de la cellule cancéreuse. Le travail décrit ici vise à répondre aux limitations présentes dans ce domaine de deux manières différentes : premièrement, en introduisant un nouveau linker clivable sensible à l'acide avec une excellente stabilité extracellulaire et une clivabilité sélective dans la cellule cancéreuse ; deuxièmement, en adoptant une approche sans linker, en introduisant un nouveau format d'ADC, appelé Self Drugged Antibody (SDA), dans lequel le médicament est construit sur le mAb par une réaction multicomposant Ugi
The class of Antibody Drug Conjugates (ADCs) represents one of the most fast-growing treatments in oncology therapeutics, enabling the use of highly cytotoxic compounds covalently linked to a monoclonal antibody (mAb) which can selectively get attached to an antigen expressed on the surface of the cancer cell, assuring the precision of this therapy. The linker motif, connecting the mAb to the drug, is key to dictate the modality of the drug’s release as for the pharmacokinetic and pharmacodynamic of the whole conjugate. However, the development of a novel linker is a costly and time-consuming process, in which the ideal motif has to assure both the stability in blood circulation and a fast kinetic in the release of the warhead inside the cancer cell. The work here described aims at addressing the limitations present in this field in two different ways: first by introducing a novel acid sensitive cleavable linker with excellent extracellular stability and selective cleavability in the cancer cell; secondly, embracing a linker-less approach, by introducing a new format of ADC, coined Self Drugged Antibody (SDA), in which the drug is built on the mAb through a Ugi multicomponent reaction
APA, Harvard, Vancouver, ISO, and other styles
48

RANGAMA, Jimmy. "Ionisation et excitation de l'atome de lithium par impact de particules chargées rapides : Identification des mécanismes de création de deux lacunes en couche K du lithium en fonction de la charge et de la vitesse du projectile." Phd thesis, Université de Caen, 2002. http://tel.archives-ouvertes.fr/tel-00002125.

Full text
Abstract:
La spectroscopie d'électrons Auger est utilisée pour l'étude expérimentale des processus d'ionisation et d'excitation électronique de l'atome de lithium par impact d'ions (Kr34+ et Ar18+) et d'électrons à haute vitesse (de 6 à 60 u.a.). L'objectif est de déterminer la contribution relative des mécanismes responsables de l'ionisation-excitation en couche K du lithium pour des projectiles de charges Zp et de vitesses vp différentes. Un large domaine de paramètres de perturbation |Zp|/vp est exploré (|Zp|/vp = 0,05 - 0,7 u.a.). Les résultats sur la simple excitation en couche K montrent que l'interaction projectile-électron donne essentiellement lieu à une transition dipolaire 1s -> np Dans le cas de l'ionisation-excitation en couche K, l'accent est mis sur la séparation des mécanismes TS2 (deux interactions projectile-électron indépendantes) et TS1 (une interaction projectile-électron) responsables de la formation des états 2snp 1,3P et 2sns 1,3S du lithium. Lors du processus TS1, l'interaction projectile-électron peut être suivie d'une interaction électron-électron (processus diélectronique) ou d'un réarrangement du cortège électronique après changement brutal du potentiel au sein de la cible (processus shake). Des calculs ab initio sont effectués dans le cadre de la théorie de Born. Le bon accord observé entre le calcul et l'expérience valide l'identification des mécanismes. Dans le cas des états P, le processus TS1 est dominant pour de faibles valeurs de |Zp|/vp, alors que le processus TS2 est prépondérant aux grandes valeurs de |Zp|/vp. Le processus shake ne pouvant peupler les états P de façon significative, la séparation de TS1 et TS2 conduit directement à la mise en évidence de la nature diélectronique du processus TS1. Les états S sont, quant à eux, quasi exclusivement peuplés par le processus TS1. À ce jour, seul le caractère shake de TS1 permet de comprendre que la configuration 2s3s soit préférentiellement peuplée par rapport à 2s2.
APA, Harvard, Vancouver, ISO, and other styles
49

Rangama, Jimmy. "Ionisation et excitation de l'atome de lithium par impact de particules chargées rapides : identification des mécanismes de création de deux lacunes en couche K du lithium en fonction de la charge et de la vitesse du projectile." Caen, 2002. http://www.theses.fr/2002CAEN2041.

Full text
Abstract:
La spectroscopie d'électrons Auger est utilisée pour l'étude expérimentale des processus d'ionisation et d'excitation électronique de l'atome de lithium par impact d'ions (Kr34+ et Ar18+) et d'électrons à haute vitesse (de 6 à 60 u. A. ). L'objectif est de déterminer la contribution relative des mécanismes responsables de l'ionisation-excitation en couche K du lithium pour des projectiles de charges Zp et de vitesses Vp différentes. Un large domaine de paramètres de perturbation \Zp\/vp est exploré (\Zp\vp = 0,05 - 0,7 u. A. ). Les résultats sur la simple excitation en couche K montrent que l'interaction projectile-électron donne essentiellement lieu à une transition dipolaire 1s -> np. Dans le cas de l'ionisation-excitation en couche K, l'accent est mis sur la séparation des mécanismes TS2 (deux interactions projectile-électron indépendantes) et TS1 (une interaction projectile-électron) responsables de la formation des états 2snp1,3P et 2sns1,3S du lithium. Lors du processus TS1, l'interaction projectile-électron peut être suivie d'une interaction électron-électron (processus diélectronique) ou d'un réarrangement du cortège électronique après changement brutal du potentiel au sein de la cible (processus shake). Des calculs ab initio sont effectués dans le cadre de la théorie de Born. Le bon accord observé entre le calcul et l'expérience valide l'identification des mécanismes. Dans le cas des états P, le processus TS1 est dominant pour de faibles valeurs de \Zp\/Vp, alors que le processus TS2 est prépondérant aux grandes valeurs de \Zp\vp. Le processus shake ne pouvant peupler les états P de façon significative, la séparation de TS1 et TS2 conduit directement à la mise en évidence de la nature diélectronique du processus TS1. À ce jour, seul le caractère shake de TS1 permet de comprendre que la configuration 2s3s soit préférentiellement peuplée par rapport à 2s2.
APA, Harvard, Vancouver, ISO, and other styles
50

Nuemi, Tchathouang Gilles Eric. "Identification des profils de changement sur données longitudinales, illustrée par deux exemples : étude des trajectoires hopsitalières de prise en charge d'un cancer. Construction des profils évolutifs de qualité de vie lors d'un essai thérapeutique pour un cancer avancé." Thesis, Dijon, 2014. http://www.theses.fr/2014DIJOMU02/document.

Full text
Abstract:
ContexteDans le domaine de la santé, l’analyse des données pour l’extraction des connaissances est un enjeu en pleine expansion. Les questions sur l’organisation des soins ou encore l’étude de l’association entre le traitement et qualité de vie (QdV) perçue pourraient être abordées sous cet angle. L’évolution des technologies permet de disposer d’outils de fouille de données performants et d’outils statistiques enrichis de méthode avancées, utilisables par les non experts. Nous avons illustré cette méthode au travers de deux questions d’actualité :1 / Quelle organisation des soins pour la prise en charge des cancers ? 2/ étude de la relation chez les patients souffrant d’un cancer métastatique entre la QdV liée à la santé perçue et les traitements reçus dans le cadre d’un essai thérapeutique.Matériels et méthodesNous disposons aujourd’hui de volumineuses bases de données. Certaines retracent le parcours hospitalier des patients, comme c’est le cas pour les données d’activités hospitalières recueillies dans le cadre du programme de médicalisation des systèmes d’information (PMSI). D’autres conservent les informations sur la QdV perçues par les patients et qui recueillies en routine actuellement dans les essais thérapeutiques. L’analyse de ces données a été réalisée suivant trois étapes principales : Tout d’abord une étape de préparation des données dont l’objectif était la compatibilité à un concept d’analyse précisé. Il s’agissait par exemple de transformer une base de données classique (centrée sur le patient) vers une nouvelle base de données où « l’unité de recueil » est une entité autre que le patient (ex. trajectoire de soins). Ensuite une deuxième étape consacrée à l’application de méthodes de fouille de données pour l’extraction connaissances : les méthodes d’analyse formelle des concepts ou encore les méthodes de classifications non-supervisée. Et enfin l’étape de restitution des résultats obtenus et présenté sous forme graphique.RésultatsPour la question de l’organisation des soins, nous avons construit une typologie des trajectoires hospitalières des soins permettait de réaliser un état des lieux des pratiques dans la prise en charge des cancers étudié depuis la chirurgie jusqu’à un an de suivi des patients. Dans le cas du Cancer du sein, nous avons décrit une typologie de prise en charge sur la base des coûts d’hospitalisation sur un suivi d’un an. Pour la deuxième question, nous avons également construit une typologie des profils évolutifs de la QdV. Celle-ci comportait 3 classes : une classe d’amélioration, une classe de stabilité et une classe de dégradation.ConclusionL’intérêt majeur de ce travail était de mettre en évidence des pistes de réflexion permettant des avancées dans la compréhension et la construction de solutions adaptées aux problèmes
Context In healthcare domain, data mining for knowledge discovery represent a growing issue. Questions about the organisation of healthcare system and the study of the relation between treatment and quality of life (QoL) perceived could be addressed that way. The evolution of technologies provides us with efficient data mining tools and statistical packages containing advanced methods available for non-experts. We illustrate this approach through two issues: 1 / What organisation of healthcare system for cancer diseases management? 2 / Exploring in patients suffering from metastatic cancer, the relationship between health-related QoL perceived and treatment received as part of a clinical trial. Materials and methods Today we have large databases. Some are dedicated to gather together all hospital stays, as is the case for the national medico-administrative DRG-type database. Others are used to store information about QoL perceived by patients, routinely collected in clinical trials. The analysis of these data was carried out following three main steps: In the first step, data are prepared to be useable according to a defined concept of data analysis. For example, a classical database (patient-centered) was converted to a new database organised around a new defined entity which was different from the patient (eg. Care trajectory). Then in the second step, we applied data mining methods for knowledge discovery: we used the formal analysis of concepts method and unsupervised clustering techniques. And finally the results were presented in a graphical form. Results Concerning the question of the organisation of healthcare system, we constructed a typology of hospital care trajectories. We were able then to describe current practice in the management of cancers from the first cancer related surgical operation until one year of follow-up. In the case of breast cancer, we’ve described a typology of care on the basis of hospital costs over a one year follow up. Concerning the second question, we have also constructed a typology of QoL change patterns. This comprised three groups: Improvement, stability and degradation group.Conclusion The main interest of this work was to highlight new thoughts, which advances understanding and, contributing in appropriate solutions building
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography