Дисертації з теми "Traitement à bord"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Traitement à bord.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Traitement à bord".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Mortensen, Ivar. "Traitement en bande de base pour charges utiles à régénération bord /." Paris : École nationale supérieure des télécommunications, 1998. http://catalogue.bnf.fr/ark:/12148/cb36708179w.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Mortensen, Ivar Andreas. "Traitement en bande de base pour charges utiles en régénération bord." Paris, ENST, 1997. http://www.theses.fr/1997ENST0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La démodulation à bord est nécessaire si l'on souhaite commuter les messages transitant par le satellite au niveau le plus bas. Pour des raisons de masse et de consommation, il n'est pas souhaitable d'affecter un démodulateur par porteuse montante : l'utilisation d'un démodulateur multi porteuses (dmp) permet d'aboutir à des complexités raisonnables. L'emploi de technologies numériques permet l'obtention d'un dmp reconfigurable c'est à dire capable idéalement de traiter une bande de fréquence de b hz avec toutes les configurations possibles de porteuses. La première partie de la thèse est consacrée aux démultiplexeurs numériques. On analyse tout d'abord les bancs de filtres à base de structures polyphase-tfr et de structures arborescentes. Une nouvelle méthode d'optimisation des bancs de filtres polyphase-tfr à base de filtres rii permettant d'obtenir des phases quasi-linéaires est développée. On s'intéresse ensuite au démultiplexage dans le domaine fréquentiel. Il s'agit d'étendre la méthode de convolution rapide aux bancs de filtres. Une méthode de synthèse permettant d'obtenir des filtres à faible nombre de coefficients est présentée et l'erreur introduite par l'approximation utilisée est analysée de façon théorique puis vérifiée par simulation. La deuxième partie de la thèse est consacrée aux algorithmes de synchronisation (horloge des symboles et porteuse) utilises dans le récepteur numérique. La synchronisation de la porteuse, partie la plus critique, est plus spécialement abordée. Pour l'estimation de la phase de la porteuse, un nouvel algorithme, le barycentre modifie, pour lequel tous les calculs sont effectués en coordonnées polaires est proposé. Il se caractérise par une complexité d'implantation bien inferieure à celle de l'estimateur de viterbi et viterbi, caractéristique recherchée pour les applications embarquées. Un estimateur de fréquence porteuse, pour lequel tous les calculs sont effectués en coordonnées polaires, est également présent. Concernant les systèmes boucles, un nouveau détecteur de fréquence porteuse qui, à notre connaissance, est le premier à avoir des performances aussi proches de la borne de cramer rao est analyse.
3

Levy, Michel. "Les algorithmes de relaxation en traitement d'image : convergence, stabilité et cohérence." Paris 11, 1987. http://www.theses.fr/1987PA112441.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Après un état de l'art sur les divers processus de relaxation, nous étudions plus particulièrement l'algorithme introduit par Rosenfeld, Hummel et Zucker en 1976. Nous établissons la liaison entre les notions propres aux systèmes dynamiques (équilibre, stabilité, stabilité asymptotique) et les notions propres à la relaxation (ambiguïté, non-ambiguïté, super-ambiguïté, cohérence, stricte cohérence). Nous démontrons qu'au cours de la procédure, la cohérence augmente et converge. Nous introduisons ensuite un nouvel algorithme, dans lequel en chaque site, les labels ne sont plus en compétition. Cela donne de bien meilleurs résultats dans tous les cas où un étiquetage multiple est possible voire nécessaire (détection de bords, segmentation, etc. ). Nous montrons pour cette procédure, les mêmes propriétés que pour l'algorithme classique. Cette partie théorique est suivie d'une vaste étude expérimentale consacrée exclusivement à la détection de bords. Nous y abordons les problèmes de la détection initiale des bords, du choix des compatibilités, de la comparaison de la relaxation classique et de notre algorithme, du comporte­ ment asymptotique, de l'évolution de la cohérence et de l'entropie, et enfin de la robustesse aux perturbations des compatibilités
After the state of the art about the different relaxation processes, we concentrate on the study of the algorithm introduced by Rosenfeld, Hummel and Zucker in 1976. We establish links between dynamic systems' concepts (equilibrium, stability, asymptotic stability) and relaxation's concepts (ambiguity, non-ambiguity, super-ambiguity, consistency, strict consistency). We prove that during the procedure, the consistency increases and converges. We then introduce a new algorithm, in which, at every site, labels no more compete with one another. It works far better, each time a multiple labelling is possible or even necessary (edge detection, segmentation, etc. ). We prove for that procedure, the same properties as for the standard algorithm. This theoretical part is followed by a large experimental study of edge detection. We deal with the problems of: initial edge detection, compatibility dhoice, comparison between standard relaxation and our algorithm, asymptotic behavior, evolution of consistency and entropy, and finally robustness to compatibilities’ perturbations
4

Vechembre, Sophie. "Traitement et exploitation des incidents en industrie pharmaceutique." Bordeaux 2, 1996. http://www.theses.fr/1996BOR2P049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Wu, Qin. "Élaboration d'algorithmesde la reconnaissance vocale à bord de véhicule." Paris 11, 1987. http://www.theses.fr/1987PA112293.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire traite principalement du problème de la reconnaissance de mots isolés à bord de véhicule. Dans cette application particulière, le bruit injecté dans le système a un niveau très variable et parfois très élevé par rapport la parole. Nous présentons dans les différents chapitres les aspects portant sur; - la localisation de la parole dans le bruit, - la discrimination du bruit et de la parole, - l'adaptation du système à l'ambiance, la soustraction du bruit lors de la reconnaissance. Des algorithmes portent sur l'ensemble de la reconnaissance vocale sont aussi discutés et développés. Un système de reconnaissance de mots isolés réalisé autour d'un microcontrôleur 8096 est également présenté dans le dernier chapitre
This dissertation treats principally the problem of recognition of isolated words pronounced inside a vehicule. In this particular application, the noise injected into the recognition system has a high and variable level with respect to the speech signal. The different chapters will deal with: the localisation of the speech phrase within the noise, the discrimination of noise with respect to speech, - the adaptation of the system with respect to the ambient environment, the noise soustraction. Algorithms for speech recognition are also discussed and developed. The last chapter describes a speech recognition system designed around o single-chip microprocesseur (INTEL 8096)
6

Germain, Olivier. "Segmentation d'images radar : caractérisation des détecteurs de bord et apport des contours actifs statistiques." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Radar à Synthèse d'Ouverture (RSO) permet l'observation de la Terre à haute résolution, par tout temps, de jour comme de nuit. L'inconvénient d'un tel système par rapport aux capteurs optiques classiques est qu'il délivre des images fortement dégradées par le phénomène de speckie, qui en limite considérablement l'interprétation automatique. Cette thèse est consacrée à la segmentation des images RSO, étape fondamentale pour faciliter et améliorer l'analyse de l'image. Le travail s'articule autour de deux axes majeurs. Dans un premier temps, nous caractérisons la précision spatiale d'une famille de détecteurs de bord adaptés au speckie et communément employée en imagerie RSO. Nous montrons en particulier que ces détecteurs fournissent une localisation biaisée des bords dans certaines situations où la forme de la fenêtre d'analyse n'est pas adaptée au bord (bord incliné, bord sinueux, speckie corrélé). .
Synthetic Aperture Radar (SAP) allows high resolution Earth observation in any weather condition, both day and night. The drawback of such a system compared to classical optical sensors that it provides images strongly corrupted by the speckle effect, whose automatic interpretation therefore drastically limited. This thesis is devoted to SAR image segmentation, which is a fund mental step to facilitate and improve the analysis of the image. Work is performed according two main lines. Firstly, we characterize the spatial accuracy of a speckle-dedicated family of edge detectors, that commonly used in SAR imagery. We show in particular that these detectors deliver a biased edje location in some situations where the analyzing window is not adapted to the edge (tilted edge, sinuous edge, correlated speckle). A simple phenomenological model is proposed to describe this property and give an approximative expression of the bias. Secondly, we use the technique of Statistical Active Contour (SAC) to improve the location of the contour of one object in a scene. Used in cooperation with the edge detector, the SAC offers notable refinement of the segmentation, by correcting the bias and reducing the variance on the contour location. .
7

Mesnager, Gilles. "Évaluation de méthodes spectrales pour le traitement à bord de données issues d'un radar à synthèse d'ouverture." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT060H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette these est d'etudier une methode originale de traitement des donnees issues d'un radar a synthese d'ouverture (rso). La simplification des algorithmes necessaires a la synthese de l'image permet d'envisager la realisation de cette etape a bord du satellite. La forme compacte des donnees obtenues reduit le debit des donnees a transmettre. Le premier chapitre rappelle les definitions des coefficients caracteristiques d'une image radar, ainsi que le principe de la synthese d'ouverture. Les limitations associees au principe de formation des images rso sont exprimees en termes d'ambiguites et de resolution. Les equations issues de la synthese d'ouverture et de la compression d'impulsion sont exposees au second chapitre, ainsi que les differentes methodes d'extraction des coefficients. Certaines contraintes liees au principe d'analyse des images sar sont exposees. Le troisieme chapitre montre l'interet de l'algorithme du specan en terme de cout calculatoire. L'extension originale de cet algorithme, incorporant des methodes d'analyse spectrale parametrique est presentee. Les differents modeles de signaux utilises sont presentes. L'etude theorique originale de cette nouvelle methode d'estimation d'image est realisee au chapitre 4. Les resultats sont exprimes dans le cas d'une image de type indiciel ou impulsionnel et compares a ceux obtenus par des methodes classiques. Les differents algorithmes permettant d'estimer les parametres des modeles sont resumes au chapitre 5. L'analyse de la qualite image suivant les modeles employes est effectuee au chapitre 6, et des solutions d'implantation de la methode retenue avec les contraintes temps reel sont detaillees au chapitre 7
8

Mignot, Shan. "Vers un demonstrateur pour la détection autonome des objets à bord de Gaia." Phd thesis, Observatoire de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00340279.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mission Pierre Angulaire de l'ESA, Gaia, doit bâtir un catalogue d'étoiles limité seulement par leurs magnitudes. Ce milliard d'objets doit être détecté à bord pour pouvoir être observé et les exigences scientifiques et techniques font de ce problème un défi d'ingénierie. Nous avons élaboré un prototype pour estimer les performances accessibles et servir au dimensionnement de l'électronique à bord (TDA PDHE). Il s'appuie sur une séquence de quatre tâches: la calibration des données issues des CCDs, l'estimation du fond de ciel, l'identification des objets et, enfin, leur caractérisation pour commander les observations elles-mêmes. Bien qu'inspirée par des études antérieures (APM, Sextractor), cette approche a été intégralement révisée et adaptée aux spécificités de Gaia. Suite aux recommandations du TDA PDHE, une implémentation mixte est proposée qui traite les volumes de données importants et soumis aux contraintes de temps-réel ``dures'' avec de l'électronique dédiée (FPGA) et réalise les traitements complexes ou variables via du logiciel. Cette partition correspond aussi à subdiviser les opérations précédentes en un domaine pixel et un domaine objet. Notre démonstrateur montre que les attentes scientifiques sont satisfaites en termes de complétude, de précision et de robustesse à la diversité des configurations. Techniquement parlant, notre pipeline, optimisé quant à la surface et la consommation électrique, permet l'identification d'une technologie cible. Notre modèle n'a pas été retenu pour les phases industrielles de Gaia mais, outre son utilité avérée dans le projet, représente une R&D pour la génération de satellites à venir.
9

Baccou, Jean. "Analyses multirésolutions et problèmes de bord : applications au traitement d'images et à la résolution numérique d'équations aux dérivées partielles." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse s’articule autour de deux axes de recherche. Dans la première partie, un algorithme de résolution pour une équation parabolique définie sur un ouvert oméga quelconque est construit et analysé. Il est basé sur le couplage entre les méthodes ondelettes et l’approche domaines fictifs avec multiplicateurs de Lagrange. Deux applications numériques à la résolution de l’équation de la chaleur définie sur des domaines non polygonaux et à frontière mobile sont fournies. Dans la seconde partie, des analyses multi-échelles du type harten, dépendant de la position, sont construites. Elles sont ensuite couplées avec une étape de détection de contours pour produire un algorithme de compression multi-directionnel dépendant des contours de l’image. Plusieurs comparaisons avec une approche non adaptée à la géométrie de l’image sont présentées pour la compression de différents types d’images.
10

Auphan, Thomas. "Analyse de modèles pour ITER ; Traitement des conditions aux limites de systèmes modélisant le plasma de bord dans un tokamak." Phd thesis, Aix-Marseille Université, 2014. http://tel.archives-ouvertes.fr/tel-00977893.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne l'étude des interactions entre le plasma et la paroi d'un réacteur à fusion nucléaire de type tokamak. L'objectif est de proposer des méthodes de résolution des systèmes d'équations issus de modèles de plasma de bord. Nous nous sommes intéressés au traitement de deux difficultés qui apparaissent lors de la résolution numérique de ces modèles. La première difficulté est liée à la forme complexe de la paroi du tokamak. Pour cela, il a été choisi d'utiliser des méthodes de pénalisation volumique. Des tests numériques de plusieurs méthodes de pénalisation ont été réalisés sur un problème hyperbolique non linéaire avec un domaine 1D. Une de ces méthodes a été étendue à un système hyperbolique quasilinéaire avec bord non caractéristique et conditions aux limites maximales strictement dissipatives sur un domaine multidimensionnel : il est alors démontré que cette méthode de pénalisation ne génère pas de couche limite. La deuxième difficulté provient de la forte anisotropie du plasma, entre la direction parallèle aux lignes de champ magnétique et la direction radiale. Pour le potentiel électrique, cela se traduit par une résistivité parallèle très faible. Afin d'éviter les difficultés liées au fait que le problème devient mal posé quand la résistivité parallèle tend vers 0, nous avons utilisé des méthodes de type asymptotic-preserving (AP). Pour les problèmes non linéaires modélisant le potentiel électrique avec un domaine 1D et 2D, nous avons fait l'analyse théorique ainsi que des tests numériques pour deux méthodes AP. Des tests numériques sur le cas 1D ont permis une étude préliminaire du couplage entre les méthodes de pénalisation volumique et AP.
11

Balci, Eric. "Capital immatériel et économie virtuelle, normalisation ISO et pilotage par tableau de bord prospectif : une étude exploratoire dans le secteur du traitement de déchets." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte économique mondial, l’économie virtuelle et le capital immatériel sont le champ privilégié de la création de valeur, de la différenciation et des gains de productivité. A l'échelle macro-économique c'est le principal moteur d’une croissance aux facteurs nouveaux. Le rôle croissant du capital immatériel pose aussi le problème de sa mesure par de nouveaux indicateurs pertinents, sa valorisation (monétaire et qualitative), son appréciation par les parties prenantes et de son influence sur la compétitivité. D’où notre proposition d’une normalisation ISO et d’un tableau de bord stratégique (prospectif) dans cette thèse. La situation actuelle de pilotage et de sa valorisation n’est plus satisfaisante. D’abord parce que les états financiers ne donnent qu’une valorisation partielle du capital immatériel. Ensuite parce qu’il n’existe ni de définition claire du concept ni de méthode reconnue et partagée pour assurer son pilotage. Enfin, en matière de valorisation et de reconnaissance, si les marchés financiers intègrent d'ores et déjà le capital immatériel dans la valorisation des entreprises, ils ne sont plus efficients car d’autres éléments comme la spéculation mondiale ont une incidence sur les cours des actions. Donc, la valeur de marché ne fournit pas de détail sur les composantes du capital immatériel (humain, marque, recherche et développement, brevets etc.), indispensable au pilotage dans ces économies de plus en plus virtuelles
In the global economy, the virtual economy and intellectual capital are the privileged field of value creation, differentiation and productivity gains. At the macro level is the main engine of growth to new factors. The growing role of intangible capital also the problem of its measurement by new relevant indicators, its valuation (monetary and quality), its appreciation by stakeholders and its influence on competitiveness. Hence our proposal of an ISO standardization and an array of strategic edge (forward) in this thesis. The current situation steering and its valuation is no longer satisfactory. First, because the financial statements give only a partial valuation of intangible capital. Then because there is no clear definition of the concept or method recognized and shared to ensure its control. Finally, in terms of valuation and recognition, if financial markets already integrate and intangible capital already in the valuation of companies, they are more efficient because other factors such as global speculation affect the prices of actions. So, the market value does not provide details on the components of intellectual capital (human, brand, research and development, patents etc.), essential for driving in these economies increasingly virtual
12

Zéboudj, Rachid. "Filtrage, seuillage automatique, contraste et contours : du pré-traitement à l'analyse d'image." Saint-Etienne, 1988. http://www.theses.fr/1988STET4001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude de quelques aspects du traitement et de l'analyse d'image : présentation d'un lissage adaptatif mettant en évidence les régions qui composent une image; introduction de la notion de contraste utile en seuillage d'image; segmentation d'image; techniques d'extraction d'information par seuillage d'image et détection de contours; classification de formes utilisant la courbure
13

Pinoli, Jean-Charles. "Contribution à la modélisation, au traitement et à l'analyse d'image." Saint-Etienne, 1987. http://www.theses.fr/1987STET4005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude du seuillage automatique d'image. Etude des opérateurs Gradient et Laplace. Etude sur la rugosité locale utilisée comme outil pour la segmentation d'image. Etude sur le rehaussement d'image et plus particulièrement sur la suppression de flou dans les images. Traitement des images de nature logarithmique telles les images obtenues en lumière transmise ou celle issue de la vision luminaire. Proposition d'un modèle. La faisabilité industrielle porte sur un problème d'interférométrie automatique en temps réel
14

Solano, Martinez Javier Enrique. "Modélisation et supervision des flux énergétiques à bord d'un véhicule hybride lourd : approche par logique floue de type-2." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00947626.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le transport des personnes et des marchandises représente plus de 25% de la consommation d'énergie et est l'une des principales sources de pollution dans le monde. Plusieurs efforts doivent être faits pour réduire la dépendance du pétrole, la consommation d'énergie et l'impact environnemental des systèmes de transport. Dans cette perspective, la Direction Générale de l'Armement a soutenu la conception et la réalisation du banc d'Evaluation de Composantes de la Chaine Electrique (ECCE). Il s'agit d'un laboratoire mobile qui permet d'évaluer dans des conditions d'utilisation réelles, les différentes composantes énergétiques utilisées dans les véhicules électriques.Les travaux de cette Thèse de Doctorat s'inscrivent dans le contexte du projet ECCE. Le principal objectif est de concevoir, d'implanter et de valider expérimentalement un système temps réel de gestion d'énergie pour véhicule électrique hybride. L'architecture énergétique retenue pour cette étude comporte un banc de batteries au plomb, un système pile à combustible et un banc de supercondensateurs. Nous proposons un système de gestion d'énergie qui permet de prendre en compte l'expertise de plusieurs spécialistes sur ces sujets. La conception du système de gestion d'énergie est ainsi réalisée en utilisant une enquête conçue pour extraire la connaissance des experts du domaine (10 experts de différentes affiliations). La logique floue de type 2 permet d'intégrer de l'incertitude dans les réponses et ainsi de considérer simultanément les différents avis des experts. Ce travail présente dans une première partie l'étude des modèles des sources énergétiques et de la structure de commande du véhicule. Cette structure est basée sur la Représentation Energétique Macroscopique (REM). Des résultats de simulation et de validation expérimentale d'une méthodologie pour paramétrer le modèle équivalent des supercondensateurs sont également présentés. La deuxième partie est consacrée à l'étude des systèmes logique floue de type 2. Ces systèmes sont étudiés et présentés en utilisant un exemple numérique. En complément des travaux menés sur l'implantation logicielle de la logique floue de type 2, une application a été conçue, implantée et validée expérimentalement : il s'agit du contrôle de la tension de sortie d'un hacheur dévolteur. L'objectif principal de cette application était de permettre une pré-validation de l'application de la logique floue de type 2 dans le cas d'applications industrielles. Finalement, le système de gestion d'énergie proposé a été validé successivement par des simulations, des essais statiques expérimentaux, des essais de roulage en mode d'opération normale et en mode d'opération dégradée.Nous avons mis en évidence que la logique floue de type 2 est particulièrement bien adaptée pour des applications temps réel dans le domaine du génie électrique.
15

Oseret, Emmanuel. "Analyse et conception d'algorithmes et d'architectures embarqués à bord de satellites d'observation spatiale : application au satellite GAIA et généralisation à la compression d'images astronomiques." Versailles-St Quentin en Yvelines, 2008. http://www.theses.fr/2008VERS0030.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l'augmentation de la résolution des instruments embarqués dans les satellites d'observation spatiale et leur mise sur orbites de plus en plus lointaines (ce qui réduit leur débit d'émission vers la Terre), il est devenu nécessaire, de déporter à bord certains traitements. Or les méthodes classiques de compression d'image sont à la fois trop coûteuses et inadaptées à des images de ciel étoilé. Il est par contre nettement plus efficace de détecter le fond puis l'éliminer en n'envoyant que le signal. Dans ce cadre, nous avons proposé des solutions algorithmiques et architecturales depuis la sélection des pixels des objets à envoyer jusqu'à leur stockage dans l'attente de leur émission. En particulier, nous avons proposé de nouveaux algorithmes de sélection, ajouté une phase de précompression et conçu une architecture de stockage faible consommation pour un tampon de télémétrie à grande capacité. La faisabilité de ces solutions a été démontrée pour le satellite GAIA
With the increase of the resolution of the instruments on board space observation satellites and the remoteness of their orbit (which reduce their uplink rate), it became necessary to move on board some processing tasks. But traditional image compression methods are both too heavy and inappropriate for starry sky images. But it is much more effective to detect the background and then drop it in sending only signal. In this approach, we have proposed algorithmic and architectural solutions from selection of the pixels of objects to their storage in anticipation of their transmission. In particular, we have proposed new selection algorithms, added a precompression phase and designed a low consumption storage architecture for a large-size telemetry buffer. The feasibility of these solutions has been demonstrated for the GAIA satellite
16

Solano, Javier. "Modélisation et supervision des flux énergétiques à bord d'un véhicule hybride lourd : approche par logique floue de type-2." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00699896.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le transport des personnes et des marchandises représente plus de 25% de la consommation d'énergie et est l'une des principales sources de pollution dans le monde. Plusieurs efforts doivent être faits pour réduire la dépendance du pétrole, la consommation d'énergie et l'impact environnemental des systèmes de transport. Dans cette perspective, la Direction Générale de l'Armement a soutenu la conception et la réalisation du banc d'Evaluation de Composantes de la Chaine Electrique (ECCE). Il s'agit d'un laboratoire mobile qui permet d'évaluer dans des conditions d'utilisation réelles, les différentes composantes énergétiques utilisées dans les véhicules électriques. Les travaux de cette Thèse de Doctorat s'inscrivent dans le contexte du projet ECCE. Le principal objectif est de concevoir, d'implanter et de valider expérimentalement un système temps réel de gestion d'énergie pour véhicule électrique hybride. L'architecture énergétique retenue pour cette étude comporte un banc de batteries au plomb, un système pile à combustible et un banc de supercondensateurs. Nous proposons un système de gestion d'énergie qui permet de prendre en compte l'expertise de plusieurs spécialistes sur ces sujets. La conception du système de gestion d'énergie est ainsi réalisée en utilisant une enquête conçue pour extraire la connaissance des experts du domaine (10 experts de différentes affiliations). La logique floue de type 2 permet d'intégrer de l'incertitude dans les réponses et ainsi de considérer simultanément les différents avis des experts. Ce travail présente dans une première partie l'étude des modèles des sources énergétiques et de la structure de commande du véhicule. Cette structure est basée sur la Représentation Energétique Macroscopique (REM). Des résultats de simulation et de validation expérimentale d'une méthodologie pour paramétrer le modèle équivalent des supercondensateurs sont également présentés. La deuxième partie est consacrée à l'étude des systèmes logique floue de type 2. Ces systèmes sont étudiés et présentés en utilisant un exemple numérique. En complément des travaux menés sur l'implantation logicielle de la logique floue de type 2, une application a été conçue, implantée et validée expérimentalement : il s'agit du contrôle de la tension de sortie d'un hacheur dévolteur. L'objectif principal de cette application était de permettre une pré-validation de l'application de la logique floue de type 2 dans le cas d'applications industrielles. Finalement, le système de gestion d'énergie proposé a été validé successivement par des simulations, des essais statiques expérimentaux, des essais de roulage en mode d'opération normale et en mode d'opération dégradée. Nous avons mis en évidence que la logique floue de type 2 est particulièrement bien adaptée pour des applications temps réel dans le domaine du génie électrique.
17

Serrano-Soucarre, Jacqueline. "Integration sur reseau prediffuse d'un systeme d'extraction de contours." Toulouse, INSA, 1986. http://www.theses.fr/1986ISAT0041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Conception et verification d'un circuit d'extraction rapide des contours d'une image video sur un reseau prediffuse en technologie cmos 3 microns. Partant d'une maquette preexistante en circuits standards, l'ensemble des problemes lies a l'integration sont developpes: dissipation, rapidite, densite d'integration qui imposent des contraintes au niveau de l'architecture du circuit. L'utilisation des outils de conception est egalement decrite. I. Generalites sur les circuits specifiques, description du systeme initial, et cahier des charges. Ii. Solutions adoptees, en particulier en ce qui concerne la modification du schema logique afin de respecter le cahier des charges, tenant compte des contraintes imposees par la technologie et le type de matrice. Iii. Simulation et verification des prototypes realises en milieu industriel
18

Bechar, Hassane. "Comparaison d'images : Application à la surveillance et au suivi de trajectoire." Nancy 1, 1987. http://www.theses.fr/1987NAN10062.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude se base sur la comparaison d'une image stockée en mémoire avec celle provenant de la caméra. L'étude s'est effectuée à l'aide d'un dispositif cablé qui donne un résultat visuel et un résultat numérique en temps réel. Un logiciel permet d'obtenir les mêmes résultats mais en temps différé
19

Hachouf, Fella. "Télédétection des contours linéaires." Rouen, 1988. http://www.theses.fr/1988ROUES027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude du problème de la détection des contours tel qu'il se pose par exemple en détection automatique des réseaux routiers ou fluviaux sur des images issues de photographies aériennes. Les principes de base du traitement d'image sont passés en revue. Les différentes méthodes de filtrage sont ensuite abordées. La solution proposée consiste dans la squelettisation homologique de l'image du module du gradient, ce qui permet l'extraction des structures à reconnaître par transformation du squelette en graphe
20

Njonkou, Fankam Marc-Aurèle. "Analyse du mouvement dans les séquences d'images et filtrage linéaire récursif." Rouen, 1997. http://www.theses.fr/1997ROUES046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le cadre général de cette thèse est l'analyse du mouvement dans les séquences d'images. Elle se compose de deux parties : la première partie s'intéresse au filtrage linéaire récursif. La deuxième et principale partie aborde l'étude du mouvement à travers ses principaux thèmes : estimation, détection et segmentation. La première partie s'ouvre sur un rappel des principes de base du filtrage linéaire récursif qui constitue un préalable pour l'étude du mouvement et conditionne fortement la qualité des traitements effectués en aval. Nous décrivons ensuite une méthode originale de traitement du problème des effets des bords qu'il engendre. Elle est fondée sur l'utilisation des propriétés des suites récurrentes convergentes. Les résultats présentés montrent que l'élimination des effets de bords a un effet bénéfique sur la performance des filtres. Dans la seconde partie, nous motivons tout d'abord l'intérêt de l'étude du mouvement et rappelons diverses méthodes existantes. Pour l'estimation du mouvement, nous proposons une approche multirésolution fondée sur la définition d'un modèle d'énergie minimisée à chaque niveau de résolution par une méthode variationnelle. Ce modèle prend en compte les discontinuités par l'introduction d'une variable de contrôle. Le troisième chapitre présente la méthode que nous avons développée, qui permet de reconstruire les masques des objets mobiles dans la scène, à partir du champ des vecteurs vitesses estimé précédemment. Cette approche combine des techniques de détection de contours, de morphologie mathématique binaire et de remplissage de formes. Dans le chapitre quatre, l'approche de segmentation du mouvement que nous avons retenue est liée aux phases du flux optique. Elle est réalisée en deux étapes : une segmentation grossière fondée sur la mesure des concavités de l'histogramme des phases du flux optique, suivie d'une segmentation fine fondée sur une modélisation markovienne du champ des étiquettes précédemment grossièrement estimé.
21

Bahl, Gaétan. "Architectures deep learning pour l'analyse d'images satellite embarquée." Thesis, Université Côte d'Azur, 2022. https://tel.archives-ouvertes.fr/tel-03789667.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès des satellites d'observation de la Terre à haute résolution et la réduction des temps de revisite introduite par la création de constellations de satellites ont conduit à la création quotidienne de grandes quantités d'images (des centaines de Teraoctets par jour). Simultanément, la popularisation des techniques de Deep Learning a permis le développement d'architectures capables d'extraire le contenu sémantique des images. Bien que ces algorithmes nécessitent généralement l'utilisation de matériel puissant, des accélérateurs d'inférence IA de faible puissance ont récemment été développés et ont le potentiel d'être utilisés dans les prochaines générations de satellites, ouvrant ainsi la possibilité d'une analyse embarquée des images satellite. En extrayant les informations intéressantes des images satellite directement à bord, il est possible de réduire considérablement l'utilisation de la bande passante, du stockage et de la mémoire. Les applications actuelles et futures, telles que la réponse aux catastrophes, l'agriculture de précision et la surveillance du climat, bénéficieraient d'une latence de traitement plus faible, voire d'alertes en temps réel.Dans cette thèse, notre objectif est double : D'une part, nous concevons des architectures de Deep Learning efficaces, capables de fonctionner sur des périphériques de faible puissance, tels que des satellites ou des drones, tout en conservant une précision suffisante. D'autre part, nous concevons nos algorithmes en gardant à l'esprit l'importance d'avoir une sortie compacte qui peut être efficacement calculée, stockée, transmise au sol ou à d'autres satellites dans une constellation.Tout d'abord, en utilisant des convolutions séparables en profondeur et des réseaux neuronaux récurrents convolutionnels, nous concevons des réseaux neuronaux de segmentation sémantique efficaces avec un faible nombre de paramètres et une faible utilisation de la mémoire. Nous appliquons ces architectures à la segmentation des nuages et des forêts dans les images satellites. Nous concevons également une architecture spécifique pour la segmentation des nuages sur le FPGA d'OPS-SAT, un satellite lancé par l'ESA en 2019, et réalisons des expériences à bord à distance. Deuxièmement, nous développons une architecture de segmentation d'instance pour la régression de contours lisses basée sur une représentation à coefficients de Fourier, qui permet de stocker et de transmettre efficacement les formes des objets détectés. Nous évaluons la performance de notre méthode sur une variété de dispositifs informatiques à faible puissance. Enfin, nous proposons une architecture d'extraction de graphes routiers basée sur une combinaison de Fully Convolutional Networks et de Graph Neural Networks. Nous montrons que notre méthode est nettement plus rapide que les méthodes concurrentes, tout en conservant une bonne précision
The recent advances in high-resolution Earth observation satellites and the reduction in revisit times introduced by the creation of constellations of satellites has led to the daily creation of large amounts of image data hundreds of TeraBytes per day). Simultaneously, the popularization of Deep Learning techniques allowed the development of architectures capable of extracting semantic content from images. While these algorithms usually require the use of powerful hardware, low-power AI inference accelerators have recently been developed and have the potential to be used in the next generations of satellites, thus opening the possibility of onboard analysis of satellite imagery. By extracting the information of interest from satellite images directly onboard, a substantial reduction in bandwidth, storage and memory usage can be achieved. Current and future applications, such as disaster response, precision agriculture and climate monitoring, would benefit from a lower processing latency and even real-time alerts.In this thesis, our goal is two-fold: On the one hand, we design efficient Deep Learning architectures that are able to run on low-power edge devices, such as satellites or drones, while retaining a sufficient accuracy. On the other hand, we design our algorithms while keeping in mind the importance of having a compact output that can be efficiently computed, stored, transmitted to the ground or other satellites within a constellation.First, by using depth-wise separable convolutions and convolutional recurrent neural networks, we design efficient semantic segmentation neural networks with a low number of parameters and a low memory usage. We apply these architectures to cloud and forest segmentation in satellite images. We also specifically design an architecture for cloud segmentation on the FPGA of OPS-SAT, a satellite launched by ESA in 2019, and perform onboard experiments remotely. Second, we develop an instance segmentation architecture for the regression of smooth contours based on the Fourier coefficient representation, which allows detected object shapes to be stored and transmitted efficiently. We evaluate the performance of our method on a variety of low-power computing devices. Finally, we propose a road graph extraction architecture based on a combination of fully convolutional and graph neural networks. We show that our method is significantly faster than competing methods, while retaining a good accuracy
22

Baconnais, Maxime. "Méthode intégrée de corrélation d’images et de corrélation d’images virtuelles." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La corrélation d’images numériques (DIC) est maintenant couramment utilisée dans les milieux académiques et industriels. En effet, cette méthode permet de mesurer le champ de déplacement d’une surface avec une grande précision, une bonne résolution et avec un système expérimental simple. Cependant, la corrélation d’images ne permet pas une mesure précise dans les zones de frontière, bord des échantillons et fissures.L’objectif de cette thèse est d’utiliser la méthode de corrélation d’images virtuelles (VIC) pour mesure la position des bords et améliorer la précision de laDIC dans ces zones. La stratégie proposée repose sur trois points : la création d’un maillage de mesure adapté à la géométrie, la génération d’un masque de pixel permettant de supprimer les pixels du bord et la résolution sous contrainte de la DIC.Différents cas tests sur des images synthétiques et d’application sur des données expérimentales permettent de montrer l’intérêt de la méthode intégrée de corrélation d’images et de corrélation d’images virtuelles. Tout d’abord, la connaissance de la position initiale du bord permet la création automatique d’un maillage adapté. Il est également montré que la simple utilisation d’un masque de pixel permet de ré-duire significativement l’erreur sur le bord, aussi biendans les cas synthétiques que réels. Pour le cas de la résolution sous contrainte, il est montré que celle-ci permet de réduire les erreurs de mesures dans les cas synthétiques. Cependant, ce résultat n’a pas pu être confirmé dans les cas d’applications, la qualité des bords ne permettant pas une mesure précise et donc une amélioration des résultats de DIC
Digital Image Correlation (DIC) is now com-monly used in academic and industrial settings. In-deed, this method allows to measure the displace-ment field of a surface with high accuracy, good reso-lution and with a simple experimental setup. Howe-ver, image correlation does not allows accurate mea-surement in border areas, sample edges and cracks.The objective of this thesis is to use the VirtualImage Correlation (VIC) method to measure the po-sition of the edges and improve the accuracy of theDIC in these areas. The proposed strategy is basedon three points : the creation of a adapted measure-ment mesh to the geometry, the generation of a pixelmask to remove the edge pixels and the constrainedresolution of the DIC.Different test cases on synthetic images and ex-perimental data show the interest of the integra-ted method. First, the knowledge of the initial posi-tion of the border allows the automatic creation ofan adapted mesh. It is also shown that the simpleuse of a pixel mask reduces significantly the boun-dary error, both in synthetic and real cases. For thecase of constrained resolution, it is shown that itreduces measurement errors in synthetic cases. Ho-wever, this result could not be confirmed in the ap-plication cases, due to the quality of the boundarydoes not allows an accurate measurement and thusan improvement of the DIC results
23

Beneteau, Clément. "Modèles homogénéisés enrichis en présence de bords : Analyse et traitement numérique." Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAE001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Quand on s’intéresse à la propagation des ondes dans un milieu périodique à basse fréquence (i.e. la longueur d’onde est grande devant la période), il est possible de modéliser le milieu périodique par un milieu homogène équivalent ou effectif qui a les mêmes propriétés macroscopiques. C’est la théorie de l’homogénéisation qui justifie d’un point de vue mathématique ce procédé. Ce procédé est très séduisant car les calculs numériques sont beaucoup moins couteux (la petite structure périodique a disparu) et des calculs analytiques sont de nouveau possibles dans certaines configurations. Les ondes dans le milieu périodique et dans le milieu effectif sont très proches d’un point de vue macroscopique sauf en présence de bords ou d’interfaces.En effet, il est bien connu que le modèle homogénéisé est obtenu en négligeant les effets de bords et par conséquent il est beaucoup moins précis aux bords du milieu périodique. Quand les phénomènes intéressants apparaissent aux bords du milieu (comme la propagation des ondes plasmoniques à la surface des métamatériaux par exemple), il semble donc difficile de faire confiance au modèle effectif.En revenant sur le processus d’homogénéisation, nous proposons un modèle homogénéisé qui est plus riche aux niveaux des bords. Le modèle homogénéisé enrichi est aussi simple que le modèle homogénéisé classique loin des interfaces, seule les conditions aux bords changent et prennent mieux en compte les phénomènes. Nous appliquons ce modèle à une équation elliptique dans le cas de la géométrie simple du demi-plan avec des conditions de type Dirichlet ou Neumann. D’un point de vue numérique, en plus des problèmes de cellule classiques qui apparaissent en homogénéisation, des problèmes de bandes périodiques doivent également être résolus. Pour finir, nous appliquons ces résultats à l'homogénéisation de l'équation des ondes en temps long et en présence de bords
When we are interested in the propagation of waves in a periodic medium at low frequency (i.e. wavelength large compared to the period length), it is possible to model the periodic medium by an equivalent or effective homogeneous medium which has the same macroscopic properties. It is the homogenization theory that mathematically justifies this process. This process is very attractive because numerical calculations are then much less expensive (the small periodic structure has disappeared) and analytical calculations are again possible in certain configurations. The waves in the periodic medium and in the effective medium are very close from a macroscopic point of view except in the presence of boundaries or interfaces.Indeed, it is well known that the homogenized model is obtained by neglecting the boundary effects and consequently, it is much less precise at the boundaries of the periodic medium. When interesting phenomena appear at the edges of the middle (such as the propagation of plasmonic waves on the surface of metamaterials for example), it therefore seems difficult to trust the effective model.Returning to the homogenization process, we propose a homogenized model which is richer at the boundaries. The enriched homogenized model is as simple as the classical homogenized model far from the interfaces, only the boundary conditions change and take better account of the phenomena. We apply this model to an elliptical equation in the case of the simple geometry of the half-plane with Dirichlet or Neumann type conditions. From a numerical point of view, in addition to classic cell problems that appear in homogenization, periodic band problems must also be solved. Finally, we apply these results to the long time wave equation
24

Zhang, Qidao. "Traitement d'image d'intérêt médical par techniques d'ondelettes." Paris 11, 2006. http://www.theses.fr/2006PA112027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Moreau, Valentine. "Méthodologie de représentation des impacts environnementaux locaux et planétaires, directs et indirects - Application aux technologies de l'information." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00843151.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les services basés sur les technologies de l'information dans les secteurs publics et privés sont en pleine croissance. Par conséquent, la demande énergétique est de plus en plus importante pour alimenter les équipements informatiques au sein des établissements utilisateurs et dans les data-centres. A cette phase de consommation, facilement identifiable par les utilisateurs, s'ajoute la phase de production des équipements dont les conséquences sur l'environnement sont difficilement perceptibles par les utilisateurs. Ainsi, les impacts environnementaux des TIC paraissent principalement " délocalisés " et " invisibles " par rapport à l'utilisateur final.Progressivement, l'enjeu environnemental prend sa place dans la logique du secteur des technologies de l'information, aboutissant au concept de " Green IT ". Concepteurs et utilisateurs cherchent désormais à évaluer les impacts environnementaux des technologies de l'information. Dans un contexte d'évaluation environnementale pour l'aide à la décision, l'objectif de cette thèse est d'évaluer les impacts environnementaux des équipements informatiques d'une organisation. Pour cela, nous envisageons une démarche qui vise à enrichir l'approche produit de type ACV par l'ajout de données spécifiques à l'organisation étudiée.Les recherches bibliographiques ont permis de dégager les spécificités et les besoins méthodologiques en termes d'évaluation des impacts. Ainsi, une méthodologie permettant l'expression des impacts environnementaux locaux et planétaires liés à la fabrication et à l'utilisation des technologies de l'information au sein d'une organisation est proposée. Appliquée lors d'un partenariat avec une entreprise multinationale de la grande distribution et validée par son application dans un centre de recherche, cette méthodologie centralise à la fois des données génériques disponibles dans des bases de données et des données spécifiques recueillies auprès des utilisateurs de l'organisation étudiée. Cette étape de terrain, point central de la méthodologie, permet dans un premier temps d'obtenir l'inventaire des équipements présents et dans un second temps de connaître et de comprendre le comportement réel des utilisateurs via une enquête et des mesures de puissances et de consommations électriques des équipements représentatifs du panel inventorié (utilisation de boitiers d'acquisition de valeurs dits " économètre ").L'approche d'évaluation environnementale des systèmes informatiques développée au cours de ce travail a pour objectif de mettre en exergue les répercussions sur l'environnement que peuvent avoir les technologies de l'information au sein d'une organisation. Un des résultats principaux montre que la majorité des impacts environnementaux sont plus liés à la phase de production qu'à la phase d'utilisation. De plus, cette méthode aide à l'identification des pistes d'améliorations : choix et gestion des équipements, comportement individuel, charte d'utilisation, choix d'une politique éco-responsable... Ainsi, par un calcul d'éco-efficience mettant en jeu les gains environnementaux et économiques, les solutions répondant à la stratégie de développement de l'organisation étudiée peuvent être sélectionnées.
26

Marou, Francois. "Procédés thermiques rapides : étude de l'oxydation du silicium et de l'activation de l'impureté bore implantée." Toulouse 3, 1990. http://www.theses.fr/1990TOU30044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de ce memoire est d'examiner les potentialites offertes par les recuits thermiques rapides concernant la diffusion du bore implante dans le silicium et la realisation de couches minces d'oxyde. Dans une etude preliminaire, il est montre qu'un four de recuit rapide correspond bien aux machines susceptibles d'etre integrees dans les salles blanches du futur: automatiques, robotisees et assurant un environnement ultrapropre aux plaquettes traitees. Les problemes lies a la mesure de la temperature et au controle de son homogeneite sont ensuite mis en evidence. Des solutions sont proposees, comme l'utilisation de suscepteurs ou bien celle d'un porte-substrat comportant des ecrans. Deux applications sont alors abordees: le recuit de bore implante et l'oxydation rapide du siliium. La premiere confirme la presence d'un phenomene de diffusion acceleree dans la phase initiale du recuit, ayant pour origine des defauts d'implantation. Ce mecanisme fait l'objet d'une etude detaillee, puis des techniques permettant de s'en affranchir sont suggerees: pre-amorphisation du silicium ou implantation de bf2. Dans la seconde, la croissance des premieres couches de silice est analysee en fonction des cinetiques d'oxydation. L'influence du nettoyage pre-oxydation et du recuit post-oxydation sur la qualite des oxydes obtenus, est egalement etablie. Enfin, l'etude de la diffusion du bore sous oxydation rapide permet de verifier qu'elle est acceleree comme dans le cas d'oxydations classiques, car elle est correlee a la vitesse de croissance de l'oxyde
27

Bouaziz, Karime Ines. "Traitement de solutions organiques diluées par couplage adsorption-oxydation électrochimique." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2617/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude s'inscrit dans le cadre du traitement des polluants organiques présents à faibles concentrations dans les rejets industriels par le couplage adsorption-oxydation électrochimique. Les composés modèles étudiés sont le phénol et le bleu de méthylène. Il s'agit de séparer ces polluants par adsorption, trois adsorbants sont étudiés : charbon actif, Nyex(r) et sciure de bois puis régénérer les adsorbants par désorption tout en oxydant le composé organique. Les résultats obtenus ont montré que seule la sciure de bois est régénérée en totalité par polarisation. De plus, le traitement par polarisation conduit à l'activation des propriétés d'adsorption de la sciure (augmentation d'un facteur 4) due à une réduction électrochimique des fonctions chimiques de surface de la lignine. L'ensemble de ces résultats a montré que le couplage adsorption-électro-oxydation est prometteur pour dépolluer des solutions diluées
The aim of this study is the treatment of organic pollutants discharged in wastewater at low concentrations using the coupling adsorption-electrochemical oxidation. The compounds chosen as model are phenol and methylene blue. The aim is to separate pollutants by adsorption, three adsorbants were studied: activated carbon, graphite felt (Nyex(r)) and sawdust and to regenerate adsorbant by desorption while oxidizing electrochemically the organic compound. The results show that sawdust is the only one totally regenerated by polarization. Furthermore, the treatment by polarization leads to the activation of the sawdust adsorption properties (increase by a factor of 4) due to the electrochemical reduction of the chemical function of the lignin. All the results highlight that the coupling adsorption-electro-oxidation is promising for the treatment of diluted solutions
28

Ben, Younes Ridha. "Contribution à l'amélioration qualitative et quantitative des images de médecine nucléaire en tomographie d'émission à simple photon." Besançon, 1989. http://www.theses.fr/1989BESA2008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Reconstruction tomographique de la distribution radioactive d'un traceur placé dans le milieu non atténuant puis atténuant. Différentes méthodes de reconstruction, performances et contrôle de la qualité du détecteur, dégradation des images. Méthode de détection automatique des contours
29

Benaissa, Mohamed Abel. "Utilisation des échangeurs d'ions dans le traitement des effluents nucléaires." Montpellier 2, 1990. http://www.theses.fr/1990MON20160.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'epuration du bore, dans les effluents nucleaires par electrodiareze, et la fixation des cations metalliques, sur des celluloses greffees, ont ete les deux principales etudes de ce travail. Dans la premiere partie, nous avons mis au point un procede d'epuration du bore en couplant l'electro-electrodialyse a l'echange d'ions sur resine. Dans nos conditions experimentales (1000 ppm et ph=4,9), on prevoit en majorite l'existence, en solution et au sein des echangeurs d'ions, des especes hb#4o#7# et b#4o#7##, ce qui se traduit, par un rendement faradique en bore superieur a 100%. Ce rendement faradique, lie au flux de bore a travers la membrane echangeuse d'anions, est fonction de la vitesse de circulation, de la densite de courant et de la teneur en lithium dans le compartiment anodique. La seconde partie concernant la fixation des cations par les celluloses greffees, montre l'importance de l'optimisation du media et du module de filtration, pour se placer dans les meilleures conditions de fonctionnement de cet echangeur d'ions. L'optimisation du media nous a conduit d'une part a l'etude d'un echangeur a fonction acide faible, tel que les celluloses carboxyliques, et d'un echangeur cationique fort, sulfonique. D'autre part une amelioation de la tenue mecanique a ete realisee en passant du support papier au support feutre. Bien que les valeurs des capacites d'echange de ces materiaux restent faibles, comparees a celles des resines, ces echangeurs d'ions apparaissent plus performants, car ils permettent d'atteindre des valeurs de flux relativement eleves sans fuite ionique
30

Jelea, Andrei. "Etude quantique de la réactivité du bore en milieu graphitique." Aix-Marseille 1, 2006. http://www.theses.fr/2006AIX11016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le dopage au bore est une des solutions proposées pour limiter l'érosion chimique des composants en graphite protégeant les premières parois des machines à fusion nucléaire. Cette érosion chimique est principalement due à la rétention des isotopes de l'hydrogène. L'élément chimique le mieux adapté à l'extraction des atomes d'hydrogène piégés est l'oxygène. La présente étude théorique traite par des calculs DFT, statiques ou de dynamique moléculaire, d'une part les propriétés fondamentales des surfaces du graphite dopé par le bore et d'autre part les réactions oxygène-hydrogène sur des surfaces de graphite pur ou dopé. Le dopage par substitution à environ 12 at. % B diminue d'un facteur 3 à 5 fois les énergies d'activation des réactions oxygène-hydrogène selon le mécanisme de Langmuir-Hinshelwood. Ce qui signifie que l'élimination de ces polluants sous forme de molécules d'eau est fortement facilité par la présence du bore. Des résultats analogues ont été obtenus pour un taux de dopage de 25 at. % B. La distribution du bore dans la surface doit être uniforme, les zones de forte concentration induisant des changements de structure ayant des conséquences sur la réactivité chimique. Parallèlement à son action sur les réactions d'oxydation, le bore renforce la rétention des atomes d'hydrogène dans le matériaux puisque le rapport H/C à la saturation pour la surface dopée à 11 at. % B est plus élevé (81. 5%) que sur une surface de graphite pur (environ 40 %). Néanmoins, cet effet étant contrebalancé par une plus grande mobilité de l'hydrogène qui facilite les réactions de recombinaison, les réactions d'oxydation sont plus efficaces sur la surface dopée. La dynamique moléculaire corrobore complètement ces résultats aux températures d'intérêt pour les tokamaks. Il en résulte que suivant la chimie quantique, l'oxygène atomique est un bon agent de déshydrogénation, la présence du bore augmentant le rendement de la déshydrogénation. La boronisation dans les machines à fusion se réalise par un plasma d'hydrures. L'interaction de ces composés avec une surface de graphite a donc également été étudiée. Les hydrures de bore se chimisorbent sur les surfaces de graphite. Certaines d'entre elles, étant réactives à l'état adsorbé, peuvent servir de point de départ pour la croissance de films carbone-bore
The doping with boron was proposed as solution for limiting the chemical erosion of the graphite made plasma facing components (PFC), in the fusion devices. For de-trapping of the hydrogen isotopes from the PFC's the best method seems to be the exposure to oxygen. This theoretical study treats by static or molecular dynamics DFT calculations on the fundamental features of the boron doped graphite surfaces and also on the oxygen-hydrogen reactions on pure or boron doped graphite surfaces. The substitutional doping (12 at. % B) allows diminishing 3 to 5 times the activation energies of the Langmuir-Hinshelwood reactions between oxygen and hydrogen. As a consequence, these species can be more easily eliminated from the doped surfaces in the form of water molecules. Similar results were observed for a 25 at. % B doping. The boron has to be uniformly distributed in the surface, otherwise structure modifications with implications on reactivity may occur. The H/C saturation ratio (81. 5%) for the 11 at. % boron doped surface is higher than for a pure graphite one (40%). However a previous study showed that the mobility of hydrogen on the doped surfaces is higher, this increasing the recombination yield, thus the dehydrogenation. From the molecular dynamics viewpoint, in the limits of our models, the atomic oxygen is a good dehydrogenation agent, the presence of boron increasing the dehydrogenation yield. In the fusion devices the boronisation is realised using boron hydrides. Consequently the interaction of these compounds with a graphite surface was analyzed in this study. The boron hydrides chemisorb on graphite. Some of the adsorbed hydrides can serve as departure points for the growing of carbon-boron films
31

Philippe, Thomas. "Précipitation du bore dans le silicium : expérience, méthodologie et modélisation." Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00648694.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Plusieurs phénomènes modifient la redistribution du bore dans le silicium fortement implanté. Pendant le recuit thermique d'activation, les interactions entre les dopants et les défauts d'implantations viennent affecter et complexifier la redistribution du bore. A cela peut venir s'ajouter des phénomènes de précipitation dans les régions sursaturées en dopants. Ces interactions peuvent conduire à la désactivation partielle des dopants. Cette thèse traite en particulier de la précipitation ou mise amas du bore dans le silicium fortement implanté. Ces questions sont étudiées en sonde atomique tomographique. Des outils statistiques sont développés pour caractériser la mise en amas. Les théories non classiques de germination sont explorées pour comprendre la formation de germes dilués. Enfin, un modèle couplant diffusion et germination classique est proposé pour prédire l'allure des profils de concentration en dopant après recuit thermique.
32

Mignot, Shan. "Towards a demonstrator for autonomous object detection on board Gaia." Observatoire de Paris, 2008. https://tel.archives-ouvertes.fr/tel-00340279v2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mission pierre angulaire de l'ESA, Gaia, doit bâtir un catalogue d'étoiles limité seulement par leurs magnitudes. Ce milliard d'objets doivent être détectés à bord en temps réel pour pouvoir être observés et les exigences scientifiques et techniques font de ce problème un défi d'ingénierie. Nous avons élaboré un prototype pour estimer les performances accessibles et servir au dimensionnement de l'électronique à bord (TDA PDHE). Il s'appuie sur une séquence de quatre tâches: la calibration des données issues des CCDs, l'estimation du fond de ciel, l'identification des objets et, enfin, leur caractérisation pour commander les observations elles-mêmes. Bien qu'inspirée par des études antérieures (APM, Sextractor), cette approche a été intégralement révisée et adaptée aux spécificités de Gaia. Suite aux recommandations du TDA PDHE, une implémentation mixte est proposée qui traite les volumes de données importants et soumis aux contraintes de temps-réel « dures » avec de l'électronique dédiée (FPGA) et réalise les traitements complexes ou variables via du logiciel. Cette partition correspond aussi à subdiviser les opérations précédentes en un domaine pixel et un domaine objet. Notre démonstrateur montre que les attentes scientifiques sont satisfaites en termes de complétude, de précision et de robustesse à la diversité des configurations. Techniquement parlant, notre pipeline, optimisé quant à la surface et la consommation électrique, permet l'identification d'une technologie cible. Notre modèle n'a pas été retenu pour les phases industrielles de Gaia mais, outre son utilité avérée dans le projet, représente une R&D pour la génération de satellites à venir
ESA's cornerstone mission Gaia aims at building a star catalogue limited only by their magnitudes. The expected billion objects must be detected on board in real-time before they can be observed and the scientific and technical requirements make this an engineering challenge. We have devised a prototype to assess achievable performances and assist in sizing the on-board electronics (PDHE TDA). It is based on a sequence of four tasks: calibrating the incoming data from the CCDs, estimating the sky background, identifying the objects and, finally, characterising them to command subsequent observations. Although inspired by previous similar studies (APM, Sextractor), this approach has been thoroughly revisited and finely adapted to Gaia. Following the recommendations of the PDHE TDA, a mixed implementation is proposed which deals with the important data flow and the hard real-time constraints in hardware (FPGA) and entrusts more complex or variable processing to software. The segmentation also corresponds to subdividing the previous operations in pixel-based and object-based domains. Our demonstrator shows that the scientific specifications are met in terms of completeness, of precision and of robustness to the variety of observing conditions while, technically speaking, our pipeline, optimised for area and power consumption, allows for identifying a target technology. Our model has not been retained for the industrial phases of Gaia but, beside it recognised usefulness in the project, represents R&D for the forthcoming generation of satellites
33

Aimer, Yassine. "Traitement par oxydation électrochimique des rejets agricoles chargés en pesticides." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30189.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les rejets des effluents de pratiques agricoles (traitements phytosanitaires, lavage du matériel et rinçage des atomiseurs) impactent directement les écosystèmes. Ces pratiques constituent une menace pour l'environnement, les êtres vivants et la santé humaine. Il est donc nécessaire de concevoir des procédés pour detoxifier les résidus de pesticides avant leur déversement dans le milieu naturel. Cette étude est consacrée à l'oxydation électrochimique d'un composé organophosphoré, le Dimethoate (DIM) avec une anode de diamant dopé au bore. Ces résultats ont ensuite été comparés à ceux obtenus par oxydation avec le radical sulfate. Dans les deux cas, la molécule cible a disparu mais sa réaction sélective avec les radicaux sulfates a conduit à la génération d'intermédiaires réactionnels moins biodégradables que le composé organique initial. Tandis que l'oxydation électrochimique du DIM via les radicaux hydroxyles a montré qu'il était possible de rendre la solution plus biodégradable sans atteindre une minéralisation complète
The discharges of the agricultural practices (phytosanitary treatments, rinsing of equipment and atomizers) constitute an important cause of the ecosystem degradation. These practices establish a direct threat for the environment, the living beings and especially for the human health. Consequently, the development of processes to detoxify the pesticide residues before their release in the environment is needed. This study is devoted on the electrochemical oxidation of an organophosphorus compound, the Dimethoate (DIM) using a boron doped diamond anode. The obtained results were compared with the ones obtained by oxidation with the sulfate radical. For both cases, the target molecule has disappeared but the selective reaction of sulfate radicals with organics led to the production of intermediates which are less biodegradable than DIM. Whereas the electrochemical oxidation of DIM via hydroxyl radicals showed that it was possible to render the solution biodegradable without reaching a complete mineralization
34

Janisson, Stéphane. "Etude des jets de plasma et du traitement des particules en projection plasma avec mélanges ternaires de gaz en atmosphère et température contrôlées." Limoges, 1999. http://www.theses.fr/1999LIMO0046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur l'utilisation de mélanges ternaires de gaz plasmagènes Ar-He-H2 pour la projection plasma d'arc du carbure de bore. L'ensemble des sous-systèmes qui interviennent dans le procédé de projection plasma a été étudié : la formation du jet de plasma dans la tuyère, l'écoulement plasma, les interactions plasma/particules et la réalisation et analyse de dépôt. La projection est réalisée en atmosphère d'argon avec un refroidissement cryogénique du substrat. .
This work deals with the use of ternary gas mixtures Ar-He-H2 for plasma spraying, in controlled atmosphere and temperature. These ternary gas mixtures were used to spray boron carbide powder in argon atmosphere at ambient pressure. The various sub-systems that make up the whole plasma spraying process have been studied : (i) plasma jet formation in the anode-nozzle, (ii) plasma flow outside the gun, (iii) plasma/particle interactions and (iv) coating formation. .
35

Baccou, Jean. "Analyses multirésolutions et problèmes de bords: applications au traitement d'images et à la résolution numérique d'équations aux dérivées partielles." Phd thesis, Université de Provence - Aix-Marseille I, 2004. http://tel.archives-ouvertes.fr/tel-00008618.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux sont dédiés au développement de méthodes numériques à base d'ondelettes pour la résolution d'équations aux dérivées partielles et pour le traitement d'images. La première partie est consacrée à la construction d'une nouvelle méthode couplant ondelettes et domaines fictifs pour la résolution d'équations paraboliques 2D définies sur un domaine quelconque. Une analyse complète de la méthode est fournie; elle montre l'efficacité de cette approche en terme de qualité des résultats (borne d'erreur, raffinement local), d'efficacité numérique (conditonnement, préconditionnement simple) et de flexibilité de l'implémentation (implémentation rapide et efficace). Deux applications numériques à la résolution de l'équation de la chaleur définie sur des domaines non polygonaux ou à frontière mobile (problème de Stefan) sont présentées. La seconde partie est consacrée à la construction d'un nouvel algorithme de compression d'images adapté aux contours. On commence par introduire des analyses multi-échelles 1D du type Harten, dépendant d'une famille de points. Ces analyses conduisent à des décompositions multi-échelles efficaces pour la représentation de signaux discontinus. Cette approche est ensuite généralisée au cas bi-dimensionnel et un algorithme de compression multi-directionnel dépendant des contours de l'image est introduit. Il utilise une carte des contours obtenue préalablement. Plusieurs comparaisons avec d'autres approches sont ensuite présentées.
36

Cintosun, Esen. "Analyses expérimentale, numérique et optimisation de traitements acoustiques multicouches à base de matériaux viscoélastiques et poreux pour réduire le bruit à bord de l’avion." Thèse, Université de Sherbrooke, 2011. http://hdl.handle.net/11143/8769.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé : Ce projet de recherche est composé de trois parties principales : la première comprend l'analyse expérimentale et la simulation des performances vibratoires de matériaux avec amortissement viscoélastique, en tant que traitements acoustiques appliqués aux structures du fuselage d'un avion. La deuxième partie comprend l'analyse expérimentale et le calcul de la performance acoustique de ces matériaux amortissant en comparaison avec l'effet d'une masse équivalente. Enfin, la troisième partie est une étude paramétrique sur les effets de localisation, de la densité et de la taille d'un traitement massique. Les systèmes d'isolation phoniques typiquement employés dans la construction des fuselages d'avions sont composés de matériaux poreux, avec ou sans des matériaux amortissant (matériaux viscoélastiques). La performance et donc l'utilité de ces traitements amortissant, en comparaison avec une couche de masse équivalente, reste une question largement ouverte. Dans ce travail on a comparé numériquement et expérimentalement les performances acoustiques d'un traitement amortissant avec celui d'une masse équivalente tous les deux incorporées dans le traitement phonique et ceci pour plusieurs types d'excitations. Deux structures représentant des fuselages, une en aluminium et la seconde en carbone composite, ont été sélectionnées pour cette étude ainsi que deux matériaux poreux couramment utilisés en aéronautique : une laine en fibre de verre et une mousse à cellules ouvertes. Deux types d'excitations ont été étudiés numériquement et expérimentalement. La première est une excitation acoustique (champ diffus) et la seconde mécanique (forces ponctuelles). Une troisième, excitation par couche limite turbulente a été étudié numériquement. Dans tous les cas, la perte par insertion du traitement acoustique est utilisée comme indicateur principal de la performance. D'autres indicateurs comme le coefficient d'absorption, le coefficient de perte par amortissement et la vitesse quadratique moyenne sont aussi utilisés pour mieux cerner et expliquer l'effet du traitement. Il a été démontré que l'utilisation d'une couche de masse équivalente à un traitement viscoélastique conduit systématiquement à la meilleure performance acoustique et ceci pour les trois types d'excitations étudiées. En particulier, dans le cas classique où le traitement amortissant est appliqué directement au fuselage. Dans ce dernier cas, les effets de doubles parois créés par la couche massique, positionnée judicieusement loin du fuselage, augmentent la performance en moyennes et hautes fréquences. Les performances en basses fréquences restent limitées par la fréquence de résonance double parois. Et même l'effet amortissant des traitements viscoélastiques, théoriquement visible aux résonances et coïncidences du système, se trouve limité par l'amortissement ajouté par le montage et le traitement absorbants. Cependant, l'efficacité de la couche massique est compromise par les difficultés d'installations et en particulier pour les fibreux. Les résultats de cette thèse restent toutefois limités par notre choix de structures et de traitements étudiés.
Abstract : The project is made up of three main parts. The first part involves a comprehensive experimental and numerical analysis of viscoelastic damping materials as acoustic treatments to aircraft fuselage structures. The second part involves numerical and experimental acoustic comparison of viscoelastic damping material to equivalent mass. And the third part is a parametric study of equivalent mass for the effects of mass location, density and size. The goal of the project is to identify the vibroacoustic effect of viscoelastic material damping of fuselage skin, and develop possible alternatives to damping. The insulation systems (typically used on aircraft) that are made up of porous materials with or without viscoelastic damping material or equivalent mass were called sound packages throughout this document. The viscoelastic damping material and equivalent mass both incorporated in sound packages were acoustically compared. Fiberglass and open cell foam were used as porous materials. The viscoelastic damping material used in this study is constraining layer damping and abbreviated as CLD. The equivalent mass was an impervious screen. Both representative Aluminum and carbon composite fuselage skin structures were treated with sound packages as part of the comparison. The vibroacoustic performance indicators were used to characterize the sound packages. The indicators were airborne insertion loss (ABIL), structure borne insertion loss (SBIL), turbulent boundary layer insertion loss (TBLIL), average quadratic velocity (AQV), damping loss factor (DLF), absorption coefficient, and radiation efficiency. Diffuse field acoustic excitation was used to obtain the vibroacoustic indicators of ABIL and absorption coefficient. Mechanical excitation was used to obtain SBIL, AQV, DLF, absorption coefficient, and radiation efficiency. Turbulent boundary layer excitation was modeled to obtain TBLIL. The numerical methods of finite element method (FEM) and transfer matrix method (TMM) were used to calculate all of the above vibroacoustic performance indicators. Experimentally, ABIL, SBIL, AQV, DLF and radiation efficiency were measured. Experimental modal analysis was also performed to characterize representative Aluminum and carbon composite fuselage skin structures. Based on the numerical analysis, equivalent mass generated a double or multiple (in case of double wall layer configuration) wall effect and hence became an effective acoustic insulator as part of sound packages at mid to high frequencies. Even at coincidence frequencies (in case of the representative carbon composite fuselage skin), the equivalent mass layer was more effective than viscoelastic damping material. However, the drawback was the occurrence of the double wall resonance at lower frequencies which compromised the effectiveness. Nevertheless, the parametric study of equivalent mass revealed that equivalent mass is superior to viscoelastic damping material at reduced weight in term of vibroacoustic performance indicators of overall ABIL/SBIL/TBLIL in the frequency range of 100 to 6300 Hz and mean ABIL/SBIL/TBLIL in SIL (octave lk, 2k, 4k Hz) frequency range.
37

Senziani, Fabio. "Monitoring of X-ray binaries and novae with the Burst alert telescope on board the Swift satellite." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/210/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Burst Alert Telescope (BAT) à bord du satellite Swift est un instrument très performant pour l'astronomie des rayons X-durs/gamma. L'énorme champ de vue, la bonne sensibilité et la stratégie de pointage couvrant tout le ciel font de BAT un instrument adapté pour observer des sources connues et pour étudier les nouveaux objets variables. Dans cette thèse une description détaillée des nouvelles procédures pour analyser les données de survey de BAT est fournie et les premiers résultats astrophysiques de sources galactiques en accrétion sont discutés. Trois binaires X ont été étudiées : le microquasar GROJ1655-40, le SFXT IGR J08408-4503 et le LMXB symbiotique 4U 1954+319. L'émission gamma due à la décroissance des éléments radioactifs des novae a été aussi recherchée. L'émission de RS Oph, probablement liée au chauffage par choc, a été détectée. La probabilité de détecter une nova durant le temps de vie de Swift a été estimée en utilisant une approche Monte Carlo
The Burst Alert Telescope (BAT) on board the Swift satellite is a very useful tool for hard X/gamma-ray astronomy. Thanks to its good sensitivity, huge field of view, and pointing strategy covering all the sky, BAT is a suitable instrument to monitor known hard X-ray sources as well as to catch and study new transients. In this thesis, new procedures to analyse the BAT survey data are described with details and the first astrophysical results on galactic accreting sources discussed. Three X-ray binaries were observed and studied: the microquasar GRO J1655-40 during its 2005 outburst, the SFXT IGR J08408-4503 during its third recorded outburst and the symbiotic LMXB 4U 1954+319. A search for prompt gamma-ray emission due to downgraded decay of radioactive elements from novae was also performed. The emission of RS Oph, possibly due to shock heating, led to a detection. The probability of detecting a nova during the Swift lifetime was estimated using a Monte Carlo approach
38

Faussemagne, Arielle. "Evolution des propriétés de surface de l'acier 100Cr6 par implantation et mélange ioniques." Lyon 1, 1996. http://www.theses.fr/1996LYO10167.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des etudes de caracterisations physicochimiques, menees sur des echantillons en acier 100cr6 implantes a la fois en bore et en azote, ont mis en evidence la formation de nitrure de bore et des nouvelles phases, fe#1##x(b, n), fe#2##x(b, n) et fe#3##x(b, n), inconnues dans la litterature. En particulier, l'analyse du nitrure de bore (bn) forme a revele qu'une faible densite de courant d'ions (3 a. Cm##2) dans le cas de la sequence bore plus azote favorise l'instauration de liaisons de type sp#2 (bn hexagonal), tandis qu'une forte densite de courant (6 a. Cm##2) dans la sequence azote plus bore privilegie plutot l'hybridation sp#3 (bn cubique). Par ailleurs, des tests tribologiques realises a sec sur ces echantillons ont montre que les implantations d'azote et de bore dans l'acier ne conduisent pas a une amelioration significative du coefficient de frottement et de l'usure contrairement a ce qui a ete avance par certains auteurs. Cependant, sur une serie d'echantillons accidentellement pollues en carbone pendant les implantations, nous avons remarque une diminution importante de ces deux parametres tribologiques. Ces resultats nous ont amenee a penser que la disparite des resultats rapportes par la litterature peut s'expliquer par un mauvais controle de cette pollution. Des investigations plus poussees nous ont indique que le carbone de surface quelle que soit son origine (par contamination, implantation ionique ou depot suivi de melange ionique) pourvu qu'il soit en quantite suffisante (210#1#7 c. Cm##2), ameliore d'un facteur 5 le coefficient de frottement et diminue d'une maniere drastique l'usure. Un examen approfondi de l'ensemble de ces resultats nous a conduite a proposer une modelisation, basee sur le role des asperites des deux corps en contact, pour expliquer l'evolution du coefficient de frottement et de l'usure en fonction de la quantite de carbone de surface. Cette analyse nous a ainsi montre que pour ameliorer le frottement et l'usure de l'acier 100cr6, il suffit de recouvrir ce dernier d'une couche de carbone bien adherente et ayant une epaisseur superieure aux hauteurs des asperites des deux corps en presence. Cette etude nous a finalement permis de mettre au point un procede simple et peu onereux d'amelioration des proprietes tribologiques de l'acier 100cr6.
39

Girard, Hugues. "Traitements électrochimiques contrôlés sur diamant : corrélation entre chimie superficielle et réactivité électrochimique." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2008. http://tel.archives-ouvertes.fr/tel-00526505.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le diamant présente un grand nombre de propriétés très intéressantes, à la fois dans le domaine de l'électronique, de l'optique, mais aussi en électrochimie. Dopé au bore, c'est un semiconducteur à grande énergie de bande interdite (≈5,5 eV) et il est utilisé en tant que matériau d'électrode en raison de sa forte inertie chimique, de ses faibles courants résiduels et de son large domaine d'électroactivité. Toutes ces caractéristiques ont conduit à des applications dans le domaine de la détection et de l'électroanalyse, dans la synthèse électrochimique et dans le traitement des effluents aqueux industriels par exemple. Ainsi, le diamant dopé au bore peut dans certains cas remplacer avantageusement les matériaux d'électrodes plus conventionnels, comme le carbone vitreux ou le graphite. Cependant, son comportement électrochimique est complexe et fait actuellement l'objet d'une intense activité de recherche. Parmi les facteurs qui influent sur la réponse des électrodes de diamant dopé au bore, la nature des terminaisons de surface est au centre des préoccupations. La croissance par CVD conduit à la formation de liaisons de surface principalement de type hydrogénées « C-H ». Elles confèrent alors un caractère hydrophobe au matériau, une affinité électronique négative et conduisent à la présence d'une couche conductrice superficielle en conditions ambiantes. Par différents traitements physico-chimiques ou électrochimiques, il est possible de faire évoluer les terminaisons de surface, de façon plus ou moins complète. Les propriétés physiques et chimiques du matériau en sont considérablement affectées. Par exemple, dans le cas de liaisons oxygénées « C-O », le matériau est hydrophile, possède une affinité électronique positive et sa conductivité est généralement fortement dégradée. Nous nous sommes donc attaché à analyser l'influence de la nature des terminaisons de surface du diamant sur la réactivité du matériau afin de mieux comprendre les phénomènes mis en jeu au cours des transferts de charge. Notre recherche s'est articulée autour de l'intensité de traitements électrochimiques, en contrôlant à la fois la densité de courant utilisée et la charge coulométrique engagée. Grâce à cette double approche, il a été mis en évidence que l'oxydation de la surface du diamant par des traitements anodiques peut conduire à des phénomènes très différents, voir donner lieu à des réactivités opposées. L'évolution du comportement des électrodes a été suivie grâce à des caractérisations électrochimiques (I-V en présence de couples redox et C-V) et les modifications de la chimie superficielle ont été caractérisées par des analyses XPS et des mesures d'angle de contact.
40

Iriarte, perez Luis. "Les difficultés dans le lien social chez des sujets en milieu carcéral : l’emprisonnement est-il un mode de traitement ?" Thesis, Rennes 2, 2019. http://www.theses.fr/2019REN20052.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le concept de lien social a été examiné par différents courants de la pensée tout au long de l’histoire, tel que la philosophie, la sociologie et la psychologie. Nous l’aborderons en prenant en compte ce que le psychanalyste Jacques Lacan a pu élaborer dans son enseignement, partant de deux notions spécifiques : le discours et le symptôme. La première rend compte de comment s’établissent les relations dans différents structures de notre société. La deuxième tient en considération comment un individu se rattache à un autre par les traits les plus singuliers de chacun. Donc, nous partirons de ces théories pour examiner quelles sont les difficultés dans le lien social présentées par les sujets en milieu carcéral. En ce sens, nous pensons que l’importance clinique du concept de lien social, deviendra plus évidente si nous comprenons comment il se présente dans les énoncés des détenus, qui seront suivis au sein d’un établissement pénitencier. Autour de ce type d’institutions surgit l’hypothèse suivante : il existe une inadéquation entre la réponse carcérale et les pathologies présentées par des sujets incarcérés. Cette recherche vise à saisir l’inadéquation existante et à proposer des conjectures qui permettront un travail plus adéquat à la réalité de cette population
The concept of social bond has been examined by different theoretical currents throughout history, such as philosophy, sociology and psychology. We will approach it taking into account what the psychoanalyst Jacques Lacan was able to elaborate in his teaching, starting from two specifics notions: the discourse and the symptom. The first gives an account of how settled relations in different structures of our society. The second takes into consideration how an individual is related to another by the most singular features of each. So we will start from these theories to examine the difficulties in the social bond presented by the subjects in prison. In this sense, we believe that the clinical importance of the concept of social bond will become more evident if we understand how it appears in the inmate statements, which will be followed within a penitentiary. Around this type of institution, the following hypothesis emerges: there is an inadequacy between the prison response and the pathologies presented by inmates. This research aims to grasp the existing inadequacy and to propose conjectures that will allow a more adequate work to the reality of this population
41

Senziani, Fabio. "Monitoring des binaires X et des novae avec le Burst Alert Telescope à board du satellite Swift." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00268322.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Burst Alert Telescope (BAT) à bord du satellite Swift est un instrument très performant pour l'astronomie des rayons X-durs/gamma. L'énorme champ de vue, la bonne sensibilité et la stratégie de pointage couvrant tout le ciel font de BAT un instrument adapté pour observer des sources connues et pour étudier les nouveaux objets variables. Dans cette thèse une description détaillée des nouvelles procédures pour analyser les données de survey de BAT est fournie et les premiers résultats astrophysiques de sources galactiques en accrétion sont discutés. Trois binaires X ont été étudiées : le microquasar GRO J1655-40, le SFXT IGR J08408-4503 et le LMXB symbiotique 4U 1954+319. L'émission gamma due `a la décroissance des éléments radioactifs des novae a été aussi recherchée. L'émission de RS Oph, probablement liée au chauffage par choc, a été détectée. La probabilité de détecter une nova durant le temps de vie de Swift a été estimée en utilisant une approche Monte Carlo.
42

Lee, Youseung. "Traitement quantique original des interactions inélastiques pour la modélisation atomistique du transport dans les nano-structures tri-dimensionnelles." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0345.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le formalisme des fonctions de Green hors-équilibre (NEGF pour « Non-equilibrium Green’s function) a suscité au cours des dernières décennies un engouement fort pour étudier les propriétés du transport quantique des nanostructures et des nano-dispositifs dans lesquels les interactions inélastiques, comme la diffusion des électrons-phonons, jouent un rôle significatif. L'incorporation d'interactions inélastiques dans le cadre du NEGF s’effectue généralement dans l'approximation auto-cohérente de Born (SCBA pour « Self-consistent Born approximation) qui représente une approche itérative plus exigeante en ressources numériques. Nous proposons dans ce travail de thèse une méthode efficace alternative dite LOA pour (« Lowest Order Approximation. Son principal avantage est de réduire considérablement le temps de calcul et de décrire physiquement la diffusion électron-phonon. Cette approche devrait considérablement étendre l'accessibilité de l'utilisation de codes atomistiques de transport quantique pour étudier des systèmes 3D réalistes sans faire à des ressources numériques importantes
Non-equilibrium Green’s function (NEGF) formalism during recent decades has attracted numerous interests for studying quantum transport properties of nanostructures and nano-devices in which inelastic interactions like electron-phonon scattering have a significant impact. Incorporation of inelastic interactions in NEGF framework is usually performed within the self-consistent Born approximation (SCBA) which induces a numerically demanding iterative scheme. As an alternative technique, we propose an efficient method, the so-called Lowest Order Approximation (LOA) coupled with the Pade approximants. Its main advantage is to significantly reduce the computational time, and to describe the electron-phonon scattering physically. This approach should then considerably extend the accessibility of using atomistic quantum transport codes to study three-dimensional (3D) realistic systems without requiring numerous numerical resources
43

Alexandre, Ludovic. "Méthode de flux normal pour le traitement des conditions aux bords dans le cadre des volumes finis : application aux écoulements monophasiques et diphasiques." Paris 11, 2006. http://www.theses.fr/2006PA112062.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une étude de la méthode de flux normal pour le traitement des conditions aux bords dans le cadre des volumes finis appliquée à des systèmes hyperboliques. Le premier chapitre est consacré à la construction de la méthode de flux normal basée sur le schéma volumes finis à flux caractéristiques. Traitant directement de la conservation du flux normal pour les ondes sortantes, elle est plus précise que la méthode des variables caractéristiques, ne nécessite pas de procédure ad hoc comme les invariants de Riemann et permet un traitement simple de conditions aux bords non réfléchissantes. Sous certaines hypothèses, nous montrons que le choix des conditions aux bords amène à un problème bien posé. Dans le chapitre suivant, des exemples numériques valident la méthode dans le cadre des équations d'Euler. La méthode de flux normal donne des résultats équivalents à ceux obtenus avec une méthode basée sur la résolution d'un problème de Riemann partiel au bord, et plus proches des solutions de référence qu'avec la méthode des mailles miroirs. Le traitement des conditions non réfléchissantes correspond aux résultats attendus, à savoir éviter la réflexion d'ondes perturbatrices. Dans un troisième chapitre, nous considérons un système diphasique bifluide pour étudier l'adaptabilité de la méthode à ce système complexe non conservatif et non hyperbolique. Nous présentons les caractéristiques du système et les solutions apportées pour le rendre hyperbolique. Des simulations numériques montrent que la méthode de flux normal permet de traiter des écoulements diphasiques et confirment les études menées, comme la comparaison du traitement des parois avec des mailles miroirs
This thesis presents a study of the normal flux method for the treatment of boundary conditions in the finite volume framework applied to hyperbolic systems. The first chapter is devoted to the construction of the normal flux method based on the finite volume with characteristic flux scheme. Treating directly the conservation of the normal flux for outgoing waves, this method is more precise than the method of characteristic variables and does not require ad hoc proceddure like the Riemann invariants. This method allows also a simple processing of nonreflective boundary conditions. Under certain assumptions, we show that the choice of the boundary conditions verifies the concept of well posed problem. In the following chapter, numerical examples validate the normal flux method for Euler equations. The normal flux method gives results equivalent to those obtained with a method based on the resolution of a partial Riemann problem to the edge, and closer to the reference solutions than with mirror treatment. The processing of the nonreflectice boundary conditions corresponds to the expected results, namely to avoid the reflexion of disturbing wavex. In the third chapter, we consider a diphasic two-fluid system to study the adaptability of the normal flux method to this nonconservative and nonhyperbolic complex system. We presetn the characteristics of the diphasic system and the solutions proposed to make it hyperbolic. Numericla simulations show that by the normal flux method, it is possible to treat diphasic flows and confirm the undertaken studies, like the comparison with mirror treatment of wall conditions
44

Dewalle, Anne-Sophie. "Nouvelles approches de traitement du signal et de l'image en IRM fonctionnelle d'activation cérébrale." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/c3ff9e5f-e824-4cc2-a6ea-a22cb4383bc2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'IRM fonctionnelle d'activation cérébrale a pour but d'étudier et d'identifier les régions du cerveau impliquées dans des activités stimulées, ceci à des fins cliniques ou de recherche fondamentale. Le sujet est soumis à un enchaînement de phases d'activation et de repos, tandis que l'on effectue simultanément l'acquisition rapide d'un très grand nombre d'images IRM. La problématique consiste à trouver un modèle explicatif des variations observées dans les images, à en estimer les paramètres et à déterminer les régions activées. Dans la théorie des systèmes, l'une des nombreuses méthodes proposées, le cerveau est représenté comme une "boîte noire" dont on cherche à estimer la réponse impulsionnelle. Comme le système est mal conditionné, les solutions sont instables et des connaissances a priori sont introduites afin de régulariser la solution. Nous avons reconsidéré le problème sans introduire d'a priori. Le modèle choisi est dynamique, à temps discret, non paramétrique, multi-variable, stochastique, linéaire et à coefficients invariants. Des méthodes de déconvolution et de réalisation ont été appliquées afin d'estimer la réponse impulsionnelle en chacun des voxels. Nous avons étudié l'influence de la nature du bruit et de sa modélisation. Nous avons considéré le bruit comme la somme d'un bruit blanc, de moyenne nulle et de variance inconnue, et d'un bruit physiologique, modélisé par une combinaison linéaire de fonctions sinusoïdales basses fréquences. Le problème, toujours mal conditionné, mène à une infinité de solutions et nous avons retenu la réponse impulsionnelle de plus petite norme correspondant à une hypothèse de consommation minimum d'énergie. D'autres développements ont également été effectués dans le prétraitement des images et dans l'amélioration de techniques standard d'analyse statistique
45

Iturbe, Ion. "Tomographie acoustique haute résolution dans un guide d'onde océanique." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00521540.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la Tomographie Acoustique Océanique qui permet d'estimer la température de l'eau dans une tranche d'océan à partir de mesures acoustiques. Les vitesse de propagation des ondes étant fortement liée à la température, la tomographie consiste à estimer la célérité à partir des mesures des temps de propagation des ondes acoustiques. Nous nous intéressons à des acquisitions réalisées avec deux antennes, une d'émetteurs et une de récepteurs, placées verticalement face à face, dans un guide d'ondes côtier. Dans ces guides peu profonds, la mesure des temps de propagation ainsi que leur identification sont difficiles à réaliser à cause de la propagation multi-trajets. Avec une acquisition à deux antennes, nous proposons un algorithme de Double Formation de Voies permettant de séparer les contributions des différents trajets, en fonction de leurs angles d'émission et de leurs angles de réception. En plus des mesures des temps de propagation, la tomographie a besoin d'un modèle physique reliant les temps de propagation à la célérité. Deux modèles ont été analysés pendant ces travaux: la théorie classique des rayons, et les Noyaux de Sensibilité du Temps de Propagation (NSTP) obtenus sous l'approximation de Born. Une adaptation des NSTP au cas des mesures obtenues par Double Formation de Voies (D-FV) a été réalisée. Les méthodes développées ont été validées sur des données synthétiques et sur des données "petites échelles" reproduisant la propagation des guides océaniques dans une cuve d'eau de dimensions réduites. L'étude des données ''petites échelles'' a par ailleurs permis d'étudier certains phénomènes physiques: la convection et les vagues de surface.
46

Khatori, Mohammed. "Traitements rapides d'images en vue de l'analyse de la structure interne de matériaux : Application à la production automatisée dans l'industrie du bois." Nancy 1, 1987. http://www.theses.fr/1987NAN10046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour la détection des singularités cachées et superficielles des planches en bois (3,5 cm) ou plus), une technique thermographique a été adopté : elle consiste à créer une hyperthermie dans la planche à analyser et à effectuer une lecture par caméra infrarouge, un traitement d’images permet ensuite la détection des singularités internes des planches ; la cinétique de décroissance naturelle de la température après hyperthermie permet de caractériser le bois sain et les singularités. En vue d’une automatisation en temps réel à l’aide d’une caméra infrarouge rapide (très onéreuse), les procédés de traitement en temps réel ont été expérimentés avec une caméra noir et blanc et des développements d’un multiprocesseur d’images ont été proposés (cartes cadres, cartes alarme, logiciel de contrôle en déplacement). Une expérimentation sur du matériel industriel (transporteur Gébo à bande métallique) a montré les faisabilités du dispositif (contrat CNRS/CTB)
47

Normand, Stéphane. "Conception, réalisation et caractérisation d'un dispositif de détection neutronique basé sur l'utilisation de scintillateurs plastiques dopés au Bore." Phd thesis, Université de Caen, 2001. http://tel.archives-ouvertes.fr/tel-00396150.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans ce mémoire de thèse concerne l'étude, la réalisation et la caractérisation de scintillateurs plastiques dopés au Bore. Leur mise en œuvre au sein de dispositifs de détection de neutrons rapides et thermiques y est examinée.
Dans une première partie, le processus de fabrication et la méthode de dopage en éléments borés sont présentés de façon détaillée. Différentes analyses physico-chimiques (I.R., UV-vis et RMN) ont été utilisées pour caractériser le matériau obtenu et pour confirmer sa composition et sa structure. De plus, une série d'expériences sous rayonnements alpha et sous faisceaux de protons a permis de mesurer les caractéristiques de scintillation. L'émission lumineuse peut ainsi être déterminée grâce à la relation semi-empirique de Birks.
Une seconde partie rend compte de la modélisation complète de l'ensemble du détecteur : interaction rayonnement - matière, émission et parcours de la lumière, formation du signal. Le code de calcul MCNP (Monte Carlo N-Particles) a été couplé à un code de génération et de propagation de lumière développé au cours de ce travail. Ces moyens de simulation ont permis d'optimiser les dimensions du détecteur pour la détection neutronique et de cerner l'influence de la géométrie sur la collecte des photons de scintillation. L'efficacité de détection et la durée de vie des neutrons dans ce type de détecteurs ont été estimées. Les mesures confirment la validité des simulations.
Une troisième partie fait état des méthodes de discrimination neutron - gamma analogique (méthode du passage par zéro) et numérique (méthode de la comparaison de charges) mises en œuvre pour ce scintillateur. Leurs performances respectives sont comparées et discutées.
La dernière partie concerne les applications qui peuvent bénéficier de l'utilisation de scintillateurs plastiques dopés au Bore, comme les fibres scintillantes dopées, la spectrométrie neutronique ou encore les systèmes de mesures des multiplicités neutroniques.
48

Delame, Thomas. "Les squelettes : structures d'interaction directe et intuitive avec des formes 3D." Thesis, Dijon, 2014. http://www.theses.fr/2014DIJOS013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les applications graphiques, les interactions avec les formes sont peu naturelles. L'utilisateur repousse autant que possible l'usage de ces applications, préférant dessiner ou sculpter une forme. Pour combler ce fossé qui se creuse entre l'informatique et le grand public, nous nous tournons vers les squelettes. Ce sont des modèles de représentation des formes intuitifs que nous proposons d'utiliser comme structure d'interaction directe et intuitive.Tous les squelettes souffrent d'un problème de qualité, que ce soit au niveau de la géométrie qu'ils capturent, de leurs quantité de bruit ou encore de l'absence d'organisation utile de leurs éléments. De plus, certaines fonctionnalités nécessaires des squelettes ne sont que partiellement résolues, et ceci grâce à des données additionnelles calculées à partir de la forme lors de la squelettisation. Ainsi, lorsque le squelette est modifié par une interaction, nous sommes dans l'incapacité de mettre à jour ces données et d'utiliser ces fonctionnalités.Nous avons construit un ensemble de solutions algorithmiques à ces problèmes. Nous faisons un usage optimal des données contenues dans le squelette pour visualiser la forme qu'il décrit, supprimer son bruit et structurer ses éléments. Nous construisons un squelette hiérarchique qui capture et contrôle toutes les zones caractéristiques d'une forme.Ce squelette est adapté pour une interaction directe et intuitive, ce qui permet de combler le fossé dont nous faisions mention. Nos travaux permettent également d'améliorer les méthodes de squelettisation et produire des squelettes qui sont déjà de bonne qualité
The interactions in shape creation graphic applications are far from natural. The user tends to avoid as much as possible such applications and prefer to sketch or model his/her shape.To bridge this widening gap between computer and the general public, we focus on skeletons. They are intuitive shape representation models that we propose to use as direct and intuitive interaction structures.All skeletons suffer from very low quality as shape representation models, concerning the geometry of the shape they capture, the quantity of skeletal noise they contain or the lack of useful organization of their elements. Moreover, some functionalities that must be granted to skeletons are only partially solved. Those solutions make use of additional data computed thanks to the shape during the skeletonization. Thus, when the skeleton is modified by an interaction, we cannot update those data to make use of such functionalities.Thanks to a practical observation of skeletons, we built a set of algorithmic solutions to those problems.We make an optimal use of skeleton data to visualize the shape described by a skeleton, to remove skeletal noise and to structure skeleton elements. With our methods, we build the meso-skeleton, a hierarchical structure that captures and controls all characteristic parts of a shape.The meso-skeleton is adapted to be used as a direct and intuitive interaction structure, which allows us to bridge the gap aforementioned. Also, our work can lead to further researches to enhance skeletonization techniques and thus produce skeletons that are good quality shape representation models
49

Bringer, Yves. "Performances de nouvelles architectures machines pour la mise en oeuvre d'algorithmes de traitement et d'analyse d'image." Saint-Etienne, 1993. http://www.theses.fr/1993STET4024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une carte électronique a été réalisée à l'Institut de chimie et physique industrielles de Lyon utilisant quatre processeurs à architecture à flot de données et programmable liant ainsi puissance et souplesse d'utilisation. Pour valider cette architecture pour le traitement et l'analyse d'image, l'approche a été double : - mise en oeuvre d'algorithme à la fois coûteux et originaux scientifiquement : algorithme de Danielson, suppression de flou, reconstruction 3D. - implantation sur site industriel avec prise en compte des contraintes de temps et intégration dans une chaine complète de contrôle
50

Lee, Jiwon. "Novel fabrication of Alloy 625 and MCrAlY bond coat by laser powder bed fusion and microstructure control A novel approach to the production of NiCrAlY bond coat onto IN625 superalloy by selective laser melting Influence of heat treatments on microstructure evolution and mechanical properties of Inconel 625 processed by laser powder bed fusion A new observation of strain-induced grain boundary serration and its underlying mechanism in a Ni–20Cr binary model alloy Heat treatments design for superior high-temperature tensile properties of Alloy 625 produced by selective laser melting High temperature oxidation of NiCrAlY coated Alloy 625 manufactured by selective laser melting." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2020. http://www.theses.fr/2020EMAC0008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette étude, l'alliage 625 a été élaboré par l'une des méthodes de fabrication additive (AM) les plus couramment utilisées, la fusion laser sélective sur lit de poudre (L-PBF), et ses propriétés mécaniques ont été évaluées à différentes températures. L'alliage 625 fabriqué par L-PBF a montré une résistance élevée et un allongement à la rupture médiocre. Ainsi, des traitements thermiques ont été appliqués pour améliorer ses performances. Un traitement thermique de mise en solution à une température supérieure à 1000 °C a été appliquée à l'alliage L-PBF 625, ce qui a entraîné une recristallisation en raison de l’énergie stockée par le matériau attribuée à la forte densité de dislocations présentes dans l’alliage. Cette microstructure modifiée a montré une résistance satisfaisante lors des essais de traction à température ambiante (résistance plus élevée que l'alliage corroyé 625 et allongement supérieur à l'alliage L-PBF brut de fabrication). À l'étape suivante, l'alliage L-PBF 625 recristallisé a été soumis à un traitement thermique de Grain Boundary Serration (GBS, dentelure des joints de grains) pour améliorer ses propriétés mécaniques à haute température. Comme il s'agissait de la première tentative pour générer la GBS d'un alliage à haute teneur en Nb, il était d'abord important de comprendre le mécanisme GBS. Pour induire le GBS, il est nécessaire que les larges atomes de soluté se déplacent près des joints de grains (GB). Par conséquent, le traitement thermique GBS a été modifié pour être appliqué à l'alliage L-PBF 625. Le traitement thermique de GBS spécialement conçu a réussi à induire pour la première fois les motifs en zigzag des GB dentelés. Cet alliage GB-L-PBF dentelé 625 a montré des propriétés mécaniques améliorées à haute température en termes de ductilité accrue et d'élimination de l'effet de vieillissement dynamique (DSA). Pour améliorer davantage les propriétés à haute température de l'alliage L-PBF 625, un revêtement de liaison NiCrAlY a été nouvellement appliqué au substrat en alliage 625 par la même méthode (L-PBF) pour améliorer l'efficacité du processus de production et augmenter la résistance à l'oxydation/corrosion à haute température. Bien que leurs différentes propriétés thermiques aient conduit à de nombreux essais et erreurs dans la fabrication du matériau, les paramètres optimaux ont été définis et vérifiés pour évaluer le potentiel de commercialisation du procédé. La caractéristique de refusion du L-PBF a induit une bonne liaison entre le substrat et le revêtement, ce qui indique une bonne stabilité. Le comportement à l'oxydation de l'alliage 625 revêtu de NiCrAlY a été caractérisé par analyse thermo-gravimétrique (TGA) et des tests de chocs thermiques ; les résultats ont indiqué que le nouveau matériau avait une résistance à l'oxydation plus élevée que l'alliage 625 brut de fabrication. Par conséquent, le traitement thermique de GBS associé à un revêtement NiCrAlY efficace peut améliorer considérablement les propriétés mécaniques à haute température de l'alliage 625 fabriqué par L-PBF
In this study, Alloy 625 was fabricated by one of the most commonly used additive manufacturing (AM) methods, laser powder bed fusion (L-PBF), and its mechanical properties were evaluated at various temperatures. The L-PBF fabricated Alloy 625 showed high strength and relatively poor elongation. Thus, some heat treatments were applied to improve its performance. A solid-solution heat treatment with a temperature of more than 1000 °C was applied to the L-PBF Alloy 625, resulting in recrystallization because of high energy stored within the alloy attributed by high density of dislocations. This modified microstructure of the L-PBF Alloy 625 sample showed the required strength under tensile testing at room temperature (higher strength than wrought Alloy 625 and greater elongation than L-PBF as-built alloy). In view of enhancing mechanical properties at high temperature, a grain boundary serration (GBS) heat treatment was specifically designed for L-PBF Alloy 625. Because this was the first attempt to produce GBS in a high-Nb-content alloy, it was necessary to understand its mechanism first. To induce GBS, it is necessary for large solute atoms to move near the grain boundaries (GBs). Therefore, the GBS heat treatment was modified for application to the L-PBF Alloy 625. The specially designed GBS heat treatment successfully induced the zigzag patterns of serrated GBs for the first time. This GBS L-PBF Alloy 625 showed improved high-temperature mechanical properties in terms of increased ductility and elimination of the dynamic strain aging (DSA) effect at elevated temperatures. To further improve the high-temperature property of the L-PBF Alloy 625, NiCrAlY bond coat was applied to the Alloy 625 substrate by the same method (L-PBF) for the first time to improve the efficiency of the production process and increase the resistance to oxidation. Although their different thermal properties led to many trials and errors in the manufacturing of the material, the optimal parameters for applying NiCrAlY bond coat deposition by L-PBF were set and verified to assess the potential for the process to be commercialized. The remelting characteristic of L-PBF induced good metallurgical bonding between the substrate and coating, which indicates good stability. The oxidation behavior of the NiCrAlY-coated Alloy 625 was characterized by thermal gravimetric analysis (TGA) and thermal shock testing; the results indicated that the novel coated material had higher resistance to oxidation than bulk Alloy 625. Therefore, the GBS heat treatment together with efficient NiCrAlY coating can greatly improve the high-temperature mechanical properties of L-PBF manufactured Alloy 625

До бібліографії