Academic literature on the topic 'Décomposition en valeurs singulières'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Décomposition en valeurs singulières.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Décomposition en valeurs singulières"

1

Forest, Danielle, Christian Gouriéroux, and Lise Salvas-Bronsard. "D’une analyse de variabilités à un modèle d’investissement des firmes." L’économétrie des firmes et de la finance 73, no. 1-2-3 (February 9, 2009): 331–50. http://dx.doi.org/10.7202/602231ar.

Full text
Abstract:
RÉSUMÉ Nous introduisons une approche du général au spécifique adaptée à des données de panel. Ceci conduit à considérer des décompositions en valeurs singulières menées à partir d’équations d’analyse de la variance multivariées faisant apparaître les effets individuels et temporels. Nous utilisons cette méthodologie pour analyser la présence de contraintes de liquidité comme déterminant de l’investissement des firmes canadiennes.
APA, Harvard, Vancouver, ISO, and other styles
2

Leibovici, Didier, and Hamani El Maâche. "Une décomposition en valeurs singulières d'un élément d'un produit tensoriel de k espaces de Hilbert séparables." Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 325, no. 7 (October 1997): 779–82. http://dx.doi.org/10.1016/s0764-4442(97)80059-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Roux-Perez, Thérèse. "L'identité professionnelle des enseignants d'EPS : entre valeurs partagées et interprétations singulières." Staps 63, no. 1 (2004): 75. http://dx.doi.org/10.3917/sta.063.0075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Chapuis, Robert P. "Méthode de décomposition modale : description quantitative de la granulométrie et autres paramètres." Revue Française de Géotechnique, no. 154 (2018): 1. http://dx.doi.org/10.1051/geotech/2018001.

Full text
Abstract:
La méthode de décomposition modale (MDM) a été développée pour extraire d’une courbe granulométrique ses composantes lognormales, et leurs proportions dans l’échantillon analysé. Pour les études des eaux souterraines, on récupère des échantillons de sol de classe 4 ou 5, remaniés à très remaniés. Malgré le remaniement, la MDM récupère l’information sur la stratification. Elle permet alors de bien prédire la conductivité hydraulique, en tenant compte de cette stratification, une information clé pour bien comprendre la migration de l’eau souterraine. De plus, la MDM peut analyser la distribution des valeurs d’autres paramètres géotechniques.
APA, Harvard, Vancouver, ISO, and other styles
5

Mignon, Sophie, and Sihem Ben Mahmoud-Jouini. "L’interaction du capital social et de la gestion des ressources humaines dans les entreprises familiales pérennes." Management international 18, no. 3 (May 15, 2014): 82–95. http://dx.doi.org/10.7202/1025091ar.

Full text
Abstract:
L’objet de cet article est de comprendre comment la gestion des ressources humaines des entreprises familiales pérennes s’articule à la formation d’un capital social spécifique à ce type d’entreprises. L’étude s’appuie sur 12 études de cas approfondies parmi les plus grandes entreprises familiales françaises. L’analyse des discours a permis de mettre en évidence des pratiques récurrentes et singulières favorables à la formation d’un capital familial. Au-delà de ce constat, on peut s’interroger sur la possibilité de transposer les principes de continuité et de dimension collective aux entreprises non familiales, en d’autres termes de conduire les hommes selon des valeurs permettant à l’entreprise de retrouver sa vocation à créer du lien social.
APA, Harvard, Vancouver, ISO, and other styles
6

Ouarda, T. B. M. J., P. F. Rasmussen, B. Bobée, and J. Bernier. "Utilisation de l'information historique en analyse hydrologique fréquentielle." Revue des sciences de l'eau 11 (April 12, 2005): 41–49. http://dx.doi.org/10.7202/705328ar.

Full text
Abstract:
L'utilisation de l'information historique dans une analyse fréquentielle permet de mieux mobiliser l'information réellement disponible et devrait donc permettre d'améliorer l'estimation des quantiles de grande période de retour. Par information historique, on entend ici de l'information relative à des grandes crues qui se sont produites avant le début de la période de mesure (dite période de jaugeage systématique) des niveaux et débits des lacs et rivières. On observe de manière générale que l'utilisation de l'information historique conduit à une diminution de l'impact des valeurs singulières dans les séries d'enregistrements systématiques et à une diminution de l'écart-type des estimations. Dans le présent article on présente les méthodes statistiques qui permettent la modélisation de l'information historique.
APA, Harvard, Vancouver, ISO, and other styles
7

Orta de Velasquez, M. T., F. Servant, N. Martin, and A. Laplanche. "Effet de la matrice de l'eau sur l'élimination des micropolluants organiques par ozonation. Partie 1. Consommation spécifique de l'ozone dans un réacteur." Revue des sciences de l'eau 7, no. 2 (April 12, 2005): 169–82. http://dx.doi.org/10.7202/705195ar.

Full text
Abstract:
A partir des réactions possibles entre l'ozone, les radicaux et les principaux composants d'une eau à potabiliser, des formules théoriques de formations de radicaux et de décomposition de l'ozone sont établies. La matière organique est schématisée par les composés qui réagissent avec l'ozone (Si), les initiateurs, les promoteurs et les inhibiteurs de la réaction radicalaire (SIi, Sp,i, Ss,i). La décomposition de l'ozone est ensuite mesurée pour 56 eaux naturelles caractérisées par les analyses suivantes (pH, Absorbance à 254 nm, COT, Alcalinité). En se basant sur les connaissances acquises et les valeurs expérimentales du taux spécifique de consommation de l'ozone w, l'équation théorique est simplifiée et on obtient: -(d[O3]/dt)=([O3](∑kDlSl,i)(∑klDP,i[SP,i])) / ([HCO3-](k9+k10 10pH-10,25)) En prenant le COT comme représentatif des [Sp,i] (attaque radicalaire non sélective) et l'absorbance à 254 nm comme representative de SI,i (attaque directe sur les cycles aromatiques), une analyse multifactorielle permet d'obtenir l'expression: log10w = -3,93 + 0,24pH + 0,75 log10 Absorbance à 254 mm + 1,08 log10 COT - 0,19 log10 alcalinité L'équation ainsi obtenue peut être utilisée dans tous les modèles prédictifs faisant appel aux bilans massiques sur l'oxydant.
APA, Harvard, Vancouver, ISO, and other styles
8

Rossi, Virginia, Verónica Filardo, and Eduardo Chia. "Stratégies de résistance des agriculteurs familiaux face à l’avancée de l’agriculture capitaliste en Uruguay." Cahiers Agricultures 29 (2020): 16. http://dx.doi.org/10.1051/cagri/2020014.

Full text
Abstract:
La résistance des agriculteurs familiaux à l’avancée de l’agriculture capitaliste se traduit par des pratiques et des stratégies économiques, sociales et techniques singulières, qui leur confèrent des capacités de reproduction spécifiques. Notre principale hypothèse est la suivante : les modèles d’action à l’origine de la résistance des agriculteurs familiaux dépendent du contexte, de leur situation, de leurs projets et des valeurs qu’ils associent au métier d’agriculteur. Ces modèles sont situés historiquement et fabriqués collectivement. Nous avons développé une approche « compréhensive » des éleveurs familiaux en Uruguay et mobilisé le concept d’habitus afin d’identifier et d’étudier leurs pratiques et stratégies de résistance. À partir des macro-pratiques économiques, symboliques, éducatives et successorales nous avons identifié trois types de résistance : « Rendre la famille autonome », « Transmettre le patrimoine familial » et « Rester dans le réseau territorial ». L’habitus permet aux éleveurs étudiés de fabriquer et de maintenir une logique familiale « paysanne » à la base de leur stratégie de résistance.
APA, Harvard, Vancouver, ISO, and other styles
9

De Laat, Joseph, and Sophie Brachet. "Étude comparative des procédés d’oxydation avancée UV/chlore et UV/H2O2." Revue des sciences de l’eau 30, no. 1 (June 8, 2017): 41–46. http://dx.doi.org/10.7202/1040062ar.

Full text
Abstract:
L’étude comparative des vitesses de photodécomposition du chlore (0,05-50 mM; pH = 4,5-11,5; 25 °C) et du peroxyde d’hydrogène (0,1-100 mM; pH < 8,5) dans l’eau pure a montré que les valeurs des rendements quantiques globaux de photodécomposition de HOCl et de ClO‑ à 254 nm sont pratiquement identiques (Φ = 1,0 ± 0,1) à celui de H2O2 (Φ = 1,0) et ne varient pas avec la concentration initiale en chlore et en ions bicarbonate (0-10 mM; pH 8,5). La décomposition du chlore s’accompagne d’une production d’oxygène et de chlorate. L’étude de l’oxydation de l’acide benzoïque (pH ≈ 8) a montré que les vitesses décroissent dans l’ordre suivant : UV/chlore > UV/H2O2 >> UV seul >> chloration. Les analyses de chromatographie liquide haute pression (HPLC) ont montré que l’oxydation de l’acide benzoïque par le procédé UV/chlore conduit à plus de sous-produits de dégradation que par le procédé UV/H2O2 en raison de la formation de chlorophénols résultant de réactions initiées par le chlore et Cl•.
APA, Harvard, Vancouver, ISO, and other styles
10

Cordier, Laurent, Rémi Manceau, Joël Delville, and Jean-Paul Bonnet. "Sur la relation entre la théorie de la stabilité linéaire et la décomposition orthogonale aux valeurs propres: le cas de la couche de mélange plane turbulente." Comptes Rendus de l'Académie des Sciences - Series IIB - Mechanics-Physics-Chemistry-Astronomy 324, no. 9 (May 1997): 551–57. http://dx.doi.org/10.1016/s1251-8069(97)83188-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Décomposition en valeurs singulières"

1

Jin, Mei. "Caractérisation des excitations multiples et de la propagation vibratoire dans les structures utilisant la décomposition des valeurs singulières." Compiègne, 1994. http://www.theses.fr/1994COMP716S.

Full text
Abstract:
L'analyse des systèmes vibratoires est effectuée principalement avec l'objectif de diminuer le niveau des vibrations. Il est donc souhaitable de localiser et d'identifier les caractéristiques des sources de vibration et de bruit. Ce travail, effectué depuis plusieurs années à l’UTC s'inscrit dans le cadre des recherches sur les techniques d'identification de sources vibratoires et acoustiques. Cette thèse présente les résultats de nouveaux développements des méthodes d'identification basées sur les méthodes inverses qui peuvent être appliquées lorsque les sources sont multiples et corrélées. Les caractéristiques vibro-acoustiques de la structure sont obtenues par des mesures préliminaires des fonctions de réponses fréquentielles avec des excitations artificielles. Le modèle des transferts énergétique ainsi obtenu peut être utilisé en association avec la mesure des réponses avec des excitations réelles pour l'identification des sources. Cette identification est effectuée par la pseudo-inversion du modèle établi avec l'aide de la décomposition des valeurs singulières. Ces méthodes ont été testées sur plusieurs structures simples de type poutre et plaque. Des développements pour la caractérisation de l'intensité vibratoire ont permis de simplifier les mesures et l'interprétation des résultats pour les cas des excitations multiples. Un autre développement est prévu par la démonstration de la faisabilité d'un procédé d'optimisation du placement d'actionneur pour le contrôle actif vibratoire. L'intérêt et la faisabilité de la modélisation par la synthèse modale sont également démontrés par ces deux applications. Une nouvelle méthode d'identification des coefficients de réflexion en champ proche, pour des systèmes unidimensionnels, a aussi été développée. Les résultats de mesure des coefficients de réflexion sont utilisés pour caractériser les conditions aux limites du système. L'association de cette méthode avec celle de l'identification de sources offre la possibilité de vérifier et justifier les résultats obtenus.
APA, Harvard, Vancouver, ISO, and other styles
2

Loukhaoukha, Khaled. "Tatouage numérique des images dans le domaine des ondelettes basé sur la décomposition en valeurs singulières et l'optimisation multi-objective." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27715/27715.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lamy, Ronan. "Etude locale de la densité d'états du diborure de magnésium par microscopie/spectroscopie tunnel." Paris 6, 2004. http://www.theses.fr/2004PA066555.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Mouflard, Loïc. "Étude de mise en oeuvre d'un contrôleur vibratoire à grand nombre de canaux pour une suspension automobile Buick Century." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1592.

Full text
Abstract:
The main objective of this research project is to study the feasibility and effectiveness of active structural control of car's suspension. These structural vibrations are transmitted to the chassis and radiate noise, called road noise, inside the cabin of a car. This project should lead to a reduction of the level of noise inside the vehicle. This project is accomplished in collaboration with research group AUTO 21, GM Canada and Acoustics Group of Université de Sherbrooke (GAUS). Firstly, experimental measurements of primary vibroacoustic transfer functions have been performed on a vehicle stationed. The disturbance is provided by a shaker mounted on the axis of the wheel and the measurement is taken by microphones inside the cabin. Suspension and cabin modal frequencies have been identified in the frequency band [0-500] Hz. Then, experimental measurements of secondary vibroacoustic transfer functions have been performed on the vehicle. The secondary disturbance is provided by an inertial actuator mounted at different positions and different orientations on the suspension and the measurement is taken by microphones inside the cabin. Using optimal control, an estimated value of radiated noise reduction inside the cabin has been found for different actuator configurations. Finally, Singular Value Decomposition (SVD) has been tested with experimental data in order to find an actuator configuration able to reduce radiated noise inside the cabin for minimum effort and/or minimum number of control actuators.
APA, Harvard, Vancouver, ISO, and other styles
5

Ayvazyan, Vigen. "Etude de champs de température séparables avec une double décomposition en valeurs singulières : quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14671/document.

Full text
Abstract:
La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L’avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d’une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d’adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d’informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L’analyse de sensibilité, basée sur l’étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la «physique» des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé
Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the «physical» meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise
APA, Harvard, Vancouver, ISO, and other styles
6

Kone, Tenon Charly. "Étude Numérique d'identification des sources acoustiques d'une pale de ventilateur." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9789.

Full text
Abstract:
Dans les turbomachines, le bruit du volume tournant est considéré comme une source majeure d’inconfort. La connaissance et l’identification des sources de bruit du rotor sont primordiales pour la conception d’une machine silencieuse et énergétiquement plus efficace. Ce document examine la capacité à la fois de la décomposition orthogonale aux valeurs (POD) et la décomposition aux valeurs singulières (SVD) à identifier les zones sur la surface d’une source (pale de ventilateur) fixe ou en mouvement subsonique qui contribuent le plus à la puissance acoustique rayonnée. La méthode de calcul de la dynamique des fluides (CFD) du code source OpenFoam est utilisée comme une première étape pour évaluer le champ de pression à la surface de la pale en mouvement subsonique. Les fluctuations de ce champ de pression permettent d’estimer à la fois le bruit de charge et la puissance sonore qui est rayonnée par la pale basée sur l’analogie acoustique de Ffowcs Williams et Hawkings (FW&H). Dans une deuxième étape, le bruit de charge estimé est également utilisé tant pour les approches POD et SVD. On remarque que la puissance sonore reconstruite par les deux dernières approches en se fondant uniquement sur les modes acoustiques les plus importants est similaire à celle prédite par l’analogie de FW&H. De plus, les modes les plus rayonnants estimés par la méthode SVD sont projetés sur la surface de la pale, mettant ainsi en évidence leurs emplacements. Il est alors prévu que cette identification soit utilisée comme guide pour l’ingénieur dans la conception d’une roue moins bruyante.
APA, Harvard, Vancouver, ISO, and other styles
7

Peng, Kun. "Compression et vérification de visages pour les cartes d'identité à puce." Caen, 2009. http://www.theses.fr/2009CAEN2060.

Full text
Abstract:
Les cartes d’identité à puce remplaceront assurément celles en papier et deviennent la prochaine génération des cartes d’identité. Ce manuscrit de thèse présente et propose un système de carte d’identité à puce utilisant l’information biométrique faciale pour l’authentification d’identité, en suivant une stratégie de vérification d’identité contenant trois niveaux de sécurité : vérification manuelle hors ligne, vérification manuelle en ligne et vérification automatique. La tâche principale de vérification manuelle de visage en ligne est de trouver une façon compacte et sécuritaire de stocker une photographie du porteur de carte d’identité dans la puce. Nous proposons une méthode basée sur la décomposition de l’image faciale en deux parts qui sont stockés respectivement dans la carte et dans la base de données du système. La partie de vérification automatique de visage consiste principalement à élaborer un algorithme fiable de vérification de visage au contexte. Un nouveau schéma basé sur les modèles classe-spécifiques de visage est donc proposé. Et la technique Modèle Actif d’Apparence (AAM) est appliquée pour la modélisation et la représentation de visage. Afin d’améliorer la performance du système, nous avons développé un algorithme pour détecter les positions des yeux dans les images faciales, qui permet d’offrir une meilleure initialisation pour la mise en correspondance du modèle AAM, et une technique de génération de visages virtuels, qui permet d’enrichir la variété des modèles AAM classe-spécifiques. En vue de l’évaluation de la performance du système, la base de données XM2VTS et son protocole, Protocole Lausanne, sont choisis pour faire les expérimentations
Smart identification cards will undoubtedly replace the current paper-based ones and become the next generation of identification cards. This Ph. D. Thesis presents and proposes a smart identification card system using facial biometric information for identity authentification on following a strategy containing three security levels: manual verification offline, manual verification online and automatic verification. The principal task of manual face verification online is to find out a compact and secure way to stock a photograph of the identification card holder into the chip on the smart card. We bring out an idea based on decomposing the face image into two parts which are stocked into the card and the database of system respectively. An algorithm based on Singular Value Decomposition of 2D matrix is proposed to realize this idea. The work on automatic face verification faces mainly to establish a reliable face verification algorithm adapting to the context. A novel face verification scheme based on class-specific face models is proposed in this thesis. And the technique Active Appearance Model (AAM) is applied for face modeling and representation. To improve the performance of the system, we developed an algorithm of eye position detection, which can offer a better initialization for AAM matching, and a technique of virtual faces generation, which can enrich the variety of class-specific AAM models. In the sight of the performance evaluation of the proposed method, the database XM2VTS and the accompanied protocol, Lausanne Protocol, are selected to make the experiments
APA, Harvard, Vancouver, ISO, and other styles
8

Saidi, Fadila. "Caractérisation des champs électromagnétiques incidents à partir de mesure in situ pour l'évaluation du débit d'absorption spécifique." Paris 6, 2009. http://www.theses.fr/2009PA066753.

Full text
Abstract:
Le travail présenté dans cette thèse a pour objectif de proposer une méthode de caractérisation du champ électromagnétique incident par des antennes de télécommunications ou de radiodiffusion. Cette caractérisation est basée sur des mesures in situ au voisinage de ces antennes, et a pour but l'évaluation du DAS induit dans une personne se trouvant à ce voisinage et notamment les travailleurs amenés à intervenir sur les antennes. Après une étude de différentes techniques de mesures et de leur faisabilité, une analyse des méthodes de décomposition modale a été traitée. La méthode utilise la technique d'hybridation des mesures surfaciques du champ électromagnétique avec le calcul avec la méthode FDTD (Finite Difference in Time Domain) du DAS, en passant par la décomposition spectrale en ondes planes. Une autre technique a été abordée et validée pour deux fréquences d'intérêt consiste à optimiser l'exploitation des mesures pour implémenter le calcul FDTD par interpolation de données sur l'interface entre les mesures et le calcul à savoir la boite de Huygens. Cette technique a fait ces preuves en donnant des résultats avec une erreur faible de calcul une fois comparée à une approche classique où la mesure simulée était capable de fournir toutes les données nécessaires pour le calcul de la FDTD. Une dernière approche a été introduite, consistant à évaluer la répartition du DAS en utilisant des pré-calculs de réponses d'une base constituée à partir des modes d'ondes planes. L'idée derrière cette méthode est de rendre le processus de l'évaluation du DAS plus efficace en se passant de calculs lourds classiques et en les remplaçant par la simple combinaison de la projection du champ incident sur la base canonique prédéterminée avec pondération des coefficients de la décomposition en valeurs singulières. Les premiers résultats obtenus avec cette technique appliquée sur le fantôme utilisé et aux fréquences 100MHz et 900MHz sont très encourageants. Cette technique reste à être validée pour d'autres cas de fantôme et d'autres fréquences.
APA, Harvard, Vancouver, ISO, and other styles
9

Luu, Thi Hieu. "Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066120/document.

Full text
Abstract:
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision
In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy
APA, Harvard, Vancouver, ISO, and other styles
10

Leroux, Jean-Daniel. "Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système." Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5398.

Full text
Abstract:
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography