To see the other types of publications on this topic, follow the link: Décomposition en valeurs singulières SVD.

Dissertations / Theses on the topic 'Décomposition en valeurs singulières SVD'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 28 dissertations / theses for your research on the topic 'Décomposition en valeurs singulières SVD.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ayvazyan, Vigen. "Etude de champs de température séparables avec une double décomposition en valeurs singulières : quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14671/document.

Full text
Abstract:
La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L’avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d’une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d’adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d’informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L’analyse de sensibilité, basée sur l’étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la «physique» des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé<br>Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the «physical» meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise
APA, Harvard, Vancouver, ISO, and other styles
2

Akkari, Samy. "Contrôle d'un système multi-terminal HVDC (MTDC) et étude des interactions entre les réseaux AC et le réseau MTDC." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC069/document.

Full text
Abstract:
La multiplication des projets HVDC de par le monde démontre l'engouement toujours croissant pour cette technologie de transport de l'électricité. La grande majorité de ces transmissions HVDC correspondent à des liaisons point-à-point et se basent sur des convertisseurs AC/DC de type LCC ou VSC à 2 ou 3 niveaux. Les travaux de cette thèse se focalisent sur l'étude, le contrôle et la commande de systèmes HVDC de type multi-terminal (MTDC), avec des convertisseurs de type VSC classique ou modulaire multi-niveaux. La première étape consiste à obtenir les modèles moyens du VSC classique et du MMC. La différence fondamentale entre ces deux convertisseurs, à savoir la possibilité pour le MMC de stocker et de contrôler l'énergie des condensateurs des sous-modules, est détaillée et expliquée. Ces modèles et leurs commandes sont ensuite linéarisés et mis sous forme de représentations d'état, puis validés en comparant leur comportement à ceux de modèles de convertisseurs plus détaillés à l'aide de logiciels de type EMT. Une fois validés, les modèles d'état peuvent être utilisés afin de générer le modèle d'état de tout système de transmissions HVDC, qu'il soit point-à-point ou MTDC. La comparaison d'une liaison HVDC à base de VSCs classiques puis de MMCs est alors réalisée. Leurs valeurs propres sont étudiées et comparées, et les modes ayant un impact sur la tension DC sont identifiés et analysés. Cette étude est ensuite étendue à un système MTDC à 5 terminaux, et son analyse modale permet à la fois d'étudier la stabilité du système, mais aussi de comprendre l'origine de ses valeurs propres ainsi que leur impact sur la dynamique du système. La méthode de décomposition en valeurs singulières permet ensuite d'obtenir un intervalle de valeurs possibles pour le paramètre de"voltage droop", permettant ainsi le contrôle du système MTDC tout en s'assurant qu'il soit conforme à des contraintes bien définies, comme l'écart maximal admissible en tension DC. Enfin, une proposition de "frequency droop" (ou "statisme"), permettant aux convertisseurs de participer au réglage de la fréquence des réseaux AC auxquels ils sont connectés, est étudiée. Le frequency droop est utilisé conjointement avec le voltage droop afn de garantir le bon fonctionnement de la partie AC et de la partie DC. Cependant, l'utilisation des deux droop génère un couplage indésirable entre les deux commandes. Ces interactions sont mathématiquement quantifiées et une correction à apporter au paramètre de frequency droop est proposée. Ces résultats sont ensuite validés par des simulations EMT et par des essais sur la plate-forme MTDC du laboratoire L2EP<br>HVDC transmission systems are largely used worldwide, mostly in the form of back-to-back and point-to-point HVDC, using either thyristor-based LCC or IGBT-based VSC. With the recent deployment of the INELFE HVDC link between France and Spain, and the commissioning in China of a three-terminal HVDC transmission system using Modular Multilevel Converters (MMCs), a modular design of voltage source converters, the focus of the scientific community has shifted onto the analysis and control of MMC-based HVDC transmission systems. In this thesis, the average value models of both a standard 2-level VSC and an MMC are proposed and the most interesting difference between the two converter technologies -the control of the stored energy in the MMC- is emphasised and explained. These models are then linearised, expressed in state-space form and validated by comparing their behaviour to more detailed models under EMT programs. Afterwards, these state-space representations are used in the modelling of HVDC transmission systems, either point-to-point or Multi-Terminal HVDC (MTDC). A modal analysis is performed on an HVDC link, for both 2-level VSCs and MMCs. The modes of these two systems are specifed and compared and the independent control of the DC voltage and the DC current in the case of an MMC is illustrated. This analysis is extended to the scope of a 5-terminal HVDC system in order to perform a stability analysis, understand the origin of the system dynamics and identify the dominant DC voltage mode that dictates the DC voltage response time. Using the Singular Value Decomposition method on the MTDC system, the proper design of the voltage-droop gains of the controllers is then achieved so that the system operation is ensured within physical constraints, such as the maximum DC voltage deviation and the maximum admissible current in the power electronics. Finally, a supplementary droop "the frequency-droop control" is proposed so that MTDC systems also participate to the onshore grids frequency regulation. However, this controller interacts with the voltage-droop controller. This interaction is mathematically quantified and a corrected frequency-droop gain is proposed. This control is then illustrated with an application to the physical converters of the Twenties project mock-up
APA, Harvard, Vancouver, ISO, and other styles
3

Jin, Mei. "Caractérisation des excitations multiples et de la propagation vibratoire dans les structures utilisant la décomposition des valeurs singulières." Compiègne, 1994. http://www.theses.fr/1994COMP716S.

Full text
Abstract:
L'analyse des systèmes vibratoires est effectuée principalement avec l'objectif de diminuer le niveau des vibrations. Il est donc souhaitable de localiser et d'identifier les caractéristiques des sources de vibration et de bruit. Ce travail, effectué depuis plusieurs années à l’UTC s'inscrit dans le cadre des recherches sur les techniques d'identification de sources vibratoires et acoustiques. Cette thèse présente les résultats de nouveaux développements des méthodes d'identification basées sur les méthodes inverses qui peuvent être appliquées lorsque les sources sont multiples et corrélées. Les caractéristiques vibro-acoustiques de la structure sont obtenues par des mesures préliminaires des fonctions de réponses fréquentielles avec des excitations artificielles. Le modèle des transferts énergétique ainsi obtenu peut être utilisé en association avec la mesure des réponses avec des excitations réelles pour l'identification des sources. Cette identification est effectuée par la pseudo-inversion du modèle établi avec l'aide de la décomposition des valeurs singulières. Ces méthodes ont été testées sur plusieurs structures simples de type poutre et plaque. Des développements pour la caractérisation de l'intensité vibratoire ont permis de simplifier les mesures et l'interprétation des résultats pour les cas des excitations multiples. Un autre développement est prévu par la démonstration de la faisabilité d'un procédé d'optimisation du placement d'actionneur pour le contrôle actif vibratoire. L'intérêt et la faisabilité de la modélisation par la synthèse modale sont également démontrés par ces deux applications. Une nouvelle méthode d'identification des coefficients de réflexion en champ proche, pour des systèmes unidimensionnels, a aussi été développée. Les résultats de mesure des coefficients de réflexion sont utilisés pour caractériser les conditions aux limites du système. L'association de cette méthode avec celle de l'identification de sources offre la possibilité de vérifier et justifier les résultats obtenus.
APA, Harvard, Vancouver, ISO, and other styles
4

Loukhaoukha, Khaled. "Tatouage numérique des images dans le domaine des ondelettes basé sur la décomposition en valeurs singulières et l'optimisation multi-objective." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27715/27715.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lamy, Ronan. "Etude locale de la densité d'états du diborure de magnésium par microscopie/spectroscopie tunnel." Paris 6, 2004. http://www.theses.fr/2004PA066555.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Mouflard, Loïc. "Étude de mise en oeuvre d'un contrôleur vibratoire à grand nombre de canaux pour une suspension automobile Buick Century." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1592.

Full text
Abstract:
The main objective of this research project is to study the feasibility and effectiveness of active structural control of car's suspension. These structural vibrations are transmitted to the chassis and radiate noise, called road noise, inside the cabin of a car. This project should lead to a reduction of the level of noise inside the vehicle. This project is accomplished in collaboration with research group AUTO 21, GM Canada and Acoustics Group of Université de Sherbrooke (GAUS). Firstly, experimental measurements of primary vibroacoustic transfer functions have been performed on a vehicle stationed. The disturbance is provided by a shaker mounted on the axis of the wheel and the measurement is taken by microphones inside the cabin. Suspension and cabin modal frequencies have been identified in the frequency band [0-500] Hz. Then, experimental measurements of secondary vibroacoustic transfer functions have been performed on the vehicle. The secondary disturbance is provided by an inertial actuator mounted at different positions and different orientations on the suspension and the measurement is taken by microphones inside the cabin. Using optimal control, an estimated value of radiated noise reduction inside the cabin has been found for different actuator configurations. Finally, Singular Value Decomposition (SVD) has been tested with experimental data in order to find an actuator configuration able to reduce radiated noise inside the cabin for minimum effort and/or minimum number of control actuators.
APA, Harvard, Vancouver, ISO, and other styles
7

Peng, Kun. "Compression et vérification de visages pour les cartes d'identité à puce." Caen, 2009. http://www.theses.fr/2009CAEN2060.

Full text
Abstract:
Les cartes d’identité à puce remplaceront assurément celles en papier et deviennent la prochaine génération des cartes d’identité. Ce manuscrit de thèse présente et propose un système de carte d’identité à puce utilisant l’information biométrique faciale pour l’authentification d’identité, en suivant une stratégie de vérification d’identité contenant trois niveaux de sécurité : vérification manuelle hors ligne, vérification manuelle en ligne et vérification automatique. La tâche principale de vérification manuelle de visage en ligne est de trouver une façon compacte et sécuritaire de stocker une photographie du porteur de carte d’identité dans la puce. Nous proposons une méthode basée sur la décomposition de l’image faciale en deux parts qui sont stockés respectivement dans la carte et dans la base de données du système. La partie de vérification automatique de visage consiste principalement à élaborer un algorithme fiable de vérification de visage au contexte. Un nouveau schéma basé sur les modèles classe-spécifiques de visage est donc proposé. Et la technique Modèle Actif d’Apparence (AAM) est appliquée pour la modélisation et la représentation de visage. Afin d’améliorer la performance du système, nous avons développé un algorithme pour détecter les positions des yeux dans les images faciales, qui permet d’offrir une meilleure initialisation pour la mise en correspondance du modèle AAM, et une technique de génération de visages virtuels, qui permet d’enrichir la variété des modèles AAM classe-spécifiques. En vue de l’évaluation de la performance du système, la base de données XM2VTS et son protocole, Protocole Lausanne, sont choisis pour faire les expérimentations<br>Smart identification cards will undoubtedly replace the current paper-based ones and become the next generation of identification cards. This Ph. D. Thesis presents and proposes a smart identification card system using facial biometric information for identity authentification on following a strategy containing three security levels: manual verification offline, manual verification online and automatic verification. The principal task of manual face verification online is to find out a compact and secure way to stock a photograph of the identification card holder into the chip on the smart card. We bring out an idea based on decomposing the face image into two parts which are stocked into the card and the database of system respectively. An algorithm based on Singular Value Decomposition of 2D matrix is proposed to realize this idea. The work on automatic face verification faces mainly to establish a reliable face verification algorithm adapting to the context. A novel face verification scheme based on class-specific face models is proposed in this thesis. And the technique Active Appearance Model (AAM) is applied for face modeling and representation. To improve the performance of the system, we developed an algorithm of eye position detection, which can offer a better initialization for AAM matching, and a technique of virtual faces generation, which can enrich the variety of class-specific AAM models. In the sight of the performance evaluation of the proposed method, the database XM2VTS and the accompanied protocol, Lausanne Protocol, are selected to make the experiments
APA, Harvard, Vancouver, ISO, and other styles
8

Saidi, Fadila. "Caractérisation des champs électromagnétiques incidents à partir de mesure in situ pour l'évaluation du débit d'absorption spécifique." Paris 6, 2009. http://www.theses.fr/2009PA066753.

Full text
Abstract:
Le travail présenté dans cette thèse a pour objectif de proposer une méthode de caractérisation du champ électromagnétique incident par des antennes de télécommunications ou de radiodiffusion. Cette caractérisation est basée sur des mesures in situ au voisinage de ces antennes, et a pour but l'évaluation du DAS induit dans une personne se trouvant à ce voisinage et notamment les travailleurs amenés à intervenir sur les antennes. Après une étude de différentes techniques de mesures et de leur faisabilité, une analyse des méthodes de décomposition modale a été traitée. La méthode utilise la technique d'hybridation des mesures surfaciques du champ électromagnétique avec le calcul avec la méthode FDTD (Finite Difference in Time Domain) du DAS, en passant par la décomposition spectrale en ondes planes. Une autre technique a été abordée et validée pour deux fréquences d'intérêt consiste à optimiser l'exploitation des mesures pour implémenter le calcul FDTD par interpolation de données sur l'interface entre les mesures et le calcul à savoir la boite de Huygens. Cette technique a fait ces preuves en donnant des résultats avec une erreur faible de calcul une fois comparée à une approche classique où la mesure simulée était capable de fournir toutes les données nécessaires pour le calcul de la FDTD. Une dernière approche a été introduite, consistant à évaluer la répartition du DAS en utilisant des pré-calculs de réponses d'une base constituée à partir des modes d'ondes planes. L'idée derrière cette méthode est de rendre le processus de l'évaluation du DAS plus efficace en se passant de calculs lourds classiques et en les remplaçant par la simple combinaison de la projection du champ incident sur la base canonique prédéterminée avec pondération des coefficients de la décomposition en valeurs singulières. Les premiers résultats obtenus avec cette technique appliquée sur le fantôme utilisé et aux fréquences 100MHz et 900MHz sont très encourageants. Cette technique reste à être validée pour d'autres cas de fantôme et d'autres fréquences.
APA, Harvard, Vancouver, ISO, and other styles
9

Luu, Thi Hieu. "Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066120/document.

Full text
Abstract:
Afin d'exploiter au mieux son parc nucléaire, la R&amp;D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision<br>In order to optimize the operation of its nuclear power plants, the EDF's R&amp;D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy
APA, Harvard, Vancouver, ISO, and other styles
10

Bécavin, Christophe. "Reduction de dimensionalité et analyse des réseaux de voies de signalisation pour les données de transcriptome: Appliquation à la caractérisation des cellules T." Phd thesis, Ecole Normale Supérieure de Paris - ENS Paris, 2010. http://tel.archives-ouvertes.fr/tel-00563238.

Full text
Abstract:
Dans le contexte de l'étude pan-génomique de données d'expression des gènes (transcriptome), différents outils existent déjà. Parmi eux, les techniques de réduction de dimensionnalité cherchent les formes remarquables et les composants importants du système qui peuvent aider à résumer les données. Au cours de ma thèse, j'ai étudié en profondeur les différentes techniques existantes dans ce domaine. Nous avons ensuite développé notre propre approche basée sur la combinaison de la décomposition en valeurs singulières (Singular Value Decomposition) et le Multidimensional Scaling. Nous avons prouvé son utilité et sa précision. En plus des outils d'analyse de données spécifiques à l'étude de l'expression des gènes, nous avons développé un logiciel qui permet de correler l'expression des gènes à des réseaux d'interactions protéine-protéine. Et ceci afin de lier l'information sur l'expression des gènes à celle des interactions entre protéines (protéome) qui ont lieu au sein de la cellule. Tous les outils venant d'être décrits et de nombreux autres ont été utilisés afin d'analyser différent types de données biologiques. La première application a été de corréler l'expression d'auto-anticorps et de cytokines dans le corps humain lors d'une infection au paludisme. Nous avons déterminé des marqueurs spécifiques du paludisme cérébral, permetant à termes de prévenir et détecter plus tôt la maladie. La plus grande analyse que nous avons réalisé visait à définir le profil du transcriptome des cellules T régulatrices (Treg). Ces cellules sont détruites au cours d'une infection par le VIH, une bonne caractérisation moléculaire de celles-ci permettrait par exemple de mieux suivre l'évolution des Treg au cours des traitements pour le SIDA. Parmi les nouveaux marqueurs moléculaires de Treg que nous avons étudié, un nouveau facteur de transcription FOXLF a été découvert, qui pourrait jouer un rôle important dans l'apparition du caractère de "regulation" chez les Treg.
APA, Harvard, Vancouver, ISO, and other styles
11

Leroux, Jean-Daniel. "Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système." Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5398.

Full text
Abstract:
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
APA, Harvard, Vancouver, ISO, and other styles
12

Morice, Jacques. "Méthode multipôle rapide pour la résolution de l'équation de la radiosité en transfert radiatif." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13445.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Dejean-Viellard, Catherine. "Etude des techniques de régularisation en radiothérapie conformationnelle avec modulation d'intensité et évaluation quantitative des distributions de dose optimales." Toulouse 3, 2003. http://www.theses.fr/2003TOU30195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Ifrek, Lyes. "Identification des défauts d'une pile à combustible par la mesure du champ magnétique externe : vers la détermination de défauts locaux." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT076/document.

Full text
Abstract:
Ce travail a permis de développer une technique non invasive d’identification de la distribution du courant dans une pile à combustible à partir du champ magnétique externe. La mesure du champ s’effectue sur un ensemble de points de mesures choisis spécialement pour détecter les variations du champ par rapport à un fonctionnement optimal de la pile. Les deux composantes du champ magnétique sensibles aux variations sont utilisées. La mesure du champ exploitable est la différence entre un mode considéré sain et un mode quelconque de fonctionnement. Autour de ces mesures de champ magnétique, un problème inverse est modélisé en explorant plusieurs approches de paramétrisation de la distribution du courant. Le caractère mal posé du problème s’est traduit par la non-unicité de la solution et sa sensibilité au bruit. L’affranchissement de ces problèmes est atteint par la régularisation du modèle inverse. L’outil développé permis de reconstruire la distribution du courant indépendamment de la taille du défaut dans la limite de sensibilité. La validation est faite sur un simulateur électrique de pile à combustible et sur une pile de type GENEPAC dans un environnement de laboratoire<br>A noninvasive technique for identifying the current distribution in a fuel cell from the external magnetic field is developed. The magnetic field measurements are carried out on a set of points chosen in order to detect only the variations of the magnetic field in a case of a faulty fuel cell. Two components of the magnetic field are used because they are sensitive to current heterogeneities. The exploitable measurement of the magnetic field is the difference between a healthy mode and a faulty mode.An ill-posed inverse problem is modeled by investigating several parametrization approaches of the current distribution. The ill-posed property of the problem conducts to a non-uniqueness of the solution and a high sensitivity to the noise. A regularization method is used in order to get a stable solution. The developed tool allows identifying the current distribution independently of the size of the fault within the sensitivity limit. A validation is done on a fuel cell simulator and on a GENEPAC fuel cell in a laboratory conditions
APA, Harvard, Vancouver, ISO, and other styles
15

Hue, Valentin. "Simulation de mouvement humain sur postes de travail pour le diagnostic et l'aide à la conception." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2008. http://tel.archives-ouvertes.fr/tel-00652790.

Full text
Abstract:
Les travaux présentés dans ce mémoire concernent la génération automatique de postures et mouvements humains sur poste de travail industriel. L'objectif poursuivi est d'animer de façon réaliste un mannequin numérique a n de simuler un opérateur dans l'exécution de sa tâche. Cette animation doit permettre d'aider à l'analyse des facteurs biomécaniques pouvant engendrer des Troubles Musculo-Squelettiques. Dans un premier temps, des choix de modélisation sont proposés en fonction de ce contexte spécifique. Le modèle retenu se base sur une représentation squelettique du haut du corps composé de corps rigides et de liaisons idéales et intègre des données anthropométriques. Ensuite, un schéma général de lois de commande à base de modèle cinématique est développé. Il est décliné en plusieurs stratégies qui sont testées sur des mouvements caractéristiques et sur poste de travail. Ces tests et la comparaison aux mesures effectuées sur sujet humain permettent d'évaluer les performances du schéma de commande et les choix réalisés. Ces travaux ont donné naissance à un outil logiciel, baptisé OLARGE-TMS, de simulation de mouvement humain sur poste de travail.
APA, Harvard, Vancouver, ISO, and other styles
16

Desiderio, Luca. "H-matrix based Solver for 3D Elastodynamics Boundary Integral Equations." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLY002/document.

Full text
Abstract:
Cette thèse porte sur l'étude théorique et numérique des méthodes rapides pour résoudre les équations de l'élastodynamique 3D en domaine fréquentiel, et se place dans le cadre d'une collaboration avec la société Shell en vue d'optimiser la convergence des problèmes d'inversion sismique. La méthode repose sur l'utilisation des éléments finis de frontière (BEM) pour la discrétisation et sur les techniques de matrices hiérarchiques (H-matrices) pour l'accélération de la résolution du système linéaire. Dans le cadre de cette thèse on a développé un solveur direct pour les BEMs en utilisant une factorisation LU et un stockage hiérarchique. Si le concept des H-matrices est simple à comprendre, sa mise en oeuvre requiert des développements algorithmiques importants tels que la gestion de la multiplication de matrices représentées par des structures différentes (compressées ou non) qui ne comprend pas mois de 27 sous-cas. Un autre point délicat est l'utilisation des méthodes d'approximations par matrices compressées (de rang faible) dans le cadre des problèmes vectoriels. Une étude algorithmique a donc été faite pour mettre en oeuvre la méthode des H-matrices. Nous avons par ailleurs estimé théoriquement le rang faible attendu pour les noyaux oscillants, ce qui constitue une nouveauté, et montré que la méthode est utilisable en élastodynamique. En outre on a étudié l'influence des divers paramètres de la méthode en acoustique et en élastodynamique 3D, à fin de calibrer leur valeurs numériques optimales. Dans le cadre de la collaboration avec Shell, un cas test spécifique a été étudié. Il s'agit d'un problème de propagation d'une onde sismique dans un demi-espace élastique soumis à une force ponctuelle en surface. Enfin le solveur direct développé a été intégré au code COFFEE développé a POEMS (environ 25000 lignes en Fortran 90)<br>This thesis focuses on the theoretical and numerical study of fast methods to solve the equations of 3D elastodynamics in frequency-domain. We use the Boundary Element Method (BEM) as discretization technique, in association with the hierarchical matrices (H-matrices) technique for the fast solution of the resulting linear system. The BEM is based on a boundary integral formulation which requires the discretization of the only domain boundaries. Thus, this method is well suited to treat seismic wave propagation problems. A major drawback of classical BEM is that it results in dense matrices, which leads to high memory requirement (O (N 2 ), if N is the number of degrees of freedom) and computational costs.Therefore, the simulation of realistic problems is limited by the number of degrees of freedom. Several fast BEMs have been developed to improve the computational efficiency. We propose a fast H-matrix based direct BEM solver
APA, Harvard, Vancouver, ISO, and other styles
17

Le, Ny Mathieu. "Diagnostic non invasif de piles à combustible par mesure du champ magnétique proche." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00844407.

Full text
Abstract:
Cette thèse propose une technique innovante de diagnostic non invasive pour les systèmes piles à combustible. Cette technique s'appuie sur la mesure de la signature magnétique générée par ces systèmes. A l'aide de ces champs magnétiques externes, il est possible d'obtenir une cartographie de la densité de courant interne par résolution d'un problème inverse. Ce problème est néanmoins mal posé : la solution est non unique et est extrêmement sensible au bruit. Des techniques de régularisation ont ainsi été mises en place pour filtrer les erreurs de mesures et obtenir une solution physiquement acceptable. Afin d'augmenter la qualité de reconstruction des courants, nous avons conçu notre outil de diagnostic de manière à ce qu'il soit uniquement sensible aux défaillances de la pile (capteur de défauts). De plus, cette reconstruction se base sur un nombre extrêmement faible de mesures. Une telle approche facilite l'instrumentation du système et augmente la précision et la rapidité de celui-ci. La sensibilité de notre outil à certaines défaillances (assèchements, appauvrissement en réactifs, dégradations) est démontrée.
APA, Harvard, Vancouver, ISO, and other styles
18

Khan, Amir Ali. "Séparation de sources thermométriques." Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00477455.

Full text
Abstract:
Ce travail de thèse aborde un problème de la détection des fuites d'eau dans des digues en terre. L'écoulement préférentiel, un indicateur de destruction interne, résulte dans une anomalie thermique. Les capteurs DTS basés sur la fibre optique offrent une solution efficace pour les mesures spatio-temporelles de température. Les données thermométriques sont influencées par différents facteurs comme la réponse du sol, les variations saisonnières, l'environnement géomécanique, etc. Afin d'écarter des phénomènes comme les précipitations, nous proposons un critère basé sur le skewness et le kurtosis. La détection des fuites étant formulée comme un problème de séparation de sources, nous présentons un système basé sur la SVD et l'ICA pour séparer les informations utiles liées aux fuites des autres facteurs. Dans le cas où le nombre d'acquisitions en temps est limité, nous proposons un détecteur de singularités exploitant les dissimilarités entre les mesures journalières de température aux différentes distances.
APA, Harvard, Vancouver, ISO, and other styles
19

Spinnato, Juliette. "Modèles de covariance pour l'analyse et la classification de signaux électroencéphalogrammes." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4727/document.

Full text
Abstract:
Cette thèse s’inscrit dans le contexte de l’analyse et de la classification de signaux électroencéphalogrammes (EEG) par des méthodes d’analyse discriminante. Ces signaux multi-capteurs qui sont, par nature, très fortement corrélés spatialement et temporellement sont considérés dans le plan temps-fréquence. En particulier, nous nous intéressons à des signaux de type potentiels évoqués qui sont bien représentés dans l’espace des ondelettes. Par la suite, nous considérons donc les signaux représentés par des coefficients multi-échelles et qui ont une structure matricielle électrodes × coefficients. Les signaux EEG sont considérés comme un mélange entre l’activité d’intérêt que l’on souhaite extraire et l’activité spontanée (ou "bruit de fond"), qui est largement prépondérante. La problématique principale est ici de distinguer des signaux issus de différentes conditions expérimentales (classes). Dans le cas binaire, nous nous focalisons sur l’approche probabiliste de l’analyse discriminante et des modèles de mélange gaussien sont considérés, décrivant dans chaque classe les signaux en termes de composantes fixes (moyenne) et aléatoires. Cette dernière, caractérisée par sa matrice de covariance, permet de modéliser différentes sources de variabilité. Essentielle à la mise en oeuvre de l’analyse discriminante, l’estimation de cette matrice (et de son inverse) peut être dégradée dans le cas de grandes dimensions et/ou de faibles échantillons d’apprentissage, cadre applicatif de cette thèse. Nous nous intéressons aux alternatives qui se basent sur la définition de modèle(s) de covariance(s) particulier(s) et qui permettent de réduire le nombre de paramètres à estimer<br>The present thesis finds itself within the framework of analyzing and classifying electroencephalogram signals (EEG) using discriminant analysis. Those multi-sensor signals which are, by nature, highly correlated spatially and temporally are considered, in this work, in the timefrequency domain. In particular, we focus on low-frequency evoked-related potential-type signals (ERPs) that are well described in the wavelet domain. Thereafter, we will consider signals represented by multi-scale coefficients and that have a matrix structure electrodes × coefficients. Moreover, EEG signals are seen as a mixture between the signal of interest that we want to extract and spontaneous activity (also called "background noise") which is overriding. The main problematic is here to distinguish signals from different experimental conditions (class). In the binary case, we focus on the probabilistic approach of the discriminant analysis and Gaussian mixtures are used, describing in each class the signals in terms of fixed (mean) and random components. The latter, characterized by its covariance matrix, allow to model different variability sources. The estimation of this matrix (and of its inverse) is essential for the implementation of the discriminant analysis and can be deteriorated by high-dimensional data and/or by small learning samples, which is the application framework of this thesis. We are interested in alternatives that are based on specific covariance model(s) and that allow to decrease the number of parameters to estimate
APA, Harvard, Vancouver, ISO, and other styles
20

Monnier, Jean-Baptiste. "Quelques contributions en classification, régression et étude d'un problème inverse en finance." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00650930.

Full text
Abstract:
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
APA, Harvard, Vancouver, ISO, and other styles
21

Zepeda, Salvatierra Joaquin. "Nouvelles méthodes de représentations parcimonieuses ; application à la compression et l'indexation d'images." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00567851.

Full text
Abstract:
Une nouvelle structure de dictionnaire adaptés aux décompositions itératives de type poursuite, appelée un Iteration-Tuned Dictionary (ITD), est présentée. Les ITDs sont structurés en couche, chaque couche se composant d'un ensemble de dictionnaires candidats. Les décompositions itératives basées ITD sont alors réalisées en sélectionnant, à chaque itération i, l'un des dictionnaires de la i-ième couche. Une structure générale des ITDs est proposée, ainsi qu'une variante structurée en arbre appelée Tree-Structured Iteration-Tuned Dictionary (TSITD) et une version contrainte de cette dernière, appelée Iteration-Tuned and Aligned Dictionary (ITAD). Ces structures sont comparées à plusieurs méthodes de l'état de l'art et évaluées dans des applications de débruitage et de compression d'images. Un codec basé sur le schéma ITAD est également présenté et comparé à JPEG2000 dans des évaluations qualitatives et quantitatives. Dans le contexte de l'indexation d'images, un nouveau système de recherche approximative des plus proches voisins est également introduit, qui utilise les représentations parcimonieuses pour réduire la complexité de la recherche. La méthode traite l'instabilité dans la sélection des atomes lorsque l'image est soumise à de faibles transformations affines. Un nouveau système de conditionnement des données est également introduit, permettant de mieux distribuer les données sur la sphère unitaire tout en préservant leurs distances angulaires relatives. Il est montré que cette méthode améliore le compromis complexité/performance de la recherche approximative basée décompositions parcimonieuses.
APA, Harvard, Vancouver, ISO, and other styles
22

Marchand, Estelle. "Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants." Phd thesis, Université Paris Dauphine - Paris IX, 2007. http://tel.archives-ouvertes.fr/tel-00271632.

Full text
Abstract:
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
APA, Harvard, Vancouver, ISO, and other styles
23

Dufaud, Thomas. "Contribution to the development of Aitken Restricted Additive Schwarz preconditioning and application to linear systems arising from automatic differentiation of compressible Navier-Stokes solutions with respect to the simulation’s parameters." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10230/document.

Full text
Abstract:
Un préconditionneur à deux niveaux, reposant sur la technique d’accélération d’Aitken d’une suite de q vecteurs solutions de l’interface d’un pro- cessus itératif de Schwarz Additif Restreint, est conçu. Cette nouvelle technique, dénomée ARAS(q), utilise une approximation grossière de la solution sur l’interface. Différentes méthodes sont proposées, aboutissant au développement d’une tech- nique d’approximation par Décomposition en Valeures Singulières de la suite de vecteurs. Des implémentations parallèles des méthodes d’Aitken-Schwarz sont pro- posées et l’étude conduit à l’implémentation d’un code totalement algébrique, sur un ou deux niveaux de parallélisation MPI, écrit dans l’environnement de la biblio- thèque PETSc. Cette implémentation pleinement parallèle et algébrique procure un outil flexible pour la résolution de systèmes linéaires tels que ceux issus de la dif- férentiation automatique des solutions de Navier-Stokes dépendant des paramètres de la simulation<br>A two level preconditioner, based on the Aitken acceleration technique of a sequence of q interface’s solution vectors of the Restricted Additive Schwarz iterative process, is designed. This new technique, called ARAS(q), uses a coarse approximation of the solution on the interface. Different methods are discussed, leading to the development of an approximation technique by Singular Value De- composition of the sequence of vectors. Parallel implementations of Aitken-Schwarz methods are proposed, and the study leads to a fully algebraic one-level and two- level MPI implementation of ARAS(q) written into the PETSc library framework. This fully parallel and algebraic code gives an adaptive tool to solve linear systems such as those arising from automatic differentiation of compressible Navier-Stokes solution with respect to the simulation’s parameters
APA, Harvard, Vancouver, ISO, and other styles
24

Aubry, Alexandre. "Approche matricielle de l'opérateur de propagation des ondes ultrasonores en milieu diffusant aléatoire." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://pastel.archives-ouvertes.fr/pastel-00004213.

Full text
Abstract:
Cette thèse étudie les propriétés de l'opérateur de propagation des ondes ultrasonores en milieu aléatoire. Le dispositif expérimental consiste en un réseau multi-éléments placé en vis-à-vis d'un milieu désordonné. L'opérateur de propagation est donné par la matrice des réponses inter-éléments mesurées entre chaque couple de transducteurs. En s'appuyant sur la théorie des matrices aléatoires, le comportement statistique de cet opérateur a été étudié en régime de diffusion simple et multiple. Une cohérence déterministe des signaux est ainsi mise en évidence en régime de diffusion simple, cohérence qui disparaît dès que la diffusion multiple prédomine. Cette différence de comportement a permis la mise au point d'un radar intelligent séparant les échos simplement et multiplement diffusés. On peut ainsi extraire l'écho direct d'une cible échogène enfouie dans un milieu hautement diffusant, bien que ce dernier soit source de diffusion multiple et d'aberration. Une deuxième approche consiste, au contraire, à extraire une contribution de diffusion multiple noyée dans une contribution de diffusion simple largement prédominante. L'étude de l'intensité multiplement diffusée permet de mesurer des paramètres de transport (p.ex. la constante de diffusion D) caractérisant la propagation de l'onde multiplement diffusée. Un passage en champ lointain (ondes planes) permet d'obtenir une mesure fiable de D en étudiant le cône de rétrodiffusion cohérente. Un passage en champ proche, via l'utilisation de faisceaux gaussiens, permet d'effectuer des mesures locales de D en étudiant la croissance du halo diffusif. Cette approche a été appliquée au cas de l'os trabéculaire humain autour de 3 MHz.
APA, Harvard, Vancouver, ISO, and other styles
25

Gdoura, Souhir. "Identification électromagnétique de petites inclusions enfouies." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00651167.

Full text
Abstract:
L'objet de la thèse est la détection électromagnétique non-itérative de petits objets enfouis. Le problème direct de diffraction est abordé en utilisant une formule asymptotique rigoureuse du champ diffracté par des inclusions dont la taille caractéristique est petite devant la longueur d'onde de leur illumination dans le milieu d'enfouissement. La prise en compte de la diffraction multiple dans le cas de deux inclusions sphériques est abordée grâce à un tenseur de polarisation spécifique qui est calculé dans un système approprié de coordonnées bisphériques. Le modèle de Foldy-Lax est aussi utilisé afin de prendre en compte le couplage entre plusieurs inclusions. Les simulations numériques montrent que cet effet de couplage ne peut être ressenti qu'en leurs voisinages immédiats. Une configuration d'enfouissement en demi-espace est aussi étudiée en détail. Les dyades de Green alors nécessaires sont calculées de manière exacte par "force brutale" numérique. Puis trois méthodes approchées de calcul des intégrales de Sommerfeld qui sont impliquées sont proposées, les simulations montrant qu'elles font gagner un temps de calcul significatif dans le calcul de ces dyades, tout en étant de précision convenable. La prise en compte du couplage entre une sphère et l'interface est aussi investiguée grâce à un tenseur de polarisation adéquat en coordonnées bisphériques (de facto, une des deux sphères dégénère en cette interface). A chaque fois, les champs diffractés simulés par la méthode asymptotique sont comparés à des champs obtenus par la méthode dite des dipôles couplés (CDM). Les résultats montrent que la méthode asymptotique fournit des valeurs du champ diffracté satisfaisantes tant que les tailles des inclusions restent assez petites devant la longueur d'onde. L'algorithme d'imagerie MUSIC est quant à lui utilisé pour détecter ces inclusions à partir de leur matrice de réponse multistatique (MSR) collectée via un réseau plan d'extension limitée de dipôles émetteurs-récepteurs idéaux. L'analyse des valeurs et des vecteurs singuliers de la matrice MSR montre qu'il existe une différence entre les données calculées par la méthode asymptotique et celles calculées par la méthode CDM. Mais cette différence ne persiste pas si l'on considère des données bruitées, même à relativement faible niveau de bruit. Dans les deux cas, MUSIC permet une estimation fiable de la position des inclusions, la notion de "super-localisation" étant en particulier discutée. Une méthode est par ailleurs proposée afin de détecter l'angle d'inclinaison d'un ellipsoïde incliné enfoui.
APA, Harvard, Vancouver, ISO, and other styles
26

Boisvert, Maryse. "Réduction de dimension pour modèles graphiques probabilistes appliqués à la désambiguïsation sémantique." Thèse, 2004. http://hdl.handle.net/1866/16639.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Assous, Saïd. "Analyse temps-fréquence par la transformée en S et interprétation des signaux de fluxmétrie laser Doppler: applications au diagnostic clinique." Phd thesis, 2005. http://pastel.archives-ouvertes.fr/pastel-00001612.

Full text
Abstract:
aLa technique de fluxmétrie laser Doppler (LDF), est basée sur l'élargissement spectral d'une lumière monochromatique, qui interagit avec les globules rouges en mouvement dans le tissu. La densité spectrale de puissance de la lumière rétro-diffusée peut être utilisée pour l'estimation de la perfusion microvasculaire du tissu. L'objectif principal de ce travail est l'exploration de l'information contenue dans ce signal pour comprendre les phénomènes physiologiques qui se manifestent dans la microcirculation et de proposer des solutions d'aide au diagnostic des pathologies correspondantes. Le problème d'aide à la décision peut se présenter en étapes d'extraction de caractéristiques, réduction de dimensions et reconnaissance de formes. La représentation du signal est une étape cruciale pour l'interprétation et la prise de décision. Dans ce travail, la transformée en S, une représentation temps-fréquence linéaire qui surpasse le problème de la transformée de Fourier à fenêtre glissante de longueur fixe et qui corrige aussi la notion de phase dans la transformée en ondelettes pour l'analyse des signaux non stationnaires, est présentée. Cette transformée fournit un espace très convenable pour l'extraction de caractéristiques et la localisation en temps et en fréquences de l'information discriminante dans le signal LDF. Cette nouvelle approche a permis, entre autres, d'analyser les cinq fréquences caractéristiques contenues dans les signaux LDF et d'apporter une contributionà l'appréhension des signaux d'hypérémie réactionnelle. Du fait que les représentations temps-fréquence linéaires ont une dimension élevée, leur succès repose sur une forme appropriée de réduction e dimensions. La décomposition en valeurs singuliµeres des coe±cients du plan temps-fréquence se montre très prometteuse pour garder les informations pertinentes du signal et rejeter celles qui ne le sont pas. Ses vecteurs singuliers reflètent le comportement spectral dans le temps des différentes activités physiologiques présentes dans le signal de fluxmétrie laser Doppler.
APA, Harvard, Vancouver, ISO, and other styles
28

Tang, Kim Oanh. "Projection de la mortalité aux âges avancées au Canada : comparaison de trois modèles." Thèse, 2009. http://hdl.handle.net/1866/7899.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography