To see the other types of publications on this topic, follow the link: Paramètre de régularisation.

Dissertations / Theses on the topic 'Paramètre de régularisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Paramètre de régularisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gérard, Anthony. "Bruit de raie des ventilateurs axiaux : Estimation des sources aéroacoustiques par modèles inverse et Méthodes de contrôle." Phd thesis, Université de Poitiers, 2006. http://tel.archives-ouvertes.fr/tel-00162200.

Full text
Abstract:
Malgré les progrès accomplis dans la réduction du bruit des ventilateurs axiaux subsoniques, le bruit de raie basse fréquence, composante gênante du bruit, demeure difficile à contrôler. Aux basses fréquences, l'ajout de matériaux absorbants est inefficace et les silencieux encombrants et coûteux. Il faut alors faire appel à des "mesures curatives", comme le contrôle actif acoustique ou le contrôle actif à la source. Les contributions de ces travaux de doctorat sont : 1) l'estimation des sources aéroacoustiques du bruit de raie par modèle inverse, 2) une méthode de contrôle actif nécessitant un seul haut-parleur et 3) une méthode de contrôle passif adaptatif basée sur l'ajout d'obstructions dans l'écoulement. Les développements théoriques menés dans cette thèse sont valides pour les ventilateurs axiaux subsoniques et les expériences ont été réalisées sur un ventilateur de radiateur d'automobile.
APA, Harvard, Vancouver, ISO, and other styles
2

Vaiter, Samuel. "Régularisations de Faible Complexité pour les Problèmes Inverses." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01026398.

Full text
Abstract:
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
APA, Harvard, Vancouver, ISO, and other styles
3

Desbat, Laurent. "Critères de choix des paramètres de régularisation : application à la déconvolution." Grenoble 1, 1990. http://www.theses.fr/1990GRE10058.

Full text
Abstract:
Le principe de- régularisation permet de choisir une solution stable aux problèmes inverses mal posés, tels que la déconvolution. Le filtrage adaptatif est souvent un cas particulier de régularisation quadratique. II propose, au moyen de paramètres de régularisation, un compromis entre l'adéquation aux données et la stabilité de la solution. Après avoir montré la nécessité de leur régularisation, nous présentons de nouvelles méthodes de choix des paramètres de régularisation basées sur l'estimation de l'erreur de reconstruction, plus performantes que le critère de validation croisée généralisée lorsque le problème est très mal conditionné. Nous proposons des applicatoins de ces estimateurs lors de l'introduction des informations de support et de positivité. Une implémentation sur un hypercube de l'algorithme de FFT est étudiée, celle du Gradient Conjugué est abordée
APA, Harvard, Vancouver, ISO, and other styles
4

Tran, Duc Toan. "Reconstruction de sollicitations dynamiques par méthodes inverses." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10146.

Full text
Abstract:
Dans le domaine de l'ingénierie, connaitre le chargement appliqué sur une structure permet de résoudre des problèmes directs dont le résultat est le champ de déplacement, de déformation dans une structure. Il est alors possible d'effectuer un dimensionnement. Cependant, parfois ce chargement doit être identifie a posteriori. Malheureusement, il n'est pas toujours possible de mesurer ce chargement : ainsi, par exemple, on ne sait pas a priori où aura lieu le chargement, ou bien il n'est pas possible de placer un capteur sans l'endommager ou encore il peut nécessiter un encombrement trop important. On a alors recours à des mesures indirectes de déplacement, de déformation, d'accélération et on est alors amené à résoudre des problèmes inverses, qui sont en général mal posés. Il est alors nécessaire d'ajouter une (des) conditions supplémentaire(s) pour obtenir une solution unique et stable : c'est la régularisation du problème. Ces techniques sont bien connues et leur essor est dû à l'utilisation des décompositions en valeurs singulières des matrices de transfert. Toutefois, elles nécessitent l'utilisation d'un paramètre additionnel qui pondère cette condition supplémentaire : la détermination de ce paramètre est délicate. Peu de travaux ayant été réalisé pour tester de façon intensive les méthodes usuelles de régularisation (Tikhonov et troncature de la (G)SVD), en association avec les différents critères de détermination du paramètre de régularisation et les différentes réponses possibles, on a effectué un tel travail pour tirer des conclusions sur la méthodologie optimale. On a pu mettre en évidence que la mesure de l'accélération associée à un critère faisant intervenir les dérivées du signal à reconstruire donne en général les meilleurs résultats sous réserve d'utiliser le critère GCV pour déterminer le paramètre de régularisation. Ces méthodes supposent que la localisation de la zone de chargement est connue. Aussi on s'est intéressé à déduire cette zone de chargement en tentant de reconstruire des chargements identiquement nuls. Cette identification a été effectuée aisément sous réserve qu'on ait peu de forces à identifier par rapport au nombre de mesures disponibles. En revanche une telle identification est délicate lorsqu'on n'a pas plus de mesures que de forces à identifier. Finalement on s'est tourné vers l'identification de chargement ayant plastifié la structure étudiée. On a alors essayé de reconstruire le chargement en supposant que la structure reste linéaire élastique, alors qu'elle a été plastifiée : on a utilisé la méthode du double chargement et effectue des simulations à l'aide du logiciel de simulation Ls-dyna.La force reconstruite fait alors apparaitre une composante statique traduisant la déformation résiduelle dans la structure. Dans ce cas, la réponse à utiliser pour identifier le chargement est une déformation dans une zone non plastifiée
In the field of the engineering, knowing the load applied on the structure which allows to solve the direct problem of which the results are given the field of displacement and strain in a structure. It is possible to perform a dimensioning. However, sometimes this load must be identified a posteriori. Unfortunately, it is not always possible to measure this load. Thus, for example, we do not know a priori where it will be loaded, either it is not possible to place a sensor without damaging it or needs too much space. We then have to use indirect measures of displacement, strain, acceleration and then we are lead to solve the inverse problems which are generally an ill-posed. It is then necessary to add one (or more) conditions to obtain a unique and stable solution: it is the regularization of the problem. These techniques are well known and their development is due to the use of the singular value decomposition of the transfer matrix. However, they require the use of an additional parameter that weights this additional condition: the determination of this parameter is difficult. Few studies having been realized in way the usual regularization methods of (Tikhonov and truncation of the (G)SVD), in association with the various criteria for determining the regularization parameter and the various possible responses, we conducted a such work, to draw conclusions on the optimal methodology. It has been highlighted that the measurement of the acceleration associated with a criterion involving the derived signal to reconstruct generally gives the best results via the GCV criterion to determine the regularization parameter. These methods suppose that the location of the loading area is known. We also were interested to deduct this loading area while trying to reconstruct load that is identically zero. This identification was performed easily that has little load to identify compared to the number of measurements available. However such identification is difficult when there are no more measures than loads to identify. Finally we turned to the identification of loading with the plastic structure. We then tried to reconstruct the load assuming that the structure remains linear-elastic, while it was plasticized: we used the method of the double load and performed simulations using the software ls-dyna. The reconstructed load then shows a static component reflecting the residual strain in the structure. In this case, the response used to identify the load is a strain in a non-plasticized zone
APA, Harvard, Vancouver, ISO, and other styles
5

Dejean-Viellard, Catherine. "Etude des techniques de régularisation en radiothérapie conformationnelle avec modulation d'intensité et évaluation quantitative des distributions de dose optimales." Toulouse 3, 2003. http://www.theses.fr/2003TOU30195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Nus, Ludivine. "Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0163/document.

Full text
Abstract:
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois
This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood
APA, Harvard, Vancouver, ISO, and other styles
7

Seyed, Aghamiry Seyed Hossein. "Imagerie sismique multi-paramètre par reconstruction de champs d'ondes : apport de la méthode des multiplicateurs de Lagrange avec directions alternées (ADMM) et des régularisations hybrides." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4090.

Full text
Abstract:
La FWI (Full Waveform Inversion) est un problème d'optimisation sous contraintes dédié à l'estimation des paramètres constitutifs du sous-sol à partir de mesures parcimonieuses des champs d'ondes sismiques. La FWI est fondée sur des approches locales d'optimisation et sur un espace de recherche réduit obtenu par projection de variables. La non linéarité et le caractère mal posé de la FWI sont deux difficultés majeures. Une source de non linéarité est liée au repliement de la phase, qui conduit à un minimum local dès que le modèle initial n'est pas suffisamment précis. Le caractère mal posé résulte de l'éclairage incomplet du sous-sol depuis la surface, le bruit et les couplages inter-paramètres. L'objectif de cette thèse est de réduire ces deux pathologies par de nouvelles approches d'optimisation et de régularisation. J'améliore tout d'abord la méthode d'inversion par reconstruction des champs d'onde (WRI : Wavefield Reconstruction Inversion). WRI étend l'espace de recherche en calculant les champs d'onde avec une relaxation de l'équation d'onde afin d'ajuster les données avec des modèles imprécis avant d'estimer les paramètres en minimisant les erreurs générées par cette relaxation. Quand ces deux estimations sont effectuées de manière alternée, WRI décompose l'inversion non linéaire en deux sous-problèmes linéaires en vertu de la bilinéarité de l'équation d'onde. WRI a été implémentée avec une méthode de pénalité, nécessitant une adaptation du paramètre de pénalité lors des itérations. Je remédie à cela avec ADMM (Alternating-Direction Method of Multipliers), qui concilie l'extension de l'espace de recherche et la précision de la solution au point de convergence avec un paramètre de pénalité fixe grâce à la mise à jour itérative des multiplicateurs de Lagrange. Une seconde contribution est l'implémentation de contraintes de bornes et de régularisation par variation totale (TV) dans WRI. Suivant la méthode de Split Bregman, des variables auxiliaires permettent de découpler les termes impliquant des normes ℓ2 et ℓ1 et de traiter les seconds efficacement avec des opérateurs de proximité. Ensuite, j'ai combiné une régularisation de Tikhonov et de TV par convolution infimale pour prendre en compte les différentes propriétés statistiques du milieu (constantes par morceau et lisses). Ma thèse aborde ensuite des reconstructions multi-paramètres. Je montre dans un premier temps que la bilinéarité de l'équation d'onde est vérifiée pour les équations de l'elastodynamique. Ensuite, je traite le cas de milieux acoustique VTI où je reconstruis conjointement la vitesse verticale et epsilon pour un modèle synthétique représentatif d'un champ pétrolier en mer du Nord. Je m'intéresse ensuite à l'imagerie de l'atténuation qui est introduite en domaine harmonique sous forme d'une vitesse complexe. J'étends WRI à la reconstruction de paramètres complexes tout en développant une régularisation adaptable à la vitesse réelle et au facteur de qualité. Durant les premières itérations, les champs d'onde reconstruits sont précis uniquement au voisinage des récepteurs. Les imprécisions de la phase pourraient avoir un rôle préjudiciable sur la solution de l'inversion. Afin de réduire cette empreinte, j'estime les paramètres par "phase retrieval", un processus qui vise la reconstruction d'un signal complexe à partir de l'amplitude de sa mesure linéaire. Une fois un premier modèle obtenu, je réinjecte l'information de la phase pour converger vers la solution finale. Je montre la pertinence de cette stratégie lorsque le modèle initial est homogène. WRI a été initialement développée dans le domaine fréquentiel car la reconstruction des champs d'onde y est raisonnablement aisée avec des méthodes d'algèbre linéaire. En domaine temporel, une approche fondée sur un schéma explicite d'intégration temporelle a été proposée mais repose sur une linéarisation autour des sources supposées connues
Full Waveform Inversion (FWI) is a PDE-constrained optimization which reconstructs subsurface parameters from sparse measurements of seismic wavefields. FWI generally relies on local optimization techniques and a reduced-space approach where the wavefields are eliminated from the variables. In this setting, two bottlenecks of FWI are nonlinearity and ill-posedness. One source of nonlinearity is cycle skipping, which drives the inversion to spurious minima when the starting subsurface model is not kinematically accurate enough. Ill-posedness can result from incomplete subsurface illumination, noise and parameter cross-talks. This thesis aims to mitigate these pathologies with new optimization and regularization strategies. I first improve the wavefield reconstruction method (WRI). WRI extends the FWI search space by computing wavefields with a relaxation of the wave equation to match the data from inaccurate parameters. Then, the parameters are updated by minimizing wave equation errors with either alternating optimization or variable projection. In the former case, WRI breaks down FWI into to linear subproblems thanks to wave equation bilinearity. WRI was initially implemented with a penalty method, which requires a tedious adaptation of the penalty parameter in iterations. Here, I replace the penalty method by the alternating-direction method of multipliers (ADMM). I show with numerical examples how ADMM conciliates the search space extension and the accuracy of the solution at the convergence point with fixed penalty parameters thanks to the dual ascent update of the Lagrange multipliers. The second contribution is the implementation of bound constraints and non smooth Total Variation (TV) regularization in ADMM-based WRI. Following the Split Bregman method, suitable auxiliary variables allow for the de-coupling of the ℓ1 and ℓ2 subproblems, the former being solved efficiently with proximity operators. Then, I combine Tikhonov and TV regularizations by infimal convolution to account for the different statistical properties of the subsurface (smoothness and blockiness). At the next step, I show the ability of sparse promoting regularization in reconstruction the model when ultralong offset sparse fixed-spread acquisition such as those carried out with OBN are used. This thesis continues with the extension of the ADMM-based WRI to multiparameter reconstruction in vertical transversely isotropic (VTI) acoustic media. I first show that the bilinearity of the wave equation is satisfied for the elastodynamic equations. I discuss the joint reconstruction of the vertical wavespeed and epsilon in VTI media. Second, I develop ADMM-based WRI for attenuation imaging, where I update wavefield, squared-slowness, and attenuation in an alternating mode since viscoacoustic wave equation can be approximated, with a high degree of accuracy, as a multilinear equation. This alternating solving provides the necessary flexibility to taylor the regularization to each parameter class and invert large data sets. Then, I overcome some limitations of ADMM-based WRI when a crude initial model is used. In this case, the reconstructed wavefields are accurate only near the receivers. The inaccuracy of phase of the wavefields may be the leading factor which drives the inversion towards spurious minimizers. To mitigate the role of the phase during the early iterations, I update the parameters with phase retrieval, a process which reconstructs a signal from magnitude of linear mesurements. This approach combined with efficient regularizations leads to more accurate reconstruction of the shallow structure, which is decisive to drive ADMM-based WRI toward good solutions at higher frequencies. The last part of this PhD is devoted to time-domain WRI, where a challenge is to perform accurate wavefield reconstruction with acceptable computational cost
APA, Harvard, Vancouver, ISO, and other styles
8

Marteau, Clément. "Recherche d'inégalités oracles pour des problèmes inverses." Phd thesis, Université de Provence - Aix-Marseille I, 2007. http://tel.archives-ouvertes.fr/tel-00384095.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes inverses dans un cadre statistique. A partir des observations $Y=Af+\epsilon \xi$, le but est d'approximer aussi fidèlement que possible la fonction f où $A$ représente un opérateur compact, $\epsilon>0$ le niveau de bruit et $\xi$ un bruit blanc gaussien. Etant données une procédure $f^{\star}$ et une collection d'estimateurs $\Lambda$, une inégalité
oracle permet de comparer, sans aucune hypothèse sur la fonction cible $f$ et d'un point de vue non-asymptotique, les performances de $f^{\star}$ à celles du meilleur estimateur dans $\Lambda$
connaissant $f$. Dans l'optique d'obtenir de telles inégalités, cette thèse s'articule autour de deux objectifs: une meilleure compréhension des problèmes inverses lorsque l'opérateur est
mal-connu et l'extension de l'algorithme de minimisation de l'enveloppe du risque (RHM) à un domaine d'application plus large.
La connaissance complète de l'opérateur A est en effet une hypothèse implicite dans la plupart des méthodes existantes. Il est cependant raisonnable de penser que ce dernier puisse être en partie, voire totalement inconnu. Dans un premier temps, nous généralisons donc la méthode de Stein par blocs pénalisée ainsi que l'algorithme RHM à cette situation. Ce dernier, initié par L. Cavalier et Y. Golubev, améliore considérablement les performances de la traditionnelle méthode d'estimation du risque sans biais. Cependant, cette nouvelle procédure ne concerne que les estimateurs par projection. En pratique, ces derniers sont souvent moins performants que les estimateurs de Tikhonov ou les procédures itératives, dans un certain sens beaucoup plus fines. Dans la dernière partie, nous étendons donc l'utilisation de l'enveloppe du risque à une gamme beaucoup plus large d'estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
9

Tardivel, Patrick. "Représentation parcimonieuse et procédures de tests multiples : application à la métabolomique." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30316/document.

Full text
Abstract:
Considérons un vecteur gaussien Y de loi N (m,sigma²Idn) et X une matrice de dimension n x p avec Y observé, m inconnu, Sigma et X connus. Dans le cadre du modèle linéaire, m est supposé être une combinaison linéaire des colonnes de X. En petite dimension, lorsque n ≥ p et que ker (X) = 0, il existe alors un unique paramètre Beta* tel que m = X Beta* ; on peut alors réécrire Y sous la forme Y = X Beta* + Epsilon. Dans le cadre du modèle linéaire gaussien en petite dimension, nous construisons une nouvelle procédure de tests multiples contrôlant le FWER pour tester les hypothèses nulles Beta*i = 0 pour i appartient à [[1,p]]. Cette procédure est appliquée en métabolomique au travers du programme ASICS qui est disponible en ligne. ASICS permet d'identifier et de quantifier les métabolites via l'analyse des spectres RMN. En grande dimension, lorsque n < p on a ker (X) ≠ 0, ainsi le paramètre Beta* décrit précédemment n'est pas unique. Dans le cas non bruité lorsque Sigma = 0, impliquant que Y = m, nous montrons que les solutions du système linéaire d'équations Y = X Beta avant un nombre de composantes non nulles minimales s'obtiennent via la minimisation de la "norme" lAlpha avec Alpha suffisamment petit
Let Y be a Gaussian vector distributed according to N (m,sigma²Idn) and X a matrix of dimension n x p with Y observed, m unknown, sigma and X known. In the linear model, m is assumed to be a linear combination of the columns of X In small dimension, when n ≥ p and ker (X) = 0, there exists a unique parameter Beta* such that m = X Beta*; then we can rewrite Y = Beta* + Epsilon. In the small-dimensional linear Gaussian model framework, we construct a new multiple testing procedure controlling the FWER to test the null hypotheses Beta*i = 0 for i belongs to [[1,p]]. This procedure is applied in metabolomics through the freeware ASICS available online. ASICS allows to identify and to qualify metabolites via the analyse of RMN spectra. In high dimension, when n < p we have ker (X) ≠ 0 consequently the parameter Beta* described above is no longer unique. In the noiseless case when Sigma = 0, implying thus Y = m, we show that the solutions of the linear system of equation Y = X Beta having a minimal number of non-zero components are obtained via the lalpha with alpha small enough
APA, Harvard, Vancouver, ISO, and other styles
10

Pascal, Barbara. "Estimation régularisée d'attributs fractals par minimisation convexe pour la segmentation de textures : formulations variationnelles conjointes, algorithmes proximaux rapides et sélection non supervisée des paramètres de régularisation; Applications à l'étude du frottement solide et de la microfluidique des écoulements multiphasiques." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN042.

Full text
Abstract:
Cette thèse propose plusieurs procédures pour la segmentation de textures auto-similaires s'appuyant sur deux attributs fractals : l'exposant de Hölder, quantifiant la régularité locale d'une texture, et la variance locale. Un modèle de textures fractales homogènes par morceaux est construit, accompagné d'une procédure de synthèse, fournissant des images composées d'un assemblage de textures fractales d'attributs fixés et de segmentation connue, utilisées pour évaluer les performances des méthodes proposées.Une première méthode, reposant sur la régularisation par Variation Totale d'une estimée brute de la régularité locale, est illustrée, et augmentée d'une étape de post-traitement par seuillage itératif fournissant ainsi une segmentation. Après avoir pointé les limites de cette approche, deux méthodes de segmentation, à contours « libres » ou « co-localisés », sont construites, prenant conjointement en compte la régularité et la variance locales.Ces deux procédures sont formulés comme des problèmes de minimisation de fonctionnelles convexes non lisses.Nous montrons que les fonctionnelles à pénalisations « libre » et « co-localisée » sont toutes deux fortement convexes, et calculons leur module de forte-convexité.Plusieurs schémas de minimisation sont dérivés, et leurs vitesses de convergence sont comparées.Les performances de segmentation des différentes méthodes sont quantifiées sur un large panel de données synthétiques, dans des configurations de difficulté croissante, ainsi que sur des images réelles et comparées aux méthodes de l’état-de-l'art, tels que les réseaux de neurones convolutionnels.Une application à la segmentation d'images provenant d'expériences sur les écoulements multiphasiques en milieu poreux est présentée.Une stratégie, dérivée de l'estimateur SURE de l'erreur quadratique, est mise en oeuvre pour le réglage automatique des hyperparamètres impliqués dans la construction des fonctionnelles à pénalisations « libre » et « co-localisée »
In this doctoral thesis several scale-free texture segmentation procedures based on two fractal attributes, the Hölder exponent, measuring the local regularity of a texture, and local variance, are proposed.A piecewise homogeneous fractal texture model is built, along with a synthesis procedure, providing images composed of the aggregation of fractal texture patches with known attributes and segmentation. This synthesis procedure is used to evaluate the proposed methods performance.A first method, based on the Total Variation regularization of a noisy estimate of local regularity, is illustrated and refined thanks to a post-processing step consisting in an iterative thresholding and resulting in a segmentation.After evidencing the limitations of this first approach, deux segmentation methods, with either "free" or "co-located" contours, are built, taking in account jointly the local regularity and the local variance.These two procedures are formulated as convex nonsmooth functional minimization problems.We show that the two functionals, with "free" and "co-located" penalizations, are both strongly-convex. and compute their respective strong convexity moduli.Several minimization schemes are derived, and their convergence speed are compared.The segmentation performance of the different methods are evaluated over a large amount of synthetic data in configurations of increasing difficulty, as well as on real world images, and compared to state-of-the-art procedures, including convolutional neural networks.An application for the segmentation of multiphasic flow through a porous medium experiment images is presented.Finally, a strategy for automated selection of the hyperparameters of the "free" and "co-located" functionals is built, inspired from the SURE estimator of the quadratic risk
APA, Harvard, Vancouver, ISO, and other styles
11

Bashtova, Kateryna. "Modélisation et identification de paramètres pour les empreintes des faisceaux de haute énergie." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4112/document.

Full text
Abstract:
Le progrès technologique nécessite des techniques de plus en plus sophistiquées et précises de traitement de matériaux. Nous étudions le traitement de matériaux par faisceaux de haute énergie : un jet d’eau abrasif, une sonde ionique focalisée, un laser. L’évolution de la surface du matériau sous l’action du faisceau de haute énergie est modélisée par une EDP. Cette équation contient l’ensemble des coefficients inconnus - les paramètres de calibration de mo- dèle. Les paramètres inconnus peuvent être calibrés par minimisation de la fonction coût, c’est-à-dire, la fonction qui décrit la différence entre le résultat de la modélisation et les données expérimentales. Comme la surface modélisée est une solution du problème d’EDP, cela rentre dans le cadre de l’optimisation sous contrainte d’EDP. L’identification a été rendue bien posée par la régularisation du type Tikhonov. Le gradient de la fonction coût a été obtenu en utilisant les deux méthodes : l’approche adjointe et la différen- ciation automatique. Une fois la fonction coût et son gradient obtenus, nous avons utilisé un minimiseur L-BFGS pour réaliser la minimisation.Le problème de la non-unicité de la solution a été résolu pour le problème de traitement par le jet d’eau abrasif. Des effets secondaires ne sont pas inclus dans le modèle. Leur impact sur le procédé de calibration a été évité. Ensuite, le procédé de calibration a été validé pour les données synthétiques et expérimentales. Enfin, nous avons proposé un critère pour distinguer facilement entre le régime thermique et non- thermique d’ablation par laser
The technological progress demands more and more sophisticated and precise techniques of the treatment of materials. We study the machining of the material with the high energy beams: the abrasive waterjet, the focused ion beam and the laser. Although the physics governing the energy beam interaction with material is very different for different application, we can use the same approach to the mathematical modeling of these processes.The evolution of the material surface under the energy beam impact is modeled by PDE equation. This equation contains a set of unknown parameters - the calibration parameters of the model. The unknown parameters can be identified by minimization of the cost function, i.e., function that describes the differ- ence between the result of modeling and the corresponding experimental data. As the modeled surface is a solution of the PDE problem, this minimization is an example of PDE-constrained optimization problem. The identification problem was regularized using Tikhonov regularization. The gradient of the cost function was obtained both by using the variational approach and by means of the automatic differentiation. Once the cost function and its gradient calculated, the minimization was performed using L-BFGS minimizer.For the abrasive waterjet application the problem of non-uniqueness of numerical solution is solved. The impact of the secondary effects non included into the model is avoided as well. The calibration procedure is validated on both synthetic and experimental data.For the laser application, we presented a simple criterion that allows to distinguish between the thermal and non-thermal laser ablation regimes
APA, Harvard, Vancouver, ISO, and other styles
12

Chaari, Lotfi. "Problèmes de reconstruction en Imagerie par Résonance Magnétique parallèle à l'aide de représentations en ondelettes." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00575136.

Full text
Abstract:
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le "k-space". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
13

Acheli, Dalila. "Application de la méthode des sentinelles à quelques problèmes inverses." Compiègne, 1997. http://www.theses.fr/1997COMP1034.

Full text
Abstract:
L'objectif de notre travail est l'application de la méthode des sentinelles pour résoudre deux problèmes inverses. Il s'agit d'estimer les paramètres de deux modèles donnés, à partir de mesures effectuées sur les processus. Le cadre étant non linéaire, l'estimation des paramètres s'effectue de manière itérative à l'aide de la méthode des sentinelles tangentes. Le premier problème abordé concerne l'environnement dont les paramètres à estimer sont les coordonnées de la trajectoire d'une source de pollution dans une rivière. Le phénomène de pollution est modélisé par un système d'équations aux dérivées partielles. Le second problème étudié, entre dans un cadre médical où le but est d'estimer les paramètres cinétiques dans une réaction enzymatique. Le modèle considéré est un système d'équations différentielles. Nous montrons tout d'abord l'existence et l'unicité de la solution de ce système, ensuite, nous étudions la stabilité de la solution à l'aide de la fonction de Lyapounov. Sous certaines hypothèses, nous montrons l'identifiabilité globale des paramètres basée sur l'algèbre différentielle et sur le développement de Taylor. Nous donnons aussi une étude détaillée de la sensibilité de l'observation par rapport aux paramètres du modèle. Afin de vérifier l'efficacité de la méthode des sentinelles, nous la testons sur des données bruitées. Cette méthode est déficiente dès que le bruit sur les mesures devient important. Le problème inverse est dans ce cas mal posé dans le sens où une perturbation de la donnée entraîne une forte variation de la solution. Parmi les techniques employées pour mieux conditionner le problème, la technique de régularisation itérative de Gauss-Newton reste inefficace. Nous proposons alors une nouvelle approche de régularisation, appelée "méthode de régularisation itérative de Tikhonov". Des tests menés sur différents types d'expériences en pharmacocinétique, montrent que cette approche est robuste par rapport au bruit de mesure et permet une bonne identification des paramètres
The aim of our work is the application of the sentinels method to salve two inverse problems. It concerns the parameters estimation of two given models using measures undertaken on the process. The framework being nonlinear, the estimation of the parameters is performed in an iterative manner by the tangent sentinels method. The first problem concerns the environment for which the parameters to be estimated are the coordinates of the pollution source trajectory in a river. The pollution phenomenon is governed by a PDE's system. The second problem studied, deals with the medical framework. The aim is to estimate the kinetic parameters in the enzymatic reaction. The model considered here is a differential equations system. First, we show the existence and the uniqueness of the system solution. Then, we study the stability of the solution using the Lyapounov function. Assuming certain hypotheses, the global identifiability of parameters based on the differential algebra and Taylor development is shown. We also give a detailed study of the observation sensitivity with respect to the model parameters. Ln order to check the efficiency of this method, some tests were clone on noised data. This method becomes deficient as the noise on measures becomes important. Ln this case the inverse problem is ill-posed because a perturbation in the data will implies an important change in the solution. Among the techniques employed to improve the conditionement of the problem, the Gauss-Newton iterative regularization technique remains inefficient. Therefore, we propose a new approach of regularization, called "iterative regularized Tichonov method". Some tests were conducted on different types of experiences in pharmacokinetic. They show that this approach is robust with respect to noise measures and allows good parameters identification
APA, Harvard, Vancouver, ISO, and other styles
14

Zhang, Mo. "Vers une méthode de restauration aveugle d’images hyperspectrales." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S132.

Full text
Abstract:
Nous proposons dans cette thèse de développer une méthode de restauration aveugle d'images flouées et bruitées où aucune connaissance a priori n'est exigée. Ce manuscrit est composé de trois chapitres : le 1er chapitre est consacré aux travaux de l'état de l'art. Les approches d'optimisation pour la résolution du problème de restauration y sont d'abord discutées. Ensuite les principales méthodes de restauration, dites semi-aveugles car nécessitant un minimum de connaissance a priori sont analysées. Parmi ces méthodes, cinq sont retenues pour évaluation. Le 2ème chapitre est dédié à la comparaison des performances des méthodes retenues dans le chapitre précédent. Les principaux critères objectifs d'évaluation de la qualité des images restaurées sont présentés. Parmi ces critères, la norme L1 de l'erreur d'estimation est sélectionnée. L'étude comparative menée sur une banque d'images monochromes, dégradées artificiellement par deux fonctions floues de supports différents et trois niveaux de bruit a permis de mettre en évidence les deux méthodes les plus pertinentes. La première repose sur une approche alternée mono-échelle où la PSF et l'image sont estimées dans une seule étape. La seconde utilise une approche hybride multi-échelle qui consiste tout d'abord à estimer de manière alternée la PSF et une image latente, puis dans une étape suivante séquentielle, à restaurer l'image. Dans l'étude comparative conduite, l'avantage revient à cette dernière. Les performances de ces méthodes serviront de référence pour comparer ensuite la méthode développée. Le 3ème chapitre porte sur la méthode développée. Nous avons cherché à rendre aveugle l'approche hybride retenue dans le chapitre précédent tout en améliorant la qualité d'estimation de la PSF et de l'image restaurée. Les contributions ont porté sur plusieurs points. Une première série d'améliorations concerne la redéfinition des échelles, celle de l'initialisation de l'image latente à chaque niveau d'échelle, l'évolution des paramètres pour la sélection des contours pertinents servant de support à l'estimation de la PSF et enfin, la définition d'un critère d'arrêt aveugle. Une seconde série de contributions a porté sur l'estimation aveugle des deux paramètres de régularisation impliqués pour éviter d'avoir à les fixer empiriquement. Chaque paramètre est associé à une fonction coût distincte l'une pour l'estimation de la PSF et la seconde pour l'estimation d'une image latente. Dans l'étape séquentielle qui suit, nous avons cherché à affiner le support de la PSF estimée dans l'étape alternée, avant de l'exploiter dans le processus de restauration de l'image. A ce niveau, la seule connaissance a priori nécessaire est une borne supérieure du support de la PSF. Les différentes évaluations conduites sur des images monochromes et hyperspectrales dégradées artificiellement par plusieurs flous de type mouvement, de supports différents, montrent une nette amélioration de la qualité de restauration obtenue par l'approche développée par rapport aux deux meilleures approches de l'état de l'art retenues
We propose in this thesis manuscript to develop a blind restoration method of single component blurred and noisy images where no prior knowledge is required. This manuscript is composed of three chapters: the first chapter focuses on state-of-art works. The optimization approaches for resolving the restoration problem are discussed first. Then, the main methods of restoration, so-called semi-blind ones because requiring a minimum of a priori knowledge are analysed. Five of these methods are selected for evaluation. The second chapter is devoted to comparing the performance of the methods selected in the previous chapter. The main objective criteria for evaluating the quality of the restored images are presented. Of these criteria, the l1 norm for the estimation error is selected. The comparative study conducted on a database of monochromatic images, artificially degraded by two blurred functions with different support size and three levels of noise, revealed the most two relevant methods. The first one is based on a single-scale alternating approach where both the PSF and the image are estimated alternatively. The second one uses a multi-scale hybrid approach, which consists first of alternatingly estimating the PSF and a latent image, then in a sequential next step, restoring the image. In the comparative study performed, the benefit goes to the latter. The performance of both these methods will be used as references to then compare the newly designed method. The third chapter deals with the developed method. We have sought to make the hybrid approach retained in the previous chapter as blind as possible while improving the quality of estimation of both the PSF and the restored image. The contributions covers a number of points. A first series concerns the redefinition of the scales that of the initialization of the latent image at each scale level, the evolution of the parameters for the selection of the relevant contours supporting the estimation of the PSF and finally the definition of a blind stop criterion. A second series of contributions concentrates on the blind estimation of the two regularization parameters involved in order to avoid having to fix them empirically. Each parameter is associated with a separate cost function either for the PSF estimation or for the estimation of a latent image. In the sequential step that follows, we refine the estimation of the support of the PSF estimated in the previous alternated step, before exploiting it in the process of restoring the image. At this level, the only a priori knowledge necessary is a higher bound of the support of the PSF. The different evaluations performed on monochromatic and hyperspectral images artificially degraded by several motion-type blurs with different support sizes, show a clear improvement in the quality of restoration obtained by the newly designed method in comparison to the best two state-of-the-art methods retained
APA, Harvard, Vancouver, ISO, and other styles
15

Song, Yingying. "Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0207/document.

Full text
Abstract:
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances
A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
APA, Harvard, Vancouver, ISO, and other styles
16

Bennani, Youssef. "Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données
This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
APA, Harvard, Vancouver, ISO, and other styles
17

Ndiaye, Eugene. "Safe optimization algorithms for variable selection and hyperparameter tuning." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT004/document.

Full text
Abstract:
Le traitement massif et automatique des données requiert le développement de techniques de filtration des informations les plus importantes. Parmi ces méthodes, celles présentant des structures parcimonieuses se sont révélées idoines pour améliorer l’efficacité statistique et computationnelle des estimateurs, dans un contexte de grandes dimensions. Elles s’expriment souvent comme solution de la minimisation du risque empirique régularisé s’écrivant comme une somme d’un terme lisse qui mesure la qualité de l’ajustement aux données, et d’un terme non lisse qui pénalise les solutions complexes. Cependant, une telle manière d’inclure des informations a priori, introduit de nombreuses difficultés numériques pour résoudre le problème d’optimisation sous-jacent et pour calibrer le niveau de régularisation. Ces problématiques ont été au coeur des questions que nous avons abordées dans cette thèse.Une technique récente, appelée «Screening Rules», propose d’ignorer certaines variables pendant le processus d’optimisation en tirant bénéfice de la parcimonie attendue des solutions. Ces règles d’élimination sont dites sûres lorsqu’elles garantissent de ne pas rejeter les variables à tort. Nous proposons un cadre unifié pour identifier les structures importantes dans ces problèmes d’optimisation convexes et nous introduisons les règles «Gap Safe Screening Rules». Elles permettent d’obtenir des gains considérables en temps de calcul grâce à la réduction de la dimension induite par cette méthode. De plus, elles s’incorporent facilement aux algorithmes itératifs et s’appliquent à un plus grand nombre de problèmes que les méthodes précédentes.Pour trouver un bon compromis entre minimisation du risque et introduction d’un biais d’apprentissage, les algorithmes d’homotopie offrent la possibilité de tracer la courbe des solutions en fonction du paramètre de régularisation. Toutefois, ils présentent des instabilités numériques dues à plusieurs inversions de matrice, et sont souvent coûteux en grande dimension. Aussi, ils ont des complexités exponentielles en la dimension du modèle dans des cas défavorables. En autorisant des solutions approchées, une approximation de la courbe des solutions permet de contourner les inconvénients susmentionnés. Nous revisitons les techniques d’approximation des chemins de régularisation pour une tolérance prédéfinie, et nous analysons leur complexité en fonction de la régularité des fonctions de perte en jeu. Il s’ensuit une proposition d’algorithmes optimaux ainsi que diverses stratégies d’exploration de l’espace des paramètres. Ceci permet de proposer une méthode de calibration de la régularisation avec une garantie de convergence globale pour la minimisation du risque empirique sur les données de validation.Le Lasso, un des estimateurs parcimonieux les plus célèbres et les plus étudiés, repose sur une théorie statistique qui suggère de choisir la régularisation en fonction de la variance des observations. Ceci est difficilement utilisable en pratique car, la variance du modèle est une quantité souvent inconnue. Dans de tels cas, il est possible d’optimiser conjointement les coefficients de régression et le niveau de bruit. Ces estimations concomitantes, apparues dans la littérature sous les noms de Scaled Lasso, Square-Root Lasso, fournissent des résultats théoriques aussi satisfaisants que celui du Lasso tout en étant indépendant de la variance réelle. Bien que présentant des avancées théoriques et pratiques importantes, ces méthodes sont aussi numériquement instables et les algorithmes actuellement disponibles sont coûteux en temps de calcul. Nous illustrons ces difficultés et nous proposons à la fois des modifications basées sur des techniques de lissage pour accroitre la stabilité numérique de ces estimateurs, ainsi qu’un algorithme plus efficace pour les obtenir
Massive and automatic data processing requires the development of techniques able to filter the most important information. Among these methods, those with sparse structures have been shown to improve the statistical and computational efficiency of estimators in a context of large dimension. They can often be expressed as a solution of regularized empirical risk minimization and generally lead to non differentiable optimization problems in the form of a sum of a smooth term, measuring the quality of the fit, and a non-smooth term, penalizing complex solutions. Although it has considerable advantages, such a way of including prior information, unfortunately introduces many numerical difficulties both for solving the underlying optimization problem and to calibrate the level of regularization. Solving these issues has been at the heart of this thesis. A recently introduced technique, called "Screening Rules", proposes to ignore some variables during the optimization process by benefiting from the expected sparsity of the solutions. These elimination rules are said to be safe when the procedure guarantees to not reject any variable wrongly. In this work, we propose a unified framework for identifying important structures in these convex optimization problems and we introduce the "Gap Safe Screening Rules". They allows to obtain significant gains in computational time thanks to the dimensionality reduction induced by this method. In addition, they can be easily inserted into iterative algorithms and apply to a large number of problems.To find a good compromise between minimizing risk and introducing a learning bias, (exact) homotopy continuation algorithms offer the possibility of tracking the curve of the solutions as a function of the regularization parameters. However, they exhibit numerical instabilities due to several matrix inversions and are often expensive in large dimension. Another weakness is that a worst-case analysis shows that they have exact complexities that are exponential in the dimension of the model parameter. Allowing approximated solutions makes possible to circumvent the aforementioned drawbacks by approximating the curve of the solutions. In this thesis, we revisit the approximation techniques of the regularization paths given a predefined tolerance and we propose an in-depth analysis of their complexity w.r.t. the regularity of the loss functions involved. Hence, we propose optimal algorithms as well as various strategies for exploring the parameters space. We also provide calibration method (for the regularization parameter) that enjoys globalconvergence guarantees for the minimization of the empirical risk on the validation data.Among sparse regularization methods, the Lasso is one of the most celebrated and studied. Its statistical theory suggests choosing the level of regularization according to the amount of variance in the observations, which is difficult to use in practice because the variance of the model is oftenan unknown quantity. In such case, it is possible to jointly optimize the regression parameter as well as the level of noise. These concomitant estimates, appeared in the literature under the names of Scaled Lasso or Square-Root Lasso, and provide theoretical results as sharp as that of theLasso while being independent of the actual noise level of the observations. Although presenting important advances, these methods are numerically unstable and the currently available algorithms are expensive in computation time. We illustrate these difficulties and we propose modifications based on smoothing techniques to increase stability of these estimators as well as to introduce a faster algorithm
APA, Harvard, Vancouver, ISO, and other styles
18

Li, Xuhong. "Regularization schemes for transfer learning with convolutional networks." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2497/document.

Full text
Abstract:
L’apprentissage par transfert de réseaux profonds réduit considérablement les coûts en temps de calcul et en données du processus d’entraînement des réseaux et améliore largement les performances de la tâche cible par rapport à l’apprentissage à partir de zéro. Cependant, l’apprentissage par transfert d’un réseau profond peut provoquer un oubli des connaissances acquises lors de l’apprentissage de la tâche source. Puisque l’efficacité de l’apprentissage par transfert vient des connaissances acquises sur la tâche source, ces connaissances doivent être préservées pendant le transfert. Cette thèse résout ce problème d’oubli en proposant deux schémas de régularisation préservant les connaissances pendant l’apprentissage par transfert. Nous examinons d’abord plusieurs formes de régularisation des paramètres qui favorisent toutes explicitement la similarité de la solution finale avec le modèle initial, par exemple, L1, L2, et Group-Lasso. Nous proposons également les variantes qui utilisent l’information de Fisher comme métrique pour mesurer l’importance des paramètres. Nous validons ces approches de régularisation des paramètres sur différentes tâches de segmentation sémantique d’image ou de calcul de flot optique. Le second schéma de régularisation est basé sur la théorie du transport optimal qui permet d’estimer la dissimilarité entre deux distributions. Nous nous appuyons sur la théorie du transport optimal pour pénaliser les déviations des représentations de haut niveau entre la tâche source et la tâche cible, avec le même objectif de préserver les connaissances pendant l’apprentissage par transfert. Au prix d’une légère augmentation du temps de calcul pendant l’apprentissage, cette nouvelle approche de régularisation améliore les performances des tâches cibles et offre une plus grande précision dans les tâches de classification d’images par rapport aux approches de régularisation des paramètres
Transfer learning with deep convolutional neural networks significantly reduces the computation and data overhead of the training process and boosts the performance on the target task, compared to training from scratch. However, transfer learning with a deep network may cause the model to forget the knowledge acquired when learning the source task, leading to the so-called catastrophic forgetting. Since the efficiency of transfer learning derives from the knowledge acquired on the source task, this knowledge should be preserved during transfer. This thesis solves this problem of forgetting by proposing two regularization schemes that preserve the knowledge during transfer. First we investigate several forms of parameter regularization, all of which explicitly promote the similarity of the final solution with the initial model, based on the L1, L2, and Group-Lasso penalties. We also propose the variants that use Fisher information as a metric for measuring the importance of parameters. We validate these parameter regularization approaches on various tasks. The second regularization scheme is based on the theory of optimal transport, which enables to estimate the dissimilarity between two distributions. We benefit from optimal transport to penalize the deviations of high-level representations between the source and target task, with the same objective of preserving knowledge during transfer learning. With a mild increase in computation time during training, this novel regularization approach improves the performance of the target tasks, and yields higher accuracy on image classification tasks compared to parameter regularization approaches
APA, Harvard, Vancouver, ISO, and other styles
19

Kervazo, Christophe. "Optimization framework for large-scale sparse blind source separation." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS354/document.

Full text
Abstract:
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées
During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed
APA, Harvard, Vancouver, ISO, and other styles
20

Essebbar, Abderrahman. "Séparation paramétrique des ondes en sismique." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00785644.

Full text
Abstract:
Dans cette étude, nous nous intéressons à la séparation des ondes sismiques, traitement principal conditionnant toute interprétation physique des données. En première partie, les méthodes de séparation non paramétriques (Matrice spectrale, Transformée de Karhunen-Loève et Filtrage FK) sont étudiées. La limitation de ces méthodes nous a conduit à utiliser l'approche paramétrique. Cette approche fait apparaître une modélisation qui permet de tenir compte des divers types d'ondes sismiques. La séparation paramétrique des ondes utilise l'estimateur du maximum de vraisemblance. Elle est réalisée en estimant les différents paramètres (lenteur apparente, amplitude, forme de l'onde, phase et angle d'incidence) caractérisant chaque onde. Les différentes méthodes d'estimation ainsi que les limites et les performances de la séparation paramétrique sont étudiées en deuxième partie. Les résultats de cette étude sont appliqués, en dernière partie, au traitement des signaux sismiques de puits issus d'une expérimentation ainsi qu'à des ondes dispersives de sismique de, surface.
APA, Harvard, Vancouver, ISO, and other styles
21

Nassif, Roula. "Estimation distribuée adaptative sur les réseaux multitâches." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4118/document.

Full text
Abstract:
L’apprentissage adaptatif distribué sur les réseaux permet à un ensemble d’agents de résoudre des problèmes d’estimation de paramètres en ligne en se basant sur des calculs locaux et sur des échanges locaux avec les voisins immédiats. La littérature sur l’estimation distribuée considère essentiellement les problèmes à simple tâche, où les agents disposant de fonctions objectives séparables doivent converger vers un vecteur de paramètres commun. Cependant, dans de nombreuses applications nécessitant des modèles plus complexes et des algorithmes plus flexibles, les agents ont besoin d’estimer et de suivre plusieurs vecteurs de paramètres simultanément. Nous appelons ce type de réseau, où les agents doivent estimer plusieurs vecteurs de paramètres, réseau multitâche. Bien que les agents puissent avoir différentes tâches à résoudre, ils peuvent capitaliser sur le transfert inductif entre eux afin d’améliorer les performances de leurs estimés. Le but de cette thèse est de proposer et d’étudier de nouveaux algorithmes d’estimation distribuée sur les réseaux multitâches. Dans un premier temps, nous présentons l’algorithme diffusion LMS qui est une stratégie efficace pour résoudre les problèmes d’estimation à simple-tâche et nous étudions théoriquement ses performances lorsqu’il est mis en oeuvre dans un environnement multitâche et que les communications entre les noeuds sont bruitées. Ensuite, nous présentons une stratégie de clustering non-supervisé permettant de regrouper les noeuds réalisant une même tâche en clusters, et de restreindre les échanges d’information aux seuls noeuds d’un même cluster
Distributed adaptive learning allows a collection of interconnected agents to perform parameterestimation tasks from streaming data by relying solely on local computations and interactions with immediate neighbors. Most prior literature on distributed inference is concerned with single-task problems, where agents with separable objective functions need to agree on a common parameter vector. However, many network applications require more complex models and flexible algorithms than single-task implementations since their agents involve the need to estimate and track multiple objectives simultaneously. Networks of this kind, where agents need to infer multiple parameter vectors, are referred to as multitask networks. Although agents may generally have distinct though related tasks to perform, they may still be able to capitalize on inductive transfer between them to improve their estimation accuracy. This thesis is intended to bring forth advances on distributed inference over multitask networks. First, we present the well-known diffusion LMS strategies to solve single-task estimation problems and we assess their performance when they are run in multitask environments in the presence of noisy communication links. An improved strategy allowing the agents to adapt their cooperation to neighbors sharing the same objective is presented in order to attain improved learningand estimation over networks. Next, we consider the multitask diffusion LMS strategy which has been proposed to solve multitask estimation problems where the network is decomposed into clusters of agents seeking different
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography