Academic literature on the topic 'Paramètre de régularisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Paramètre de régularisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Paramètre de régularisation"

1

Sibille, P., and C. Defranoux-Igier. "Mise en oeuvre d'une technique de régularisation pour l'estimation de paramètres physiques : application à un banc d'essai électro-mécanique." J3eA 4 (2005): 015. http://dx.doi.org/10.1051/bib-j3ea:2005715.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Chatonnet, Pascal, and Jean-Noël Boidron. "Incidence du traitement thermique du bois de chêne sur sa composition chimique. 1ere partie : définition des paramètres thermiques de la chauffe des fûts en tonnellerie." OENO One 23, no. 2 (June 30, 1989): 77. http://dx.doi.org/10.20870/oeno-one.1989.23.2.1725.

Full text
Abstract:
<p style="text-align: justify;">La chauffe des fûts est une opération fondamentale de la fabrication d'une barrique. En effet, poursuivi au-delà des simples nécessités du cintrage, le brûlage (ou bousinage) entraîne l'apparition de nouveaux composés par thermolyse et hydrothermolyse du bois. Ces derniers sont susceptibles d'influencer ultérieurement les propriétés organoleptiques des vins élevés en barriques.</p><p style="text-align: justify;">La chauffe des bois est encore réalisée totalement empiriquement, les écarts entre tonneliers peuvent être importants. De plus, il n'existe pas de classification objective des niveaux de brûlage. L'optimalisation de cette opération passe préalablement par la connaissance de ses caractéristiques thermiques. A cette fin, on a mesuré les températures du bois au cours des processus de cintrage et de brûlage, en fonction de différents modes de chauffe et rythmes d'humidification.</p><p style="text-align: justify;">Les données recueillies permettront d'établir un modèle thermique de la chauffe traditionnelle en tonnellerie qui aidera à mieux comprendre les mécanismes de thermodégradation du bois de chêne. Une prochaine étude précisera l'évolution de la nature et de la quantité des produits de thermolyse en fonction du niveau de brûlage et du gradient thermique du bois. La modélisation de ces réactions devrait permettre l'optimisation de la régularisation de la chauffe du bois en tonnellerie.</p>
APA, Harvard, Vancouver, ISO, and other styles
3

Auroux, D., L. Jaafar-Belaid, and B. Rjaibi. "Application of the topological gradient method to tomography." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 13 - 2010 - Special... (September 30, 2010). http://dx.doi.org/10.46298/arima.1939.

Full text
Abstract:
International audience A new method for parallel beam tomography is proposed. This method is based on the topological gradient approach. The use of the topological asymptotic analysis for detecting the main edges of the data allows us to filter the noise while inverting the Radon transform. Experimental results obtained on noisy data illustrate the efficiency of this promising approach in the case of Magnetic Resonance Imaging. We also study the sensitivity of the algorithm with respect to several regularization and weight parameters. Une nouvelle méthode de reconstruction pour la tomographie par faisceaux parallèles est proposée. Cette méthode est basée sur l’approche du gradient topologique. En détectant les contours sur les données grâce à l’analyse asymptotique topologique, il est possible de filtrer le bruit dans le processus d’inversion de la transformée de Radon. Des résultats expérimentaux obtenus sur des données bruitées illustrent les possibilités de cette approche prometteuse dans le domaine de traitement d’images IRM. Nous étudions également la sensibilité de l’algorithme par rapport aux différents paramètres de régularisation et pondération.
APA, Harvard, Vancouver, ISO, and other styles
4

Neveu, Emilie, Laurent Debreu, and François-Xavier Le Dimet. "Multigrid methods and data assimilation ― Convergence study and first experiments on non-linear equations." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (August 21, 2011). http://dx.doi.org/10.46298/arima.1944.

Full text
Abstract:
International audience In order to limit the computational cost of the variational data assimilation process, we investigate the use of multigrid methods to solve the associated optimal control system. On a linear advection equation, we study the impact of the regularization term and the discretization errors on the efficiency of the coarse grid correction step introduced by the multigrid method. We show that even if for a perfect numerical model the optimal control problem leads to the solution of an elliptic system, discretization errors introduce implicit diffusion that can alter the success of the multigrid methods. Then we test the multigrids configuration and the influence of the algorithmic parameters on a non-linear Burgers equation to show that the algorithm is robust and converges much faster than the monogrid one. Afin de limiter le coût de calcul lié aux méthodes variationnelles d’assimilation de données, nous nous intéressons ici à l’utilisation de méthodes multigrilles pour la résolution de systèmes de contrôle optimal. Sur un modèle simple d’advection linéaire, nous étudions l’impact du terme de régularisation du contrôle optimal ainsi que l’impact des erreurs de discrétisation sur l’efficacité de la correction grille grossière introduite par cette méthode. En particulier, nous montrons que pour un modèle numérique parfait, le problème de contrôle optimal est elliptique mais que les erreurs de discrétisation introduisant une diffusion implicite peuvent altérer les performances de la méthode multigrille. Enfin, sur une équation de Burgers, non linéaire, nous étudions l’influence des différents paramètres inhérents aux méthodes multigrilles et montrons que ces méthodes sont robustes et convergent beaucoup plus rapidement que les méthodes monogrilles.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Paramètre de régularisation"

1

Gérard, Anthony. "Bruit de raie des ventilateurs axiaux : Estimation des sources aéroacoustiques par modèles inverse et Méthodes de contrôle." Phd thesis, Université de Poitiers, 2006. http://tel.archives-ouvertes.fr/tel-00162200.

Full text
Abstract:
Malgré les progrès accomplis dans la réduction du bruit des ventilateurs axiaux subsoniques, le bruit de raie basse fréquence, composante gênante du bruit, demeure difficile à contrôler. Aux basses fréquences, l'ajout de matériaux absorbants est inefficace et les silencieux encombrants et coûteux. Il faut alors faire appel à des "mesures curatives", comme le contrôle actif acoustique ou le contrôle actif à la source. Les contributions de ces travaux de doctorat sont : 1) l'estimation des sources aéroacoustiques du bruit de raie par modèle inverse, 2) une méthode de contrôle actif nécessitant un seul haut-parleur et 3) une méthode de contrôle passif adaptatif basée sur l'ajout d'obstructions dans l'écoulement. Les développements théoriques menés dans cette thèse sont valides pour les ventilateurs axiaux subsoniques et les expériences ont été réalisées sur un ventilateur de radiateur d'automobile.
APA, Harvard, Vancouver, ISO, and other styles
2

Vaiter, Samuel. "Régularisations de Faible Complexité pour les Problèmes Inverses." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01026398.

Full text
Abstract:
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
APA, Harvard, Vancouver, ISO, and other styles
3

Desbat, Laurent. "Critères de choix des paramètres de régularisation : application à la déconvolution." Grenoble 1, 1990. http://www.theses.fr/1990GRE10058.

Full text
Abstract:
Le principe de- régularisation permet de choisir une solution stable aux problèmes inverses mal posés, tels que la déconvolution. Le filtrage adaptatif est souvent un cas particulier de régularisation quadratique. II propose, au moyen de paramètres de régularisation, un compromis entre l'adéquation aux données et la stabilité de la solution. Après avoir montré la nécessité de leur régularisation, nous présentons de nouvelles méthodes de choix des paramètres de régularisation basées sur l'estimation de l'erreur de reconstruction, plus performantes que le critère de validation croisée généralisée lorsque le problème est très mal conditionné. Nous proposons des applicatoins de ces estimateurs lors de l'introduction des informations de support et de positivité. Une implémentation sur un hypercube de l'algorithme de FFT est étudiée, celle du Gradient Conjugué est abordée
APA, Harvard, Vancouver, ISO, and other styles
4

Tran, Duc Toan. "Reconstruction de sollicitations dynamiques par méthodes inverses." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10146.

Full text
Abstract:
Dans le domaine de l'ingénierie, connaitre le chargement appliqué sur une structure permet de résoudre des problèmes directs dont le résultat est le champ de déplacement, de déformation dans une structure. Il est alors possible d'effectuer un dimensionnement. Cependant, parfois ce chargement doit être identifie a posteriori. Malheureusement, il n'est pas toujours possible de mesurer ce chargement : ainsi, par exemple, on ne sait pas a priori où aura lieu le chargement, ou bien il n'est pas possible de placer un capteur sans l'endommager ou encore il peut nécessiter un encombrement trop important. On a alors recours à des mesures indirectes de déplacement, de déformation, d'accélération et on est alors amené à résoudre des problèmes inverses, qui sont en général mal posés. Il est alors nécessaire d'ajouter une (des) conditions supplémentaire(s) pour obtenir une solution unique et stable : c'est la régularisation du problème. Ces techniques sont bien connues et leur essor est dû à l'utilisation des décompositions en valeurs singulières des matrices de transfert. Toutefois, elles nécessitent l'utilisation d'un paramètre additionnel qui pondère cette condition supplémentaire : la détermination de ce paramètre est délicate. Peu de travaux ayant été réalisé pour tester de façon intensive les méthodes usuelles de régularisation (Tikhonov et troncature de la (G)SVD), en association avec les différents critères de détermination du paramètre de régularisation et les différentes réponses possibles, on a effectué un tel travail pour tirer des conclusions sur la méthodologie optimale. On a pu mettre en évidence que la mesure de l'accélération associée à un critère faisant intervenir les dérivées du signal à reconstruire donne en général les meilleurs résultats sous réserve d'utiliser le critère GCV pour déterminer le paramètre de régularisation. Ces méthodes supposent que la localisation de la zone de chargement est connue. Aussi on s'est intéressé à déduire cette zone de chargement en tentant de reconstruire des chargements identiquement nuls. Cette identification a été effectuée aisément sous réserve qu'on ait peu de forces à identifier par rapport au nombre de mesures disponibles. En revanche une telle identification est délicate lorsqu'on n'a pas plus de mesures que de forces à identifier. Finalement on s'est tourné vers l'identification de chargement ayant plastifié la structure étudiée. On a alors essayé de reconstruire le chargement en supposant que la structure reste linéaire élastique, alors qu'elle a été plastifiée : on a utilisé la méthode du double chargement et effectue des simulations à l'aide du logiciel de simulation Ls-dyna.La force reconstruite fait alors apparaitre une composante statique traduisant la déformation résiduelle dans la structure. Dans ce cas, la réponse à utiliser pour identifier le chargement est une déformation dans une zone non plastifiée
In the field of the engineering, knowing the load applied on the structure which allows to solve the direct problem of which the results are given the field of displacement and strain in a structure. It is possible to perform a dimensioning. However, sometimes this load must be identified a posteriori. Unfortunately, it is not always possible to measure this load. Thus, for example, we do not know a priori where it will be loaded, either it is not possible to place a sensor without damaging it or needs too much space. We then have to use indirect measures of displacement, strain, acceleration and then we are lead to solve the inverse problems which are generally an ill-posed. It is then necessary to add one (or more) conditions to obtain a unique and stable solution: it is the regularization of the problem. These techniques are well known and their development is due to the use of the singular value decomposition of the transfer matrix. However, they require the use of an additional parameter that weights this additional condition: the determination of this parameter is difficult. Few studies having been realized in way the usual regularization methods of (Tikhonov and truncation of the (G)SVD), in association with the various criteria for determining the regularization parameter and the various possible responses, we conducted a such work, to draw conclusions on the optimal methodology. It has been highlighted that the measurement of the acceleration associated with a criterion involving the derived signal to reconstruct generally gives the best results via the GCV criterion to determine the regularization parameter. These methods suppose that the location of the loading area is known. We also were interested to deduct this loading area while trying to reconstruct load that is identically zero. This identification was performed easily that has little load to identify compared to the number of measurements available. However such identification is difficult when there are no more measures than loads to identify. Finally we turned to the identification of loading with the plastic structure. We then tried to reconstruct the load assuming that the structure remains linear-elastic, while it was plasticized: we used the method of the double load and performed simulations using the software ls-dyna. The reconstructed load then shows a static component reflecting the residual strain in the structure. In this case, the response used to identify the load is a strain in a non-plasticized zone
APA, Harvard, Vancouver, ISO, and other styles
5

Dejean-Viellard, Catherine. "Etude des techniques de régularisation en radiothérapie conformationnelle avec modulation d'intensité et évaluation quantitative des distributions de dose optimales." Toulouse 3, 2003. http://www.theses.fr/2003TOU30195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Nus, Ludivine. "Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0163/document.

Full text
Abstract:
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois
This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood
APA, Harvard, Vancouver, ISO, and other styles
7

Seyed, Aghamiry Seyed Hossein. "Imagerie sismique multi-paramètre par reconstruction de champs d'ondes : apport de la méthode des multiplicateurs de Lagrange avec directions alternées (ADMM) et des régularisations hybrides." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4090.

Full text
Abstract:
La FWI (Full Waveform Inversion) est un problème d'optimisation sous contraintes dédié à l'estimation des paramètres constitutifs du sous-sol à partir de mesures parcimonieuses des champs d'ondes sismiques. La FWI est fondée sur des approches locales d'optimisation et sur un espace de recherche réduit obtenu par projection de variables. La non linéarité et le caractère mal posé de la FWI sont deux difficultés majeures. Une source de non linéarité est liée au repliement de la phase, qui conduit à un minimum local dès que le modèle initial n'est pas suffisamment précis. Le caractère mal posé résulte de l'éclairage incomplet du sous-sol depuis la surface, le bruit et les couplages inter-paramètres. L'objectif de cette thèse est de réduire ces deux pathologies par de nouvelles approches d'optimisation et de régularisation. J'améliore tout d'abord la méthode d'inversion par reconstruction des champs d'onde (WRI : Wavefield Reconstruction Inversion). WRI étend l'espace de recherche en calculant les champs d'onde avec une relaxation de l'équation d'onde afin d'ajuster les données avec des modèles imprécis avant d'estimer les paramètres en minimisant les erreurs générées par cette relaxation. Quand ces deux estimations sont effectuées de manière alternée, WRI décompose l'inversion non linéaire en deux sous-problèmes linéaires en vertu de la bilinéarité de l'équation d'onde. WRI a été implémentée avec une méthode de pénalité, nécessitant une adaptation du paramètre de pénalité lors des itérations. Je remédie à cela avec ADMM (Alternating-Direction Method of Multipliers), qui concilie l'extension de l'espace de recherche et la précision de la solution au point de convergence avec un paramètre de pénalité fixe grâce à la mise à jour itérative des multiplicateurs de Lagrange. Une seconde contribution est l'implémentation de contraintes de bornes et de régularisation par variation totale (TV) dans WRI. Suivant la méthode de Split Bregman, des variables auxiliaires permettent de découpler les termes impliquant des normes ℓ2 et ℓ1 et de traiter les seconds efficacement avec des opérateurs de proximité. Ensuite, j'ai combiné une régularisation de Tikhonov et de TV par convolution infimale pour prendre en compte les différentes propriétés statistiques du milieu (constantes par morceau et lisses). Ma thèse aborde ensuite des reconstructions multi-paramètres. Je montre dans un premier temps que la bilinéarité de l'équation d'onde est vérifiée pour les équations de l'elastodynamique. Ensuite, je traite le cas de milieux acoustique VTI où je reconstruis conjointement la vitesse verticale et epsilon pour un modèle synthétique représentatif d'un champ pétrolier en mer du Nord. Je m'intéresse ensuite à l'imagerie de l'atténuation qui est introduite en domaine harmonique sous forme d'une vitesse complexe. J'étends WRI à la reconstruction de paramètres complexes tout en développant une régularisation adaptable à la vitesse réelle et au facteur de qualité. Durant les premières itérations, les champs d'onde reconstruits sont précis uniquement au voisinage des récepteurs. Les imprécisions de la phase pourraient avoir un rôle préjudiciable sur la solution de l'inversion. Afin de réduire cette empreinte, j'estime les paramètres par "phase retrieval", un processus qui vise la reconstruction d'un signal complexe à partir de l'amplitude de sa mesure linéaire. Une fois un premier modèle obtenu, je réinjecte l'information de la phase pour converger vers la solution finale. Je montre la pertinence de cette stratégie lorsque le modèle initial est homogène. WRI a été initialement développée dans le domaine fréquentiel car la reconstruction des champs d'onde y est raisonnablement aisée avec des méthodes d'algèbre linéaire. En domaine temporel, une approche fondée sur un schéma explicite d'intégration temporelle a été proposée mais repose sur une linéarisation autour des sources supposées connues
Full Waveform Inversion (FWI) is a PDE-constrained optimization which reconstructs subsurface parameters from sparse measurements of seismic wavefields. FWI generally relies on local optimization techniques and a reduced-space approach where the wavefields are eliminated from the variables. In this setting, two bottlenecks of FWI are nonlinearity and ill-posedness. One source of nonlinearity is cycle skipping, which drives the inversion to spurious minima when the starting subsurface model is not kinematically accurate enough. Ill-posedness can result from incomplete subsurface illumination, noise and parameter cross-talks. This thesis aims to mitigate these pathologies with new optimization and regularization strategies. I first improve the wavefield reconstruction method (WRI). WRI extends the FWI search space by computing wavefields with a relaxation of the wave equation to match the data from inaccurate parameters. Then, the parameters are updated by minimizing wave equation errors with either alternating optimization or variable projection. In the former case, WRI breaks down FWI into to linear subproblems thanks to wave equation bilinearity. WRI was initially implemented with a penalty method, which requires a tedious adaptation of the penalty parameter in iterations. Here, I replace the penalty method by the alternating-direction method of multipliers (ADMM). I show with numerical examples how ADMM conciliates the search space extension and the accuracy of the solution at the convergence point with fixed penalty parameters thanks to the dual ascent update of the Lagrange multipliers. The second contribution is the implementation of bound constraints and non smooth Total Variation (TV) regularization in ADMM-based WRI. Following the Split Bregman method, suitable auxiliary variables allow for the de-coupling of the ℓ1 and ℓ2 subproblems, the former being solved efficiently with proximity operators. Then, I combine Tikhonov and TV regularizations by infimal convolution to account for the different statistical properties of the subsurface (smoothness and blockiness). At the next step, I show the ability of sparse promoting regularization in reconstruction the model when ultralong offset sparse fixed-spread acquisition such as those carried out with OBN are used. This thesis continues with the extension of the ADMM-based WRI to multiparameter reconstruction in vertical transversely isotropic (VTI) acoustic media. I first show that the bilinearity of the wave equation is satisfied for the elastodynamic equations. I discuss the joint reconstruction of the vertical wavespeed and epsilon in VTI media. Second, I develop ADMM-based WRI for attenuation imaging, where I update wavefield, squared-slowness, and attenuation in an alternating mode since viscoacoustic wave equation can be approximated, with a high degree of accuracy, as a multilinear equation. This alternating solving provides the necessary flexibility to taylor the regularization to each parameter class and invert large data sets. Then, I overcome some limitations of ADMM-based WRI when a crude initial model is used. In this case, the reconstructed wavefields are accurate only near the receivers. The inaccuracy of phase of the wavefields may be the leading factor which drives the inversion towards spurious minimizers. To mitigate the role of the phase during the early iterations, I update the parameters with phase retrieval, a process which reconstructs a signal from magnitude of linear mesurements. This approach combined with efficient regularizations leads to more accurate reconstruction of the shallow structure, which is decisive to drive ADMM-based WRI toward good solutions at higher frequencies. The last part of this PhD is devoted to time-domain WRI, where a challenge is to perform accurate wavefield reconstruction with acceptable computational cost
APA, Harvard, Vancouver, ISO, and other styles
8

Marteau, Clément. "Recherche d'inégalités oracles pour des problèmes inverses." Phd thesis, Université de Provence - Aix-Marseille I, 2007. http://tel.archives-ouvertes.fr/tel-00384095.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes inverses dans un cadre statistique. A partir des observations $Y=Af+\epsilon \xi$, le but est d'approximer aussi fidèlement que possible la fonction f où $A$ représente un opérateur compact, $\epsilon>0$ le niveau de bruit et $\xi$ un bruit blanc gaussien. Etant données une procédure $f^{\star}$ et une collection d'estimateurs $\Lambda$, une inégalité
oracle permet de comparer, sans aucune hypothèse sur la fonction cible $f$ et d'un point de vue non-asymptotique, les performances de $f^{\star}$ à celles du meilleur estimateur dans $\Lambda$
connaissant $f$. Dans l'optique d'obtenir de telles inégalités, cette thèse s'articule autour de deux objectifs: une meilleure compréhension des problèmes inverses lorsque l'opérateur est
mal-connu et l'extension de l'algorithme de minimisation de l'enveloppe du risque (RHM) à un domaine d'application plus large.
La connaissance complète de l'opérateur A est en effet une hypothèse implicite dans la plupart des méthodes existantes. Il est cependant raisonnable de penser que ce dernier puisse être en partie, voire totalement inconnu. Dans un premier temps, nous généralisons donc la méthode de Stein par blocs pénalisée ainsi que l'algorithme RHM à cette situation. Ce dernier, initié par L. Cavalier et Y. Golubev, améliore considérablement les performances de la traditionnelle méthode d'estimation du risque sans biais. Cependant, cette nouvelle procédure ne concerne que les estimateurs par projection. En pratique, ces derniers sont souvent moins performants que les estimateurs de Tikhonov ou les procédures itératives, dans un certain sens beaucoup plus fines. Dans la dernière partie, nous étendons donc l'utilisation de l'enveloppe du risque à une gamme beaucoup plus large d'estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
9

Tardivel, Patrick. "Représentation parcimonieuse et procédures de tests multiples : application à la métabolomique." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30316/document.

Full text
Abstract:
Considérons un vecteur gaussien Y de loi N (m,sigma²Idn) et X une matrice de dimension n x p avec Y observé, m inconnu, Sigma et X connus. Dans le cadre du modèle linéaire, m est supposé être une combinaison linéaire des colonnes de X. En petite dimension, lorsque n ≥ p et que ker (X) = 0, il existe alors un unique paramètre Beta* tel que m = X Beta* ; on peut alors réécrire Y sous la forme Y = X Beta* + Epsilon. Dans le cadre du modèle linéaire gaussien en petite dimension, nous construisons une nouvelle procédure de tests multiples contrôlant le FWER pour tester les hypothèses nulles Beta*i = 0 pour i appartient à [[1,p]]. Cette procédure est appliquée en métabolomique au travers du programme ASICS qui est disponible en ligne. ASICS permet d'identifier et de quantifier les métabolites via l'analyse des spectres RMN. En grande dimension, lorsque n < p on a ker (X) ≠ 0, ainsi le paramètre Beta* décrit précédemment n'est pas unique. Dans le cas non bruité lorsque Sigma = 0, impliquant que Y = m, nous montrons que les solutions du système linéaire d'équations Y = X Beta avant un nombre de composantes non nulles minimales s'obtiennent via la minimisation de la "norme" lAlpha avec Alpha suffisamment petit
Let Y be a Gaussian vector distributed according to N (m,sigma²Idn) and X a matrix of dimension n x p with Y observed, m unknown, sigma and X known. In the linear model, m is assumed to be a linear combination of the columns of X In small dimension, when n ≥ p and ker (X) = 0, there exists a unique parameter Beta* such that m = X Beta*; then we can rewrite Y = Beta* + Epsilon. In the small-dimensional linear Gaussian model framework, we construct a new multiple testing procedure controlling the FWER to test the null hypotheses Beta*i = 0 for i belongs to [[1,p]]. This procedure is applied in metabolomics through the freeware ASICS available online. ASICS allows to identify and to qualify metabolites via the analyse of RMN spectra. In high dimension, when n < p we have ker (X) ≠ 0 consequently the parameter Beta* described above is no longer unique. In the noiseless case when Sigma = 0, implying thus Y = m, we show that the solutions of the linear system of equation Y = X Beta having a minimal number of non-zero components are obtained via the lalpha with alpha small enough
APA, Harvard, Vancouver, ISO, and other styles
10

Pascal, Barbara. "Estimation régularisée d'attributs fractals par minimisation convexe pour la segmentation de textures : formulations variationnelles conjointes, algorithmes proximaux rapides et sélection non supervisée des paramètres de régularisation; Applications à l'étude du frottement solide et de la microfluidique des écoulements multiphasiques." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN042.

Full text
Abstract:
Cette thèse propose plusieurs procédures pour la segmentation de textures auto-similaires s'appuyant sur deux attributs fractals : l'exposant de Hölder, quantifiant la régularité locale d'une texture, et la variance locale. Un modèle de textures fractales homogènes par morceaux est construit, accompagné d'une procédure de synthèse, fournissant des images composées d'un assemblage de textures fractales d'attributs fixés et de segmentation connue, utilisées pour évaluer les performances des méthodes proposées.Une première méthode, reposant sur la régularisation par Variation Totale d'une estimée brute de la régularité locale, est illustrée, et augmentée d'une étape de post-traitement par seuillage itératif fournissant ainsi une segmentation. Après avoir pointé les limites de cette approche, deux méthodes de segmentation, à contours « libres » ou « co-localisés », sont construites, prenant conjointement en compte la régularité et la variance locales.Ces deux procédures sont formulés comme des problèmes de minimisation de fonctionnelles convexes non lisses.Nous montrons que les fonctionnelles à pénalisations « libre » et « co-localisée » sont toutes deux fortement convexes, et calculons leur module de forte-convexité.Plusieurs schémas de minimisation sont dérivés, et leurs vitesses de convergence sont comparées.Les performances de segmentation des différentes méthodes sont quantifiées sur un large panel de données synthétiques, dans des configurations de difficulté croissante, ainsi que sur des images réelles et comparées aux méthodes de l’état-de-l'art, tels que les réseaux de neurones convolutionnels.Une application à la segmentation d'images provenant d'expériences sur les écoulements multiphasiques en milieu poreux est présentée.Une stratégie, dérivée de l'estimateur SURE de l'erreur quadratique, est mise en oeuvre pour le réglage automatique des hyperparamètres impliqués dans la construction des fonctionnelles à pénalisations « libre » et « co-localisée »
In this doctoral thesis several scale-free texture segmentation procedures based on two fractal attributes, the Hölder exponent, measuring the local regularity of a texture, and local variance, are proposed.A piecewise homogeneous fractal texture model is built, along with a synthesis procedure, providing images composed of the aggregation of fractal texture patches with known attributes and segmentation. This synthesis procedure is used to evaluate the proposed methods performance.A first method, based on the Total Variation regularization of a noisy estimate of local regularity, is illustrated and refined thanks to a post-processing step consisting in an iterative thresholding and resulting in a segmentation.After evidencing the limitations of this first approach, deux segmentation methods, with either "free" or "co-located" contours, are built, taking in account jointly the local regularity and the local variance.These two procedures are formulated as convex nonsmooth functional minimization problems.We show that the two functionals, with "free" and "co-located" penalizations, are both strongly-convex. and compute their respective strong convexity moduli.Several minimization schemes are derived, and their convergence speed are compared.The segmentation performance of the different methods are evaluated over a large amount of synthetic data in configurations of increasing difficulty, as well as on real world images, and compared to state-of-the-art procedures, including convolutional neural networks.An application for the segmentation of multiphasic flow through a porous medium experiment images is presented.Finally, a strategy for automated selection of the hyperparameters of the "free" and "co-located" functionals is built, inspired from the SURE estimator of the quadratic risk
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography