Segui questo link per vedere altri tipi di pubblicazioni sul tema: Analyse non convexe.

Tesi sul tema "Analyse non convexe"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Analyse non convexe".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Guillaume, Sophie. "Problèmes d'optimisation et d'évolution en analyse non convexe de type convexe composite". Montpellier 2, 1996. http://www.theses.fr/1996MON20224.

Testo completo
Abstract (sommario):
Cette these est consacree a l'etude de fonctions non necessairement convexes ni regulieres, a savoir les fonctions s'ecrivant comme la composition d'une fonction convexe semicontinue inferieurement avec une application lisse. Sous une condition de qualification, une telle ecriture permet d'utiliser les resultats connus de l'analyse convexe, et de modeliser de nombreux exemples: programmation mathematique non lineaire, problemes avec obstacle, polyconvexite en calcul des variations, problemes de valeurs propres. On etudie, pour ces fonctions dites convexes composites qualifiees, leurs principales proprietes et leurs liens avec d'autres classes de fonctions non convexes, ainsi que divers problemes d'evolution et d'optimisation
Gli stili APA, Harvard, Vancouver, ISO e altri
2

DANIILIDIS, Aris. "Analyse convexe et quasi-convexe ; applications en optimisation". Habilitation à diriger des recherches, Université de Pau et des Pays de l'Adour, 2002. http://tel.archives-ouvertes.fr/tel-00001355.

Testo completo
Abstract (sommario):
Ce document de synthèse s'articule autour de l'analyse convexe, de l'analyse quasi-convexe et des applications en optimisation. Dans le premier domaine on aborde les thèmes de la continuité, de la différentiabilité et des critères de coïncidence pour les fonctions convexes, puis la convexification des fonctions semi-continues inférieurement. Pour l'étude des fonctions quasi-convexes deux approches sont adoptées : une approche analytique, via un sous-différentiel généralisé, et une approche géométrique, basée sur les normales aux tranches. La dernière partie est consacrée à des applications à l'intégration d'opérateurs multivoques, aux inéquations variationnelles et à des problèmes d'optimisation multicritères en dimension finie et infinie. Parmi les nouveautés de ce travail, on trouve la notion de monotonie fortement cyclique, qui caractérise le sous-différentiel d'une fonction convexe dont la restriction à son domaine est continue, la quasi-monotonie cyclique, qui est une propriété intrinsèque du sous-différentiel d'une fonction quasi-convexe avec des applications importantes en économie mathématique, et la notion de quasi-monotonie propre, qui caractérise les opérateurs pour lesquels l'inéquation variationnelle associée a toujours des solutions sur toute sous-partie convexe et faiblement compacte de leur domaine. Notons encore une nouvelle caractérisation de la propriété de Radon-Nikodym, et une extension à la dimension infinie d'un résultat de Janin concernant l'intégration d'un opérateur maximal cycliquement sous-monotone, résultat qui généralise le théorème classique de Rockafellar pour les opérateurs maximaux cycliquement monotones.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Cadoux, Florent. "Optimisation et analyse convexe pour la dynamique non-régulière". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00440798.

Testo completo
Abstract (sommario):
L'objectif de ce travail est de proposer une nouvelle approche pour la résolution du problème de contact unilatéral avec frottement de Coulomb tridimensionnel en mécanique des solides. On s'intéresse à des systèmes dynamiques composés de plusieurs corps possédant un nombre fini de degrés de liberté: rigides, ou déformables qui sont des approximations spatiales de modèles continus. Le frottement entre les corps est modélisé en utilisant une formulation classique de la loi de Coulomb. Après discrétisation en temps (ou approximation quasi-statique), on obtient à chaque pas de temps un problème contenant des équations de complémentarité sur un produit de cônes du second ordre, et d'autres équations. Plusieurs méthodes de résolution ont été proposées pour différentes formulations équivalentes de ce problème, en particulier par Moreau, Alart et Curnier, et De Saxcé. En considérant les équations de complémentarité comme celles des conditions d'optimalité (KKT) d'un problème d'optimisation, on propose une reformulation équivalente nouvelle sous forme d'un problème de minimisation paramétrique convexe couplé avec un problème de point fixe. Grâce à ce point de vue, on démontre l'existence de solutions sous une hypothèse assez faible, et vérifiable en pratique. De plus, on peut souvent calculer effectivement l'une de ces solutions en résolvant numériquement l'équation de point fixe. Les performances de cette approche sont comparées à celles des méthodes existantes.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Bachir, Mohammed. "Dualité, calcul sous différentiel et intégration en analyse non lisse et non convexe". Bordeaux 1, 2000. http://www.theses.fr/2000BOR10515.

Testo completo
Abstract (sommario):
Cette these est consacree a l'etude de trois sujets de l'analyse non lisse. Dans le premier chapitre, nous introduisons et etudions une nouvelle version de la dualite de fenchel dans un cadre non convexe. Une version du resultat classique de smulian est etablie dans le cadre de cette dualite. Comme application nous deduisons la frechet differentiabilite generique de la norme. Dans certains espaces de fonctions continues bornees (ex. Lip (x), 0 < 1). D'autre part, nous etendons le theoreme de banach-stone aux espaces metriques complets et a une classe abstraite de fonctions continues bornees a valeurs vectorielles. Dans le second chapitre, nous etudions une condition de qualification stable par perturbation par des fonctions uniformements continues. Ceci permet de formuler un resultat qui entraine le calcul sous-differentiel. D'autre part, nous donnons une inegalite des accroissements finis multidirectionnelle avec une information au second ordre. Nous appliquons ce resultat a l'unicite des solutions de viscosite des equations de hamilton-jacobi du second ordre en dimension finie. Le dernier chapitre concerne l'integration de certaines classes d'operateurs multivoques satisfaisant une propriete similaire a la cyclique monotonicite. Nous considerons le cas des fonctions quasi-convexes et le sous-differentiel inferieur.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Li, Wei. "Analyse numérique de problèmes non convexes à donnée au bord non linéaire". Metz, 1993. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/Li.Wei.SMZ9310.pdf.

Testo completo
Abstract (sommario):
Ce travail porte sur l'étude des problèmes non convexes. Ils interviennent dans le domaine des matériaux, par exemple cristaux, etc. Nous considérons les problèmes suivants : inf#(*(x)) dx; inf#(*(x))+((x)a(x)) dx sur certains espaces de Sobolev w#1#p(a) et ou la densité d'énergie possède des puits de potentiels. En général, de tels problèmes n'admettent pas de solution classique. Sur cette étude, une approche, introduite par M. Chipot, C. Collins et D. Kinderlerer, a été développée. Dans les sections 1 et 2, des résultats d'estimations dans l'espace des éléments-finis ont été obtenus. La section 3 est consacrée à une analyse paramétrée. On obtient un résultat de la mesure de Young qui décrit l'existence et l'unicité de la solution généralisée. Enfin dans la section 4, des estimations au point de vue probabiliste ont été déduits, et expliquent le comportement des suites minimisantes
In this thesis, we study a kind of non-convex varaitional problems. Such problems originated in material science, for example in crystal, etc. We consider the following problems : inf#(*(x)) dx; inf#(*(x))+((x)a(x)) dx on certain Sobolev space w#1#p(a) and where the energy density posses energy wells, say w1 i=1,. . . K. In general, such problems can be no classical solution. In our studies, the numerical method introduced by M. Chipot, C. Collins and D. Kinderlerer has been developped. In section 1 and 2 some results of estimation in a space of finit-element are obtained. Section 3 is contributed to an analysis or parametrized measure. We get a result of Young measure which showing the existence and uniqueness of the generalized solution. And in section 4, we have some estimation results in terms of probability, which explains the behavior of the minimising sequences
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Zaourar, Sofia. "Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM099.

Testo completo
Abstract (sommario):
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google
Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Le, Ba Khiet. "Stabilité des systèmes dynamiques non-réguliers et applications". Limoges, 2013. http://www.theses.fr/2013LIMO4054.

Testo completo
Abstract (sommario):
L'objectif principal de cette thèse est de proposer une formulation pour l'étude et l'analyse de stabilité des systèmes dynamiques non-réguliers avec une attention particulière aux applications issues des circuits électriques et des systèmes mécaniques avec frottement sec. Les outils mathématiques utilisés sont issus de l'analyse non-lisse et de la théorie de stabilité au sens de Lyapounov. Dans le détail, nous utilisons un formalisme pour modéliser la complémentarité des systèmes de commutation simples et des inclusions différentielles pour modéliser un convertisseur DC-DC de type Buck, les systèmes dynamiques Lagrangian ainsi que les systèmes de Lur'e. Pour chaque modèle, nous nous intéressons à l'existence d'une solution, des propriétés de stabilité des trajectoires, de la stabilité en temps fini ou de mettre une force sur la commande pour obtenir la stabilité en temps fini. Nous proposons aussi quelques méthodes numériques pour simuler ces systèmes. Il est à noter que les méthodes utilisées dans ce manuscrit peuvent être appliquées pour l'analyse de systèmes dynamiques non-réguliers issus d'autres domaines tels que l'économie, la finance ou la biologie. .
This manuscript deals with the stability of non-smooth dynamical systems and applications. More precisely, we aim to provide a formulation to study the stability analysis of non-smooth dynamical systems, particularly in electrical circuits and mechanics with dry friction and robustness. The efficient tools which we have used are non-smooth analysis, Lyapunov stability theorem and non-smooth mathematical frameworks : complementarity and differentials inclusions. In details, we use complementarity formalism to model some simple switch systems and differential inclusions to model a Dc-Dc Buck converter, Lagrange dynamical systems and Lur'e systems. For each model, we are interested in the well-posedness, stability properties of trajectories, even finite-time stability or putting a control force to obtain finite-time stability, and finding numerical ways to simulate the systems. The theoretical results are supported by some examples in electrical circuits and mechanics with numerical simulations. It is noted that the method used in this monograph can be applied to analyze for non-smooth dynamical systems from other fields such as economics, finance or biology. .
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Nacry, Florent. "Processus d’évolution discontinus de Moreau et stabilité de la prox-régularité : Applications à l’optimisation non-convexe et aux équations généralisée". Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0022.

Testo completo
Abstract (sommario):
Cette thèse est consacrée, d'une part, à l'étude d'existence de solutions pour des problèmes d'évolution et, d'autre part, à la stabilité de la propriété de prox-régularité ensembliste. Nous étudions dans la première partie des processus de rafle de Moreau perturbés et discontinu du premier et du second ordre. L'ensemble mouvant est prox-régulier dans un espace de Hilbert réel quelconque et sa variation est contrôlé par une mesure de Radon. Des applications à la théorie de la complémentarité et à celle des inéquations variationnelles sont présentées. Dans la seconde partie, on donne des conditions suffisantes assurant la prox-régularité d'ensembles décrit par des contraintes non nécessairement lisses sous forme d'inégalités et/ ou d'égalités et plus généralement d'ensembles de solutions d'équations généralisées. On y développe également des conditions vérifiables assurant la préservation de la prox-régularité vis-à-vis d'opérations ensemblistes : les cas de l'intersection, d'image directe, de pré-image, d'union et projection sur un sous-espace sont considérés
In this dissertation, we study, on the one hand, the existence of solutions for some evolution problems and, on the other hand, the stability of prox-regularity under set operations. The first topic is devoted to first and second order nonconvex perturberd Moreau's sweeping processes in infinite dimensional framework. The moving set is assumed to be prox-regular and moved in a bounded variation way. Applications to the theory of complementarity problems and evolution variational inequalities are given. In the other topic, we first give verifiable sufficient conditions ensuring the prox-regularity of constrained sets and more generally for solution sets of generalized equations. We also develop the preservation of prox-regularity under set operations as intersection, direct image, inverse image, union and projection along a vector space
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Ta, Minh Thuy. "Techniques d'optimisation non convexe basée sur la programmation DC et DCA et méthodes évolutives pour la classification non supervisée". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0099/document.

Testo completo
Abstract (sommario):
Nous nous intéressons particulièrement, dans cette thèse, à quatre problèmes en apprentissage et fouille de données : clustering pour les données évolutives, clustering pour les données massives, clustering avec pondération de variables et enfin le clustering sans connaissance a priori du nombre de clusters avec initialisation optimale des centres de clusters. Les méthodes que nous décrivons se basent sur des approches d’optimisation déterministe, à savoir la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution de problèmes de clustering cités précédemment, ainsi que des approches évolutionnaires élitistes. Nous adaptons l’algorithme de clustering DCA–MSSC pour le traitement de données évolutives par fenêtres, en appréhendant les données évolutives avec deux modèles : fenêtres fixes et fenêtres glissantes. Pour le problème du clustering de données massives, nous utilisons l’algorithme DCA en deux phases. Dans la première phase, les données massives sont divisées en plusieurs sous-ensembles, sur lesquelles nous appliquons l’algorithme DCA–MSSC pour effectuer un clustering. Dans la deuxième phase, nous proposons un algorithme DCA-Weight pour effectuer un clustering pondéré sur l’ensemble des centres obtenues à la première phase. Concernant le clustering avec pondération de variables, nous proposons également deux approches: clustering dur avec pondération de variables et clustering floue avec pondération de variables. Nous testons notre approche sur un problème de segmentation d’image. Le dernier problème abordé dans cette thèse est le clustering sans connaissance a priori du nombre des clusters. Nous proposons pour cela une approche évolutionnaire élitiste. Le principe consiste à utiliser plusieurs algorithmes évolutionnaires (EAs) en même temps, de les faire concourir afin d’obtenir la meilleure combinaison de centres initiaux pour le clustering et par la même occasion le nombre optimal de clusters. Les différents tests réalisés sur plusieurs ensembles de données de grande taille sont très prometteurs et montrent l’efficacité des approches proposées
This thesis focus on four problems in data mining and machine learning: clustering data streams, clustering massive data sets, weighted hard and fuzzy clustering and finally the clustering without a prior knowledge of the clusters number. Our methods are based on deterministic optimization approaches, namely the DC (Difference of Convex functions) programming and DCA (Difference of Convex Algorithm) for solving some classes of clustering problems cited before. Our methods are also, based on elitist evolutionary approaches. We adapt the clustering algorithm DCA–MSSC to deal with data streams using two windows models: sub–windows and sliding windows. For the problem of clustering massive data sets, we propose to use the DCA algorithm with two phases. In the first phase, massive data is divided into several subsets, on which the algorithm DCA–MSSC performs clustering. In the second phase, we propose a DCA–Weight algorithm to perform a weighted clustering on the obtained centers in the first phase. For the weighted clustering, we also propose two approaches: weighted hard clustering and weighted fuzzy clustering. We test our approach on image segmentation application. The final issue addressed in this thesis is the clustering without a prior knowledge of the clusters number. We propose an elitist evolutionary approach, where we apply several evolutionary algorithms (EAs) at the same time, to find the optimal combination of initial clusters seed and in the same time the optimal clusters number. The various tests performed on several sets of large data are very promising and demonstrate the effectiveness of the proposed approaches
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Alaa, Nour Eddine. "Étude d'équations elliptiques non linéaires à dépendance convexe en le gradient et à données mesures". Nancy 1, 1989. http://www.theses.fr/1989NAN10460.

Testo completo
Abstract (sommario):
Dans ce travail, l'étude porte sur les équations elliptiques non linéaires de la forme où j(x,. ) est convexe, continue positive, f une donnée mesure positive sur. . . Et un paramètre réel. Si j(x,. ) est sur-linéaire à l'infini, une condition nécessaire d'existence de solution est que f doit être assez régulière et assez petit. Nous commençons par une étude complète du problème en dimension un et nous obtenons une caractérisation de cette régularité et de cette taille en termes d'un problème dual de minimisation associé
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Obeid-El, Hamidi Amira. "Sur une équation elliptique non linéaire dégénérée". Phd thesis, Université de Pau et des Pays de l'Adour, 2002. http://tel.archives-ouvertes.fr/tel-00002263.

Testo completo
Abstract (sommario):
L'objectif de ce travail est d'établir l'existence et l'unicité de la solution pour une équation elliptique non linéaire dégénérée, posée dans un domaine non borné. Dans un premier temps, on mène notre étude dans un domaine borné et ceci en tronquant le domaine infini. Dans la première partie, on introduit le problème variationnel associé qui se traduit en terme d'une fonctionnelle non coercive à minimiser. Ainsi, on associe au problème de minimisation un problème dual puis on montre pour ce dernier l'existence et l'unicité de la solution. Ensuite on prouve par l'extraction d'une sous-suite minimisante l'existence d'une "solution" liée à celle du problème dual. Dans la deuxième partie, on définit un problème relaxé ayant le même infimum que le problème initial. Ensuite on établit que cet infimum est un minimum pour le problème relaxé. Les résultats de la première partie sont ensuite étendus au cas non borné. Enfin, on donne quelques critères pour estimer l'erreur de troncature entre les solutions du problème dual définies dans le cas borné et non borné.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Lê, Thi Hoai An. "Analyse numérique des algorithmes de l'optimisation D. C. . Approches locale et globale. Codes et simulations numériques en grande dimension. Applications". Rouen, 1994. http://www.theses.fr/1994ROUES047.

Testo completo
Abstract (sommario):
Cette thèse est consacrée à l'analyse qualitative et quantitative de l'optimisation d. C. (différence de deux fonctions convexes). Le chapitre I est destiné à l'étude générale de la théorie et des algorithmes de l'optimisation d. C. - approche locale. Dans le chapitre II nous nous intéressons à la fois à l'étude théorique (la dualité lagrangienne, conditions d'optimalité) et algorithmique (algorithmes globaux, DCA) du problème de minimisation d'une forme quadratique sur une boule ou une sphère euclidienne. Nous présentons dans le chapitre III deux nouvelles méthodes (méthode globale de type branch and bound et DCA) pour la minimisation d'une forme quadratique indéfinie sur un polyèdre convexe. La résolution du problème d'optimisation multicritère par DCA via la pénalité exacte et par un algorithme global de type branch and bound fait l'objet du chapitre IV. Le chapitre V concerne le traitement du problème multidimensionnel des tableaux de dissimilarités (MDS) par DCA. La résolution du problème de calcul des valeurs propres extrêmes d'une matrice réelle symétrique par DCA est étudiée dans le chapitre VI. Enfin, dans le dernier chapitre nous étudions une méthode globale d'optimisation d. C. Et son application à la résolution d'un problème industriel d'optimisation non convexe de Pool carburant
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Benoist, Joël. "Ensembles de production non convexes et théorie de l'équilibre géneral". Paris 1, 1990. http://www.theses.fr/1990PA010002.

Testo completo
Abstract (sommario):
Cette thèse traite de problèmes posés par la théorie de l'équilibre général lorsque des firmes présentent des rendements croissants ou plus généralement des non-convexités. Dans la première partie, nous nous attachons à établir des résultats nouveaux sur les caractères continu et Lipschitzien de la fonction cout associé à un ensemble de production non nécessairement convexe. Dans la deuxième partie, nous prolongeons les travaux de Dehez et Drèze sur les économies non-convexes, ou les producteurs suivent une tarification basée sur les notions d'échange volontaire et de minimaliste des prix des outputs. Enfin, dans la troisième partie, nous généralisons un résultat de Kahn qui démontre le second théorème d'économie du bien-être en dimension infinie et en utilisant le concept de cône normal de Ioffe
In this thesis we report problems which issue from general equilibrium theory when some firms exhibit increasing returns to scale or more general types of nonconvexities. In the first part, we establish new results about Lipschitz and continuous properties of the cost function associated to a nonconvex production set. In the second part, we extend Dehez-Dreze's works on nonconvex economies, where producers follow pricing rule related to the notion of voluntary trading and minimality of the outputs prices. Finally in the third part, we extend a result of kahn who proves the second welfare theorem in infinite dimension by using the concept of Ioffe's normal cone
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Ablin, Pierre. "Exploration of multivariate EEG /MEG signals using non-stationary models". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT051.

Testo completo
Abstract (sommario):
L'Analyse en Composantes Indépendantes (ACI) modèle un ensemble de signaux comme une combinaison linéaire de sources indépendantes. Cette méthode joue un rôle clé dans le traitement des signaux de magnétoencéphalographie (MEG) et électroencéphalographie (EEG). L'ACI de tels signaux permet d'isoler des sources de cerveau intéressantes, de les localiser, et de les séparer d'artefacts. L'ACI fait partie de la boite à outils de nombreux neuroscientifiques, et est utilisée dans de nombreux articles de recherche en neurosciences. Cependant, les algorithmes d'ACI les plus utilisés ont été développés dans les années 90. Ils sont souvent lents lorsqu'ils sont appliqués sur des données réelles, et sont limités au modèle d'ACI classique.L'objectif de cette thèse est de développer des algorithmes d'ACI utiles en pratique aux neuroscientifiques. Nous suivons deux axes. Le premier est celui de la vitesse : nous considérons le problème d'optimisation résolu par deux des algorithmes les plus utilisés par les praticiens: Infomax et FastICA. Nous développons une nouvelle technique se basant sur un préconditionnement par des approximations de la Hessienne de l'algorithm L-BFGS. L'algorithme qui en résulte, Picard, est conçu pour être appliqué sur données réelles, où l'hypothèse d’indépendance n'est jamais entièrement vraie. Sur des données de M/EEG, il converge plus vite que les implémentations `historiques'.Les méthodes incrémentales, qui traitent quelques échantillons à la fois au lieu du jeu de données complet, constituent une autre possibilité d’accélération de l'ACI. Ces méthodes connaissent une popularité grandissante grâce à leur faculté à bien passer à l'échelle sur de grands jeux de données. Nous proposons un algorithme incrémental pour l'ACI, qui possède une importante propriété de descente garantie. En conséquence, cet algorithme est simple d'utilisation, et n'a pas de paramètre critique et difficile à régler comme un taux d'apprentissage.En suivant un second axe, nous proposons de prendre en compte du bruit dans le modèle d'ACI. Le modèle resultant est notoirement difficile et long à estimer sous l'hypothèse standard de non-Gaussianité de l'ACI. Nous nous reposons donc sur une hypothèse de diversité spectrale, qui mène à un algorithme facile d'utilisation et utilisable en pratique, SMICA. La modélisation du bruit permet de nouvelles possibilités inenvisageables avec un modèle d'ACI classique, comme une estimation fine des source et l'utilisation de l'ACI comme une technique de réduction de dimension statistiquement bien posée. De nombreuses expériences sur données M/EEG démontrent l'utilité de cette nouvelle approche.Tous les algorithmes développés dans cette thèse sont disponibles en accès libre sur internet. L’algorithme Picard est inclus dans les librairies de traitement de données M/EEG les plus populaires en Python (MNE) et en Matlab (EEGlab)
Independent Component Analysis (ICA) models a set of signals as linear combinations of independent sources. This analysis method plays a key role in electroencephalography (EEG) and magnetoencephalography (MEG) signal processing. Applied on such signals, it allows to isolate interesting brain sources, locate them, and separate them from artifacts. ICA belongs to the toolbox of many neuroscientists, and is a part of the processing pipeline of many research articles. Yet, the most widely used algorithms date back to the 90's. They are often quite slow, and stick to the standard ICA model, without more advanced features.The goal of this thesis is to develop practical ICA algorithms to help neuroscientists. We follow two axes. The first one is that of speed. We consider the optimization problems solved by two of the most widely used ICA algorithms by practitioners: Infomax and FastICA. We develop a novel technique based on preconditioning the L-BFGS algorithm with Hessian approximation. The resulting algorithm, Picard, is tailored for real data applications, where the independence assumption is never entirely true. On M/EEG data, it converges faster than the `historical' implementations.Another possibility to accelerate ICA is to use incremental methods, which process a few samples at a time instead of the whole dataset. Such methods have gained huge interest in the last years due to their ability to scale well to very large datasets. We propose an incremental algorithm for ICA, with important descent guarantees. As a consequence, the proposed algorithm is simple to use and does not have a critical and hard to tune parameter like a learning rate.In a second axis, we propose to incorporate noise in the ICA model. Such a model is notoriously hard to fit under the standard non-Gaussian hypothesis of ICA, and would render estimation extremely long. Instead, we rely on a spectral diversity assumption, which leads to a practical algorithm, SMICA. The noise model opens the door to new possibilities, like finer estimation of the sources, and use of ICA as a statistically sound dimension reduction technique. Thorough experiments on M/EEG datasets demonstrate the usefulness of this approach.All algorithms developed in this thesis are open-sourced and available online. The Picard algorithm is included in the largest M/EEG processing Python library, MNE and Matlab library, EEGlab
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Liang, Jingwei. "Convergence rates of first-order operator splitting methods". Caen, 2016. http://www.theses.fr/2016CAEN2024.

Testo completo
Abstract (sommario):
Ce manuscrit traite de l’analyse de convergence des méthodes du premier ordre d’éclatement d’opérateurs qui sont omniprésents en optimisation non-lisse moderne. Il consiste en trois avancées théoriques principales sur la caractérisation des cette classe de méthodes, à savoir: leur taux de convergence globaux, de nouveaux schémas d’éclatement et une analyse de leur convergence linéaire locale. Dans un premier temps, nous proposons des taux de convergence globaux (sous-linéaires) et locaux (linéaire) pour l’itération de Krasnosel’ski˘ı-Mann inexacte, et ses applications à un large éventail de schémas d’éclatement d’opérateurs monotones. Ensuite, nous mettons au point deux algorithmes inertiels multi-pas d’éclatement d’opérateurs, pour le cas convexe et non-convexe, et établissons leurs garanties de convergence sur les itérées. Finalement, on s’appuyant sur le concept clé de la régularité partielle, nous présentons une analyse unifiée et précise de la convergence linéaire locale pour les méthodes d’optimisation proximales du premier ordre. Nous montrons que pour tous ces algorithmes, sous des conditions de non-dégénérescence appropriées, les itérées qu’ils génèrent (i) identifie les variétés actives de régularité partielle en temps finis, et ensuite (ii) entre dans un régime de convergence linéaire locale. Les taux de convergence linéaire sont caractérisés précisément, notamment en mettant en jeu la structure du problème d’optimisation, celle du schéma proximal, et la géométrie des variétés actives identifiées. Ces résultats théoriques sont systématiquement illustrés sur des applications issues des problèmes inverses, du traitement du signal et des images et de l’apprentissage
This manuscript is concerned with convergence analysis of first-order operator splitting methods that are ubiquitous in modern non-smooth optimization. It consists of three main theoretical advances on this class of methods, namely global convergence rates, novel operator splitting schemes and local linear convergence. First, we propose global (sub-linear) and local (linear) convergence rates for the inexact \KM iteration built from non-expansive operators, and its application to a variety of monotone splitting schemes. Then we design two novel multi-step inertial operator splitting algorithms, both in the convex and non-convex settings, and establish their global convergence. Finally, building on the key concept of partial smoothness, we present a unified and sharp local linear convergence analysis for the class of first-order proximal splitting methods for optimization. We show that for all these algorithms, under appropriate non-degeneracy conditions, the iterates generated by each of these methods will (i) identify the involved partial smooth manifolds in finite time, and then (ii) will enter a local linear convergence regime. The linear convergence rates are characterized precisely based on the structure of the optimization problem, that of the proximal splitting scheme, and the geometry of the identified active manifolds. Our theoretical findings are systematically illustrated on applications arising from inverse problems, signal/image processing and machine learning
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Badri, Hicham. "Sparse and Scale-Invariant Methods in Image Processing". Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0139/document.

Testo completo
Abstract (sommario):
Dans cette thèse, on présente de nouvelles approches à base de parcimonie et d'invariance d' échelle pour le développement de techniques rapides et efficaces en traitement d'images. Au lieu d'utiliser la norme l1 pour imposer la parcimonie, on exploite plutôt des pénalités non-convexes qui encouragent plus la parcimonie. On propose une approche de premier ordre pour estimer une solution d'un opérateur proximal non-convexe, ce qui permet d'exploiter facilement la non-convexité. On étudie aussi le problème de pluri-parcimonie quand le problème d'optimisation est composé de plusieurs termes parcimonieux. Ce cas survient généralement dans les problèmes qui nécessitent à la fois une estimation robuste pour rejeter les valeurs aberrantes et exploiter une information de parcimonie connue a priori. Ces techniques sont appliquées à plusieurs problèmes importants en vision par ordinateur bas niveau telles que le lissage sélectif, la séparation d'images, l'intégration robuste et la déconvolution. On propose aussi d'aller au-delà de la parcimonie et apprendre un modèle de mapping spectral non-local pour le débruitage d'images. La notion d'invariance d' échelle joue aussi un rôle important dans nos travaux. En exploitant ce principe, une définition précise des contours est définie, ce qui peut être complémentaire à la notion de parcimonie. Plus précisément, on peut construire des représentations invariantes pour la classification en se basant sur une architecture de réseaux convolutionnels profonds. L'invariance d' échelle permet aussi d'extraire les pixels qui portent les informations nécessaires pour la reconstruction ou aussi améliorer l'estimation du flot optique sur les images turbulentes en imposant la parcimonie comme régularisation sur les exposants de singularité locaux
In this thesis, we present new techniques based on the notions of sparsity and scale invariance to design fast and efficient image processing applications. Instead of using the popular l1-norm to model sparsity, we focus on the use of non-convex penalties that promote more sparsity. We propose to use a first-order approximation to estimate a solution of non-convex proximal operators, which permits to easily use a wide rangeof penalties. We address also the problem of multi-sparsity, when the minimization problem is composed of various sparse terms, which typically arises in problems that require both a robust estimation to reject outliers and a sparse prior. These techniques are applied to various important problems in low-level computer vision such as edgeaware smoothing, image separation, robust integration and image deconvolution. We propose also to go beyond sparsity models and learn non-local spectral mapping with application to image denoising. Scale-invariance is another notion that plays an important role in our work. Using this principle, a precise definition of edges can be derived which can be complementary to sparsity. More precisely, we can extractinvariant features for classification from sparse representations in a deep convolutional framework. Scale-invariance permits also to extract relevant pixels for sparsifying images. We use this principle as well to improve optical ow estimation on turbulent images by imposing a sparse regularization on the local singular exponents instead of regular gradients
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Balmand, Samuel. "Quelques contributions à l'estimation de grandes matrices de précision". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1024/document.

Testo completo
Abstract (sommario):
Sous l'hypothèse gaussienne, la relation entre indépendance conditionnelle et parcimonie permet de justifier la construction d'estimateurs de l'inverse de la matrice de covariance -- également appelée matrice de précision -- à partir d'approches régularisées. Cette thèse, motivée à l'origine par la problématique de classification d'images, vise à développer une méthode d'estimation de la matrice de précision en grande dimension, lorsque le nombre $n$ d'observations est petit devant la dimension $p$ du modèle. Notre approche repose essentiellement sur les liens qu'entretiennent la matrice de précision et le modèle de régression linéaire. Elle consiste à estimer la matrice de précision en deux temps. Les éléments non diagonaux sont tout d'abord estimés en considérant $p$ problèmes de minimisation du type racine carrée des moindres carrés pénalisés par la norme $ell_1$.Les éléments diagonaux sont ensuite obtenus à partir du résultat de l'étape précédente, par analyse résiduelle ou maximum de vraisemblance. Nous comparons ces différents estimateurs des termes diagonaux en fonction de leur risque d'estimation. De plus, nous proposons un nouvel estimateur, conçu de sorte à tenir compte de la possible contamination des données par des {em outliers}, grâce à l'ajout d'un terme de régularisation en norme mixte $ell_2/ell_1$. L'analyse non-asymptotique de la convergence de notre estimateur souligne la pertinence de notre méthode
Under the Gaussian assumption, the relationship between conditional independence and sparsity allows to justify the construction of estimators of the inverse of the covariance matrix -- also called precision matrix -- from regularized approaches. This thesis, originally motivated by the problem of image classification, aims at developing a method to estimate the precision matrix in high dimension, that is when the sample size $n$ is small compared to the dimension $p$ of the model. Our approach relies basically on the connection of the precision matrix to the linear regression model. It consists of estimating the precision matrix in two steps. The off-diagonal elements are first estimated by solving $p$ minimization problems of the type $ell_1$-penalized square-root of least-squares. The diagonal entries are then obtained from the result of the previous step, by residual analysis of likelihood maximization. This various estimators of the diagonal entries are compared in terms of estimation risk. Moreover, we propose a new estimator, designed to consider the possible contamination of data by outliers, thanks to the addition of a $ell_2/ell_1$ mixed norm regularization term. The nonasymptotic analysis of the consistency of our estimator points out the relevance of our method
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Bouby, Céline. "Adaptation élastoplastique de structures sous chargements variables avec règle d'écrouissage cinématique non linéaire et non associée". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00109296.

Testo completo
Abstract (sommario):
L'introduction de l'écrouissage dans l'étude de l'adaptation élastoplastique est abordée ici, en particulier lorsque celle-ci impose de se placer en plasticité non associée. Le cadre des matériaux standards généralisés (MSG) n'étant plus adapté dans ce dernier cas, une approche alternative, fournie par le concept de matériaux standards implicites (MSI), est alors utilisée. En particulier, on présente dans ce travail l'étude d'exemples caractéristiques en adaptation élastoplastique par le modèle des MSI, soit par l'approche du bipotentiel.
Un premier exemple concernant une éprouvette sous traction constante et torsion alternée est traité en utilisant la méthode pas à pas puis dans le cadre des MSI. La confrontation des résultats porte aussi bien sur le facteur d'adaptation que sur les contraintes internes. La comparaison entre les prédictions du calcul incrémental et celles de la solution analytique puis de la programmation mathématique, construites par l'approche du bipotentiel, montre une très bonne concordance.
La deuxième partie de l'étude est consacrée aux structures de type coques minces. Après avoir constaté que l'implémentation du problème de borne statique dans le cas de l'écrouissage cinématique linéaire limité nécessite d'imposer explicitement la limitation des contraintes internes pour que les résultats soient mécaniquement acceptables, il est montré que le cadre des MSI permet de construire un problème de borne cinématique. Son implémentation donne un encadrement très précis du facteur d'adaptation entre les facteurs cinématique et statique. Enfin, une règle d'écrouissage cinématique non linéaire et un bipotentiel sont construits pour les coques minces.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Cruz, Cavalcanti Yanna. "Factor analysis of dynamic PET images". Thesis, Toulouse, INPT, 2018. http://www.theses.fr/2018INPT0078/document.

Testo completo
Abstract (sommario):
La tomographie par émission de positrons (TEP) est une technique d'imagerie nucléaire noninvasive qui permet de quantifier les fonctions métaboliques des organes à partir de la diffusion d'un radiotraceur injecté dans le corps. Alors que l'imagerie statique est souvent utilisée afin d'obtenir une distribution spatiale de la concentration du traceur, une meilleure évaluation de la cinétique du traceur est obtenue par des acquisitions dynamiques. En ce sens, la TEP dynamique a suscité un intérêt croissant au cours des dernières années, puisqu'elle fournit des informations à la fois spatiales et temporelles sur la structure des prélèvements de traceurs en biologie \textit{in vivo}. Les techniques de quantification les plus efficaces en TEP dynamique nécessitent souvent une estimation de courbes temps-activité (CTA) de référence représentant les tissus ou une fonction d'entrée caractérisant le flux sanguin. Dans ce contexte, de nombreuses méthodes ont été développées pour réaliser une extraction non-invasive de la cinétique globale d'un traceur, appelée génériquement analyse factorielle. L'analyse factorielle est une technique d'apprentissage non-supervisée populaire pour identifier un modèle ayant une signification physique à partir de données multivariées. Elle consiste à décrire chaque voxel de l'image comme une combinaison de signatures élémentaires, appelées \textit{facteurs}, fournissant non seulement une CTA globale pour chaque tissu, mais aussi un ensemble des coefficients reliant chaque voxel à chaque CTA tissulaire. Parallèlement, le démélange - une instance particulière d'analyse factorielle - est un outil largement utilisé dans la littérature de l'imagerie hyperspectrale. En imagerie TEP dynamique, elle peut être très pertinente pour l'extraction des CTA, puisqu'elle prend directement en compte à la fois la non-négativité des données et la somme-à-une des proportions de facteurs, qui peuvent être estimées à partir de la diffusion du sang dans le plasma et les tissus. Inspiré par la littérature de démélange hyperspectral, ce manuscrit s'attaque à deux inconvénients majeurs des techniques générales d'analyse factorielle appliquées en TEP dynamique. Le premier est l'hypothèse que la réponse de chaque tissu à la distribution du traceur est spatialement homogène. Même si cette hypothèse d'homogénéité a prouvé son efficacité dans plusieurs études d'analyse factorielle, elle ne fournit pas toujours une description suffisante des données sousjacentes, en particulier lorsque des anomalies sont présentes. Pour faire face à cette limitation, les modèles proposés ici permettent un degré de liberté supplémentaire aux facteurs liés à la liaison spécifique. Dans ce but, une perturbation spatialement variante est introduite en complément d'une CTA nominale et commune. Cette variation est indexée spatialement et contrainte avec un dictionnaire, qui est soit préalablement appris ou explicitement modélisé par des non-linéarités convolutives affectant les tissus de liaisons non-spécifiques. Le deuxième inconvénient est lié à la distribution du bruit dans les images PET. Même si le processus de désintégration des positrons peut être décrit par une distribution de Poisson, le bruit résiduel dans les images TEP reconstruites ne peut généralement pas être simplement modélisé par des lois de Poisson ou gaussiennes. Nous proposons donc de considérer une fonction de coût générique, appelée $\beta$-divergence, capable de généraliser les fonctions de coût conventionnelles telles que la distance euclidienne, les divergences de Kullback-Leibler et Itakura-Saito, correspondant respectivement à des distributions gaussiennes, de Poisson et Gamma. Cette fonction de coût est appliquée à trois modèles d'analyse factorielle afin d'évaluer son impact sur des images TEP dynamiques avec différentes caractéristiques de reconstruction
Thanks to its ability to evaluate metabolic functions in tissues from the temporal evolution of a previously injected radiotracer, dynamic positron emission tomography (PET) has become an ubiquitous analysis tool to quantify biological processes. Several quantification techniques from the PET imaging literature require a previous estimation of global time-activity curves (TACs) (herein called \textit{factors}) representing the concentration of tracer in a reference tissue or blood over time. To this end, factor analysis has often appeared as an unsupervised learning solution for the extraction of factors and their respective fractions in each voxel. Inspired by the hyperspectral unmixing literature, this manuscript addresses two main drawbacks of general factor analysis techniques applied to dynamic PET. The first one is the assumption that the elementary response of each tissue to tracer distribution is spatially homogeneous. Even though this homogeneity assumption has proven its effectiveness in several factor analysis studies, it may not always provide a sufficient description of the underlying data, in particular when abnormalities are present. To tackle this limitation, the models herein proposed introduce an additional degree of freedom to the factors related to specific binding. To this end, a spatially-variant perturbation affects a nominal and common TAC representative of the high-uptake tissue. This variation is spatially indexed and constrained with a dictionary that is either previously learned or explicitly modelled with convolutional nonlinearities affecting non-specific binding tissues. The second drawback is related to the noise distribution in PET images. Even though the positron decay process can be described by a Poisson distribution, the actual noise in reconstructed PET images is not expected to be simply described by Poisson or Gaussian distributions. Therefore, we propose to consider a popular and quite general loss function, called the $\beta$-divergence, that is able to generalize conventional loss functions such as the least-square distance, Kullback-Leibler and Itakura-Saito divergences, respectively corresponding to Gaussian, Poisson and Gamma distributions. This loss function is applied to three factor analysis models in order to evaluate its impact on dynamic PET images with different reconstruction characteristics
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Lorentz, Eric. "Lois de comportement à gradients de variables internes : construction, formulation variationnelle et mise en œuvre numérique". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1999. http://tel.archives-ouvertes.fr/tel-00474024.

Testo completo
Abstract (sommario):
Des observations expérimentales montrent que les modélisations locales ne suffisent pas pour décrire le comportement de matériaux sollicités par de forts gradients des champs mécaniques, qui résultent, par exemple, de la localisation des déformations. On propose ici une démarche constructive qui étend les lois locales de type standard généralisé pour rendre compte des effets de gradients. Elle se fonde, d'une part, sur une méthode d'homogénéisation pour construire une loi à gradients de variables internes à l'échelle du point matériel, et d'autre part, sur une formulation de cette loi à l'échelle de la structure, où les variables sont dorénavant les champs de variables internes. Cette formulation variationnelle du comportement offre un cadre adéquat pour examiner des questions telles que l'existence de solutions au problème d'évolution, le choix des espaces fonctionnels pour les variables internes ou encore le lien entre modèles locaux et modèles à gradients. Par ailleurs, après discrétisation temporelle, la loi de comportement s'exprime comme la minimisation d'une énergie, problème d'optimisation qui est résolu ici au moyen d'un algorithme de lagrangien augmenté. Ce choix permet de confiner les fortes non linéarités – dont le caractère non différentiable de l'énergie – au niveau des points d'intégration, ce qui autorise une introduction aisée de ces développements dans un code de calcul préexistant, le Code_Aster® en l'occurrence. Trois applications permettent alors de mettre en lumière les potentialités de la démarche. Tout d'abord, un modèle élastique fragile illustre son caractère constructif et opérationnel, depuis la construction du modèle jusqu'aux simulations numériques. Ensuite, l'insertion dans ce cadre variationnel des modèles de plasticité à gradients, abondamment employés dans la littérature, démontre le degré de généralité de la formulation. Enfin, son application à la loi de Rousselier pour modéliser un mécanisme de rupture ductile des aciers permet d'examiner l'interaction entre grandes déformations plastiques, d'une part, et comportement non local, d'autre part.
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Belghiti, Moulay Tayeb. "Modélisation et techniques d'optimisation en bio-informatique et fouille de données". Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0002.

Testo completo
Abstract (sommario):
Cette thèse est particulièrement destinée à traiter deux types de problèmes : clustering et l'alignement multiple de séquence. Notre objectif est de résoudre de manière satisfaisante ces problèmes globaux et de tester l'approche de la Programmation DC et DCA sur des jeux de données réelles. La thèse comporte trois parties : la première partie est consacrée aux nouvelles approches de l'optimisation non convexe. Nous y présentons une étude en profondeur de l'algorithme qui est utilisé dans cette thèse, à savoir la programmation DC et l'algorithme DC (DCA). Dans la deuxième partie, nous allons modéliser le problème clustering en trois sous-problèmes non convexes. Les deux premiers sous-problèmes se distinguent par rapport au choix de la norme utilisée, (clustering via les normes 1 et 2). Le troisième sous-problème utilise la méthode du noyau, (clustering via la méthode du noyau). La troisième partie sera consacrée à la bio-informatique. On va se focaliser sur la modélisation et la résolution de deux sous-problèmes : l'alignement multiple de séquence et l'alignement de séquence d'ARN par structure. Tous les chapitres excepté le premier se terminent par des tests numériques
This Ph.D. thesis is particularly intended to treat two types of problems : clustering and the multiple alignment of sequence. Our objective is to solve efficiently these global problems and to test DC Programming approach and DCA on real datasets. The thesis is divided into three parts : the first part is devoted to the new approaches of nonconvex optimization-global optimization. We present it a study in depth of the algorithm which is used in this thesis, namely the programming DC and the algorithm DC ( DCA). In the second part, we will model the problem clustering in three nonconvex subproblems. The first two subproblems are distinguished compared to the choice from the norm used, (clustering via norm 1 and 2). The third subproblem uses the method of the kernel, (clustering via the method of the kernel). The third part will be devoted to bioinformatics, one goes this focused on the modeling and the resolution of two subproblems : the multiple alignment of sequence and the alignment of sequence of RNA. All the chapters except the first end in numerical tests
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Li, Wei Chipot Michel. "ANALYSE NUMERIQUE DE PROBLEMES NON CONVEXES A DONNEE AU BORD NON LINEAIRE /". [S.l.] : [s.n.], 1993. ftp://ftp.scd.univ-metz.fr/pub/Theses/1993/Li.Wei.SMZ9310.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Hafiene, Yosra. "Continuum limits of evolution and variational problems on graphs". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC254/document.

Testo completo
Abstract (sommario):
L’opérateur du p-Laplacien non local, l’équation d’évolution et la régularisation variationnelle associées régies par un noyau donné ont des applications dans divers domaines de la science et de l’ingénierie. En particulier, ils sont devenus des outils modernes pour le traitement massif des données (y compris les signaux, les images, la géométrie) et dans les tâches d’apprentissage automatique telles que la classification. En pratique, cependant, ces modèles sont implémentés sous forme discrète (en espace et en temps, ou en espace pour la régularisation variationnelle) comme approximation numérique d’un problème continu, où le noyau est remplacé par la matrice d’adjacence d’un graphe. Pourtant, peu de résultats sur la consistence de ces discrétisations sont disponibles. En particulier, il est largement ouvert de déterminer quand les solutions de l’équation d’évolution ou du problème variationnel des tâches basées sur des graphes convergent (dans un sens approprié) à mesure que le nombre de sommets augmente, vers un objet bien défini dans le domaine continu, et si oui, à quelle vitesse. Dans ce manuscrit, nous posons les bases pour aborder ces questions.En combinant des outils de la théorie des graphes, de l’analyse convexe, de la théorie des semi- groupes non linéaires et des équations d’évolution, nous interprétons rigoureusement la limite continue du problème d’évolution et du problème variationnel du p-Laplacien discrets sur graphes. Plus précisé- ment, nous considérons une suite de graphes (déterministes) convergeant vers un objet connu sous le nom de graphon. Si les problèmes d’évolution et variationnel associés au p-Laplacien continu non local sont discrétisés de manière appropriée sur cette suite de graphes, nous montrons que la suite des solutions des problèmes discrets converge vers la solution du problème continu régi par le graphon, lorsque le nombre de sommets tend vers l’infini. Ce faisant, nous fournissons des bornes d’erreur/consistance.Cela permet à son tour d’établir les taux de convergence pour différents modèles de graphes. En parti- culier, nous mettons en exergue le rôle de la géométrie/régularité des graphons. Pour les séquences de graphes aléatoires, en utilisant des inégalités de déviation (concentration), nous fournissons des taux de convergence nonasymptotiques en probabilité et présentons les différents régimes en fonction de p, de la régularité du graphon et des données initiales
The non-local p-Laplacian operator, the associated evolution equation and variational regularization, governed by a given kernel, have applications in various areas of science and engineering. In particular, they are modern tools for massive data processing (including signals, images, geometry), and machine learning tasks such as classification. In practice, however, these models are implemented in discrete form (in space and time, or in space for variational regularization) as a numerical approximation to a continuous problem, where the kernel is replaced by an adjacency matrix of a graph. Yet, few results on the consistency of these discretization are available. In particular it is largely open to determine when do the solutions of either the evolution equation or the variational problem of graph-based tasks converge (in an appropriate sense), as the number of vertices increases, to a well-defined object in the continuum setting, and if yes, at which rate. In this manuscript, we lay the foundations to address these questions.Combining tools from graph theory, convex analysis, nonlinear semigroup theory and evolution equa- tions, we give a rigorous interpretation to the continuous limit of the discrete nonlocal p-Laplacian evolution and variational problems on graphs. More specifically, we consider a sequence of (determin- istic) graphs converging to a so-called limit object known as the graphon. If the continuous p-Laplacian evolution and variational problems are properly discretized on this graph sequence, we prove that the solutions of the sequence of discrete problems converge to the solution of the continuous problem governed by the graphon, as the number of graph vertices grows to infinity. Along the way, we provide a consistency/error bounds. In turn, this allows to establish the convergence rates for different graph models. In particular, we highlight the role of the graphon geometry/regularity. For random graph se- quences, using sharp deviation inequalities, we deliver nonasymptotic convergence rates in probability and exhibit the different regimes depending on p, the regularity of the graphon and the initial data
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Aussel, Didier. "Théorème de la valeur moyenne et convexité généralisée en analyse non régulière". Clermont-Ferrand 2, 1994. http://www.theses.fr/1994CLF21669.

Testo completo
Abstract (sommario):
On définit la notion de sous-différentiel abstrait, concept qui permet de recouvrir simultanément la quasi-totalité des diverses définitions de sous-différentiel utilisées en analyse non régulière (non différentiable). Dans ce contexte abstrait et pour des fonctions semi-continues inférieurement définies sur un espace de Banach, on prouve un principe virationnel lisse et une inégalité de la valeur moyenne approchée. La suite du mémoire est consacrée aux applications de cette inégalité et concernent : des applications a l'analyse: coercivité, continuité Lipchitz, densité du domaine de la fonction et de son sous-différentiel. Des applications a l'analyse convexe: caractérisation de la quasi-convexité, étude des fonctions quasi-affines et des fonctions fortement quasi-convexes. Cette approche abstraite permet d'englober et de généraliser un grand nombre de résultats précédemment démontrés dans des cas particuliers (espaces ou sous-différentiels particuliers, fonctions localement Lipchitz ou différentiables). Mais elle a surtout l'avantage d'aller a l'essentiel c'est-a-dire de construire les démonstrations autour de quelques techniques clefs de l'analyse non régulière et non autour des spécificités d'un sous-différentiel.
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Marcellin, Sylvie. "Intégration d'epsilon-sous-différentiels et problèmes d'évolution non convexes". Montpellier 2, 2004. http://www.theses.fr/2004MON20109.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Shane, Christopher Koldobsky Alexander. "Uniqueness theorems for non-symmetric convex bodies". Diss., Columbia, Mo. : University of Missouri-Columbia, 2009. http://hdl.handle.net/10355/6785.

Testo completo
Abstract (sommario):
The entire thesis text is included in the research.pdf file; the official abstract appears in the short.pdf file; a non-technical public abstract appears in the public.pdf file. Title from PDF of title page (University of Missouri--Columbia, viewed on March 29, 2010). Thesis advisor: Dr. Alexander Koldobsky. Vita. Includes bibliographical references.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Elfanni, Abdellah. "Sur quelques questions d'analyse numérique relatives à des problèmes non convexes". Metz, 1996. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1996/Elfanni.Abdellah.SMZ9616.pdf.

Testo completo
Abstract (sommario):
On étudie quelques aspects numériques de problèmes variationnels non convexes. En général de tels problèmes n'admettent pas de minimiseurs. En échange les suites minimisantes développent des oscillations dans le but de minimiser leur énergie. Ces oscillations apparaissent dans plusieurs phénomènes physiques. En métallurgie, par exemple, elles sont observées au cours de la transformation martensitique de certains alliages lesquels profitent de leurs structures spécifiques pour dépenser le moins d'énergie. Ceci est modélisé par la donnée d'une densité d'énergie mesurée par le gradient de la déformation et par la température à laquelle est soumis le matériau. A une certaine température, cette densité d'énergie emprunte des puits de potentiels donnant lieu à des problèmes non convexes
We study some numerical aspects of variational problems which fail to be convex. In general such problems don't have minimizers. Instead, minimising sequences develop oscillations which allow them to decrease the energy. Such oscillations are encountered in various physical settings. In mettallurgy, for instance, they are observed in martensitic transformation of some alloys which make full use of their special structure to lower their energy. We are led to assume the existence of a density energy measured by the deformation gradient and the material temperature. At a certain temperature this density energy is supported on some potential wells which lead to a no convex problems
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Seeger, Alberto. "Analyse du second ordre de problèmes non différentiables". Toulouse 3, 1986. http://www.theses.fr/1986TOU30118.

Testo completo
Abstract (sommario):
Le but de ce travail est de faire une analyse du second ordre des fonctions non différentiables. Dans une première partie, on donne des conditions suffisantes qui permettent d'assurer l'existence et de donner des estimations de la dérivée directionnelle du second ordre, au sens de ben-tal et zowe, d'une fonction marginale générale. Cela nous amène à introduire et à étudier une notion analogue de dérivation du second ordre pour une multiplication. Dans une deuxième partie, on considère l'importance classe des fonctions convexes non nécessairement différentiables définies sur un espace vectoriel topologique localement convexe quelconque. On introduit deux nouveaux ensembles convexes qui jouent le rôle d'un sous-différentiel du second ordre d'une telle fonction, le premier d'entre eux dépendant du choix particulier d'un sous-gradient. On étudie d'une façon exhaustive les propriétés générales de tels ensembles et, ensuite, on énonce des règles de calcul qui en donnent des estimations lorsque la fonction convexe est construite à partir d'autres plus simples. La plupart des opérations qui préservent la convexité ont été considérées. Finalement, on montre comment les notions de sous-differentiabilité du second ordre nous permettent de généraliser, du moins sous forme conceptuelle, les algorithmes de minimisation du type newton au cadre de l'optimisation convexe non différentiable
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Théra, Michel A. "Contributions à l'analyse non linéaire". Paris 1, 1988. http://www.theses.fr/1988PA010058.

Testo completo
Abstract (sommario):
Cette thèse est composee de trois parties independantes: la premiere partie consiste a montrer que l'analyse convexe classique, introduite par J. J. Moreau et R. T. Rockafellar, peut sous certaines conditions s'etendre aux fonctions convexes prenant leurs valeurs dans un espace vectoriel topologique ordonne. L'etude des fonctions convexes vectorielles semi-continues inferieurement est entreprise, et des conditions sont donnees pour generaliser le theoreme de hormander. Le cas pathologique, ou l'espace d'arrivee est l'espace des fonctions continues sur un compact, est traite et divers contre-exemples sont donnes. La seconde partie est motivee par l'etude de l'etat d'equilibre post-critique d'une plaque elastique mince constituee d'un materiau homogene, isotrope et soumise a des forces unilaterales. L'argument principal utilise consiste en un principe variationnel, obtenu via le concept d'ensemble coniquement compact introduit par bourgin. La derniere contribution de cette these concerne l'etude de l'equation tu=au associee a un operateur non lineaire t defini sur une espace de banach reflexif muni d'une norme suffisamment reguliere et auto-adjoint par rapport a une application de dualite. Pour trouver des solutions non triviales a cette equation de type hammerstein, on introduit une convergence intermediaire entre la convergence forte et la convergence faible: la f-convergence. Les inegalites de Hardy-Littlewood-Polya jouent un role primordial dans cette etude
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Calandriello, Daniele. "Efficient sequential learning in structured and constrained environments". Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10216/document.

Testo completo
Abstract (sommario):
L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est alors quadratique en temps et espace, ce qui s'avère rapidement trop coûteux pour les jeux de données de grande dimension. Cependant, la dimension "effective" d'un jeu de donnée est bien souvent beaucoup plus petite que le nombre d'échantillons lui-même. Il est alors possible de substituer le jeu de donnée réel par un jeu de données de taille réduite (appelé "dictionnaire") composé exclusivement d'échantillons informatifs. Malheureusement, les méthodes avec garanties théoriques utilisant des dictionnaires comme "Ridge Leverage Score" (RLS) ont aussi une complexité quadratique. Dans cette thèse nous présentons une nouvelle méthode d'échantillonage RLS qui met à jour le dictionnaire séquentiellement en ne comparant chaque nouvel échantillon qu'avec le dictionnaire actuel, et non avec l'ensemble des échantillons passés. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l'ordre de la dimension effective du jeu de données final, garantissant ainsi une complexité en temps et espace à chaque étape indépendante du nombre total d'échantillons. Cette méthode présente l’avantage de pouvoir être parallélisée. Enfin, nous montrons que de nombreux problèmes d'apprentissage non-paramétriques peuvent être résolus de manière approchée grâce à notre méthode
The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called "curse of kernelization": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Sabbagh, Wissal. "Some Contributions on Probabilistic Interpretation For Nonlinear Stochastic PDEs". Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1019/document.

Testo completo
Abstract (sommario):
L'objectif de cette thèse est l'étude de la représentation probabiliste des différentes classes d'EDPSs non-linéaires(semi-linéaires, complètement non-linéaires, réfléchies dans un domaine) en utilisant les équations différentielles doublement stochastiques rétrogrades (EDDSRs). Cette thèse contient quatre parties différentes. Nous traitons dans la première partie les EDDSRs du second ordre (2EDDSRs). Nous montrons l'existence et l'unicité des solutions des EDDSRs en utilisant des techniques de contrôle stochastique quasi- sure. La motivation principale de cette étude est la représentation probabiliste des EDPSs complètement non-linéaires. Dans la deuxième partie, nous étudions les solutions faibles de type Sobolev du problème d'obstacle pour les équations à dérivées partielles inteégro-différentielles (EDPIDs). Plus précisément, nous montrons la formule de Feynman-Kac pour l'EDPIDs par l'intermédiaire des équations différentielles stochastiques rétrogrades réfléchies avec sauts (EDSRRs). Plus précisément, nous établissons l'existence et l'unicité de la solution du problème d'obstacle, qui est considérée comme un couple constitué de la solution et de la mesure de réflexion. L'approche utilisée est basée sur les techniques de flots stochastiques développées dans Bally et Matoussi (2001) mais les preuves sont beaucoup plus techniques. Dans la troisième partie, nous traitons l'existence et l'unicité pour les EDDSRRs dans un domaine convexe D sans aucune condition de régularité sur la frontière. De plus, en utilisant l'approche basée sur les techniques du flot stochastiques nous démontrons l'interprétation probabiliste de la solution faible de type Sobolev d'une classe d'EDPSs réfléchies dans un domaine convexe via les EDDSRRs. Enfin, nous nous intéressons à la résolution numérique des EDDSRs à temps terminal aléatoire. La motivation principale est de donner une représentation probabiliste des solutions de Sobolev d'EDPSs semi-linéaires avec condition de Dirichlet nul au bord. Dans cette partie, nous étudions l'approximation forte de cette classe d'EDDSRs quand le temps terminal aléatoire est le premier temps de sortie d'une EDS d'un domaine cylindrique. Ainsi, nous donnons les bornes pour l'erreur d'approximation en temps discret. Cette partie se conclut par des tests numériques qui démontrent que cette approche est effective
The objective of this thesis is to study the probabilistic representation (Feynman-Kac for- mula) of different classes ofStochastic Nonlinear PDEs (semilinear, fully nonlinear, reflected in a domain) by means of backward doubly stochastic differential equations (BDSDEs). This thesis contains four different parts. We deal in the first part with the second order BDS- DEs (2BDSDEs). We show the existence and uniqueness of solutions of 2BDSDEs using quasi sure stochastic control technics. The main motivation of this study is the probabilistic representation for solution of fully nonlinear SPDEs. First, under regularity assumptions on the coefficients, we give a Feynman-Kac formula for classical solution of fully nonlinear SPDEs and we generalize the work of Soner, Touzi and Zhang (2010-2012) for deterministic fully nonlinear PDE. Then, under weaker assumptions on the coefficients, we prove the probabilistic representation for stochastic viscosity solution of fully nonlinear SPDEs. In the second part, we study the Sobolev solution of obstacle problem for partial integro-differentialequations (PIDEs). Specifically, we show the Feynman-Kac formula for PIDEs via reflected backward stochastic differentialequations with jumps (BSDEs). Specifically, we establish the existence and uniqueness of the solution of the obstacle problem, which is regarded as a pair consisting of the solution and the measure of reflection. The approach is based on stochastic flow technics developed in Bally and Matoussi (2001) but the proofs are more technical. In the third part, we discuss the existence and uniqueness for RBDSDEs in a convex domain D without any regularity condition on the boundary. In addition, using the approach based on the technics of stochastic flow we provide the probabilistic interpretation of Sobolev solution of a class of reflected SPDEs in a convex domain via RBDSDEs. Finally, we are interested in the numerical solution of BDSDEs with random terminal time. The main motivation is to give a probabilistic representation of Sobolev solution of semilinear SPDEs with Dirichlet null condition. In this part, we study the strong approximation of this class of BDSDEs when the random terminal time is the first exit time of an SDE from a cylindrical domain. Thus, we give bounds for the discrete-time approximation error.. We conclude this part with numerical tests showing that this approach is effective
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Freund, Robert M., e Fernando 1970 Ordóñez. "On an Extension of Condition Number Theory to Non-Conic Convex Optimization". Massachusetts Institute of Technology, Operations Research Center, 2003. http://hdl.handle.net/1721.1/5404.

Testo completo
Abstract (sommario):
The purpose of this paper is to extend, as much as possible, the modern theory of condition numbers for conic convex optimization: z* := minz ctx s.t. Ax - b Cy C Cx , to the more general non-conic format: z* := minx ctx (GPd) s.t. Ax-b E Cy X P, where P is any closed convex set, not necessarily a cone, which we call the groundset. Although any convex problem can be transformed to conic form, such transformations are neither unique nor natural given the natural description of many problems, thereby diminishing the relevance of data-based condition number theory. Herein we extend the modern theory of condition numbers to the problem format (GPd). As a byproduct, we are able to state and prove natural extensions of many theorems from the conic-based theory of condition numbers to this broader problem format.
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Fang, Yanbo. "Study of positively metrized line bundles over a non-Archimedean field via holomorphic convexity". Thesis, Université de Paris (2019-....), 2020. http://www.theses.fr/2020UNIP7033.

Testo completo
Abstract (sommario):
Ce mémoire de thèse est consacré à l'étude de fibré en droites semipositif en géométrie analytique non-Archimédienne, par un point de vue d'analyse fonctionnelle sur un corps ultramétrique en exploitant la géométrie de la convexité holomorphe. Le premier chapitre recueille quelques préliminaires pour l'algèbre de Banach sur un corps ultramétrique et la géométrie de son spectre au sens de Berkovich, le cadre dans lequel l'étude est effectuée. Le deuxième chapitre présente la construction de base, qui encode la géométrie intervenante dans certaines algèbres de Banach. On associe une algèbre normée de section à un fibré en droites métrisé. On décrit son spectre, en le reliant avec le fibré en disques unités duals de ce fibré en droites muni de la métrique enveloppante. On encode alors la positivité métrique par la convexité holomorphe. Le troisième chapitre consiste en deux approches indépendantes pour le problème d'extension métrique de sections restreintes sur une sous-variété fermée. On obtient une borne supérieure pour la distorsion métrique asymptotique, qui est uniforme par rapport aux choix de sections restreintes. On utilise une propriété particulière aux normes affinoïdes pour obtenir cette inégalité. Le quatrième chapitre traite le problème de la régularité de métrique enveloppante. Avec un nouveau regard venant d'analyse holomorphe à plusieurs variables, on vise à montrer que, quand le fibré en droites est ample, la métrique enveloppante est continue si la métrique de départ l’est. On suggère une méthode tentative reposant sur un analogue non archimédien spéculatif d'un résultat sur la convexité holomorphe due à Cartan et Thullen
This thesis is devoted to the study of semi-positively metrized line bundles in non-Archimedean analytic geometry, with the point of view of functional analysis over an ultra-metric field exploiting the geometry related to holomorphic convexity. The first chapter gathers some preliminaries about Banach algebras over ultra-metric fields and the geometry of their spectrum in the sense of V. Berkovich, which is the framework of our study. The second chapter present the basic construction, which encodes the related geometric information into some Banach algebra. We associate the normed algebra of sections of a metrized line bundle. We describe its spectrum, relating it with the dual unit disc bundle of this line bundle with respect to the envelope metric. We thus encode the metric positivity into the holomorphic convexity of the spectrum. The third chapter consists of two independent for the normed extension problem for restricted sections on a sub-variety. We obtain an upper bound for the asymptotic norm distorsion between the restricted section and the extended one, which is uniform with respect to the choice of restricted sections. We use a particular property of affinoid algebras to obtain this inequality. The fourth chapter treat the problem of regularity of the envelope metric. With a new look from the holomorphic analysis of several variables, we aime at showing that on ample line bundles, the envelop metric is continuous once the original metric is. We suggest a tentative approach based on a speculative analogue of Cartan-Thullen’s result in the non-Archimedean setting
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Imbert, Cyril. "Analyse non lisse : - Fonction d'appui de la Jacobienne généralisée de Clarke et de son enveloppe plénière - Quelques applications aux équations de Hamilton-Jacobi du premier ordre (fonctions de Hopf-Lax, Hamiltoniens diff. convexes, solutions sci)". Phd thesis, Université Paul Sabatier - Toulouse III, 2000. http://tel.archives-ouvertes.fr/tel-00001203.

Testo completo
Abstract (sommario):
Le travail présenté dans ce mémoire est divisé en deux parties. La première partie est consacrée aux calculs des fonctions d'appui de la Jacobienne généralisée de Clarke et de son enveloppe plénière, associées à une fonction localement lipschtizienne à valeurs vectorielles. Clarke avait établi en 1975 que la fonction d'appui du sous-différentiel généralisé était une dérivée directionnelle généralisée. Il est donc satisfaisant de constater que la fonction d'appui de la Jacobienne généralisée est une sorte de "divergence directionnelle généralisée". Dans la seconde partie, nous présentons un certain nombre d'applications de techniques issues de l'Analyse non lisse à la résolution d'équations de Hamilton-Jacobi du premier ordre. Ainsi nous utilisons la dualité convexe et le calcul sous-différentiel pour prouver que les formules dites de Hopf-Lax définissent des solutions explicites des équations de Hamilton-Jacobi associées (avec données initiales semicontinues inférieurement). Nous n'utilisons ni le fameux principe de comparaison de la théorie des solutions de viscosité ni régularisation. Nous traitons successivement le cas de la dimension finie et de la dimension infinie. Ces résultats nous permettent de trouver des estimations des solutions d'équations dont l'hamiltonien est la différence de deux fonctions convexes. Enfin, nous nous attachons à l'étude des solutions sci dans des espaces de Banach dits ``lisses''. Le théorème de la valeur moyenne de Clarke et Ledyaev nous permet de montrer un résultat d'``enveloppe'' : nous construisons une solution sci pour une équation dont l'hamiltonien est le supremum d'une famille d'hamiltoniens. Nous appliquons enfin les mêmes techniques pour prouver l'existence d'une solution sci minimale sous des hypothèses plus faibles que celles que l'on recontre généralement dans la littérature.
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Imbert, Cyril. "Analyse non lisse : fonction d'appui de la jacobienne généralisée de Clarke : quelques applications aux équations de Hamilton-Jacobi du premier ordre (formules de Hopf-Lax, hamiltoniens diff. Convexes, enveloppes de solutions sci)". Phd thesis, Toulouse 3, 2000. http://www.theses.fr/2000TOU30036.

Testo completo
Abstract (sommario):
Le travail presente dans ce memoire est divise en deux parties distinctes. La premiere partie est consacree aux calculs des fonctions d'appui de la jacobienne generalisee de clarke et de son enveloppe pleniere, associees a une fonction localement lipschtizienne a valeurs vectorielles. Clarke avait etabli en 1975 que la fonction d'appui du sous-differentiel generalise etait une derivee directionnelle generalisee. Il est donc satisfaisant de constater que la fonction d'appui de la jacobienne generalisee est une sorte divergence generalisee. Dans la seconde partie, nous presentons un certain nombre d'applications de techniques issues de l'analyse non lisse a la resolution d'equations de hamilton-jacobi du premier ordre. Ainsi nous utilisons la dualite convexe et le calcul sous-differentiel pour prouver que les formules dites de hopf-lax definissent des solutions explicites des equations de hamilton-jacobi associees (avec donnees initiales semicontinues inferieurement). Nous n'utilisons ni le fameux principe de comparaison de la theorie des solutions de viscosite ni regularisation. Nous traitons successivement le cas de la dimension finie et de la dimension infinie. Ces resultats nous permettent de trouver des estimations des solutions d'equations dont l'hamiltonien est la difference de deux fonctions convexes. Enfin, nous nous attachons a l'etude des solutions sci dans des espaces de banach dits lisses. Le theoreme de la valeur moyenne de clarke et ledyaev nous permet de montrer un resultat d'enveloppe : nous construisons une solution sci pour une equation dont l'hamiltonien est le supremum d'une famille d'hamiltoniens. Nous appliquons enfin les memes techniques pour prouver l'existence d'une solution sci minimale sous des hypotheses plus faibles que celles que l'on rencontre generalement dans la litterature. .
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Jung, Jonathan. "Schémas numériques adaptés aux accélérateurs multicoeurs pour les écoulements bifluides". Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00876159.

Testo completo
Abstract (sommario):
Cette thèse traite de la modélisation et de l'approximation numérique des écoulements liquide-gaz compressibles. La difficulté essentielle réside dans la modélisation et l'approximation de l'interface liquide-gaz. Schématiquement, deux types de méthodes permettent l'étude de la dynamique de l'interface : l'approche eulérienne, aussi dite de capture de front ("front capturing method") et l'approche lagrangienne, de suivi de front ("front tracking method"). Nos travaux sont plutôt basés sur la méthode de capture de front. Le modèle bifluide est constitué d'un système de lois de conservation du premier ordre traduisant le bilan de masse, de quantité de mouvement et d'énergie du système physique. Ce système doit être fermé par une loi de pression du mélange gaz-liquide pour que sa résolution soit possible. Cette loi de comportement doit être choisie soigneusement, puisqu'elle conditionne les bonnes propriétés du système comme l'hyperbolicité ou l'existence d'une entropie de Lax. Les méthodes d'approximation doivent permettre de traduire au niveau discret ces propriétés. Les schémas conservatifs classiques de type Godunov peuvent être appliqués au modèle bifluide. Ils conduisent cependant à des imprécisions qui les rendent inutilisables en pratique. Enfin, l'existence de solutions discontinues rend difficile la construction de schémas d'ordre élevé. La structure complexe des solutions nécessite alors des maillages très fins pour une précision acceptable. Il est donc indispensable de proposer des algorithmes performants pour les calculateurs parallèles les plus récents. Au cours de cette thèse, nous allons aborder partiellement chacune de ces problématiques : construction d'une "bonne" loi de pression, construction de schémas numériques adaptés, programmation sur calculateur massivement multicoeur.
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Chbani, Zaki. "Convergence épigraphique des fonctions et convergence en graphe des opérateurs : Quelques applications en calcul des variations". Montpellier 2, 1993. http://www.theses.fr/1993MON20075.

Testo completo
Abstract (sommario):
Des questions d'approximations des regularisations et de convergence, liees au domaine de l'analyse non lineaire, sont traitees. En premier lieu, on donne une caracterisation de la convergence de certaines fonctionnelles integrales en terme de convergence des coefficients de leurs integrandes. On se consacre ensuite a l'etude de l'approximee de lasry-lions d'une fonction definie sur un espace de hilbert, pour un choix critique des parametres. Par ailleurs, le resultat d'equivalence entre convergence au sens d'attouch-wets d'une suite de fonctions definies sur un espace super reflexif et convergence au meme sens des graphes de leur sous differentiels est precisee. On introduit enfin, une notion de recession pour un operateur maximal monotone defini sur un espace de hilbert. L'un des objectifs est la resolution d'equations gouvernees par des maximaux monotones non coercifs
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Lorenz, Nicole. "Application of the Duality Theory". Doctoral thesis, Universitätsbibliothek Chemnitz, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-qucosa-94108.

Testo completo
Abstract (sommario):
The aim of this thesis is to present new results concerning duality in scalar optimization. We show how the theory can be applied to optimization problems arising in the theory of risk measures, portfolio optimization and machine learning. First we give some notations and preliminaries we need within the thesis. After that we recall how the well-known Lagrange dual problem can be derived by using the general perturbation theory and give some generalized interior point regularity conditions used in the literature. Using these facts we consider some special scalar optimization problems having a composed objective function and geometric (and cone) constraints. We derive their duals, give strong duality results and optimality condition using some regularity conditions. Thus we complete and/or extend some results in the literature especially by using the mentioned regularity conditions, which are weaker than the classical ones. We further consider a scalar optimization problem having single chance constraints and a convex objective function. We also derive its dual, give a strong duality result and further consider a special case of this problem. Thus we show how the conjugate duality theory can be used for stochastic programming problems and extend some results given in the literature. In the third chapter of this thesis we consider convex risk and deviation measures. We present some more general measures than the ones given in the literature and derive formulas for their conjugate functions. Using these we calculate some dual representation formulas for the risk and deviation measures and correct some formulas in the literature. Finally we proof some subdifferential formulas for measures and risk functions by using the facts above. The generalized deviation measures we introduced in the previous chapter can be used to formulate some portfolio optimization problems we consider in the fourth chapter. Their duals, strong duality results and optimality conditions are derived by using the general theory and the conjugate functions, respectively, given in the second and third chapter. Analogous calculations are done for a portfolio optimization problem having single chance constraints using the general theory given in the second chapter. Thus we give an application of the duality theory in the well-developed field of portfolio optimization. We close this thesis by considering a general Support Vector Machines problem and derive its dual using the conjugate duality theory. We give a strong duality result and necessary as well as sufficient optimality conditions. By considering different cost functions we get problems for Support Vector Regression and Support Vector Classification. We extend the results given in the literature by dropping the assumption of invertibility of the kernel matrix. We use a cost function that generalizes the well-known Vapnik's ε-insensitive loss and consider the optimization problems that arise by using this. We show how the general theory can be applied for a real data set, especially we predict the concrete compressive strength by using a special Support Vector Regression problem.
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Kazi-Tani, Mohamed Nabil. "Analysis of Backward SDEs with Jumps and Risk Management Issues". Palaiseau, Ecole polytechnique, 2012. https://pastel.hal.science/docs/00/78/21/54/PDF/these.pdf.

Testo completo
Abstract (sommario):
Cette thèse traite d'une part, de questions de gestion, de mesure et de transfert du risque et d'autre part, de problèmes d'analyse stochastique à sauts avec incertitude de modèle. Le premier chapitre est consacré à l'analyse des intégrales de Choquet, comme mesures de risque monétaires non nécessairement invariantes en loi. Nous établissons d'abord un nouveau résultat de représentation des mesures de risque comonotones, puis un résultat de représentation des intégrales de Choquet en introduisant la notion de distorsion locale. Ceci nous permet de donner ensuite une forme explicite à l'inf-convolution de deux intégrales de Choquet, avec des exemples illustrant l'impact de l'absence de la propriété d'invariance en loi. Nous nous intéressons ensuite à un problème de tarification d'un contrat de réassurance non proportionnelle, contenant des clauses de reconstitution. Après avoir défini le prix d'indifférence relatif à la fois à une fonction d'utilité et à une mesure de risque, nous l'encadrons par des valeurs facilement implémentables. Nous passons alors à un cadre dynamique en temps. Pour cela, nous montrons, en adoptant une approche par point fixe, un théorème d'existence de solutions bornées pour une classe d'équations différentielles stochastiques rétrogrades (EDSRs dans la suite) avec sauts et à croissance quadratique. Sous une hypothèse additionnelle classique dans le cadre à sauts, ou sous une hypothèse de convexité du géKazi-Taninérateur, nous établissons un résultat d'unicité grâce à un principe de comparaison. Nous analysons les propriétés des espérances non linéaires correspondantes. En particulier, nous obtenons une décomposition de Doob-Meyer des surmartingales non-linéaires ainsi que leur régularité en temps. En conséquence, nous en déduisons facilement un principe de comparaison inverse. Nous appliquons ces résultats à l'étude des mesures de risque dynamiques associées, sur une filtration engendrée à la fois par un mouvement brownien et par une mesure aléatoire à valeurs entières, à leur repésentation duale, ainsi qu'à leur inf-convolution, avec des exemples explicites. La seconde partie de cette thèse concerne l'analyse de l'incertitude de modèle, dans le cas particulier des EDSRs du second ordre avec sauts. Nous imposons que ces équations aient lieu au sens presque-sûr, pour toute une famille non dominée de mesures de probabilités qui sont solution d'un problème de martingales sur l'espace de Skorohod. Nous étendons d'abord la définition des EDSRs du second ordre, telles que définies par Soner, Touzi et Zhang, au cas avec sauts. Pour ce faire, nous démontrons un résultat d'agrégation au sens de Soner, Touzi et Zhang sur l'espace des trajectoires càdlàg. Ceci nous permet, entre autres, d'utiliser une version quasi-sûre du compensateur de la mesure des sauts du processus canonique. Nous montrons alors un résultat d'existence et d'unicité pour notre classe d'EDSRs du second ordre. Ces équations sont affectées par l'incertitude portant à la fois sur la volatilité et sur les sauts du processus qui les dirige
This PhD dissertation deals with issues in management, measure and transfer of risk on the one hand and with problems of stochastic analysis with jumps under model uncertainty on the other hand. The first chapter is dedicated to the analysis of Choquet integrals, as non necessarily law invariant monetary risk measures. We first establish a new representation result of convex comonotone risk measures, then a representation result of Choquet integrals by introducing the notion of local distortion. This allows us then to compute in an explicit manner the inf-convolution of two Choquet integrals, with examples illustrating the impact of the absence of the law invariance property. Then we focus on a non-proportional reinsurance pricing problem, for a contract with reinstatements. After defining the indifference price with respect to both a utility function and a risk measure, we prove that is is contained in some interval whose bounds are easily calculable. Then we pursue our study in a time dynamic setting. We prove the existence of bounded solutions of quadratic backward stochastic differential equations (BSDEs for short) with jumps, using a direct fixed point approach. Under an additional standard assumption, or under a convexity assumption of the generator, we prove a uniqueness result, thanks to a comparison theorem. Then we study the properties of the corresponding non-linear expectations, we obtain in particular a non linear Doob-Meyer decomposition for g-submartingales and their regularity in time. As a consequence of this results, we obtain a converse comparison theorem for our class of BSDEs. We give applications for dynamic risk measures and their dual representation, and compute their inf-convolution, with some explicit examples, when the filtration is generated by both a Brownian motion and an integer valued random measure. The second part of this PhD dissertation is concerned with the analysis of model uncertainty, in the particular case of second order BSDEs with jumps. These equations hold P-almost surely, where P lies in a wide family of probability measures, corresponding to solutions of some martingale problems on the Skorohod space of càdlàg paths. We first extend the definition given by Soner, Touzi and Zhang of second order BSDEs to the case with jumps. For this purpose, we prove an aggregation result, in the sense of Soner, Touzi and Zhang, on the Skorohod space D. This allows us to use a quasi-sure version of the canonical process jump measure compensator. Then we prove a wellposedness result for our class of second order BSDEs. These equations include model uncertainty, affecting both the volatility and the jump measure of the canonical process
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Brasco, Lorenzo. "Geodesics and PDE methods in transport models". Phd thesis, Université Paris Dauphine - Paris IX, 2010. http://tel.archives-ouvertes.fr/tel-00578447.

Testo completo
Abstract (sommario):
Cette thèse est dédiée à l'étude des problèmes de transport optimal, alternatifs au problème de Monge-Kantorovich : ils apparaissent naturellement dans des applications pratiques, telles que la conception des réseaux de transport optimal ou la modélisation des problèmes de circulation urbaine. En particulier, nous considérons des problèmes où le coût du transport a une dèpendance non linèaire de la masse : typiquement dans ce type de problèmes, le côut pour déplacer une masse $m$ pour une longueur $\ell$ est $\varphi(m)\, \ell$, où $\varphi$ est une fonction assignée, obtenant ainsi un coût total de type $\sum\varphi(m) \ell$. \par Deux cas importants sont abordés en détail dans ce travail : le cas où la fonction $\varphi$ est subadditive (transport branché), de sorte que la masse a intérêt à voyager ensemble, de manière à réduire le coût total; le cas où $\varphi$ est superadditive (transport congestionné), où au contraire, la masse tend à diffuser autant que possible. \par Dans le cas du transport branché, nous introduisons deux nouveaux modèles: dans le premièr, le transport est décrit par des courbes de mesures de probabilité que minimisent une fonctionnelle de type géodésique (avec un coefficient que pénalise le mesures qui ne sont pas atomiques). Le second est plus dans l'esprit de la formulation de Benamou et Brenier pour les distances de Wasserstein : en particulier, le transport est décrit par paires de ``courbe de mesures--champ de vitesse'', liées par l'équation de continuité, qui minimisent une énergie adéquate (non convexe). Pour les deux modèles, on démontre l'existence de configurations minimales et l'équivalence avec d'autres formulations existantes dans la littèrature. \par En ce qui concerne le cas du transport congestionné, nous passons en revue deux modèles déjà existants, afin de prouver leur équivalence: alors que le premier de ces modèles peut être considéré comme une approche Lagrangienne du problème et il a des liens intéressants avec des questions d'équilibre pour la circulation urbaine, le second est un problème d'optimisation convexe avec contraintes de divergence. \par La preuve de l'équivalence entre les deux modèles constitue le corps principal de la deuxième partie de cette thèse et contient différents éléments d'intérêt, y compris: la théorie des flots des champs de vecteurs peu réguliers (DiPerna-Lions), la construction de Dacorogna et Moser pour les applications de transport et en particulier les résultats de régularité (que nous prouvons ici) pour une équation elliptique très dégénérés, qui ne semble pas avoir été beaucoup étudiée.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Jalalzai, Khalid. "Regularization of inverse problems in image processing". Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00787790.

Testo completo
Abstract (sommario):
Les problèmes inverses consistent à retrouver une donnée qui a été transformée ou perturbée. Ils nécessitent une régularisation puisque mal posés. En traitement d'images, la variation totale en tant qu'outil de régularisation a l'avantage de préserver les discontinuités tout en créant des zones lisses, résultats établis dans cette thèse dans un cadre continu et pour des énergies générales. En outre, nous proposons et étudions une variante de la variation totale. Nous établissons une formulation duale qui nous permet de démontrer que cette variante coïncide avec la variation totale sur des ensembles de périmètre fini. Ces dernières années les méthodes non-locales exploitant les auto-similarités dans les images ont connu un succès particulier. Nous adaptons cette approche au problème de complétion de spectre pour des problèmes inverses généraux. La dernière partie est consacrée aux aspects algorithmiques inhérents à l'optimisation des énergies convexes considérées. Nous étudions la convergence et la complexité d'une famille récente d'algorithmes dits Primal-Dual.
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Belmar, Gil Mario. "Computational study on the non-reacting flow in Lean Direct Injection gas turbine combustors through Eulerian-Lagrangian Large-Eddy Simulations". Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/159882.

Testo completo
Abstract (sommario):
[ES] El principal desafío en los motores turbina de gas empleados en aviación reside en aumentar la eficiencia del ciclo termodinámico manteniendo las emisiones contaminantes por debajo de las rigurosas restricciones. Ésto ha conllevado la necesidad de diseñar nuevas estrategias de inyección/combustión que operan en puntos de operación peligrosos por su cercanía al límite inferior de apagado de llama. En este contexto, el concepto Lean Direct Injection (LDI) ha emergido como una tecnología prometedora a la hora de reducir los óxidos de nitrógeno (NOx) emitidos por las plantas propulsoras de los aviones de nueva generación. En este contexto, la presente tesis tiene como objetivos contribuir al conocimiento de los mecanismos físicos que rigen el comportamiento de un quemador LDI y proporcionar herramientas de análisis para una profunda caracterización de las complejas estructuras de flujo de turbulento generadas en el interior de la cámara de combustión. Para ello, se ha desarrollado una metodología numérica basada en CFD capaz de modelar el flujo bifásico no reactivo en el interior de un quemador LDI académico mediante enfoques de turbulencia U-RANS y LES en un marco Euleriano-Lagrangiano. La resolución numérica de este problema multi-escala se aborda mediante la descripción completa del flujo a lo largo de todos los elementos que constituyen la maqueta experimental, incluyendo su paso por el swirler y entrada a la cámara de combustión. Ésto se lleva a cabo través de dos códigos CFD que involucran dos estrategias de mallado diferentes: una basada en algoritmos de generación y refinamiento automático de la malla (AMR) a través de CONVERGE y otra técnica de mallado estático más tradicional mediante OpenFOAM. Por un lado, se ha definido una metodología para obtener una estrategia de mallado óptima mediante el uso del AMR y se han explotado sus beneficios frente a los enfoques tradicionales de malla estática. De esta forma, se ha demostrado que la aplicabilidad de las herramientas de control de malla disponibles en CONVERGE como el refinamiento fijo (fixed embedding) y el AMR son una opción muy interesante para afrontar este tipo de problemas multi-escala. Los resultados destacan una optimización del uso de los recursos computacionales y una mayor precisión en las simulaciones realizadas con la metodología presentada. Por otro lado, el uso de herramientas CFD se ha combinado con la aplicación de técnicas de descomposición modal avanzadas (Proper Orthogonal Decomposition and Dynamic Mode Decomposition). La identificación numérica de los principales modos acústicos en la cámara de combustión ha demostrado el potencial de estas herramientas al permitir caracterizar las estructuras de flujo coherentes generadas como consecuencia de la rotura de los vórtices (VBB) y de los chorros fuertemente torbellinados presentes en el quemador LDI. Además, la implementación de estos procedimientos matemáticos ha permitido tanto recuperar información sobre las características de la dinámica de flujo como proporcionar un enfoque sistemático para identificar los principales mecanismos que sustentan las inestabilidades en la cámara de combustión. Finalmente, la metodología validada ha sido explotada a través de un Diseño de Experimentos (DoE) para cuantificar la influencia de los factores críticos de diseño en el flujo no reactivo. De esta manera, se ha evaluado la contribución individual de algunos parámetros funcionales (el número de palas del swirler, el ángulo de dichas palas, el ancho de la cámara de combustión y la posición axial del orificio del inyector) en los patrones del campo fluido, la distribución del tamaño de gotas del combustible líquido y la aparición de inestabilidades en la cámara de combustión a través de una matriz ortogonal L9 de Taguchi. Este estudio estadístico supone un punto de partida para posteriores estudios de inyección, atomización y combus
[CA] El principal desafiament als motors turbina de gas utilitzats a la aviació resideix en augmentar l'eficiència del cicle termodinàmic mantenint les emissions contaminants per davall de les rigoroses restriccions. Aquest fet comporta la necessitat de dissenyar noves estratègies d'injecció/combustió que radiquen en punts d'operació perillosos per la seva aproximació al límit inferior d'apagat de flama. En aquest context, el concepte Lean Direct Injection (LDI) sorgeix com a eina innovadora a l'hora de reduir els òxids de nitrogen (NOx) emesos per les plantes propulsores dels avions de nova generació. Sota aquest context, aquesta tesis té com a objectius contribuir al coneixement dels mecanismes físics que regeixen el comportament d'un cremador LDI i proporcionar ferramentes d'anàlisi per a una profunda caracterització de les complexes estructures de flux turbulent generades a l'interior de la càmera de combustió. Per tal de dur-ho a terme s'ha desenvolupat una metodología numèrica basada en CFD capaç de modelar el flux bifàsic no reactiu a l'interior d'un cremador LDI acadèmic mitjançant els enfocaments de turbulència U-RANS i LES en un marc Eulerià-Lagrangià. La resolució numèrica d'aquest problema multiescala s'aborda mitjançant la resolució completa del flux al llarg de tots els elements que constitueixen la maqueta experimental, incloent el seu pas pel swirler i l'entrada a la càmera de combustió. Açò es duu a terme a través de dos codis CFD que involucren estratègies de mallat diferents: una basada en la generación automàtica de la malla i en l'algoritme de refinament adaptatiu (AMR) amb CONVERGE i l'altra que es basa en una tècnica de mallat estàtic més tradicional amb OpenFOAM. D'una banda, s'ha definit una metodologia per tal d'obtindre una estrategia de mallat òptima mitjançant l'ús de l'AMR i s'han explotat els seus beneficis front als enfocaments tradicionals de malla estàtica. D'aquesta forma, s'ha demostrat que l'aplicabilitat de les ferramente de control de malla disponibles en CONVERGE com el refinament fixe (fixed embedding) i l'AMR són una opció molt interessant per tal d'afrontar aquest tipus de problemes multiescala. Els resultats destaquen una optimització de l'ús dels recursos computacionals i una major precisió en les simulacions realitzades amb la metodologia presentada. D'altra banda, l'ús d'eines CFD s'ha combinat amb l'aplicació de tècniques de descomposició modal avançades (Proper Orthogonal Decomposition and Dynamic Mode Decomposition). La identificació numèrica dels principals modes acústics a la càmera de combustió ha demostrat el potencial d'aquestes ferramentes al permetre caracteritzar les estructures de flux coherents generades com a conseqüència del trencament dels vòrtex (VBB) i dels raigs fortament arremolinats presents al cremador LDI. A més, la implantació d'estos procediments matemàtics ha permès recuperar informació sobre les característiques de la dinàmica del flux i proporcionar un enfocament sistemàtic per tal d'identificar els principals mecanismes que sustenten les inestabilitats a la càmera de combustió. Finalment, la metodologia validada ha sigut explotada a traves d'un Diseny d'Experiments (DoE) per tal de quantificar la influència dels factors crítics de disseny en el flux no reactiu. D'aquesta manera, s'ha avaluat la contribución individual d'alguns paràmetres funcionals (el nombre de pales del swirler, l'angle de les pales, l'amplada de la càmera de combustió i la posició axial de l'orifici de l'injector) en els patrons del camp fluid, la distribució de la mida de gotes del combustible líquid i l'aparició d'inestabilitats en la càmera de combustió mitjançant una matriu ortogonal L9 de Taguchi. Aquest estudi estadístic és un bon punt de partida per a futurs estudis de injecció, atomització i combustió en cremadors LDI.
[EN] Aeronautical gas turbine engines present the main challenge of increasing the efficiency of the cycle while keeping the pollutant emissions below stringent restrictions. This has led to the design of new injection-combustion strategies working on more risky and problematic operating points such as those close to the lean extinction limit. In this context, the Lean Direct Injection (LDI) concept has emerged as a promising technology to reduce oxides of nitrogen (NOx) for next-generation aircraft power plants In this context, this thesis aims at contributing to the knowledge of the governing physical mechanisms within an LDI burner and to provide analysis tools for a deep characterisation of such complex flows. In order to do so, a numerical CFD methodology capable of reliably modelling the 2-phase nonreacting flow in an academic LDI burner has been developed in an Eulerian-Lagrangian framework, using the U-RANS and LES turbulence approaches. The LDI combustor taken as a reference to carry out the investigation is the laboratory-scale swirled-stabilised CORIA Spray Burner. The multi-scale problem is addressed by solving the complete inlet flow path through the swirl vanes and the combustor through two different CFD codes involving two different meshing strategies: an automatic mesh generation with adaptive mesh refinement (AMR) algorithm through CONVERGE and a more traditional static meshing technique in OpenFOAM. On the one hand, a methodology to obtain an optimal mesh strategy using AMR has been defined, and its benefits against traditional fixed mesh approaches have been exploited. In this way, the applicability of grid control tools available in CONVERGE such as fixed embedding and AMR has been demonstrated to be an interesting option to face this type of multi-scale problem. The results highlight an optimisation of the use of the computational resources and better accuracy in the simulations carried out with the presented methodology. On the other hand, the use of CFD tools has been combined with the application of systematic advanced modal decomposition techniques (i.e., Proper Orthogonal Decomposition and Dynamic Mode Decomposition). The numerical identification of the main acoustic modes in the chamber have proved their potential when studying the characteristics of the most powerful coherent flow structures of strongly swirled jets in a LDI burner undergoing vortex breakdown (VBB). Besides, the implementation of these mathematical procedures has allowed both retrieving information about the flow dynamics features and providing a systematic approach to identify the main mechanisms that sustain instabilities in the combustor. Last, this analysis has also allowed identifying some key features of swirl spray systems such as the complex pulsating, intermittent and cyclical spatial patterns related to the Precessing Vortex Core (PVC). Finally, the validated methodology is exploited through a Design of Experiments (DoE) to quantify the influence of critical design factors on the non-reacting flow. In this way, the individual contribution of some functional parameters (namely the number of swirler vanes, the swirler vane angle, the combustion chamber width and the axial position of the nozzle tip) into both the flow field pattern, the spray size distribution and the occurrence of instabilities in the combustion chamber are evaluated throughout a Taguchi's orthogonal array L9. Such a statistical study has supposed a good starting point for subsequent studies of injection, atomisation and combustion on LDI burners.
Belmar Gil, M. (2020). Computational study on the non-reacting flow in Lean Direct Injection gas turbine combustors through Eulerian-Lagrangian Large-Eddy Simulations [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159882
TESIS
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Kazi-Tani, Mohamed Nabil. "Etude des EDS rétrogrades avec sauts et problèmes de gestion du risque". Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00782154.

Testo completo
Abstract (sommario):
Cette thèse traite d'une part, de questions de gestion, de mesure et de transfert du risque et d'autre part, de problèmes d'analyse stochastique à sauts avec incertitude de modèle. Le premier chapitre est consacré à l'analyse des intégrales de Choquet, comme mesures de risque monétaires non nécessairement invariantes en loi. Nous établissons d'abord un nouveau résultat de représentation des mesures de risque comonotones, puis un résultat de représentation des intégrales de Choquet en introduisant la notion de distorsion locale. Ceci nous permet de donner ensuite une forme explicite à l'inf-convolution de deux intégrales de Choquet, avec des exemples illustrant l'impact de l'absence de la propriété d'invariance en loi. Nous nous intéressons ensuite à un problème de tarification d'un contrat de réassurance non proportionnelle, contenant des clauses de reconstitution. Après avoir défini le prix d'indifférence relatif à la fois à une fonction d'utilité et à une mesure de risque, nous l'encadrons par des valeurs facilement implémentables. Nous passons alors à un cadre dynamique en temps. Pour cela, nous montrons, en adoptant une approche par point fixe, un théorème d'existence de solutions bornées pour une classe d'équations différentielles stochastiques rétrogrades (EDSRs dans la suite) avec sauts et à croissance quadratique. Sous une hypothèse additionnelle classique dans le cadre à sauts, ou sous une hypothèse de convexité du générateur, nous établissons un résultat d'unicité grâce à un principe de comparaison. Nous analysons les propriétés des espérances non linéaires correspondantes. En particulier, nous obtenons une décomposition de Doob-Meyer des surmartingales non-linéaires ainsi que leur régularité en temps. En conséquence, nous en déduisons facilement un principe de comparaison inverse. Nous appliquons ces résultats à l'étude des mesures de risque dynamiques associées, sur une filtration engendrée à la fois par un mouvement brownien et par une mesure aléatoire à valeurs entières, à leur repésentation duale, ainsi qu'à leur inf-convolution, avec des exemples explicites. La seconde partie de cette thèse concerne l'analyse de l'incertitude de modèle, dans le cas particulier des EDSRs du second ordre avec sauts. Nous imposons que ces équations aient lieu au sens presque-sûr, pour toute une famille non dominée de mesures de probabilités qui sont solution d'un problème de martingales sur l'espace de Skorohod. Nous étendons d'abord la définition des EDSRs du second ordre, telles que définies par Soner, Touzi et Zhang, au cas avec sauts. Pour ce faire, nous démontrons un résultat d'agrégation au sens de Soner, Touzi et Zhang sur l'espace des trajectoires càdlàg. Ceci nous permet, entre autres, d'utiliser une version quasi-sûre du compensateur de la mesure des sauts du processus canonique. Nous montrons alors un résultat d'existence et d'unicité pour notre classe d'EDSRs du second ordre. Ces équations sont affectées par l'incertitude portant à la fois sur la volatilité et sur les sauts du processus qui les dirige.
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Dessein, Arnaud. "Méthodes Computationnelles en Géométrie de l'Information et Applications Temps Réel au Traitement du Signal Audio". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00768524.

Testo completo
Abstract (sommario):
Cette thèse propose des méthodes computationnelles nouvelles en géométrie de l'information, avec des applications temps réel au traitement du signal audio. Dans ce contexte, nous traitons en parallèle les problèmes applicatifs de la segmentation audio en temps réel, et de la transcription de musique polyphonique en temps réel. Nous abordons ces applications par le développement respectif de cadres théoriques pour la détection séquentielle de ruptures dans les familles exponentielles, et pour la factorisation en matrices non négatives avec des divergences convexes-concaves. D'une part, la détection séquentielle de ruptures est étudiée par l'intermédiaire de la géométrie de l'information dualement plate liée aux familles exponentielles. Nous développons notamment un cadre statistique générique et unificateur, reposant sur des tests d'hypothèses multiples à l'aide de rapports de vraisemblance généralisés exacts. Nous appliquons ce cadre à la conception d'un système modulaire pour la segmentation audio temps réel avec des types de signaux et de critères d'homogénéité arbitraires. Le système proposé contrôle le flux d'information audio au fur et à mesure qu'il se déroule dans le temps pour détecter des changements. D'autre part, nous étudions la factorisation en matrices non négatives avec des divergences convexes-concaves sur l'espace des mesures discrètes positives. En particulier, nous formulons un cadre d'optimisation générique et unificateur pour la factorisation en matrices non négatives, utilisant des bornes variationnelles par le biais de fonctions auxiliaires. Nous mettons ce cadre à profit en concevant un système temps réel de transcription de musique polyphonique avec un contrôle explicite du compromis fréquentiel pendant l'analyse. Le système développé décompose le signal musical arrivant au cours du temps sur un dictionnaire de modèles spectraux de notes. Ces contributions apportent des pistes de réflexion et des perspectives de recherche intéressantes dans le domaine du traitement du signal audio, et plus généralement de l'apprentissage automatique et du traitement du signal, dans le champ relativement jeune mais néanmoins fécond de la géométrie de l'information computationnelle.
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Benahmed, Abdenasser. "Un résultat de convergence des algorithmes parallèles asynchrones. Application aux opérateurs maximaux fortement monotones". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00134642.

Testo completo
Abstract (sommario):
Dans ce travail, nous avons considéré des algorithmes parallèles asynchrones associés à des applications non linéaires non-expansives définies sur Rn. Nous avons montré le résultat de convergence concernant ces algorithmes vers un point fixe de ces applications relativement à la norme uniforme sur Rn. Nous avons ensuite montré comment ces algorithmes sont bien adaptés au calcul de la solution d'un opérateur maximal fortement monotone défini sur Rn et au calcul des solutions d'un opérateur maximal monotone dans le cas de l'algorithme parallèle synchrone de Jacobi. Ensuite, nous avons appliqué ces résultats aux calculs du minimum de fonctionnelles, du point selle, de la solution des programmes convexes et enfin de la solution du problème de l'inégalité variationnelle.
Gli stili APA, Harvard, Vancouver, ISO e altri
46

(7887845), Botao Hao. "Statistical Guarantee for Non-Convex Optimization". Thesis, 2019.

Cerca il testo completo
Abstract (sommario):
The aim of this thesis is to systematically study the statistical guarantee for two representative non-convex optimization problems arsing in the statistics community. The first one is the high-dimensional Gaussian mixture model, which is motivated by the estimation of multiple graphical models arising from heterogeneous observations. The second one is the low-rank tensor estimation model, which is motivated by high-dimensional interaction model. Both optimal statistical rates and numerical comparisons are studied in depth. In the first part of my thesis, we consider joint estimation of multiple graphical models arising from heterogeneous and high-dimensional observations. Unlike most previous approaches which assume that the cluster structure is given in advance, an appealing feature of our method is to learn cluster structure while estimating heterogeneous graphical models. This is achieved via a high dimensional version of Expectation Conditional Maximization (ECM) algorithm. A joint graphical lasso penalty is imposed on the conditional maximization step to extract both homogeneity and heterogeneity components across all clusters. Our algorithm is computationally efficient due to fast sparse learning routines and can be implemented without unsupervised learning knowledge. The superior performance of our method is demonstrated by extensive experiments and its application to a Glioblastoma cancer dataset reveals some new insights in understanding the Glioblastoma cancer. In theory, a non-asymptotic error bound is established for the output directly from our high dimensional ECM algorithm, and it consists of two quantities: statistical error (statistical accuracy) and optimization error (computational complexity). Such a result gives a theoretical guideline in terminating our ECM iterations. In the second part of my thesis, we propose a general framework for sparse and low-rank tensor estimation from cubic sketchings. A two-stage non-convex implementation is developed based on sparse tensor decomposition and thresholded gradient descent, which ensures exact recovery in the noiseless case and stable recovery in the noisy case with high probability. The non-asymptotic analysis sheds light on an interplay between optimization error and statistical error. The proposed procedure is shown to be rate-optimal under certain conditions. As a technical by-product, novel high-order concentration inequalities are derived for studying high-moment sub-Gaussian tensors. An interesting tensor formulation illustrates the potential application to high-order interaction pursuit in high-dimensional linear regression
Gli stili APA, Harvard, Vancouver, ISO e altri
47

"A fast and efficient algorithm for finding boundary points of convex and non-convex datasets by interpoint distances". 2013. http://library.cuhk.edu.hk/record=b5884340.

Testo completo
Abstract (sommario):
Lam, Hiu Fung.
Thesis (M.Phil.)--Chinese University of Hong Kong, 2013.
Includes bibliographical references (leaves 58-60).
Electronic reproduction. Hong Kong : Chinese University of Hong Kong, [2012] System requirements: Adobe Acrobat Reader. Available via World Wide Web.
Abstracts also in Chinese.
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Lengfield, Marc Oberlin Daniel M. "Envelopes, duality, and multipliers for certain non-locally convex Hardy-Lorentz spaces". 2004. http://etd.lib.fsu.edu/theses/available/etd-04062004-110656.

Testo completo
Abstract (sommario):
Thesis (Ph. D.)--Florida State University, 2004.
Advisor: Dr. Daniel M. Oberlin, Florida State University, College of Arts and Sciences, Dept. of Mathematics. Title and description from dissertation home page (June 18, 2004). Includes bibliographical references.
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Klein, Richard. "Surface and volumetric parametrisation using harmonic functions in non-convex domains". Thesis, 2013. http://hdl.handle.net/10539/12917.

Testo completo
Abstract (sommario):
A Dissertation submitted to the Faculty of Science, University of the Witwatersrand, in fulfillment of the requirements for the degree of Master of Science. Johannesburg, 2013
Many of the problems in mathematics have very elegant solutions. As complex, real–world geometries come into play, however, this elegance is often lost. This is particularly the case with meshes of physical, real–world problems. Domain mapping helps to move problems from some geometrically complex domain to a regular, easy to use domain. Shape transformation, specifically, allows one to do this in 2D domains where mesh construction can be difficult. Numerical methods usually work over some mesh on the target domain. The structure and detail of these meshes affect the overall computation and accuracy immensely. Unfortunately, building a good mesh is not always a straight forward task. Finite Element Analysis, for example, typically requires 4–10 times the number of tetrahedral elements to achieve the same accuracy as the corresponding hexahedral mesh. Constructing this hexahedral mesh, however, is a difficult task; so in practice many people use tetrahedral meshes instead. By mapping the geometrically complex domain to a regular domain, one can easily construct elegant meshes that bear useful properties. Once a domain has been mapped to a regular domain, the mesh can be constructed and calculations can be performed in the new domain. Later, results from these calculations can be transferred back to the original domain. Using harmonic functions, source domains can be parametrised to spaces with many different desired properties. This allows one to perform calculations that would be otherwise expensive or inaccurate. This research implements and extends the methods developed in Voruganti et al. [2006 2008] for domain mapping using harmonic functions. The method was extended to handle cases where there are voids in the source domain, allowing the user to map domains that are not topologically equivalent to the equivalent dimension hypersphere. This is accomplished through the use of various boundary conditions as the void is mapped to the target domains which allow the user to reshape and shrink the void in the target domain. The voids can now be reduced to arcs, radial lines and even shrunk to single points. The algorithms were implemented in two and three dimensions and ultimately parallelised to run on the Centre for High Performance Computing clusters. The parallel code also allows for arbitrary dimension genus-0 source domains. Finally, applications, such as remeshing and robot path planning were investigated and illustrated.
Gli stili APA, Harvard, Vancouver, ISO e altri
50

(11206167), Somnooma Hilda Marie Bernadette Ibriga. "Estimation and Uncertainty Quantification in Tensor Completion with Side Information". Thesis, 2021.

Cerca il testo completo
Abstract (sommario):
This work aims to provide solutions to two significant issues in the effective use and practical application of tensor completion as a machine learning method. The first solution addresses the challenge in designing fast and accurate recovery methods in tensor completion in the presence of highly sparse and highly missing data. The second takes on the need for robust uncertainty quantification methods for the recovered tensor.

Covariate-assisted Sparse Tensor Completion

In the first part of the dissertation, we aim to provably complete a sparse and highly missing tensor in the presence of covariate information along tensor modes. Our motivation originates from online advertising where users click-through-rates (CTR) on ads over various devices form a CTR tensor that can have up to 96% missing entries and has many zeros on non-missing entries. These features makes the standalone tensor completion method unsatisfactory. However, beside the CTR tensor, additional ad features or user characteristics are often available. We propose Covariate-assisted Sparse Tensor Completion (COSTCO) to incorporate covariate information in the recovery of the sparse tensor. The key idea is to jointly extract latent components from both the tensor and the covariate matrix to learn a synthetic representation. Theoretically, we derive the error bound for the recovered tensor components and explicitly quantify the improvements on both the reveal probability condition and the tensor recovery accuracy due to covariates. Finally, we apply COSTCO to an advertisement dataset from a major internet platform consisting of a CTR tensor and ad covariate matrix, leading to 23% accuracy improvement over the baseline methodology. An important by-product of our method is that clustering analysis on ad latent components from COSTCO reveal interesting and new ad clusters, that link different product industries which are not formed in existing clustering methods. Such findings could be directly useful for better ad planning procedures.

Uncertainty Quantification in Covariate-assisted Tensor Completion

In the second part of the dissertation, we propose a framework for uncertainty quantification for the imputed tensor factors obtained from completing a tensor with covariate information. We characterize the distribution of the non-convex estimator obtained from using the algorithm COSTCO down to fine scales. This distributional theory in turn allows us to construct proven valid and tight confidence intervals for the unseen tensor factors. The proposed inferential procedure enjoys several important features: (1) it is fully adaptive to noise heteroscedasticity, (2) it is data-driven and automatically adapts to unknown noise distributions and (3) in the high missing data regime, the inclusion of side information in the tensor completion model yields tighter confidence intervals compared to those obtained from standalone tensor completion methods.

Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia