Academic literature on the topic 'Algorithme de gradient Stochastique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Algorithme de gradient Stochastique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Algorithme de gradient Stochastique"

1

Ait Saidi, Ahmed, and Abdelnasser Dahmani. "Étude de la consistance d'un algorithme stochastique dans un cadre mélangeant." Comptes Rendus Mathematique 340, no. 1 (2005): 49–54. http://dx.doi.org/10.1016/j.crma.2004.11.001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Tardieu, Nicolas, Fabien Youbissi, and Eric Chamberland. "Un algorithme de Gradient Conjugué Projeté préconditionné pour la résolution de problèmes unilatéraux." Comptes Rendus Mécanique 336, no. 11-12 (2008): 840–45. http://dx.doi.org/10.1016/j.crme.2008.10.007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

El Dabaghi, F., A. El Kacimi, and B. Nakhlé. "Flood simulation via shallow water numerical model based on characteristic method." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 5, Special Issue TAM... (October 7, 2006). http://dx.doi.org/10.46298/arima.1874.

Full text
Abstract:
International audience This work deals with the numerical simulation of flood waves propagation. This phenomena can be described by the non conservative form of shallow water or St-Venant equations, in water velocity-depht formulation (u,H). The numerical approximation of the model is based on the Characteristics method for the time discretization. The obtained steady system is of Quasi-Stokes type, and it is resolved by a preconditioned Uzawa conjugated gradient algorithm, combined to P1/P1 finite element for the spatial approximation. Some numerical results describing subcritical flow on var
APA, Harvard, Vancouver, ISO, and other styles
4

Ngnepieba, Pierre, François Xavier Le Dimet, Alexis Boukong, and Gabriel Nguetseng. "Parameters identification: an application to the Richards equation." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 1, 2002 (October 14, 2002). http://dx.doi.org/10.46298/arima.1833.

Full text
Abstract:
International audience Inverse modeling has become a standard technique for estimating hydrogeologic parameters. These parameters are usually inferred by minimizing the sum of the squared differences between the observed system state and the one calculed by a mathematical model. Since some hydrodynamics parameters in Richards model cannot be measured, they have to be tuned with respect to the observation and the output of the model. Optimal parameters are found by minimizing cost function and the unconstrained minimization algorithm of the quasi-Newton limited memory type is used. The inverse
APA, Harvard, Vancouver, ISO, and other styles
5

Ouni, Marwa, Abderrahmane Habbal, and Moez Kallel. "A Nash-game approach to joint data completion and location of small inclusions in Stokes flow." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 34 - 2020 - Special... (June 29, 2021). http://dx.doi.org/10.46298/arima.6761.

Full text
Abstract:
International audience We consider the coupled inverse problem of data completion and the determination of the best locations of an unknown number of small objects immersed in a stationary viscous fluid. We carefully introduce a novel method to solve this problem based on a game theory approach. A new algorithm is provided to recovering the missing data and the number of these objects and their approximate location simultaneously. The detection problem is formulated as a topological one. We present two test-cases that illustrate the efficiency of our original strategy to deal with the ill-pose
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Algorithme de gradient Stochastique"

1

Mercier, Quentin. "Optimisation multicritère sous incertitudes : un algorithme de descente stochastique." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4076/document.

Full text
Abstract:
Cette thèse s’intéresse à l’optimisation multiobjectif sans contrainte lorsque les objectifs sont exprimés comme des espérances de fonctions aléatoires. L’aléa est modélisé par l’intermédiaire de variables aléatoires et on considère qu’il n’impacte pas les variables d’optimisation du problème. La thèse consiste à proposer un algorithme de descente qui permet l’obtention des solutions de Pareto du problème d’optimisation ainsi écrit. En utilisant des résultats d’analyse convexe, il est possible de construire un vecteur de descente commun à l’ensemble des objectifs du problème d’optimisation pou
APA, Harvard, Vancouver, ISO, and other styles
2

Culioli, Jean-Christophe. "Algorithmes de decomposition/coordination en optimisation stochastique." Paris, ENMP, 1987. http://www.theses.fr/1987ENMP0059.

Full text
Abstract:
Les systemes consideres, souvent complexes a modeliser et/ou optimiser peuvent etre constitues de sous-systemes heterogenes pour lesquels une technique globale de resolution n'est pas necessairement appropriee ou possible, meme s'ils sont equivalents et peu nombreux
APA, Harvard, Vancouver, ISO, and other styles
3

Perrier, Alexis. "Développement et analyse de performance d'algorithmes de type gradient stochastique /." Paris : Ecole nationale supérieure des télécommunications, 1995. http://catalogue.bnf.fr/ark:/12148/cb35802687g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Strugarek, Cyrille. "Approches variationnelles et autres contributions en optimisation stochastique." Phd thesis, Ecole des Ponts ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001848.

Full text
Abstract:
Cette thèse s'attache à l'étude des problèmes d'optimisation stochastique, en les abordant sous divers angles. Le premier chapitre donne un panorama des problèmes d'optimisation stochastique. Le deuxième chapitre montre qu'en dimension un, seuls les systèmes à espace d'état à dynamique et observation linéaire sont sans effet dual en boucle ouverte. Le troisième chapitre s'attache à montrer la nécessité de tenir compte de la structure d'information dans la discrétisation et les résultats de stabilité pour les problèmes à plusieurs pas de temps. Le quatrième chapitre propose une nouvelle famille
APA, Harvard, Vancouver, ISO, and other styles
5

Es-Sadek, Mohamed Zeriab. "Contribution à l'optimisation globale : approche déterministe et stochastique et application." Thesis, Rouen, INSA, 2009. http://www.theses.fr/2009ISAM0010/document.

Full text
Abstract:
Dans les situations convexes, le problème d'optimisation globale peut être abordé par un ensemble de méthodes classiques, telles, par exemple, celles basées sur le gradient, qui ont montré leur efficacité en ce domaine. Lorsque la situation n'est pas convexe, ces méthodes peuvent être mises en défaut et ne pas trouver un optimum global. La contribution de cette thèse est une méthodologie pour la détermination de l'optimum global d'une fonction non convexe, en utilisant des algorithmes hybrides basés sur un couplage entre des algorithmes stochastiques issus de familles connues, telles, par exem
APA, Harvard, Vancouver, ISO, and other styles
6

Dedieu, Hervé. "Etude des effets de quantification dans les algorithmes adaptatifs de type gradient stochastique." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37613018c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Nguyen, Thanh Huy. "Heavy-tailed nature of stochastic gradient descent in deep learning : theoretical and empirical analysis." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT003.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'algorithme du gradient stochastique (SGD). Plus précisément, nous effectuons une analyse théorique et empirique du comportement du bruit de gradient stochastique (GN), qui est défini comme la différence entre le gradient réel et le gradient stochastique, dans les réseaux de neurones profonds. Sur la base de ces résultats, nous apportons une perspective alternative aux approches existantes pour étudier SGD. Le GN dans SGD est souvent considéré comme gaussien pour des raisons mathématiques. Cette hypothèse permet d'étudier SGD comme une équation différ
APA, Harvard, Vancouver, ISO, and other styles
8

Letournel, Marc. "Approches duales dans la résolution de problèmes stochastiques." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00938751.

Full text
Abstract:
Le travail général de cette thèse consiste à étendre les outils analytiques et algébriques usuellement employés dans la résolution de problèmes combinatoires déterministes à un cadre combinatoire stochastique. Deux cadres distincts sont étudiés : les problèmes combinatoires stochastiques discrets et les problèmes stochastiques continus. Le cadre discret est abordé à travers le problème de la forêt couvrante de poids maximal dans une formulation Two-Stage à multi-scénarios. La version déterministe très connue de ce problème établit des liens entre la fonction de rang dans un matroïde et la form
APA, Harvard, Vancouver, ISO, and other styles
9

Doan, Thanh-Nghi. "Large scale support vector machines algorithms for visual classification." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S083/document.

Full text
Abstract:
Nous présentons deux contributions majeures : 1) une combinaison de plusieurs descripteurs d’images pour la classification à grande échelle, 2) des algorithmes parallèles de SVM pour la classification d’images à grande échelle. Nous proposons aussi un algorithme incrémental et parallèle de classification lorsque les données ne peuvent plus tenir en mémoire vive<br>We have proposed a novel method of combination multiple of different features for image classification. For large scale learning classifiers, we have developed the parallel versions of both state-of-the-art linear and nonlinear SVMs.
APA, Harvard, Vancouver, ISO, and other styles
10

Younes, Laurent. "Problèmes d'estimation paramétrique pour des champs de Gibbs Markoviens : applications au traitement d'images." Paris 11, 1988. http://www.theses.fr/1988PA112269.

Full text
Abstract:
Nous nous intéressons à l’estimation paramétrique par maximum de vraisemblance pour des champs de Gibbs markoviens. Apres une introduction composée d'une part d'une discussion heuristique de l'analyse statistique des images aboutissant à une modélisation par champs aléatoires. Et d'autre part d'un rappel de différentes techniques d'estimation paramétrique existant dans la littérature, nous consacrons un chapitre au rappel de quelques résultats reliés aux champs de Gibbs, et à leur étude statistique: nous introduisons la notion de potentiel, ainsi que les définitions qui s’y rattachent, puis no
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Algorithme de gradient Stochastique"

1

Ciarlet, Philippe G. Introduction à l'analyse numérique matricielle et à l'optimisation. Masson, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

m, Michel Benai. Promenade ale atoire: Chai nes de Markov et simulations ; martingales et strate gies. E ditions de l'E cole polytechnique, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Sayed, Ali H., Thomas Kailath, and Babak Hassibi. Linear Estimation. Prentice Hall, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Sayed, Ali H., Thomas Kailath, and Babak Hassibi. Linear Estimation. Prentice Hall, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Algorithme de gradient Stochastique"

1

Carpentier, Pierre, and Guy Cohen. "Extensions de la méthode du gradient stochastique." In Décomposition-coordination en optimisation déterministe et stochastique. Springer Berlin Heidelberg, 2017. http://dx.doi.org/10.1007/978-3-662-55428-9_10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Carpentier, Pierre, and Guy Cohen. "Vue d’ensemble de la méthode du gradient stochastique." In Décomposition-coordination en optimisation déterministe et stochastique. Springer Berlin Heidelberg, 2017. http://dx.doi.org/10.1007/978-3-662-55428-9_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

MERCIER, Quentin, and Fabrice POIRION. "Optimisation multi-objectif stochastique : un algorithme de descente." In Ingénierie mécanique en contexte incertain. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch8.

Full text
Abstract:
Dans cette étude, l’algorithme classique du gradient stochastique utilisé en optimisation stochastique est appliqué au cas de l’optimisation multi-objectif pour des fonctions coûts qui sont soit régulières, convexes ou non régulières. Cet algorithme est basé sur l’existence d’un vecteur de descente commun et il est presque sûrement convergent. Une application en optimisation fiabiliste est présentée ainsi que des comparaisons avec d’autres algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!