Academic literature on the topic 'Optimisation des hyperparamètres'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Optimisation des hyperparamètres.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Optimisation des hyperparamètres"

1

Rajaoui, Nordine. "BAYÉSIEN VERSUS CMA-ES : OPTIMISATION DES HYPERPARAMÈTRES ML." Management & Data Science, 2023. http://dx.doi.org/10.36863/mds.a.24309.

Full text
Abstract:
L'optimisation des hyperparamètres est une étape cruciale dans le processus de développement de modèles de machine learning performants. Parmi les approches d'optimisation les plus populaires, on retrouve l'optimisation bayésienne et le CMA-ES (Covariance Matrix Adaptation Evolution Strategy), deux méthodes puissantes qui visent à explorer efficacement l'espace des hyperparamètres et à identifier les combinaisons optimales. Dans cet article, nous nous pencherons sur la comparaison entre l'optimisation bayésienne et le CMA-ES dans le cadre de l'optimisation des hyperparamètres en machine learni
APA, Harvard, Vancouver, ISO, and other styles
2

RAJAOUI, Nordine. "BAYÉSIEN VERSUS CMA-ES : OPTIMISATION DES HYPERPARAMÈTRES ML [PARTIE 2]." Management & Data Science, 2023. http://dx.doi.org/10.36863/mds.a.25154.

Full text
Abstract:
En première partie, nous avons présenté et illustré le fonctionnement de deux algorithmes d'optimisation: l'optimisation bayésienne et le CMA-ES. Si le premier est très connu de la sphère data scientist notamment via la bibliothèque Hyperopt de Python, le deuxième est moins utilisé dans le processus de recherche des meilleurs hyperparamètres pour un modèle donné afin d'améliorer ses performances. Il est donc intéressant de se demander si cet algorithme a son utilité en ML notamment dans la recherche des hyperparamètres. Nous allons analyser dans cet article les différents facteurs dont dépend
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Optimisation des hyperparamètres"

1

Firmin, Thomas. "Parallel hyperparameter optimization of spiking neural networks." Electronic Thesis or Diss., Université de Lille (2022-....), 2025. http://www.theses.fr/2025ULILB004.

Full text
Abstract:
Les Réseaux de Neurones Artificiels (RNAs) sont des modèles prédictifs permettant de résoudre certaines tâches complexes par un apprentissage automatique. Depuis ces trois dernières décennies, les RNAs ont connu de nombreuses avancées majeures. Notamment avec les réseaux de convolution ou les mécanismes d'attention. Ces avancées ont permis le développement de la reconnaissance d'images, des modèles de langage géants ou de la conversion texte-image.En 1943, les travaux de McCulloch et Pitt sur le neurone formel faciliteront la naissance des premiers RNAs appelés perceptrons, et décrits pour la
APA, Harvard, Vancouver, ISO, and other styles
2

Khessiba, Souhir. "Stratégies d’optimisation des hyper-paramètres de réseaux de neurones appliqués aux signaux temporels biomédicaux." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAE003.

Full text
Abstract:
Cette thèse est axée sur l'optimisation des hyperparamètres des réseaux de neurones à convolution (CNN) dans le domaine médical, proposant une approche innovante visant à améliorer la performance des modèles décisionnels dans le domaine biomédical. Grâce à l'utilisation d'une approche hybride, GS-TPE, pour ajuster efficacement les hyperparamètres des modèles de réseaux de neurones complexes , cette recherche a démontré des améliorations significatives dans la classification des signaux biomédicaux temporels, à savoir les états de vigilance, à partir de signaux physiologiques tels que l'électro
APA, Harvard, Vancouver, ISO, and other styles
3

Merasli, Alexandre. "Reconstruction d’images TEP par des méthodes d’optimisation hybrides utilisant un réseau de neurones non supervisé et de l'information anatomique." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU1003.

Full text
Abstract:
La TEP est une modalité d’imagerie fonctionnelle utilisée en oncologie permettant de réaliser une imagerie quantitative de la distribution d’un traceur radioactif injecté au patient. Les données brutes TEP présentent un niveau de bruit intrinsèquement élevé et une résolution spatiale modeste, en comparaison avec les modalités d’imagerie anatomiques telles que l’IRM et la TDM. Par ailleurs, les méthodes standards de reconstruction des images TEP à partir des données brutes introduisent du biais positif dans les régions de faible activité, en particulier dans le cas de faibles statistiques d'acq
APA, Harvard, Vancouver, ISO, and other styles
4

Bardenet, Rémi. "Contributions à l'apprentissage et l'inférence adaptatifs : Applications à l'ajustement d'hyperparamètres et à la physique des astroparticules." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00766107.

Full text
Abstract:
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres d
APA, Harvard, Vancouver, ISO, and other styles
5

Bardenet, Rémi. "Towards adaptive learning and inference : applications to hyperparameter tuning and astroparticle physics." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112307.

Full text
Abstract:
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres d
APA, Harvard, Vancouver, ISO, and other styles
6

Egele, Romain. "Optimization of Learning Workflows at Large Scale on High-Performance Computing Systems." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG025.

Full text
Abstract:
Au cours de la dernière décennie, l'apprentissage automatique a connu une croissance exponentielle, portée par l'abondance de jeux de données, les avancées algorithmiques et l'augmentation de la puissance de calcul.Simultanément, le calcul haute performance (HPC) a évolué pour répondre à la demande croissante en calculs, offrant des ressources pour relever des défis scientifiques complexes. Cependant, les processus d'apprentissage machines sont souvent séquentiels, ce qui rend difficile leur mise à l'échelle sur les systèmes HPC qui sont eux parallèles par nature. Les processus d'apprentissage
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!