Добірка наукової літератури з теми "Sélection séquentielle"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Sélection séquentielle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Sélection séquentielle":

1

Pronzato, Luc. "Sélection séquentielle de conditions expérimentales non contrôlées." Journal Européen des Systèmes Automatisés 40, no. 2 (February 2006): 197–210. http://dx.doi.org/10.3166/jesa.40.197-210.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

NOIROT, V., I. BOUVAREL, B. BARRIER-GUILLOT, J. CASTAING, J. L. ZWICK, and M. PICARD. "Céréales entières pour les poulets de chair : le retour ?" INRAE Productions Animales 11, no. 5 (December 6, 1998): 349–57. http://dx.doi.org/10.20870/productions-animales.1998.11.5.3963.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation des céréales entières distribuées avec un aliment complémentaire dans l’alimentation du poulet de chair présente un regain d’intérêt avec les succès rencontrés dans certains élevages d’Europe du nord. Les résultats de la recherche permettent de comparer les trois principaux modes de distribution des deux aliments : l’alimentation séparée dans l’espace, le mélange et l’alimentation séquentielle. Mélange et alimentation séquentielle sont adaptés à l’élevage : ces techniques permettent de mieux contrôler les proportions de céréale et d’aliment complémentaire consommées par les poulets. L’alimentation séparée laisse en revanche s’exprimer les facteurs individuels de la sélection alimentaire et ne permet pas toujours d’obtenir la croissance et la composition corporelle escomptées par l’éleveur. Le poulet digère aussi bien les céréales entières que broyées. Il est capable de s’adapter rapidement à un régime comportant une céréale entière, en modifiant son comportement alimentaire. La présentation physique et la composition de l’aliment complémentaire affectent la proportion de céréales consommée. Les céréales entières induisent un développement du gésier, dont les effets sur la digestion et la prévention de la coccidiose méritent d’être approfondis. La technique du mélange est maîtrisée et appliquée dans les élevages d’Europe du nord, avec des systèmes de distribution informatisés. Il reste à valider en pratique le mode de distribution séquentiel, moins coûteux que le mélange, et à étudier l’intérêt économique réel de cette méthode d’alimentation pour l’éleveur de poulet en France.
3

Salvia-Castellvi, M., C. Scholer, and L. Hoffmann. "Comparaison de différents protocoles de spéciation séquentielle du phosphore dans des sédiments de rivière." Revue des sciences de l'eau 15, no. 1 (April 12, 2005): 223–33. http://dx.doi.org/10.7202/705448ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Trois méthodes classiques de spéciation séquentielle du phosphore ont été appliquées aux sédiments de la rivière Sûre, à une sélection de ses affluents de taille variable, ainsi qu'aux sédiments du prébarrage Misère, un petit réservoir eutrophe situé sur la Sûre. Les protocoles comparés sont ceux de HIELTJES et LIJKLEMA (H et L), de PALUDAN et JENSEN (P et J) et de GOLTERMAN et BOOMAN (G et B). Le phosphore total des sédiments étudiés s'élève à 0,6 mg·P·g-1 séd. sec pour les petits sous-bassins expérimentaux (de l'ordre de 1 km2), à 0,8-1,0 mg·P·g-1 séd. sec pour les bassins de taille moyenne (20 à 320 km2) et à 1,8 mg·P·g-1 séd. sec pour le prébarrage Misère. Les schémas de (H et L) et de (P et J) reproduisent de façon similaire les différences qualitatives existant entre les sédiments. Toutefois les parts relatives des différentes fractions varient selon le protocole utilisé. Les rendements d'extraction obtenus avec le schéma de (G et B) sont sensiblement supérieurs aux deux autres méthodes et sont très liés aux teneurs en phosphore total des mêmes échantillons. Pour le P-labile, une bonne corrélation est obtenue entre les concentrations extraites selon les protocoles de (H et L) et (P et J) (R2 =0,84, P < 0,001) ; cependant les valeurs absolues sont 40 % supérieures pour le premier (H et L) qui utilise NH4Cl comme extractant au lieu de H2O. La fraction P- (Fe+Al) de (H et L) et la somme des fractions P-Fe et P-Al de (P et J) sont également bien corrélées (R2 =0,90, P < 0,001), mais avec des valeurs 30 % supérieures pour le second protocole (P et J) qui réalise l'extraction en deux étapes. La fraction P-Fe de (G et B) est moins bien corrélée à la fraction P-Fe de (P et J) (R2 =0,74, P < 0,01), et les résultats obtenus selon ces deux protocoles sont très éloignés en valeur absolue. Quant à la fraction P-Ca, les résultats du protocole de (G et B) ne sont ni corrélés ni similaires à ceux des deux autres schémas, en raison de la nature complètement différente des extractants appliqués.
4

JAMMES, H., and J. P. RENARD. "Epigénétique et construction du phénotype, un enjeu pour les productions animales ?" INRAE Productions Animales 23, no. 1 (February 8, 2010): 23–42. http://dx.doi.org/10.20870/productions-animales.2010.23.1.3283.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’épigénétique analyse les changements héritables de l’activité génique sans modification du patrimoine génétique nucléaire. Elle s’intéresse aux processus moléculaires qui modifient l’architecture de la chromatine, sélectionnant l’information génétique et contribuant à l’établissement des patrons d’expressions génique. Nous montrons à l’appui de données publiées que l’apposition des marques épigénétiques est séquentielle, réversible et/ou héritable. Ces marques peuvent être analysées et quantifiées finement à haut débit pour caractériser «l’épigénome;». L’analyse fonctionnelle des régulations épigénétiques conduit à mettre en avant les notions de flexibilité et de robustesse. La flexibilité est patente lors de l’établissement d’une identité cellulaire (pourquoi toutes les cellules d’un même individu ne traitent elles pas l’information génétique de la même manière) et pour l’adaptation de l’individu à son environnement, le destin des abeilles devenant reines ou ouvrières en est un bon exemple. Mais le maintien de l’épigénome en l’état est tout aussi essentiel au bon développement des organismes impliquant a contrario, une robustesse des marques épigénétiques, cas des gènes soumis à empreinte parentale. La flexibilité des marques épigénétiques permet une adaptation transitoire à des modifications environnementales&nbsp;; la robustesse révèle des possibilités d’adaptation à plus long terme, synonymes de stabilité des marques, dans certaines situations sur plusieurs générations. Cet article vise ainsi à montrer l’importance des processus épigénétiques dans le fonctionnement des génomes et avance l’idée qu’il serait judicieux d’intégrer les données moléculaires sur les états de l’épigénome dans les schémas de sélection dans une optique de maintien d’un développement durable de l’élevage.
5

JOVANOVIC, B., O. DANEL, I. BAUDIN, J. REUNGOAT, L. GUEY, J. F. ROBIN, and A. BREHANT. "Évaluation d’un procédé d’affinage sur charbon actif en grains à l’échelle pilote pour le traitement d’une sélection de micropolluants peu adsorbables." Techniques Sciences Méthodes, no. 11 (November 20, 2020): 41–62. http://dx.doi.org/10.36904/tsm/202011041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La charge croissante en contaminants organiques dans les ressources oblige les producteurs d’eau potable à réhabiliter leurs filières de traitement. L’ajout d’une étape d’affinage est ainsi nécessaire pour traiter cette pollution. La filtration sur charbon actif en grains (CAG) est un procédé robuste, éprouvé et préférentiel à l’oxydation et à la filtration sur membranes, pour des raisons techniques et économiques. Elle doit être repensée pour faire face aux nouveaux contaminants difficilement adsorbables. L’approche proposée est celle mise en œuvre dans le procédé d’adsorption sur CAG à flux ascendant avec renouvellement séquentiel du média, pour maintien d’un âge constant. L’évaluation de ce procédé focalisée, sur l’abattement d’une sélection de six micropolluants, est faite à échelle pilote. Les performances de ce procédé sont comparées à celles du procédé conventionnel sur CAG en flux descendant sans renouvellement de média. Les résultats des essais ont démontré des performances d’abattement des micropolluants décroissantes au cours du temps pour le filtre CAG conventionnel, alors qu’elles sont maintenues constantes pour le filtre en flux ascendant, en lien avec le renouvellement maîtrisé du média maintenu constant et proche de 55000m3/m3. Les performances d’adsorption, sont très bonnes (90% et plus) pour l’aminotriazole et la déséthyl-hydroxyatrazine, mais moindres pour les autres composés testés (entre 36 et 85%). Un âge du média inférieur doit ainsi être fixé pour améliorer le traitement de ces composés peu adsorbables. Cette évaluation de performances à échelle pilote est une première étape, en amont du déploiement de ce procédé à échelle industrielle.

Дисертації з теми "Sélection séquentielle":

1

Caelen, Olivier. "Sélection séquentielle en environnement aléatoire appliquée à l'apprentissage supervisé." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210265.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se penche sur les problèmes de décisions devant être prises de manière séquentielle au sein d'un environnement aléatoire. Lors de chaque étape d'un tel problème décisionnel, une alternative doit être sélectionnée parmi un ensemble d'alternatives. Chaque alternative possède un gain moyen qui lui est propre et lorsque l'une d'elles est sélectionnée, celle-ci engendre un gain aléatoire. La sélection opérée peut suivre deux types d'objectifs.

Dans un premier cas, les tests viseront à maximiser la somme des gains collectés. Un juste compromis doit alors être trouvé entre l'exploitation et l'exploration. Ce problème est couramment dénommé dans la littérature scientifique "multi-armed bandit problem".

Dans un second cas, un nombre de sélections maximal est imposé et l'objectif consistera à répartir ces sélections de façon à augmenter les chances de trouver l'alternative présentant le gain moyen le plus élevé. Ce deuxième problème est couramment repris dans la littérature scientifique sous l'appellation "selecting the best".

La sélection de type gloutonne joue un rôle important dans la résolution de ces problèmes de décision et opère en choisissant l'alternative qui s'est jusqu'ici montrée optimale. Or, la nature généralement aléatoire de l'environnement rend incertains les résultats d'une telle sélection.

Dans cette thèse, nous introduisons une nouvelle quantité, appelée le "gain espéré d'une action gloutonne". Sur base de quelques propriétés de cette quantité, de nouveaux algorithmes permettant de résoudre les deux problèmes décisionnels précités seront proposés.

Une attention particulière sera ici prêtée à l'application des techniques présentées au domaine de la sélection de modèles en l'apprentissage artificiel supervisé.

La collaboration avec le service d'anesthésie de l'Hôpital Erasme nous a permis d'appliquer les algorithmes proposés à des données réelles, provenant du milieu médical. Nous avons également développé un système d'aide à la décision dont un prototype a déjà été testé en conditions réelles sur un échantillon restreint de patients.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

2

Stoltz, Gilles. "Information incomplète et regret interne en prédiction de suites inidividuelles." Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00009759.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le domaine de recherche dans lequel s'inscrit ce travail de thèse est la théorie de la prédiction des suites individuelles. Cette dernière considère les problèmes d'apprentissage séquentiel pour lesquels on ne peut ou ne veut pas modéliser le problème de manière stochastique, et fournit des stratégies de prédiction très robustes. Elle englobe aussi bien des problèmes issus de la communauté du machine learning que de celle de la théorie des jeux répétés, et ces derniers sont traités avec des méthodes statistiques, incluant par exemple les techniques de concentration de la mesure ou de l'estimation adaptative. Les résultats obtenus aboutissent, entre autres, à des stratégies de minimisation des regrets externe et interne dans les jeux à information incomplète, notamment les jeux répétés avec signaux. Ces stratégies s'appliquent au problème d'ajustement séquentiel des prix de vente, ou d'allocation séquentielle de bande passante. Le regret interne est ensuite plus spécifiquement étudié, d'abord dans le cadre de l'investissement séquentiel dans le marché boursier, pour lequel des simulations sur des données historiques sont proposées, puis pour l'apprentissage des équilibres corrélés des jeux infinis à ensembles de stratégies convexes et compacts
This thesis takes place within the theory of prediction of individual sequences. The latter avoids any modelling of the data and aims at providing some techniques of robust prediction and discuss their possibilities, limitations, and difficulties. It considers issues arising from the machine learning as well as from the game-theory communities, and these are dealt with thanks to statistical techniques, including martingale concentration inequalities and minimax lower bound techniques. The obtained results consist, among others, in external and internal regret minimizing strategies for label-efficient prediction or in games with partial monitoring. Such strategies are valuable for the on-line pricing problem or for on-line bandwidth allocation. We then focus on internal regret for general convex losses. We consider first the case of on-line portfolio selection, for which simulations on real data are provided, and generalize later the results to show how players can learn correlated equilibria in games with compact sets of strategies
3

Stoltz, Gilles. "Information incomplète et regret interne en prédiction de suites individuelles." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00009759.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le domaine de recherche dans lequel s'inscrit ce travail de thèse est la théorie de la prédiction des suites individuelles. Cette dernière considère les problèmes d'apprentissage séquentiel pour lesquels on ne peut ou ne veut pas modéliser le problème de manière stochastique, et fournit des stratégies de prédiction très robustes. Elle englobe aussi bien des problèmes issus de la communauté du machine learning que de celle de la théorie des jeux répétés, et ces derniers sont traités avec des méthodes statistiques, incluant par exemple les techniques de concentration de la mesure ou de l'estimation adaptative. Les résultats obtenus aboutissent, entre autres, à des stratégies de minimisation des regrets externe et interne dans les jeux à information incomplète, notamment les jeux répétés avec signaux. Ces stratégies s'appliquent au problème d'ajustement séquentiel des prix de vente, ou d'allocation séquentielle de bande passante. Le regret interne est ensuite plus spécifiquement étudié, d'abord dans le cadre de l'investissement séquentiel dans le marché boursier, pour lequel des simulations sur des données historiques sont proposées, puis pour l'apprentissage des équilibres corrélés des jeux infinis à ensembles de stratégies convexes et compacts.
4

Juniarta, Nyoman. "Fouille de données complexes et biclustering avec l'analyse formelle de concepts." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0199.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'extraction de connaissances dans les bases de données (ECBD) est un processus qui s'applique à de (potentiellement larges) volumes de données pour découvrir des motifs qui peuvent être signifiants et utiles. Dans cette thèse, on s'intéresse à deux étapes du processus d'ECBD, la transformation et la fouille, que nous appliquons à des données complexes. Nous présentons de nombreuses expérimentations s'appuyant sur des approches et des types de données variés. La première partie de cette thèse s'intéresse à la tâche de biclustering en s'appuyant sur l'analyse formelle de concepts (FCA) et aux pattern structures. FCA est naturellement liée au biclustering, dont l'objectif consiste à grouper simultanément un ensemble de lignes et de colonnes qui vérifient certaines régularités. Les pattern structures sont une généralisation de la FCA qui permet de travailler avec des données plus complexes. Les "partition pattern structures'' ont été proposées pour du biclustering à colonnes constantes tandis que les "interval pattern structures'' ont été étudiées pour du biclustering à colonnes similaires. Nous proposons ici d'étendre ces approches afin d'énumérer d'autres types de biclusters : additif, multiplicatif, préservant l'ordre, et changement de signes cohérents. Dans la seconde partie, nous nous intéressons à deux expériences de fouille de données complexes. Premièrement, nous présentons une contribution dans laquelle nous analysons les trajectoires des visiteurs d'un musée dans le cadre du projet CrossCult. Nous utilisons du clustering de séquences et de la fouille de motifs séquentiels basée sur l'analyse formelle de concepts pour découvrir des motifs dans les données et classifier les trajectoires. Cette analyse peut ensuite être exploitée par un système de recommandation pour les futurs visiteurs. Deuxièmement, nous présentons un travail sur la découverte de médicaments antibactériens. Les jeux de données pour cette tâche, généralement des matrices numériques, décrivent des molécules par un certain nombre de variables/attributs. Le grand nombre de variables complexifie la classification des molécules par les classifieurs. Ici, nous étudions une approche de sélection de variables basée sur l'analyse log-linéaire qui découvre des associations entre variables
Knowledge discovery in database (KDD) is a process which is applied to possibly large volumes of data for discovering patterns which can be significant and useful. In this thesis, we are interested in data transformation and data mining in knowledge discovery applied to complex data, and we present several experiments related to different approaches and different data types. The first part of this thesis focuses on the task of biclustering using formal concept analysis (FCA) and pattern structures. FCA is naturally related to biclustering, where the objective is to simultaneously group rows and columns which verify some regularities. Related to FCA, pattern structures are its generalizations which work on more complex data. Partition pattern structures were proposed to discover constant-column biclustering, while interval pattern structures were studied in similar-column biclustering. Here we extend these approaches to enumerate other types of biclusters: additive, multiplicative, order-preserving, and coherent-sign-changes. The second part of this thesis focuses on two experiments in mining complex data. First, we present a contribution related to the CrossCult project, where we analyze a dataset of visitor trajectories in a museum. We apply sequence clustering and FCA-based sequential pattern mining to discover patterns in the dataset and to classify these trajectories. This analysis can be used within CrossCult project to build recommendation systems for future visitors. Second, we present our work related to the task of antibacterial drug discovery. The dataset for this task is generally a numerical matrix with molecules as rows and features/attributes as columns. The huge number of features makes it more complex for any classifier to perform molecule classification. Here we study a feature selection approach based on log-linear analysis which discovers associations among features. As a synthesis, this thesis presents a series of different experiments in the mining of complex real-world data
5

Bonidal, Rémi. "Sélection de modèle par chemin de régularisation pour les machines à vecteurs support à coût quadratique." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0066/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sélection de modèle est un thème majeur de l'apprentissage statistique. Dans ce manuscrit, nous introduisons des méthodes de sélection de modèle dédiées à des SVM bi-classes et multi-classes. Ces machines ont pour point commun d'être à coût quadratique, c'est-à-dire que le terme empirique de la fonction objectif de leur problème d'apprentissage est une forme quadratique. Pour les SVM, la sélection de modèle consiste à déterminer la valeur optimale du coefficient de régularisation et à choisir un noyau approprié (ou les valeurs de ses paramètres). Les méthodes que nous proposons combinent des techniques de parcours du chemin de régularisation avec de nouveaux critères de sélection. La thèse s'articule autour de trois contributions principales. La première est une méthode de sélection de modèle par parcours du chemin de régularisation dédiée à la l2-SVM. Nous introduisons à cette occasion de nouvelles approximations de l'erreur en généralisation. Notre deuxième contribution principale est une extension de la première au cas multi-classe, plus précisément à la M-SVM². Cette étude nous a conduits à introduire une nouvelle M-SVM, la M-SVM des moindres carrés. Nous présentons également de nouveaux critères de sélection de modèle pour la M-SVM de Lee, Lin et Wahba à marge dure (et donc la M-SVM²) : un majorant de l'erreur de validation croisée leave-one-out et des approximations de cette erreur. La troisième contribution principale porte sur l'optimisation des valeurs des paramètres du noyau. Notre méthode se fonde sur le principe de maximisation de l'alignement noyau/cible, dans sa version centrée. Elle l'étend à travers l'introduction d'un terme de régularisation. Les évaluations expérimentales de l'ensemble des méthodes développées s'appuient sur des benchmarks fréquemment utilisés dans la littérature, des jeux de données jouet et des jeux de données associés à des problèmes du monde réel
Model selection is of major interest in statistical learning. In this document, we introduce model selection methods for bi-class and multi-class support vector machines. We focus on quadratic loss machines, i.e., machines for which the empirical term of the objective function of the learning problem is a quadratic form. For SVMs, model selection consists in finding the optimal value of the regularization coefficient and choosing an appropriate kernel (or the values of its parameters). The proposed methods use path-following techniques in combination with new model selection criteria. This document is structured around three main contributions. The first one is a method performing model selection through the use of the regularization path for the l2-SVM. In this framework, we introduce new approximations of the generalization error. The second main contribution is the extension of the first one to the multi-category setting, more precisely the M-SVM². This study led us to derive a new M-SVM, the least squares M-SVM. Additionally, we present new model selection criteria for the M-SVM introduced by Lee, Lin and Wahba (and thus the M-SVM²). The third main contribution deals with the optimization of the values of the kernel parameters. Our method makes use of the principle of kernel-target alignment with centered kernels. It extends it through the introduction of a regularization term. Experimental validation of these methods was performed on classical benchmark data, toy data and real-world data
6

Fekom, Mathilde. "Sequential Resource Allocation for network diffusion control." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASM008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’endiguement dynamique d’un processus de diffusion indésirable sur réseau, comme une épidémie, exige d’un décideur (DM) qu’il soit capable de répondre à son évolution en prenant les bonnes mesures de con- trôle au bon moment. Cette tâche peut être considérée comme la gestion de l’allocation d’une quantité limitée de ressources aux nœuds du réseau, avec pour objectif de réduire les effets du processus.Dans cette thèse, nous étendons le problème de l’allocation dynamique de ressources (DRA) et pro- posons un cadre de contrôle dynamique à itéra- tions/tours multiples, que nous réalisons grâce à deux modèles dérivés: le DRA restreint et le DRA séquen- tiel (RDRA, SDRA). Contrairement aux considérations standards dans lesquelles l’information et l’accès sont complets, ces nouveaux modèles prennent en compte les éventuelles restrictions d’accès concernant les informa- tions disponibles sur le réseau et/ou la capacité à agir sur ses nœuds. À chaque cycle d’intervention, le DM a un accès limité aux informations relatives à une fraction des nœuds, et obtient également l’accès pour agir sur eux de manière séquentielle.Ce dernier aspect séquentiel dans le processus de décision offre une perspective com- plètement nouvelle au contrôle du processus de diffusion dynamique, ce qui fait de ce travail le premier à présen- ter le problème du contrôle dynamique comme une série de processus de sélection séquentielleDans le cadre du problème de sélection séquentielle (SSP), des décisions immédiates et irrévocables doivent être prises par le décideur, tandis que les candidats ar- rivent dans un ordre aléatoire et sont examinés pour l’un des créneaux de sélection disponible. Pour les besoins du contrôle de la diffusion en réseau, ce que nous pro- posons se traduit par sélectionner les bons nœuds afin deleur allouer les ressources de contrôle dans un processus séquentiel à plusieurs itérations. Cependant, les vari- antes standard du SSP, comme le très connu problème de la secrétaire, commencent par un ensemble de sélec- tion vide (démarrage à froid) et effectuent le processus de sélection une fois sur un seul ensemble de candidats (unique itération). Ces deux limites sont abordées dans la présente thèse. Tout d’abord, nous introduisons un nouveau paramètre de démarrage à chaud qui considère avoir à portée de main un ensemble de référence, c’est-à- dire un ensemble d’éléments préalablement sélectionnés d’une qualité donnée. Le DM tente ensuite de mettre à jour de manière optimale cet ensemble tout en exam- inant la séquence de candidats qui arrivent, contraint par la possibilité de mettre à jour l’affectation à chaque créneau de sélection (ressource) au plus une fois. Le pro- cessus de sélection séquentielle aux multiples itérations, est alors introduit comme une extension naturelle de la sélection de démarrage à chaud.Des fonctions objectif basées sur le rang et le score de la sélection finale sont prises en compte. Une approche basée sur la séparation de la séquence en deux phases est proposée pour la première, tandis que la stratégie optimale basée sur le calcul d’un seuil d’acceptation dy- namique est dérivée pour la seconde en supposant que la distribution des scores est connue. Ces stratégies sont ensuite mises en comparaison pour leur efficacité dans le cadre de la sélection traditionnelle ainsi que pour la résolution des problèmes de contrôle sur réseaux qui ont motivé cette thèse. La généralité des modèles introduits permet leur application à une grande variété de domaines et de problèmes; par exemple, les processus de recrute- ment récurrents, la gestion de ressources (par exemple, lits, personnel) dans les unités de soins de santé, ainsi que la résolution de problèmes combinatoires difficiles sous contraintes, comme le problème de b-diversification que l’on trouve dans les applications de traitement de flux de données (entre autres, en robotique)
The dynamic containment of an undesired network diffusion process, such as an epidemic, requires a decision maker (DM) to be able to respond to its evo- lution by taking the right control actions at the right moments. This task can be seen as managing the alloca- tion of a limited amount of resources to the graph nodes, with the objective to reduce the effects of the process.In this thesis we extend the Dynamic Resource Alloca- tion (DRA) problem and propose a multi-round dynamic control framework, which we realize through two derived models: the Restricted and the Sequential DRA (RDRA, SDRA). Contrary to the standard full-information and full-access DRA considerations, these new models take into account possible access restrictions regarding the the available information about the network and/or the ability to act on its nodes. At each intervention round, the DM has limited access to information related to a fraction of the nodes, and is also gaining access to act on them in a sequential fashion. The latter sequential as- pect in the decision process offers a completely new per- spective to the dynamic diffusion process control, making this work the first to cast the dynamic control problem as a series of specially designed sequential selection pro- cesses.In the Sequential Selection Problem (SSP), immediate and irrevocable decisions need to be made by the DM as candidate items arrive randomly and get examined for one of the limited selection slots available. For the needs of network diffusion control, what we propose translatesinto selecting the right nodes to allocate the control re- sources in a multi-round sequential process. However, standard SSP variants, such as the very well-known sec- retary problem, begin with an empty selection set (cold- start) and perform the selection process once over a single candidate set (single-round). These two limita- tions are addressed in this thesis. First, we introduce the novel Warm-starting SSP setting that considers hav- ing at hand a reference set, which is a set of previously selected items of a given quality, and tries to update optimally that set while examining the sequence of ar- riving candidates, constrained by being able to update the assignment to each selection slot (resource) at most once. The Multi-round Sequential Selection Process, the new online-within-online problem, is then introduced as a natural extension of the warm-starting selection.Both rank-based and score-based ob jective functions over the final selection are considered. A cutoff-based approach is proposed for the former, while the optimal strategy based on dynamic thresholding is derived for the latter assuming that the score distribution is known. These strategies are then put in comparison for their efficiency in the traditional selection setting as well as in solving network control problems that motivated this thesis. The generality of the introduced models allow their application to a wide variety of fields and problems; for instance, reoccurring recruiting processes, manage- ment of resources (e.g. beds, staff) in healthcare units, as well as tackling difficult combinatorial problems under constrains, such as the b-diversification problem found in data-stream processing applications (e.g. in robotics)
7

Prémillieu, Nathanaël. "Améliorer la performance séquentielle à l'ère des processeurs massivement multicœurs." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00914898.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'omniprésence des ordinateurs et la demande de toujours plus de puissance poussent les architectes processeur à chercher des moyens d'augmenter les performances de ces processeurs. La tendance actuelle est de répliquer sur une même puce plusieurs c\oe urs d'exécution pour paralléliser l'exécution. Si elle se poursuit, les processeurs deviendront massivement multic\oe urs avec plusieurs centaines voire un millier de c\oe urs disponibles. Cependant, la loi d'Amdahl nous rappelle que l'augmentation de la performance séquentielle sera toujours nécessaire pour améliorer les performances globales. Une voie essentielle pour accroître la performance séquentielle est de perfectionner le traitement des branchements, ceux-ci limitant le parallélisme d'instructions. La prédiction de branchements est la solution la plus étudiée, dont l'intérêt dépend essentiellement de la précision du prédicteur. Au cours des dernières années, cette précision a été continuellement améliorée et a atteint un seuil qu'il semble difficile de dépasser. Une autre solution est d'éliminer les branchements et de les remplacer par une construction reposant sur des instructions prédiquées. L'exécution des instructions prédiquées pose cependant plusieurs problèmes dans les processeurs à exécution dans le désordre, en particulier celui des définitions multiples. Les travaux présentés dans cette thèse explorent ces deux aspects du traitement des branchements. La première partie s'intéresse à la prédiction de branchements. Une solution pour améliorer celle-ci sans augmenter la précision est de réduire le coût d'une mauvaise prédiction. Cela est possible en exploitant la reconvergence de flot de contrôle et l'indépendance de contrôle pour récupérer une partie du travail fait par le processeur sur le mauvais chemin sur les instructions communes aux deux chemins pour éviter de le refaire sur le bon chemin. La deuxième partie s'intéresse aux instructions prédiquées. Nous proposons une solution au problème des définitions multiples qui passe par la prédiction sélective de la valeur des prédicats. Un mécanisme de rejeu sélectif est utilisé pour réduire le coût d'une mauvaise prédiction de prédicat.
8

Prémillieu, Nathanaël. "Améliorer la performance séquentielle à l’ère des processeurs massivement multicœurs." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S071/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'omniprésence des ordinateurs et la demande de toujours plus de puissance poussent les architectes processeur à chercher des moyens d'augmenter les performances de ces processeurs. La tendance actuelle est de répliquer sur une même puce plusieurs cœurs d'exécution pour paralléliser l'exécution. Si elle se poursuit, les processeurs deviendront massivement multicoeurs avec plusieurs centaines voire un millier de cœurs disponibles. Cependant, la loi d'Amdahl nous rappelle que l'augmentation de la performance séquentielle sera toujours nécessaire pour améliorer les performances globales. Une voie essentielle pour accroître la performance séquentielle est de perfectionner le traitement des branchements, ceux-ci limitant le parallélisme d'instructions. La prédiction de branchements est la solution la plus étudiée, dont l'intérêt dépend essentiellement de la précision du prédicteur. Au cours des dernières années, cette précision a été continuellement améliorée et a atteint un seuil qu'il semble difficile de dépasser. Une autre solution est d'éliminer les branchements et de les remplacer par une construction reposant sur des instructions prédiquées. L'exécution des instructions prédiquées pose cependant plusieurs problèmes dans les processeurs à exécution dans le désordre, en particulier celui des définitions multiples. Les travaux présentés dans cette thèse explorent ces deux aspects du traitement des branchements. La première partie s'intéresse à la prédiction de branchements. Une solution pour améliorer celle-ci sans augmenter la précision est de réduire le coût d'une mauvaise prédiction. Cela est possible en exploitant la reconvergence de flot de contrôle et l'indépendance de contrôle pour récupérer une partie du travail fait par le processeur sur le mauvais chemin sur les instructions communes aux deux chemins pour éviter de le refaire sur le bon chemin. La deuxième partie s'intéresse aux instructions prédiquées. Nous proposons une solution au problème des définitions multiples qui passe par la prédiction sélective de la valeur des prédicats. Un mécanisme de rejeu sélectif est utilisé pour réduire le coût d'une mauvaise prédiction de prédicat
Computers are everywhere and the need for always more computation power has pushed the processor architects to find new ways to increase performance. The today's tendency is to replicate execution core on the same die to parallelize the execution. If it goes on, processors will become manycores featuring hundred to a thousand cores. However, Amdahl's law reminds us that increasing the sequential performance will always be vital to increase global performance. A perfect way to increase sequential performance is to improve how branches are executed because they limit instruction level parallelism. The branch prediction is the most studied solution, its interest greatly depending on its accuracy. In the last years, this accuracy has been continuously improved up to reach a hardly exceeding limit. An other solution is to suppress the branches by replacing them with a construct based on predicated instructions. However, the execution of predicated instructions on out-of-order processors comes up with several problems like the multiple definition problem. This study investigates these two aspects of the branch treatment. The first part is about branch prediction. A way to improve it without increasing the accuracy is to reduce the coast of a branch misprediction. This is possible by exploiting control flow reconvergence and control independence. The work done on the wrong path on instructions common to the two paths is saved to be reused on the correct path. The second part is about predicated instructions. We propose a solution to the multiple definition problem by selectively predicting the predicate values. A selective replay mechanism is used to reduce the cost of a predicate misprediction
9

Courcoux-Caro, Milan. "Conception optimisée d’antenne pour de la localisation passive de sources acoustiques." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2022. http://www.theses.fr/2022ENTA0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ces travaux de thèse est de proposer une approche de conception d’antenne pour de la localisation de sources acoustiques aériennes ou sous-marines. Dans un premier temps, nous verrons comment décrire la propagation des ondes émises par les sources. Puis nous dresserons les différentes méthodes permettant d’estimer les positions des sources à partir des mesures acquises par les capteurs et du modèle de propagation. Le travail bibliographique sur le domaine de la localisation de sources acoustiques mettra en évidence l’importance des positions des capteurs dans les performances des estimateurs de positions de sources. Cela amènera donc à un second travail bibliographique sur la conception d’antenne, et plus précisément sur la sélection de positions de capteurs. L’état de l’art sur les méthodes de conception d’antenne nous permettra de proposer la méthode suivante : une sélection séquentielle bayésienne orientée par les données. Cette approche prend en compte l’information contenue dans les mesures acquises précédemment dans l’antenne pré-conçue, afin de sélectionner les futurs capteurs. L’application de cette approche est innovante dans un contexte de localisation de sources acoustiques. Dans un deuxième temps, des premiers résultats réalisés sur données synthétiques s’avèrent prometteurs quant à l’application de cette approche dans un cadre de localisation de sources acoustiques sous-marines. Les analyses fournies dans ce manuscrit permettront de juger la pertinence de cette approche dans le contexte testé, ainsi que d’évaluer et de comparer la performance de cette conception d’antenne par rapport à la littérature. Pour finir, nous appliquerons cette approche sur des données réelles provenant d’une expérience mise en place lors de la thèse. Le milieu de propagation sera aérien dans une salle fermée réverbérante avec un grand nombre de capteurs disponibles. Acquérir des données réelles permettront, en plus de l’évaluation des performances de notre approche, de fournir une nouvelle conception d’antenne. Celle-ci est conçue à partir de données synthétiques et est appliquée ensuite sur les données réelles
The objective of this thesis work is to propose an approach of array design for the localization of aerial or underwater acoustic sources. First, we will see how to describe the propagation of waves emitted by the sources. Then we will draw up the different methods allowing to estimate the positions of the sources from the measurements acquired by the sensors and from the propagation model. The bibliographic work on the field of acoustic source localization will highlight the importance of the sensors’ positions in the performance of the source position estimators. This will lead to a second bibliographic work on antenna design, and more precisely on the selection of sensor positions. The state of the art on antenna design methods will allow us to propose the following method: a sequential Bayesian data-driven selection. This approach takes into account the information contained in the measurements previously acquired in the pre-designed antenna, in order to select the future sensors. The application of this approach is innovative in the context of acoustic source localization. In a second step, first results realized on synthetic data prove to be promising for the application of this approach in an underwater acoustic source localization context. The analyses provided in this manuscript will allow to judge the relevance of this approach in the tested context, as well as to evaluate and compare the performance of this antenna design with the literature. Finally, we will apply this approach on real data from an experiment set up during the thesis. The propagation environment will be aerial in a closed reverberant room with a large number of available sensors. Acquiring real data will allow, in addition to evaluating the performance of our approach, to provide a new antenna design. This is designed from synthetic data and then applied to real data
10

Estampes, Ludovic d'. "Traitement statistique des processus alpha-stables : mesures de dépendance et identification des AR stables : tests séquentiels tronqués." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT031H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le premier chapitre, nous rappelons les différentes propriétés des lois alpha-stables univariées. Nous introduisons ensuite les lois symétriques alpha-stables multivariées. Dans le deuxième chapitre, nous nous concentrons sur les mesures de dépendance. Constatant que le coefficient de covariation admet certaines limites, nous construisons une nouvelle mesure de dépendance, le coefficient de covariation symétrique. Après avoir conclu le chapitre par l'étude de la loi asymptotique de l'estimateur du coefficient de covariation, nous présentons les différentes méthodes d'identification de l'ordre d'un processus AR: autocorrélation partielle et statistiques quadratiques asymptotiquement invariantes basées sur les rangs. De nombreuses simulations nous permettent de comparer ces méthodes et de constater l'importance des statistiques de rang dans ce domaine. Enfin, un problème de test séquentiel nous permet d'introduire la notion de niveau de confiance après décision.

До бібліографії