Dissertations / Theses on the topic 'Compression par réseau de neurones'

To see the other types of publications on this topic, follow the link: Compression par réseau de neurones.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Compression par réseau de neurones.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fernandez, Brillet Lucas. "Réseaux de neurones CNN pour la vision embarquée." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour obtenir des hauts taux de détection, les CNNs requièrent d'un grand nombre de paramètres à stocker, et en fonction de l'application, aussi un grand nombre d'opérations. Cela complique gravement le déploiement de ce type de solutions dans les systèmes embarqués. Ce manuscrit propose plusieurs solutions à ce problème en visant une coadaptation entre l'algorithme, l'application et le matériel.Dans ce manuscrit, les principaux leviers permettant de fixer la complexité computationnelle d'un détecteur d'objets basé sur les CNNs sont identifiés et étudies. Lorsqu'un CNN est employé pour détecter des objets dans une scène, celui-ci doit être appliqué à travers toutes les positions et échelles possibles. Cela devient très coûteux lorsque des petits objets doivent être trouvés dans des images en haute résolution. Pour rendre la solution efficiente et ajustable, le processus est divisé en deux étapes. Un premier CNN s'especialise à trouver des régions d'intérêt de manière efficiente, ce qui permet d'obtenir des compromis flexibles entre le taux de détection et le nombre d’opérations. La deuxième étape comporte un CNN qui classifie l’ensemble des propositions, ce qui réduit la complexité de la tâche, et par conséquent la complexité computationnelle.De plus, les CNN exhibent plusieurs propriétés qui confirment leur surdimensionnement. Ce surdimensionnement est une des raisons du succès des CNN, puisque cela facilite le processus d’optimisation en permettant un ample nombre de solutions équivalentes. Cependant, cela complique leur implémentation dans des systèmes avec fortes contraintes computationnelles. Dans ce sens, une méthode de compression de CNN basé sur une Analyse en Composantes Principales (ACP) est proposé. L’ACP permet de trouver, pour chaque couche du réseau, une nouvelle représentation de l’ensemble de filtres appris par le réseau en les exprimant à travers d’une base ACP plus adéquate. Cette base ACP est hiérarchique, ce qui veut dire que les termes de la base sont ordonnés par importance, et en supprimant les termes moins importants, il est possible de trouver des compromis optimales entre l’erreur d’approximation et le nombre de paramètres. À travers de cette méthode il es possible d’obtenir, par exemple, une réduction x2 sur le nombre de paramètres et opérations d’un réseau du type ResNet-32, avec une perte en accuracy <2%. Il est aussi démontré que cette méthode est compatible avec d’autres méthodes connues de l’état de l’art, notamment le pruning, winograd et la quantification. En les combinant toutes, il est possible de réduire la taille d’un ResNet-110 de 6.88 Mbytes à 370kBytes (gain mémoire x19) avec une dégradation d’accuracy de 3.9%.Toutes ces techniques sont ensuite misses en pratique dans un cadre applicatif de détection de vissages. La solution obtenue comporte une taille de modèle de 29.3kBytes, ce qui représente une réduction x65 par rapport à l’état de l’art, à égal taux de détection. La solution est aussi comparé a une méthode classique telle que Viola-Jones, ce qui confirme autour d’un ordre de magnitude moins de calculs, au même temps que l’habilité d’obtenir des taux de détection plus hauts, sans des hauts surcoûts computationnels Les deux réseaux sont en suite évalues sur un multiprocesseur embarqué, ce qui permet de vérifier que les taux de compression théoriques obtenues restent cohérents avec les chiffres mesurées. Dans le cas de la détection de vissages, la parallélisation du réseau comprimé par ACP sûr 8 processeurs incrémente la vitesse de calcul d’un facteur x11.68 par rapport au réseau original sûr un seul processeur
Recently, Convolutional Neural Networks have become the state-of-the-art soluion(SOA) to most computer vision problems. In order to achieve high accuracy rates, CNNs require a high parameter count, as well as a high number of operations. This greatly complicates the deployment of such solutions in embedded systems, which strive to reduce memory size. Indeed, while most embedded systems are typically in the range of a few KBytes of memory, CNN models from the SOA usually account for multiple MBytes, or even GBytes in model size. Throughout this thesis, multiple novel ideas allowing to ease this issue are proposed. This requires to jointly design the solution across three main axes: Application, Algorithm and Hardware.In this manuscript, the main levers allowing to tailor computational complexity of a generic CNN-based object detector are identified and studied. Since object detection requires scanning every possible location and scale across an image through a fixed-input CNN classifier, the number of operations quickly grows for high-resolution images. In order to perform object detection in an efficient way, the detection process is divided into two stages. The first stage involves a region proposal network which allows to trade-off recall for the number of operations required to perform the search, as well as the number of regions passed on to the next stage. Techniques such as bounding box regression also greatly help reduce the dimension of the search space. This in turn simplifies the second stage, since it allows to reduce the task’s complexity to the set of possible proposals. Therefore, parameter counts can greatly be reduced.Furthermore, CNNs also exhibit properties that confirm their over-dimensionment. This over-dimensionement is one of the key success factors of CNNs in practice, since it eases the optimization process by allowing a large set of equivalent solutions. However, this also greatly increases computational complexity, and therefore complicates deploying the inference stage of these algorithms on embedded systems. In order to ease this problem, we propose a CNN compression method which is based on Principal Component Analysis (PCA). PCA allows to find, for each layer of the network independently, a new representation of the set of learned filters by expressing them in a more appropriate PCA basis. This PCA basis is hierarchical, meaning that basis terms are ordered by importance, and by removing the least important basis terms, it is possible to optimally trade-off approximation error for parameter count. Through this method, it is possible to compress, for example, a ResNet-32 network by a factor of ×2 both in the number of parameters and operations with a loss of accuracy <2%. It is also shown that the proposed method is compatible with other SOA methods which exploit other CNN properties in order to reduce computational complexity, mainly pruning, winograd and quantization. Through this method, we have been able to reduce the size of a ResNet-110 from 6.88Mbytes to 370kbytes, i.e. a x19 memory gain with a 3.9 % accuracy loss.All this knowledge, is applied in order to achieve an efficient CNN-based solution for a consumer face detection scenario. The proposed solution consists of just 29.3kBytes model size. This is x65 smaller than other SOA CNN face detectors, while providing equal detection performance and lower number of operations. Our face detector is also compared to a more traditional Viola-Jones face detector, exhibiting approximately an order of magnitude faster computation, as well as the ability to scale to higher detection rates by slightly increasing computational complexity.Both networks are finally implemented in a custom embedded multiprocessor, verifying that theorical and measured gains from PCA are consistent. Furthermore, parallelizing the PCA compressed network over 8 PEs achieves a x11.68 speed-up with respect to the original network running on a single PE
2

Boukli, Hacene Ghouthi. "Processing and learning deep neural networks on chip." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0153/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de l'apprentissage machine, les réseaux de neurones profonds sont devenus la référence incontournable pour un très grand nombre de problèmes. Ces systèmes sont constitués par un assemblage de couches, lesquelles réalisent des traitements élémentaires, paramétrés par un grand nombre de variables. À l'aide de données disponibles pendant une phase d'apprentissage, ces variables sont ajustées de façon à ce que le réseau de neurones réponde à la tâche donnée. Il est ensuite possible de traiter de nouvelles données. Si ces méthodes atteignent les performances à l'état de l'art dans bien des cas, ils reposent pour cela sur un très grand nombre de paramètres, et donc des complexités en mémoire et en calculs importantes. De fait, ils sont souvent peu adaptés à l'implémentation matérielle sur des systèmes contraints en ressources. Par ailleurs, l'apprentissage requiert de repasser sur les données d'entraînement plusieurs fois, et s'adapte donc difficilement à des scénarios où de nouvelles informations apparaissent au fil de l'eau. Dans cette thèse, nous nous intéressons dans un premier temps aux méthodes permettant de réduire l'impact en calculs et en mémoire des réseaux de neurones profonds. Nous proposons dans un second temps des techniques permettant d'effectuer l'apprentissage au fil de l'eau, dans un contexte embarqué
In the field of machine learning, deep neural networks have become the inescapablereference for a very large number of problems. These systems are made of an assembly of layers,performing elementary operations, and using a large number of tunable variables. Using dataavailable during a learning phase, these variables are adjusted such that the neural networkaddresses the given task. It is then possible to process new data.To achieve state-of-the-art performance, in many cases these methods rely on a very largenumber of parameters, and thus large memory and computational costs. Therefore, they are oftennot very adapted to a hardware implementation on constrained resources systems. Moreover, thelearning process requires to reuse the training data several times, making it difficult to adapt toscenarios where new information appears on the fly.In this thesis, we are first interested in methods allowing to reduce the impact of computations andmemory required by deep neural networks. Secondly, we propose techniques for learning on thefly, in an embedded context
3

Mahé, Pierre. "Codage ambisonique pour les communications immersives." Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’inscrit dans le contexte de l’essor des contenus immersifs. Depuis quelques années, les technologies de captation et de restitution sonore immersive se sont développées de manière importante. Ce nouveau contenu a fait naître le besoin de créer de nouvelles méthodes dédiées à la compression audio spatialisée, notamment dans le domaine de la téléphonie et des services conversationnels. Il existe plusieurs manières de représenter l’audio spatialisé, dans cette thèse nous sommes intéressés à l’ambisonie d’ordre 1. Dans un premier temps, nos travaux ont porté sur la recherche d’une solution pour améliorer le codage multimono. Cette solution consiste en un traitement en amont du codec multimono pour décorréler les signaux des composantes ambisoniques. Une attention particulière a été portée à la garantie de continuité du signal entre les trames et à la quantification des métadonnées spatiales. Dans un second temps, nous avons étudié comment utiliser la connaissance de la répartition de l’énergie du signal dans l’espace, aussi appelée image spatiale, pour créer de nouvelles méthodes de codage. L’utilisation de cette image spatiale a permis d’élaborer deux méthodes de compression. La première approche proposée est basée sur la correction spatiale du signal décodé. Cette correction se base sur la différence entre les images spatiales du signal d’origine et du signal décodés pour atténuer les altérations spatiales. Ce principe a été étendu dans une seconde approche à une méthode de codage paramétrique. Dans une dernière partie de cette thèse, plus exploratoire, nous avons étudié une approche de compression par réseaux de neurones en nous inspirant de modèles de compression d’images par auto-encodeur variationnel
This thesis takes place in the context of the spread of immersive content. For the last couple of years, immersive audio recording and playback technologies have gained momentum and have become more and more popular. New codecs are needed to handle those spatial audio formats, especially for communication applications. There are several ways to represent spatial audio scenes. In this thesis, we focused on First Order Ambisonic. The first part of our research focused on improving multi-monocoding by decorrelated each ambisonic signal component before the multi-mono coding. To guarantee signal continuity between frames, efficient quantization new mechanisms are proposed. In the second part of this thesis, we proposed a new coding concept using a power map to recreate the original spatial image. With this concept, we proposed two compressing methods. The first one is a post-processing focused on limiting the spatial distortion of the decoded signal. The spatial correction is based on the difference between the original and the decoded spatial image. This post-processing is later extended to a parametric coding method. The last part of this thesis presents a more exploratory method. This method studied audio signal compression by neural networks inspired by image compression models using variational autoencoders
4

Jouffroy, Guillaume. "Contrôle oscillatoire par réseau de neurones récurrents." Paris 8, 2008. http://www.theses.fr/2008PA082918.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine du contrôle, la plupart des applications nécessitent une commande continue non-périodique. Ce travail se focalise au contraire sur les contrôleurs à base de réseaux de neurones récurrents (RNR) générant une commande oscillatoire entretenue. L'objectif de ce travail est d'étudier les méthodes d'optimisation stochastiques continues permettant de déterminer les paramètres d'un réseau pour qu'il produise un comportement oscillatoire périodique. Nous dressons tout d'abord un bilan des connaissances sur les oscillateurs biologiques. Nous décrirons ensuite des outils mathématiques qui permettent de garantir la stabilité des oscillateurs. Le potentiel des RNR, particulièrement appliqués aux systèmes dynamiques, n'étant encore que très peu exploité, nous proposerons pour chaque méthode, une formalisation générale matricielle détaillée et préciserons la complexité des algorithmes. Nous validerons chacune de ces méthodes à l'aide d'un simple oscillateur, en démontrant analytiquement la stabilité du système résultant, et en montrant dans quelle mesure il est robuste face aux perturbations de ses paramètres. Nous comparerons les différentes méthodes sur ces critères ainsi que sur la vitesse de convergence. Nous terminerons cette thèse par une illustration, dans laquelle nous réaliserons toutes les étapes de la construction d'un contrôleurs oscillatoire neuronal, pour commander l'axe de direction d'un véhicule original. Ceci nous permettra de discuter de la viabilité des réseaux de neurones récurrents dans le domaine de contrôle oscillatoire, et de soulever des questions intéressantes
In the control field, most of the applications need a non-oscillatory continuous control. This work focuses instead on controllers with recurrent neural networks (RNN) which generate a periodic oscillatory control. The purpose of the present work is to study stochastic optimisation methods which can be used to discover the parameters of a network so that it generates a cyclic input. First we take a look at the knowledge about biological oscillators. Tthen we describe the mathematical tools to be able to guarantee the stability oscillators. The potential of RNN, especially applied to dynamical systems being still poorly used, we propose for each method, a general detailed matrix formalization and we precise the computational complexity of the methods. We validate each method using a simple example of oscillator, and we demonstrate analytically the stability of the resulting oscillator, but also how it is robust to parameters perturbations. We then compare these different methods with these criteria and the speed of convergence. We finish this thesis with an illustration, where we take all the steps of the construction of an oscillatory neural controller, to control the axis of direction of a particular vehicle. This will let us discuss how realistic is the use of recurrent neural networks in the field of control, and propose interesting questions
5

Carpentier, Mathieu. "Classification fine par réseau de neurones à convolution." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35835.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intelligence artificielle est un domaine de recherche relativement récent. Grâce à lui, plusieurs percées ont été faites sur une série de problèmes qui étaient autrefois considérés comme très difficiles. La classification fine est l’un de ces problèmes. Cependant, même si résoudre cette tâche pourrait représenter des avancées tant au niveau scientifique qu’au niveau industriel, peu de recherche y a été effectué. Dans ce mémoire, nous abordons la problématique de l’application de la classification fine sur des problèmes concrets, soit la classification d’essence d’arbres uniquement grâce à des images de l’écorce et la classification visuelle des moisissures en culture. Nous commençons par présenter plusieurs concepts sur lesquels se basent l’apprentissage profond, à la base de notre solution ainsi que plusieurs expériences qui ont été menées afin de tenter de résoudre le problème de classification d’essence d’arbres à partir d’images de l’écorce. Par la suite, nous détaillons le jeu de données nommé BarkNet 1. 0 que nous avons construit dans le cadre de ce projet. Grâce à celui-ci, nous avons été en mesure de développer une méthode permettant d’obtenir une précision de 93,88% en utilisant une seule crop aléatoire dans une image et une précision de 97,81% en utilisant un vote de majorité sur toutes les images d’un arbre. Finalement, nous concluons en démontrant la faisabilité d’appliquer notre méthode dans d’autres contextes en montrant quelques applications concrètes sur lesquelles nous l’avons essayée, soit la classification d’essence d’arbres en industrie et la classification de moisissures.
Artificial intelligence is a relatively recent research domain. With it, many breakthroughs were made on a number of problems that were considered very hard. Fine-grained classification is one of those problems. However, a relatively small amount of research has been done on this task even though itcould represent progress on a scientific, commercial and industrial level. In this work, we talk about applying fine-grained classification on concrete problems such as tree bark classification and mould classification in culture. We start by presenting fundamental deep learning concepts at the root of our solution. Then, we present multiple experiments made in order to try to solve the tree bark classification problem and we detail the novel dataset BarkNet 1.0 that we made for this project. With it, we were able to develop a method that obtains an accuracy of 93.88% on singlecrop in a single image, and an accuracy of 97.81% using a majority voting approach on all the images of a tree. We conclude by demonstrating the feasibility of applying our method on new problems by showing two concrete applications on which we tried our approach, industrial tree classification and mould classification.
6

Cayouette, Philippe. "Aérocapture martienne par réseau de neurones entraîné par algorithme génétique." Mémoire, Université de Sherbrooke, 2006. http://savoirs.usherbrooke.ca/handle/11143/1372.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques usuelles pour ralentir un véhicule spatial en approche d'un corps céleste en vitesse hyperbolique utilisent des propulseurs et, par conséquent, une masse importante de carburant. Une technique alternative utilisant seulement une fraction du carburant par rapport aux techniques classiques est l'aérocapture. Cette technique consiste à passer dans les basses couches de l'atmosphère du corps céleste pour perdre l'énergie cinétique qui serait habituellement perdue grâce aux propulseurs.Les algorithmes de guidages d'un véhicule spatial lors de l'aérocapture sont tous basés sur des concepts déductifs mathématiques. Ce projet de recherche propose un changement de paradigme, soit l'utilisation de l'intelligence artificielle pour parvenir à des résultats supérieurs aux techniques actuelles. Un réseau de neurones peut, grâce à un simulateur d'aérocapture, apprendre à donner la bonne commande à tout moment de l'aérocapture s'il est soumis à un entraînement adéquat. Le défi réside justement dans l'entraînement. Ce projet de recherche utilise une technique novatrice d'entraînement par algorithme génétique pour réseaux de neurones dans une boucle navigation-guidage-contrôle. Par analogie avec la nature, une population de réseaux de neurones se fait compétition dans un environnement de simulation d'aérocapture et l'évolution de cette population fonctionne selon les principes du darwinisme, c'est-à-dire le succès des individus mieux adaptés. Ce mémoire présente d'abord la conception de la solution proposée au problème de l'aérocapture et ensuite les résultats de simulations comparatives aux algorithmes actuels. Finalement, l'analyse de ces résultats démontre que l'algorithme de guidage par réseau de neurones représente une alternative intéressante pour une éventuelle mission utilisant l'aérocapture.
7

Charpentier, Éric. "Repérage d'un faisceau à l'aide d'un réseau d'antennes, guidé par un réseau de neurones." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0001/MQ37437.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Liu, Xiaoqing. "Analyse d'images couleur en composantes indépendantes par réseau de neurones." Grenoble INPG, 1991. http://www.theses.fr/1991INPG0120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these presente une nouvelle methode de transformation des valeurs de tristimuli d'une image couleur par un algorithme neuromimetique. Le reseau de neurones est completement interconnecte et il est utilise pour l'analyse en composantes independantes (aci) des signaux multidimensionnels: en exploitant une regle d'apprentissage adequate, dite des moments d'ordre eleve, il est capable de discriminer des sources independantes a partir des melanges de celles-ci. Les images couleur sont soumises a la transformation par le reseau aci et les algorithmes classiques de traitement d'images monochromatiques peuvent s'appliquer directement et independamment sur chaque composante aci, car ces nouvelles composantes sont statistiquement independantes. La discrimination d'objets au niveau de chaque composante chromatique devient plus facile sur l'image transformee que sur l'image originale. Cette methode est comparee avec des methodes classiques: l'analyse en composantes principales et le systeme tls (teinte, luminance et saturation)
9

Goulet-Fortin, Jérôme. "Modélisation des rendements de la pomme de terre par réseau de neurones." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26556/26556.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Laurent, Rémy. "Simulation du mouvement pulmonaire personnalisé par réseau de neurones artificiels pour la radiothérapie externe." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00800360.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de nouvelles techniques en radiothérapie externe ouvre de nouvelles voies dans la recherche de gain de précision dans la distribution de dose en passant notamment par la connaissance du mouvement pulmonaire. La simulation numérique NEMOSIS (Neural Network Motion Simulation System) basée sur les Réseaux de Neurones Artificiels (RNA) développée ici permet, en plus de déterminer de façon personnalisée le mouvement, de réduire les doses nécessaires initiales pour le déterminer. La première partie présente les techniques actuelles de traitement, les mouvements pulmonaires ainsi que les méthodes de simulation ou d'estimation du mouvement déjà existantes. La seconde partie décrit le réseau de neurones artificiels utilisé et les étapes de son paramétrage pour répondre à la problématique posée. Une évaluation précise de notre approche a été réalisée sur des données originales. Les résultats obtenus sont comparés avec une méthode d'estimation du mouvement. Les temps de calcul extrêmement faibles, de l'ordre de 7 millisecondes pour générer une phase respiratoire, ont permis d'envisager son utilisation en routine clinique. Des modifications sont apportées à NEMOSIS afin de répondre aux critères de son utilisation en radiothérapie externe et une étude sur le mouvement de contours tumoraux est effectuée. Ces travaux ont mis en place les bases de la simulation du mouvement pulmonaire par RNA et ont validé cette approche. Son exécution en temps réel couplé à la précision de la prédiction fait de NEMOSIS un outil prometteur dans la simulation du mouvement synchronisé avec la respiration.
11

Bergeron, Jocelyn. "Reconnaissance accélérée de formes par un réseau optimisé avec neurones à champs récepteurs synchrones." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1595.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire présente une analyse des capacités d'un réseau de neurones à décharges à quatre couches comportant des neurones complexes, dont le champ récepteur est défini par des entrées synchrones, dans le contexte d'une application de reconnaissance de formes. Avec le développement d'un modèle informatique basé sur les études neurophysiologiques, un procédé de projection de l'information vers les neurones complexes est présenté. De plus, une corrélation temporelle est utilisée pour établir la reconnaissance de formes. Une première étape permet de segmenter des images sources à l'aide d'une communication synaptique intra-couche. Puis, une projection sur deux nouvelles couches de neurones complexes et une communication synaptique extra-couche permettent de comparer des formes semblables. S'il y a correspondance entre deux ou plusieurs régions, une synchronisation des neurones complexes est décelée, sinon, il n'y aura pas de synchronisation des neurones. L'objectif est d'employer, dans un premier temps, cette nouvelle structure de réseau de neurones à décharges pour la reconnaissance de formes ayant divers niveaux de complexité, et, dans un deuxième temps, de comprendre les apports des choix de conception sur le comportement du réseau. Les expérimentations posées ont permis de conclure que le réseau développé, SyncOsc, est globalement plus performant que le réseau de comparaison ODLM. SyncOsc se montre en effet plus stable, bien plus rapide et apte à traiter des images de grandes tailles, ce que ODLM ne peut réaliser.
12

Bongono, Julien. "Caracterisation des suspensions par des methodes optiques. modelisation par reseaux de neurones." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00666171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La sédimentation des suspensions aqueuses de particules minérales microniques, polydisperses et concentrées a été analysée à l'aide du Turbiscan MA 2000 fondé sur la diffusion multiple de la lumière, en vue d'établir la procédure qui permet de déceler la présence d'une morphologie fractale, puis de déduire les règles de comportements des suspensions fractales par la modélisation avec les réseaux de neurones. Le domaine des interactions interparticulaires physicochimiques (0 à 10% volumique en solide) a été privilégié.La méthodologie de détermination de la structure multifractale des agglomérats et de la suspension a été proposée. La modification structurale des agglomérats qui est à l'origine de comportements non linéaires des suspensions et qui dépend des propriétés cohésives des particules primaires, est interprétée par la variation de la mobilité électrophorétique des particules en suspension. Une approche d'estimation de ces modifications structurales par les réseaux de neurones, à travers la dimension fractale, a été présentée. Les limites du modèle à assimiler ces comportements particuliers ont été expliquées comme résultant du faible nombre d'exemples et de la grande variabilité des mesures aux faibles fractions volumiques en solide.
13

Bal, Lyes. "Modélisation du retrait et du fluage du béton par réseaux de neurones." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10112/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le béton est le matériau de construction le plus utilisé depuis plus d’un siècle. Après sa mise en place et sa prise, il connaît diverses évolutions dimensionnelles d’origine physique comme le retrait et d’origine physique et mécanique comme le fluage. Le séchage qui accompagne le durcissement du béton conduit à d’importantes variations dimensionnelles, qui peuvent se manifester par des fissures préjudiciables à la durabilité et à la bonne tenue des ouvrages. La présente étude a pour objet de montrer l’application d’une approche non paramétrique dite « Réseaux de Neurones Artificiels » afin de prévoir efficacement les variations dimensionnelles spontanées et différés (Retrait de Dessiccation et Fluage de Dessiccation). L’utilisation de cette approche permet le développement de modèles pour leur prévision en utilisant un réseau multicouche à rétropropagation. Ils s’appuient également sur une grande base de données de résultats expérimentaux recueillis dans la littérature et sur un choix approprié des architectures et du processus d’apprentissage utilisés. Ces modèles prennent en compte les différents paramètres de conservation et de confection qui influent sur le retrait et le fluage du béton. Pour mieux apprécier la validité de ces modèles, nous les avons comparés avec d’autres existants dans la littérature tel que : B3, ACI 209, CEB et GL2000. De ces comparaisons, il ressort que ces modèles sont correctement adaptés pour décrire l’évolution dans le temps du retrait et du fluage
Concrete is the material the most used in construction works for a century. After establishment and setting, various physical and mechanical dimensional developments. Occur drying is developing with hardening of concrete and leads to significant dimensional changes, that can induce cracking, pre judiciable at the durability of the civil engineering works. This study aims to demonstrate the application of a nonparametric approach called Artificial Neural Networks to provide effective spontaneous and differed dimensional variations (drying shrinkage and drying creep). Using this approach allows the development of predicting models. These models use a multi layer back propagation. They also rely on a very large database of experimental results obtained in the literature and an appropriate choice of architectures and learning process. These models take into account the different parameters of preservation and making that affect drying shrinkage and creep of concrete. To appreciate the validity of our models, we have compared with other existing models : B3, ACI 209, CEB and GL2000. In these comparisons, it appears that our models are correctly adapted to describe the time evolution of drying shrinkage and creep
14

Tay, Yong Haur. "Reconnaissance de l'écriture manuscrite hors-ligne par réseau de neurones artificiels et modèles de Markov cachés." Nantes, 2002. http://www.theses.fr/2002NANT2106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Kharroubi, Ouissem. "Prévision des crues par modèle de réseau de neurones artificiels : application au bassin versant de l’Eure." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10034/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La croissance des populations riveraines engendre un accroissement de la vulnérabilité de nos sociétés aux inondations donc une forte demande sociale pour prévenir et prévoir ces catastrophes naturelles. Pour atteindre cet objectif, la disposition d’outils de prévision des crues, opérationnels et fiables, est primordiale. Mais la prévision des crues demeure un exercice loin d’être évident. D’une part, parce que les exigences en matière de prévision (précision et délai d’anticipation) sont de plus en plus fortes et d’autre part, parce que les outils physiques de prévisions des crues sont limités par les connaissances relatives de l’hydro-système. Dans ce contexte, ce mémoire présente les travaux effectués pour réaliser des modèles de prévisions des crues pluie-débit, à base de réseaux de neurones artificiels (RNA), dans les bassins versants de l’Eure, de l’Iton et de l’Avre jusqu’à un horizon de prévision de 48h. D’abord, une analyse de la complexité géographique des bassins sera menée afin de déterminer les différents éléments influençant leurs régimes hydrologiques. Ensuite, une démarche méthodologique d’analyse statistique des données a permis une synthèse sur la nature hydrologique des bassins étudiés et d’apporter les éléments nécessaires à la définition des relations non-linéaires pluie-débit. Cet apport a permis la création d’un modèle pluie-débit non-linéaire de prévision des crues. Un modèle RNA capable d’effectuer des prévisions des crues jusqu’au 48h d’anticipation. Ce processus a été testé sur les trois bassins versants et les résultats des tests montrent une production de prévisions fiables ainsi qu’une capacité de généralisation à d’autres hydro-systèmes
The growth of riparian populations generates an increase in vulnerability of our societies to flood. Therefore, a high social demand to prevent and predict these natural disasters must be tacking to protect the population against floods. To achieve this objective, the provision of flood forecasting tools, operational and reliable, is primordial. But the flood forecasting still an exercise far from being evident. Firstly, because the forecast requirements (precision and time anticipation) are becoming more and more higher. And secondly, because the physical flood forecasting tools is limited by the relative knowledge of floods hydro-systems. In this context, this thesis presents the work done to produce rainfall-runoff flood forecasting models based on artificial neural networks (ANN) in the Eure watershed (and two sub-basins) up to a 48 hours horizon forecasting. Firstly, an analysis of the geographical complexity of studied basins will be conducted in order to determine the different factors that influencing the hydrological Eure watershed regime. Then, a methodological process to data statistical analysis, has allowed a synthesis on the hydrological nature of the watersheds studied and brings the elements needed to the definition of the non-linear relations rainfall-runoff. This contribution has allowed the creation of a rainfall-runoff nonlinear model for flood forecasting. ANN model able to perform a reliable forecasting of flood up to a 48 hours horizon forecasting. This process has been tested on three watersheds and the test results show a reliable forecasts as well as an ability of generalization to other hydro-systems
16

Herry, Sébastien. "Détection automatique de langue par discrimination d'experts." Paris 6, 2007. http://www.theses.fr/2007PA066101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif du travail présenté dans ce mémoire est de détecter de façon automatique une langue dans un flux audio. Pour cela, nous proposons un modèle qui, à l’instar d’experts bilingues, effectue une discrimination par paires de langues avec pour information discriminante, l’information acoustique. Parmi les contraintes imposées, on notera que le système doit : être temps réel, utiliser des bases sans étiquetage, pouvoir intégrer de nouvelles langues avec un apprentissage minimal. Dans un premier temps nous avons mis en œuvre un système de Détection Automatique de Langue (DAL) reprenant l’état de l’art. Les résultats obtenus sur ce système de référence ont servi de comparaison avec ceux obtenus par les systèmes que nous avons développés. Dans un premier temps nous avons proposé un ensemble de discriminateurs, par paire de langue, basés sur des réseaux de neurones. Le traitement est effectué sur toute la durée du segment de parole. Les résultats obtenus sur ces discriminateurs sont ensuite fusionnés afin de réaliser la détection. Ce modèle a fait l’objet d’un brevet. Nous avons ensuite étudié plus précisément l'influence de différents paramètres tels que le nombre de locuteurs, les variations intra et inter corpus ou encore la robustesse. Puis nous avons comparé la modélisation proposée, c'est-à-dire discriminante, à d'autres modélisations auto-régressive et/ou prédictive. Ce système a ensuite été testé dans le cadre de la campagne d’évaluation internationale organisée par le NIST en décembre 2005. Suite à cette évaluation, à laquelle participaient 17 équipes internationales, nous avons proposé plusieurs améliorations basées sur : une normalisation de la base de données, une modification de la base de locuteurs en apprentissage uniquement, une prise en compte de la durée de la phrase en test En conclusion, le système proposé répond bien aux contraintes imposées puisqu'il est temps réel et n’utilise que l’information acoustique. Il est aussi plus performant que le modèle issu de l'état de l'art. Enfin, il est robuste au bruit, au changement de langue et de corpus d’évaluation
The purpose of the presented work in this memoir is to automatically detect language in audio stream. For this we suggest a model which, like bilingual expert, done an discrimination by language pair with only acoustic information. The system have constraint : Operating in real time, Use database without phonetic information, Able to add a new language without retrain all the model In a first time we have done an Automatic language detection system derived from the stat of the art. The results obtained by this system are used as reference for the rest of memoir, and we compare those results with the results obtained by the developed model. In a first time, we propose a set of discriminator, by pair of language, based on neural network. The treatment is done on the whole duration of speech segment. The results of these discriminators are fused to create de detection. This model has a patent. We have study more precisely the influence of different parameter as the number of locator, the variation intra and inter corpus or the hardiness. Next we have compared the proposed modelling based on discrimination, with modelling auto regressive or predictive. This system has been tested with our participation of the international campaign organised by NIST in December 2005. To conclude on this campaign where 17 international teams have participated, we have proposed several improvements as: A normalisation of database, A modification of speaker database for learning only, Increase scores with segment duration. To conclude, the system proposed fulfils the constraints because the system is real time, and use only acoustic information. More over the system is more efficient than the derived model from the stat of the art. At last the model is hardiness for noise, for unknown language, for new evaluation database
17

Kosmidis, Efstratios. "Effets du bruit dans le système nerveux central : du neurone au réseau de neurones : fiabilité des neurones, rythmogenèse respiratoire, information visuelle : étude par neurobiologie numérique." Paris 6, 2002. http://www.theses.fr/2002PA066199.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Bongono, Juilien. "Caracterisation des suspensions par des methodes optiques. modelisation par reseaux de neurones." Thesis, Saint-Etienne, EMSE, 2010. http://www.theses.fr/2010EMSE0577/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La sédimentation des suspensions aqueuses de particules minérales microniques, polydisperses et concentrées a été analysée à l’aide du Turbiscan MA 2000 fondé sur la diffusion multiple de la lumière, en vue d’établir la procédure qui permet de déceler la présence d’une morphologie fractale, puis de déduire les règles de comportements des suspensions fractales par la modélisation avec les réseaux de neurones. Le domaine des interactions interparticulaires physicochimiques (0 à 10% volumique en solide) a été privilégié.La méthodologie de détermination de la structure multifractale des agglomérats et de la suspension a été proposée. La modification structurale des agglomérats qui est à l’origine de comportements non linéaires des suspensions et qui dépend des propriétés cohésives des particules primaires, est interprétée par la variation de la mobilité électrophorétique des particules en suspension. Une approche d’estimation de ces modifications structurales par les réseaux de neurones, à travers la dimension fractale, a été présentée. Les limites du modèle à assimiler ces comportements particuliers ont été expliquées comme résultant du faible nombre d’exemples et de la grande variabilité des mesures aux faibles fractions volumiques en solide
The sedimentation of aqueous suspensions of micron-sized mineral particles, polydisperses and concentrated, was analyzed using the Turbiscan MA 2000 based on the multiple light scattering in order to establish the procedure to detect the presence of a fractal morphology, and then to deduce the set of laws of fractal behavior of suspensions by modeling with neural networks. The methodology for determining the multifractal structure of agglomerates and the suspension was proposed. The structural modifications of the agglomerates at the origin of the nonlinear behavior of suspensions and which depends on cohesive properties of primary particles, is interpreted by the change of the electrophoretic mobility of suspended particles. The estimation by neural networks of these structural changes, through the fractal dimension has been presented. The limits of the model to learn these specific behaviors have been explained as resulting from the low number of examples and the great variability in the measurements at low volume fractions of solid
19

Legrand, Jean-François. "Prédiction de trafic dans les réseaux de téléphonie mobile par des méthodes statistiques et neuronales." Paris 6, 2003. http://www.theses.fr/2003PA066543.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Ruichek, Yassine. "Stéréovision linéaire par réseau de neurones de Hopfield : application à la détection d'obstacles à l'avant des véhicules routiers." Lille 1, 1997. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1997/50376-1997-43.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bien que la stereovision passive soit une approche tres populaire pour la reconstruction 3-d, son utilisation pour une application temps-reel, telle que la detection d'obstacles a l'avant des vehicules routiers, est difficile. Cette limitation est essentiellement liee a l'utilisation de cameras matricielles qui fournissent des images contenant une quantite d'informations tres importante. Pour palier cette limitation, certains auteurs proposent de remplacer les cameras matricielles par les cameras lineaires. En effet, ce type de capteur permet de reduire la quantite d'informations a traiter, tout en ayant une resolution horizontale bien superieure a celle des cameras matricielles. Dans ce travail, nous proposons une approche connexionniste pour resoudre le probleme de l'appariement des indices visuels associes aux memes objets physiques presents dans une scene observee par un couple stereoscopique de cameras lineaires. Dans un premier temps, le probleme est ramene a un probleme d'optimisation ou une fonction de cout, construite a partir des contraintes du probleme, doit etre minimisee. Un reseau de neurones de hopfield est ensuite mis au point pour assurer le processus de minimisation
21

Khoyratee, Farad. "Conception d’une plateforme modulable de réseau de neurones biomimétiques pour l’étude des maladies neurodégénératives." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0351.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les neurosciences ont fait l’objet de nombreuses études et ont vu émerger de nouveaux domaines de recherche où la technologie et la biologie peuvent être utilisées en synergie dans le but de trouver des solutions pour comprendre et guérir les maladies neurologiques. Ces maladies affectent des millions de personnes à travers le monde. L’Organisation Mondiale de la Santé (OMS) prévoit une multiplication par 3 du nombre de malades dans les 30 ans à venir.Les progrès des neurosciences ont permis l’émergence de modèles décrivant la physiologie des neurones et aussi de méthodes d’implémentation matérielle de ces modèles. Parmi ces méthodes, les neuroprothèses sont des dispositifs permettant de rétablir certaines fonctions neuronales grâce à une communication avec le système nerveux. La méthodologie de leur conception implique l’étude du comportement des cellules et la création de plateformes biomimétiques interagissant en temps réel avec les cellules vivantes.Dans ces travaux de thèse, la réalisation du système biomimétique a été menée grâce à des composants numériques tels que les Field Programmable Gate Arrays (FPGA), ce qui permet de bénéficier de la flexibilité et de la rapidité de prototypage de ces technologies. La plateforme temps réel de réseaux de neurones biologiquement réalistes développée est paramétrable. Elle devient ainsi un outil neuro-computationnel permettant la réalisation d’expériences bio-hybrides pour l’étude du comportement du système nerveux et plus particulièrement des maladies neurodégénératives.Ces travaux se sont placés dans un contexte plus large. La bibliothèque d’opérateurs numériques sur FPGA développée pour la plateforme a été réutilisée pour l’étude des dynamiques semblables à celles des réseaux de neurones telles que la simulation de réseaux biochimiques ou la résolution de problèmes d’optimisation combinatoire
Neuroscience has been the subject of many studies and has seen new fields of research emerge where technology and biology can be used to find solutions to understand and cure neurological diseases. These illness affect millions of people around the world. The World Health Organization (WHO) predicts a 3 fold increase in the number of patients in the next 30 years.Advances in neuroscience have led to the development of models describing the physiology of neurons and also methods of hardware implementation of these models. Among these methods, neuroprosthesis are devices for restoring certain neuronal functions through communication with the nervous system.This thesis work show that the realization of the biomimetic system was carried out thanks to digital components such as Field Programmable Gate Array (FPGA) which allows to benefit from the flexibility and speed of prototyping of these technologies. The real-time platform of biologically realistic neural networks developed is configurable. It becomes a neuro-computational tool allowing the realization of bio-hybrid experiments for the study of the behavior of the nervous system and more particularly of the neurodegenerative diseases.This work was placed in a larger context. The FPGA digital operator library developed for the platform has been reused for the study of dynamics similar to neural networks such as biochemical network simulation or combinatorial optimization problem solving
22

Taver, Virgile. "Caractérisation et modélisation hydrodynamique des karsts par réseaux de neurones : application à l'hydrosystème du Lez." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20169/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance du fonctionnement hydrodynamique des karsts représente un enjeu planétaire pour la ressource en eau car ils alimentent en eau potable près de 25% de la population mondiale. Néanmoins, la complexité, l'anisotropie, l'hétérogénéité, la non-linéarité et l'éventuelle non-stationnarité de ces aquifères en font des objets encore largement sous-exploités du fait de la difficulté de caractériser leur morphologie et leur fonctionnement hydrodynamique. Dans ce contexte, le paradigme systémique permet d'apporter de nouvelles méthodes en étudiant ces hydrosystèmes au travers de la relation entre leurs signaux d'entrée (pluie) et de sortie (débit). Ainsi ce travail porte sur l'utilisation : i) d'analyses corrélatoires et spectrales pour caractériser la réponse des hydrosystèmes karstiques, ii) des réseaux de neurones pour étudier les relations linéaires et non-linéaires de ces hydrosystèmes. Pour ce faire, différents types de configuration de modèles par réseau de neurones sont explorés afin de comparer le comportement et les performances de ces modèles. On cherche à contraindre ces modèles pour les rendre interprétables en terme de processus hydrodynamiques en rapprochant le fonctionnement du modèle à celui du système naturel afin d'obtenir une bonne représentation et d'extraire des connaissances à partir des paramètres du modèle.Les résultats obtenus par les analyses corrélatoires et spectrales permettent d'orienter la configuration des modèles de réseaux de neurones. Appliqués à l'hydrosystème du Lez sur la période 1950-1967, les résultats montrent que les réseaux de neurones sont à même de modéliser les hydrosystèmes au fonctionnement non-linéaires. L'utilisation de deux hydrosystèmes variant dans le temps (la Durance en France et Fernow aux USA) tend à souligner la capacité des réseaux de neurones à modéliser efficacement les systèmes non stationnaires. Des méthodes d'ajustement en temps réel (adaptativité et assimilation de données) permettent d'accroître les performances des modèles par apprentissage statistique face à des modifications des entrées ou du système lui-même.Finalement, ces différentes méthodes d'analyse et de modélisation permettent d'améliorer la connaissance de la relation pluie-débit. Les outils méthodologiques réalisés dans cette thèse ont pu être développés à partir de l'application à l'hydrosystème du Lez dont le fonctionnement est étudié depuis des décennies. Cette méthodologie d'étude et de modélisation présente l'avantage d'être transposable à d'autres systèmes
Improving knowledge of karst hydrodynamics represents a global challenge for water resource because karst aquifers provide approximately 25% of the world population in fresh water. Nevertheless, complexity, anisotropy, heterogeneity, non-linearity and possible non-stationarity of these aquifers makes them underexploited objects due to the difficulty to characterize their morphology and hydrodynamics. In this context, the systemic paradigm proposes others methods by studying these hydrosystems through input-output (rainfall-runoff) relations.This work covers the use of: i) correlation and spectral analysis to characterize response of karst aquifers, ii) neural networks to study and model linear and non-linear relations of these hydrosystems. In order to achieve this, different types of neural networks model configurations are explored to compare behavior and performances of these models. We are looking to constrain these models to make them interpretable in terms of hydrodynamic processes by making the operation of the model closer to the natural system in order to obtain a good representation and extract knowledge from the model parameters.The results obtained by correlation and spectral analysis are used to manage the configuration of neural networks models. Applied on the Lez hydrosystem over the period 1950-1967, results show that neural networks models are capable to model non-linear operation of the karst.Application of neural modelling on two non stationary hydrosystems (Durance in France and Fernow in the the USA) proved the ability of neural networks to model satisfactorily non-stationary conditions. Moreover, two real-time adjustment methods (adaptativity and data assimilation) enhanced the performance of neural network models face to changing conditions of the inputs or of the system itself.Finally, these various methods to analyze and model allow improving knowledge of the rainfall-runoff relationship. Methodological tools developed in this thesis were developed thanks to the application on Lez hydrosystem which has been studied for decades. This study and modeling methodology have the advantage of being applicable to other systems provided the availability of a sufficient database
23

Pérez, Chavarría Miguel Angel. "Restitution de paramètres atmosphériques hydrologiques sur l'océan, par radiométrie hyperfréquence spatiale : méthodologie neuronale." Paris 6, 2007. http://www.theses.fr/2007PA066487.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de ce travail de thèse est de développer une méthodologie de restitution des paramètres atmosphériques hydrologiques: vapeur d’eau intégrée (IWV), contenu en eau liquide nuageuse intégrée (ICLW), taux de pluie en phase liquide (RR), en utilisant des mesures radiométriques (TBs) qui proviennent des capteurs spatiaux SSM/I et TMI. L’étude de ces signaux permet de mieux comprendre le cycle hydrologique, qui est responsable de la redistribution de l’eau dans l’atmosphère et son impact sur l’énergie du système du climat global. L’une de difficultés majeures pour l’estimation du taux de pluie, est sa grande hétérogénéité spatiale et sa relation non linaire avec les TBs. Pour résoudre ces difficultés, nous proposons une méthode neuronale capable d’apporter une réponse au problème de la non linéarité et un procédé simple de « down-scalling » pour augmenter la résolution spatiale afin de mieux prendre en compte l’inhomogénéité spatiale de la précipitation. Les résultats ont été validés : En faisant des études sur trois événements extrêmes et en les comparants avec les résultats estimées par des algorithmes de la NASA En les comparants avec les résultats obtenus à partir du Radar TRMM pour RR. En effectuant plusieurs climatologies mensuelles pour l’année 2006
24

Theilliol, Didier. "Identification de systèmes siso linéaires et non linéaires par réseaux de neurones multicouches." Nancy 1, 1993. http://www.theses.fr/1993NAN10261.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse décrit l'application de techniques connexionnistes à l'identification de systèmes siso non linéaires. L'établissement de modèles de comportement des systèmes linéaires et non linéaires en vue de leur conduite est un domaine incontournable en automatique. Les systèmes linéaires ne représentent le plus souvent qu'une approximation sur un domaine réduit de systèmes intrinsèquement non linéaires. Nous nous intéressons, ainsi, à l'identification de systèmes non linéaires en privilégiant un domaine de recherche: les réseaux de neurones multicouches. Les capacités d'approximation de systèmes non linéaires constituent l'atout majeur des réseaux de neurones. Nous transposons les techniques élaborées pour les systèmes linéaires dans le domaine de l'automatique aux systèmes non linéaires en faisant appel aux réseaux de neurones multicouches, afin de construire des modèles neuronaux. A travers différentes études, réalisées pour des systèmes linéaires et non linéaires, nous montrons qu'un lien étroit existe entre les méthodes classiques d'identification des modèles paramétriques discrets et les méthodes neuronales tant au niveau des techniques d'estimation des paramètres qu'au niveau de l'identification structurelle. A partir de différents algorithmes d'estimation, nous élaborons une démarche d'identification qui permet de déterminer la structure du modèle neuronal, c'est-à-dire d'évaluer le retard pur, d'estimer les ordres du système et d'optimiser le nombre de neurones dans la couche cachée
25

Geoffroy, Charles. "Récupération en temps réel de coïncidences diffuses triples dans un scanner TEP à l'aide d'un réseau de neurones artificiels." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6177.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le projet de recherche s’inscrit dans un contexte d'imagerie moléculaire, où la modalité d'imagerie d'intérêt est la tomographie d'émission par positrons (TEP) appliquée en recherche sur les petits animaux. Afin de permettre l’observation de détails infimes, les plus récents développements sur ce genre de scanner ont constamment amélioré leur résolution spatiale, sans toutefois obtenir les mêmes progrès en terme de sensibilité. Parmi les méthodes étudiées afin de combler cette lacune, la récupération de coïncidences triples à l’aide d'un réseau de neurones artificiels semble être une technique viable. En effet, malgré une dégradation du contraste, celle-ci permet d'améliorer substantiellement la sensibilité de l’image. Cette technique n'est cependant pas prête à être intégrée aux protocoles de recherche, car son application est pour l’instant limitée à un traitement hors ligne des données d'acquisition d'un scanner. En conséquence, la faisabilité d'une telle approche en temps réel n'est donc pas garantie, car le flux de coïncidences d'un scanner est très important et ses ressources de calculs sont limitées. Dans l’intention d'inclure ce gain en sensibilité pendant une acquisition où le traitement est effectué en temps réel, ce projet de recherche propose une implémentation d'un réseau de neurones artificiels au sein d'une matrice de porte programmable (FPGA) pouvant récupérer en temps réel les coïncidences diffuses triples du scanner LabPET, version 4 cm. La capacité de traitement obtenue est 1 087 000 coïncidences triples par seconde en utilisant 23.1% des ressources d'unités logiques d'un FPGA de modèle XC2VP50. Comparativement à un programme équivalent à haute précision sur ordinateur personnel, l’analyse de validité prend la même décision dans 99.9% des cas et la même ligne de réponse est choisie dans 97.9% des cas. Intégrées à l’image, les coïncidences triples permettent une augmentation de sensibilité jusqu’à 39.7%, valeur qui est en deçà [de] celle obtenue des recherches antérieures, mais expliquée par des conditions d'acquisition différente. Au niveau de la qualité de l’image, la dégradation du contraste de 16,1% obtenu est similaire à celle observée antérieurement. En référence à ces résultats, les ressources limitées d'un scanner de tomographie d'émission par positrons sont avérées suffisantes pour permettre l’implémentation d'un réseau de neurones artificiels devant classifier en temps réel les coïncidences triples du scanner. En terme de contributions, l’implémentation en temps réel réalisée pour ce projet confirme la faisabilité de la technique et apporte une nouvelle approche concrète pour améliorer la sensibilité. Dans une autre mesure, la réussite du projet de recherche contribue à faire connaître la technique des réseaux de neurones artificiels dans le domaine de la tomographie d’émission par positrons. En effet, cette approche est pertinente à considérer en guise d'alternative aux solutions traditionnelles. Par exemple, les réseaux de neurones artificiels pourraient effectuer une évaluation correcte du phénomène des coïncidences fortuites.
26

Dugas, Alexandre. "Architecture de transformée de cosinus discrète sur deux dimensions sans multiplication et mémoire de transposition." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6174.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dix dernières années, les capacités technologiques de transmission vidéo rendent possible une panoplie d'applications de télésanté. Ce média permet en effet la participation de médecins spécialisés à des interventions médicales ayant lieu à des endroits distants. Cependant, lorsque ces dernières se déroulent loin des grands centres, les infrastructures de télécommunication n'offrnt pas un débit assez important pour permettre à la fois une transmission d'images fluides et de bonne qualité. Un des moyens entrepris pour pallier ce problème est l'utilisation d'encodeur et décodeur vidéo (CODEC) permettant de compresser les images avant leur transmission et de les décompresser à la réception. Il existe un bon nombre de CODEC vidéo offrant différent compromis entre la qualité d'image, la rapidité de compression, la latence initiale de traitement et la robustesse du protocole de transmission. Malheureusement, aucun n'est en mesure de rencontrer simultanément toutes les exigences définies en télésanté. Un des problèmes majeurs réside dans le délai de traitement initial causé par la compression avec perte du CODEC. L'objet de la recherche s'intéresse donc à deux CODEC qui répondent aux exigences de délais de traitement et de qualité d'image en télésanté, et plus particulièrement pour une application de téléassistance en salle d'urgence. L'emphase est mise sur les modules de quantification des CODEC qui utilisent la transformée en cosinus discrète. Cette transformée limite la transmission des images vidéo fluide et quasi sans délais en raison des délais de traitement initiaux issus des nombreuses manipulations arithmétiques qu'elle requiert. À l'issu de la recherche, une structure efficace de la transformée en cosinus est proposée afin de présenter une solution au temps de latence des CODEC et ainsi de répondre aux exigences de télécommunication en télésanté. Cette solution est implémentée dans un CODEC JPEG développé en VHDL afin de simuler un contexte d'application réelle.
27

Lefort, Mathieu. "Apprentissage spatial de corrélations multimodales par des mécanismes d'inspiration corticale." Phd thesis, Université Nancy II, 2012. http://tel.archives-ouvertes.fr/tel-00756687.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de la problématique de l'unification de différents flux d'informations modales qui peuvent provenir des senseurs d'un agent. Cette unification, inspirée des expériences psychologiques comme l'effet ventriloque, s'appuie sur la détection de corrélations, définies comme des motifs spatiaux qui apparaissent régulièrement dans les flux d'entrée. L'apprentissage de l'espace des corrélations du flux d'entrée échantillonne cet espace et généralise les échantillons appris. Cette thèse propose des principes fonctionnels pour le traitement multimodal de l'information qui ont aboutit à l'architecture connexionniste, générique, modulaire et cortico-inspirée SOMMA (Self-Organizing Maps for Multimodal Association). Dans ce modèle, le traitement de chaque modalité s'effectue au sein d'une carte corticale. L'unification multimodale de l'information est obtenue par la mise en relation réciproque de ces cartes. L'échantillonnage et la généralisation des corrélations reposent sur une auto-organisation contrainte des cartes. Ce modèle est caractérisé par un apprentissage progressif de ces propriétés fonctionnelles: les propriétés monomodales amorcent l'émergence des propriétés multimodales et, dans le même temps, l'apprentissage de certaines corrélations par chaque carte est un préalable à l'auto-organisation de ces cartes. Par ailleurs, l'utilisation d'une architecture connexionniste et d'un apprentissage continu et non supervisé fournit au modèle des propriétés de robustesse et d'adaptabilité qui sont généralement absentes des approches informatiques classiques.
28

Cherkashyn, Valeriy. "Représentation adaptative d'images de télédétection à très haute résolution spatiale une nouvelle approche hybride (la décomposition pyramidale avec des réseaux de neurones)." Thèse, Université de Sherbrooke, 2011. http://hdl.handle.net/11143/5831.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé: De nos jours l’observation de la terre à l’aide d’images satellitaires de très haute résolution spatiale (Ikonos, Quickbird, World View-2) donne de nombreuses possibilités pour gérer de l’information à l’échelle mondiale. Les technologies actuelles d’acquisition d’information sont à l’origine de l’augmentation importante du volume des données. L’objectif général de cette thèse consiste à développer une nouvelle méthode hybride de représentation d’image numérique de très haute résolution spatiale qui améliore la qualité visuelle d’images compressée avec un haut niveau de compression (100 fois et plus). La nouvelle méthode hybride exploite la transformation pyramidale inverse d’image numérique en utilisant des réseaux de neurones artificiels. Elle combine le traitement spatial et la transformation abstraite de l’image. L’emploi de l’approche de la transformation pyramidale inverse a démontré l’efficacité du traitement de l’information à une ou à des échelles spécifiques, sans interférer ou ajouter un temps de calcul inutile. Cette approche est essentielle pour réaliser une transformation progressive d’image. Les résultats montrent une amélioration du rapport signal pur bruit de 4 dB pour chaque couche additionnelle de la transformation progressive. Nous avons réussi à garder une qualité visuelle d’images compressées comparable, jusqu’au niveau de la compression de 107 fois. De plus, pour le niveau de la compression de 274 fois, nous avons obtenu une amélioration de la qualité visuelle en comparaison des méthodes de compression courantes (JPEG, JPEG2000). Les résultats du travail confirment l’hypothèse que les images de télédétection possèdent un haut degré de redondance et que l’utilisation d’un réseau de neurones est un bon moyen pour trouver l’opérateur efficace du regroupement de pixels. Cette nouvelle méthode de représentation d’images à très haute résolution spatiale permet de réduire le volume des données sans détérioration majeure de la qualité visuelle, comparé aux méthodes existantes. Enfin, nous recommandons de poursuivre l’exploration du domaine des calculs distribués tels que les réseaux des neurones artificiels, considérant l’augmentation de la performance des outils informatiques (nanotechnologies et calculs parallèles). || Abstract: Earth observations using very high-resolution satellite imagery, such as from Ikonos, QuickBird or WorldView-2, provide many possibilities for addressing issues on a global scale. However, the acquisition of high-resolution imagery using these technologies also significantly increases the volume of data that must be managed. With the passing of each day, the number of collected satellite images continues to increase. The overall objective of this work is to develop new hybrid methods for numerical data representation that improve the visual quality of compressed satellite visible imagery for compression levels of 100 times and more. Our new method exploits the inverse pyramid transform using artificial neural networks, and thus addresses the trend in the field of remote sensing and image compression towards combining the spatial processing and abstract transformation of an image. Our implementation of the pyramidal inverse transformation demonstrates the effectiveness of information processing for specific levels, without interfering or adding unnecessary computation time. This approach is essential in order to achieve a gradual transformation of an image. The results showed an improvement in the signal to noise ratio of 4dB for each additional layer in the pyramidal image transformation. We managed to keep a similar level of visual quality for the compressed images up to a compression level of 107 times. In addition, for a compression level of 274, we improved the visual quality as compared to standard compression methods (JPEG, JPEG2000). The results of this study confirm the hypothesis that remote sensing images have a high degree of redundancy and that the use of neural networks is a good way to find the effective operator of the pixel combination. This new method for image representation reduces the volume of data without major deterioration in the visual quality of the compressed images, as compared to existing methods. Finally, we recommend further exploration in the field of distributed computing, such as artificial neural networks, considering the rapidly increasing performance of computers in the near future (parallel computing technology and nanotechnology).
29

Mayorquim, Jorge Luiz. "Étude en vue de la réalisation d'un réseau de neurones binaires logiques : détection de contours en temps réel." Compiègne, 1996. http://www.theses.fr/1996COMPD893.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Hamachi, Mourad. "Mesure dynamique de l'épaisseur du dépôt à l'aide d'un capteur optique et modélisation par réseau de neurones de la microfiltration tangentielle de suspensions." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT035G.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de toute operation de microfiltration tangentielle ou d'ultratfiltration, l'industrie se trouve confrontee a la formation d'un depot qui constitue une veritable membrane dynamique dont l'apparition provoque une chute importante de flux de filtrat. Afin de maintenir ce flux constant, il est d'usage d'augmenter la vitesse de circulation de la suspension a traiter, ce qui demande une depense energetique supplementaire, ou encore d'augmenter la pression transmembranaire qui entraine la formation d'un depot rapide et qui pourrait tendre vers un colmatage irreversible. C'est pourquoi la comprehension de ce phenomene est necessaire pour le developpement de ces procedes. L'utilisation d'une suspension modele (bentonite) et d'un dispositif de mesure directe de l'epaisseur du depot permet de caracteriser les proprietes du gateau et les conditions de sa formation lors de la mise en oeuvre de la microfiltration tangentielle. L'etude realisee analyse l'effet de la vitesse tangentielle, de la pression transmembranaire, de la concentration et de la temperature sur l'evolution de l'epaisseur du depot et en correlation avec le flux de filtrat. Elle montre que pour certaines conditions operatoires, on peut stabiliser le flux de filtrat et eviter le colmatage. Par ailleurs les reseaux de neurones sont utilises pour modeliser l'evolution du flux de filtrat et de l'epaisseur du depot en fonction du temps et predire les valeurs limites de ces derniers.
31

Främling, Kary. "Modélisation et apprentissage des préférences par réseaux de neurones pour l'aide à la décision multicritère." Phd thesis, INSA de Lyon, 1996. http://tel.archives-ouvertes.fr/tel-00825854.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation des préférences des décideurs pour des problèmes de choix est l'objet principal de ce travail de thèse. Afin d'obtenir des modèles plus réalistes, des fonctions de préférence contextuelle sont présentées dans ce mémoire de thèse. La complexité d'expression de telles fonctions est réduite par le recours à des techniques d'apprentissage automatique à partir de réseaux de neurones. L'identification des fonctions de préférence est réalisée par des réseaux de neurones, fondés sur les principes de la régression non-linéaire, à partir d'exemples de décision. Une telle technique n'est pas toujours applicable en pratique à cause du nombre élevé d'exemples nécessaire. Le réseau neuronal INKA, développé dans le cadre de ce travail, effectue la régression avec un nombre d'exemples relativement petit. INKA offre également des temps d'apprentissage courts par rapport à d'autres techniques, ce qui est nécessaire pour une acquisition interactive de la fonction de préférence. INKA est utilisé dans le système interactif d'aide à la décision (SIAD) présenté, qui est un des premiers à mettre en oeuvre un apprentissage automatique d'une fonction de préférence globale. La visualisation de la fonction apprise et les indicateurs de précision et de sensibilité permettent au décideur d'estimer le moment d'arrêter la recherche de solutions. Ceci est particulièrement utile pour apprendre les préférences des décideurs " abstraits " (acteurs sociaux, systèmes naturels, ...), qui ne peuvent pas utiliser directement le système. Les fonctionnalités d'explication développées dans ce travail permettent de justifier les recommandations des SIAD, ce qui a constitué un des grands défis du domaine de l'aide à la décision multicritère et des réseaux neuronaux. Il est donc possible d'expliquer, de comprendre et d'analyser les préférences même pour des décideurs abstraits. L'intérêt de telles explications est de faciliter la prise de décisions négociées dans le cadre de projets d'aménagement complexes ou pour améliorer des produits dont les ventes dépendent des préférences des clients.
32

Mercadier, Yves. "Classification automatique de textes par réseaux de neurones profonds : application au domaine de la santé." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'analyse de données textuelles dans le domaine de la santé et en particulier sur la classification supervisée multi-classes de données issues de la littérature biomédicale et des médias sociaux.Une des difficultés majeures lors de l'exploration de telles données par des méthodes d'apprentissage supervisées est de posséder un jeu de données suffisant en nombre d'exemples pour l'entraînement des modèles. En effet, il est généralement nécessaire de catégoriser les données manuellement avant de réaliser l'étape d'apprentissage. La taille importante des jeux de données rend cette tâche de catégorisation très coûteuse, qu'il convient de réduire par des systèmes semi-automatiques.Dans ce contexte, l’apprentissage actif, pendant lequel l’oracle intervient pour choisir les meilleurs exemples à étiqueter, s’avère prometteur. L’intuition est la suivante : en choisissant les exemples intelligemment et non aléatoirement, les modèles devraient s’améliorer avec moins d’efforts pour l’oracle et donc à moindre coût (c’est-a-dire avec moins d’exemples annotés). Dans cette thèse, nous évaluerons différentes approches d’apprentissage actif combinées avec des modèles d’apprentissage profond récents.Par ailleurs, lorsque l’on dispose de peu de données annotées, une possibilité d’amélioration est d’augmenter artificiellement la quantité de données pendant la phase d’entraînement du modèle, en créant de nouvelles données de manière automatique à partir des données existantes. Plus précisément, il s’agit d’injecter de la connaissance en tenant compte des propriétés invariantes des données par rapport à certaines transformations. Les données augmentées peuvent ainsi couvrir un espace d’entrée inexploré, éviter le sur-apprentissage et améliorer la généralisation du modèle. Dans cette thèse, nous proposerons et évaluerons une nouvelle approche d'augmentation de données textuelles
This Ph.D focuses on the analysis of textual data in the health domain and in particular on the supervised multi-class classification of data from biomedical literature and social media.One of the major difficulties when exploring such data by supervised learning methods is to have a sufficient number of data sets for models training. Indeed, it is generally necessary to label manually the data before performing the learning step. The large size of the data sets makes this labellisation task very expensive, which should be reduced with semi-automatic systems.In this context, active learning, in which the Oracle intervenes to choose the best examples to label, is promising. The intuition is as follows: by choosing the smartly the examples and not randomly, the models should improve with less effort for the oracle and therefore at lower cost (i.e. with less annotated examples). In this PhD, we will evaluate different active learning approaches combined with recent deep learning models.In addition, when small annotated data set is available, one possibility of improvement is to artificially increase the data quantity during the training phase, by automatically creating new data from existing data. More precisely, we inject knowledge by taking into account the invariant properties of the data with respect to certain transformations. The augmented data can thus cover an unexplored input space, avoid overfitting and improve the generalization of the model. In this Ph.D, we will propose and evaluate a new approach for textual data augmentation.These two contributions will be evaluated on different textual datasets in the medical domain
33

Gaudier, Fabrice. "Modélisation par réseaux de neurones : application à la gestion du combustible dans un réacteur." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Tous les ans, un quart du combustible nucléaire d'un cœur de réacteur est remplace par du combustible neuf. Du fait de leur historique. Les autres combustibles ont des propriétés physiques très différentes. Se pose alors le problème de la répartition du combustible au sein du cœur tout en veillant à ce que le plan de chargement proposé vérifie des contraintes de sureté : c'est le problème du repositionnement de combustible. Si une recherche exhaustive est illusoire, elle nécessite le calcul des caractéristiques neutroniques, notamment le pic de puissance, pour des milliers de plans de chargements. Dans un code d'optimisation automatique comme Formosa, le calcul de ces caractéristiques représente 90% de la dizaine d'heures nécessaire à l'optimisation. Afin de réduire ce temps de calcul, nous proposons une architecture neuronale originale adaptée au phénomène physique à modéliser. Une analyse de données a permis de caractériser plus finement le combustible nucléaire. L'introduction d'une connaissance a priori portant sur les phénomènes neutroniques a permis de réduire le nombre de paramètres libres du modèle. Nous avons ensuite implémenté ce modèle neuronal dans Formosa, et nous avons montre sur des problèmes réels d'EDF un gain de temps considérable. Enfin, nous proposons également une méthode hybride alliant le meilleur parti de l'approximateur linéaire local GPT (generalized perturbation theory) et les réseaux de neurones.
34

Kirchhofer, Simon. "Conception d'une prothèse bio-inspirée commandée par réseaux de neurones exploitant les signaux électromyographiques." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de prothèses du membre supérieur est couramment divisé en deux parties : la conception mécatronique de la prothèse et l'interface homme-machine dédiée à la commande. L'objectif de cette thèse est de rapprocher ces deux domaines afin de mieux les assortir. Une première étape concerne l'acquisition et le traitement des signaux de commande. Ainsi, une base de données comprenant des signaux électromyographiques et des coordonnées articulaires mesurées par vision par ordinateur a été réalisée. Un réseau de neurones artificiels réalise ensuite la reconstruction de la position de la main par exploitation des séquences électromyographiques. Une architecture de main sous-actionnée bio-inspirée est alors proposée afin de reproduire la cinématique de la main en garantissant une répartition de l'effort de préhension. Cette nouvelle approche consiste à optimiser l'imitation des synergies de la main liées à la saisie, permettant ainsi une commande plus naturelle pour les utilisateurs de prothèses actives
Research on upper-body prosthetic device is commonly divided in two categories: The prosthesis mechatronic conception and the human-machine interface dedicated to the control. This PhD thesis aims to bring together these two fields of research. The first step deals with control signals. Thus, a database containing electromyographic sequences and vision based joint coordinate measurements was created. Then, an artificial neural network achieves the motion estimation from electromyographic sequences. Accordingly, an under-actuated bio-inspired hand architecture is proposed to copy an organic hand motion while ensuring a grasping force distribution. This innovative approach allows to optimize the synergies imitation and proposes a control more intuitive for active prosthesis users
35

Rivollet, Fabien. "Etude des propriétés volumétriques (PVT) d'hydrocarbures légers (C1-C4), du dioxyde de carbone et de l'hydrogène sulfuré. Mesures par densimétrie à tube vibrant et modélisation." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00002603.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fluides pétroliers extraits de gisements ont des teneurs plus ou moins importantes en composés non souhaités tels que le dioxyde de carbone, l'hydrogène sulfuré ou autres produits soufrés. Ils doivent subir nombre de transformations et purifications. Le dimensionnement des unités correspondantes ne peut être bien optimisé que si l'on dispose de données fiables et précises d'équilibre de phases et de propriétés volumétriques et bien entendu d'une modélisation elle aussi fiable et précise. Le présent travail a été consacré en partie à des mesures de propriétés volumétriques sur trois mélanges binaires (éthane - hydrogène sulfuré, éthane - dioxyde de carbone et propane - hydrogène sulfuré). Ces mesures ont été réalisées à l'aide d'un appareillage, comportant un densimètre à tube vibrant (Anton Paar, modèle DMA 512), qui a été conçu et construit tout spécialement pour ce travail. L'étude menée sur la modélisation des propriétés volumétriques a permis de mettre en évidence l'inadéquation de l'usage classique des équations d'état cubiques pour représenter simultanément propriétés volumétriques et équilibres de phases. Parmi les équations d'état présentées, une attention particulière a toutefois été portée sur les équations d'état cubiques en raison de leur très grande utilisation dans le domaine pétrolier. Un moyen a été testé pour adapter les équations d'état cubiques à la représentation simultanée et satisfaisante des propriétés volumétriques et équilibres de phases : Il s'agit du couplage de l'équation d'état cubique de Soave-Redlich-Kwong avec une correction de volume par réseau de neurones.
36

Michaud, Jean-Baptiste. "Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielle." Thèse, Université de Sherbrooke, 2014. http://savoirs.usherbrooke.ca/handle/11143/5284.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.
37

Thiaw, Lamine. "Identification de systèmes dynamiques non linéaires par réseaux de neurones et multimodèles." Phd thesis, Université Paris XII Val de Marne, 2008. http://tel.archives-ouvertes.fr/tel-00399469.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude traite de l'identification de système dynamique non-linéaire. Une architecture multimodèle capable de surmonter certaines difficultés de l'architecture neuronale de type MLP a été étudiée. L'approche multimodèle consiste à représenter un système complexe par un ensemble de modèles de structures simples à validité limitée dans des zones bien définies. A la place de la structure affine des modèles locaux généralement utilisée, cette étude propose une structure polynômiale plus générale, capable de mieux appréhender les non-linéarités locales, réduisant ainsi le nombre de modèles locaux. L'estimation paramétrique d'une telle architecture multimodèle peut se faire suivant une optimisation linéaire, moins coûteuse en temps de calcul que l'estimation paramétrique utilisée dans une architecture neuronale. L'implantation des multimodèles récurrents, avec un algorithme d'estimation paramétrique plus souple que l'algorithme de rétro-propagation du gradient à travers à travers le temps utilisé pour le MLP récurrent a également été effectuée. Cette architecture multimodèle permet de représenter plus facilement des modèles non-linéaires bouclés tels que les modèles NARMAX et NOE. La détermination du nombre de modèles locaux dans une architecture multimodèle nécessite la décomposition (le partitionnement) de l'espace de fonctionnement du système en plusieurs sous-espaces où sont définies les modèles locaux. Des modes de partitionnement du système en plusieurs sous-espaces où sont définies les modèles locaux. Des modes de partitionnement flou (basé sur les algorithmes de "fuzzy-c-means", de "Gustafson et Kessel" et du "substractive clustering") ont été présentés. L'utilisation de telles méthodes nécessite l'implantation d'une architecture multimodèle où les modèles locaux peuvent être de structures différentes : polynômiales de degrés différents, neuronale ou polynômiale et neuronale. Une architecture multimodèle hétérogène répondant à ses exigences a été proposée, des algorithmes d'identification structurelles et paramétriques ont été présentés. Une étude comparative entre les architectures MLP et multimodèle a été menée. Le principal atout de l'architecture mudltimodèle par rapport à l'architecture neuronale de type MLP est la simplicité de l'estimation paramétrique. Par ailleurs, l'utilisation dans une architecture multimodèle d'un mode de partitionnement basé sur la classification floue permet de déterminer facilement le nombre de modèles locaux, alors que la détermination du nombre de neurones cachés pour une architecture MLP reste une tâche difficile.
38

VIALA, JEAN-RENAUD. "Apprentissage de reseaux de neurones en couches par la regle de retropropagation du gradient : developpement d'un algorithme competitif pour la compression et la segmentation d'images." Paris 6, 1990. http://www.theses.fr/1990PA066802.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these aborde les differents aspects des reseaux de neurones en couches appeles perceptrons multicouches, depuis l'algorithme d'apprentissage, jusqu'a l'application a des problemes reels. La premiere partie est une etude parametrique de la regle d'apprentissage par retropropagation du gradient de l'erreur. Le gain et le temps de relaxation sont etudies lors de l'elaboration d'une loi d'echelle d'une fonction booleenne: la parite. Les architectures de reseau et les ensembles d'apprentissage sont analyses sur le probleme continu de la compression d'une image digitalisee. La deuxieme partie de la these est une application des reseaux de neurones en couches au probleme de la compression de signal video. Pour obtenir une qualite d'image satisfaisante, un nouvel algorithme a ete developpe. Son originalite est de mettre en competition, durant le codage, plusieurs reseaux en couches. Grace a l'apprentissage, qui associe chaque perceptron a une texture specifique, l'algorithme competitif adapte le codage d'un bloc de l'image en fonction de ses caracteristiques. Les simulations sur une sequence animee donnent des performances proches de celles obtenues par un algorithme non neuronal de compression par transformee en cosinus discrets. Les segmentations delivrees sont proches des objets figurant sur l'image. Cet algorithme peut etre implante en temps reel sur des circuits neuromimetiques elabores au laboratoire d'electronique philips
39

Charest, Jonathan. "Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positrons." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11628.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent. Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal. Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET. Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.
40

Lauret, Pierre. "Modélisation de la dispersion atmosphérique sur un site industriel par combinaison d’automates cellulaires et de réseaux de neurones." Thesis, Saint-Etienne, EMSE, 2014. http://www.theses.fr/2014EMSE0745/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dispersion atmosphérique de substances dangereuses est un évènement susceptible d’entrainer de graves conséquences. Sa modélisation est primordiale pour anticiper des situations accidentelles. L’objectif de ce travail fut de développer un modèle opérationnel, à la fois rapide et précis, prenant en compte la dispersion en champ proche sur un site industriel. L’approche développée s’appuie sur des modèles issus de l’intelligence artificielle : les réseaux de neurones et les automates cellulaires. L’utilisation des réseaux de neurones requiert l’apprentissage d’une base de données de dispersion : des simulations CFD k-ϵ dans ce travail. Différents paramètres sont évalués lors de l’apprentissage : échantillonnage et architecture du réseau. Trois méthodologies sont développées :La première méthode permet d’estimer la dispersion continue en champ libre, par réseaux de neurones seuls.La deuxième méthode utilise le réseau de neurones en tant que règle de transition de l’automate cellulaire pour le suivi de l’évolution d’une bouffée en champ libre.La troisième méthode sépare la problématique : le calcul de l’écoulement est effectué par les réseaux de neurones alors que le calcul de la dispersion est réalisé par la résolution de l’équation d’advection diffusion pour le suivi de l’évolution d’un nuage autour d’un obstacle cylindrique. La simulation de cas tests non-appris avec des simulations CFD permet de valider les méthodes développées. Les temps de calcul mis en œuvre pour réaliser la dispersion sont en accord avec la cinétique d’une situation de crise. L’application à des données réelles doit être développée dans la perspective de rendre les modèles opérationnels
Atmospheric dispersion of hazardous materials is an event that could lead to serious consequences. Atmospheric dispersion is studied in particular in this work. Modeling of atmospheric dispersion is an important tool to anticipate industrial accidents. The objective of this work was to develop a model that is both fast and accurate, considering the dispersion in the near field on an industrial site. The approach developed is based on models from artificial intelligence: neural networks and cellular automata. Using neural networks requires training a database typical of the phenomenon, CFD k-ϵ simulations in this work. Training the neural network is carried out by identifying the important parameters: database sampling and network architecture. Three methodologies are developed:The first method estimates the continuous dispersion in free field by neural networks.The second method uses the neural network as a transition rule of the cellular automaton to estimate puff evolution in the free field.The third method divides the problem: the flow calculation is performed by the neural network and the calculation of the dispersion is realized by solving the advection diffusion equation to estimate the evolution of a cloud around a cylindrical obstacle. For the three methods, assessment of the generalization capabilities of the neural network has been validated on a test database and on unlearned cases. A comparison between developed method and CFD simulations is done on unlearned cases in order to validate them. Simulations computing time are low according to crisis duration. Application to real data should be developed to make these models operational
41

Chane, Kuang Sang Laurent. "Stratégie de contrôle hybride d'un magnétron verrouillé par injection pour un Transport d'Energie Sans Fil par onde hyperfréquence." Phd thesis, Université de la Réunion, 2002. http://tel.archives-ouvertes.fr/tel-00464105.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Présenté initialement à l'agence spatiale américaine par P. Glaser comme une source potentielle d'énergie alternative renouvelable et propre, le projet de Centrales Solaires Orbitales est basé sur le concept de Transport d'Energie Sans Fil (TESF). Le principe consiste à collecter directement dans l'espace l'énergie solaire, puis à la transmettre vers une base de réception terrestre, via un faisceau hyperfréquence. Dans le cadre des actions menées dans le domaine du TESF au niveau terrestre, une solution technologique permettant de répondre au cahier des charges imposé au système d'émission a retenu notre attention : mettre en oeuvre un réseau d'antenne phasé alimenté par des magnétrons de moyenne puissance. Dans cette optique, ce travail de recherche présente une approche originale du contrôle des grandeurs de sortie d'un magnétron opérant en situation de verrouillage par injection. Afin de prendre en compte le comportement non linéaire du magnétron, une stratégie de contrôle hybride a été mise en oeuvre pour le contrôle de la fréquence et de l'amplitude d'un magnétron de moyenne puissance (2.45 GHz) verrouillé par injection et débitant sur une charge fixe. L'aspect hybride est constitué par l'association d'un algorithme de Contrôle Direct Inverse impliquant un réseau de neurones non linéaires modélisant la fonction de transfert inverse du magnétron, avec un correcteur linéaire en boucle fermée de type PID. Le développement d'un dispositif de caractérisation expérimentale d'un magnétron verrouillé par injection a permis de collecter des bases de mesures nécessaires à un apprentissage supervisé et généralisé pour l'identification du contrôleur neuronal. Les meilleures performances en terme de conduite du magnétron ont été obtenues avec une boucle de contrôle effectuant une permutation dynamique entre le correcteur neuronal non linéaire et le correcteur linéaire PID tout en assurant une stabilité de la phase sur l'ensemble de la bande de verrouillage
42

Rude, Julien. "Développement d'un modèle statistique neuronal pour la description fine de la pollution atmosphérique par le dioxyde d'azote : application à la région parisienne." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les oxydes d'azote (NOx) sont les indicateurs principaux de la pollution atmosphérique produite par les véhicules. La concentration de NO2, polluant réglementé pour ses effets sur la santé, dépasse en 2006, à Paris et en proche banlieue, les niveaux réglementaires pour l'ensemble des stations qui le mesurent, et en particulier à proximité du trafic. Ainsi, les six stations franciliennes de proximité au trafic automobile, dépassent largement l'objectif de qualité (jusqu'à 2.5 fois) et la valeur limite (jusqu'à deux fois). L'objectif de ma thèse visait à mettre au point un modèle qtatistique de détermination des concentrations "respirables" par la population, pour le NO2 en milieu urbain. Compte tenu de la nécessité d'une base de données statistiquement représentative, le modèle a été développé sur la région parisienne. Nous avons sélectionné les variables nécessaires à la description du système et à la définition de la fonction de régression neuronale sur la base de notre connaissance du phénomène étudié. Les paramètres de la régression ont été optimisés au cours d'une phase d'apprentissage à partir d'observations relevées à 5 stations de "trafic" et 5 stations "urbaines". Les variables que nous avons retenues sont (i) des concentrations de fond en NO2 estimées par un modèle de chimie transport à l'échelle régionale, (ii) des paramètres d'émissions locales pour les sources urbaines, (iii) des paramètres de la topographie urbaine qui participent à la dispersion en milieu urbain et enfin (iv) des paramètres météorologiques. Le modèle construit (nommé PAP) est un modèle hybride prenant en compte les sorties d'un modèle régional déterministe CHIMERE, pour quantifier le niveau de fonds urbain, et intégre une fonction statistique de réduction d'échelle pour estimer les champs de concentrations au niveau "respirable" de la rue
Résumé anglais manquant
43

Bouju, Alain. "Etiquetage et poursuite de points caractéristiques d'un objet 3D par des méthodes connexionistes." Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la poursuite et l'étiquetage des points caractéristiques d'un objet en déplacement. Pour cet objectif nous avons fait coopérer trois réseaux connexionnistes. Nous avons d'abord utilisé un algorithme de classification non supervisé. Puis nous avons utilisé et adapté un algorithme de diagnostic pour améliorer la classification. Finalement, en nous inspirant des techniques d'optimisation utilisées pour résoudre le problème du voyageur de commerce, nous avons développé un algorithme permettant d'associer deux ensembles de points en minimisant les déformations. Nous avons utilisé avec de bons résultats ces algorithmes pour le suivi des points caractéristiques d'un avion et nous avons appliqué l'algorithme d'association de points pour différents types d'images. Nous avons fait des essais sur des images satellitaires, des images R. M. N. Et des images d'objets.
44

Malo, Alexandre. "Chargement dynamique par composants pour réseaux de capteurs adaptables." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6194.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation des réseaux de capteurs sans fil (RCSF) croît dans plusieurs domaines, dont celui des espaces intelligents. Dans un espace intelligent, les RCSF sont utilisés puisque les noeuds qui les composent se dissimulent dans l'environnement et consomment très peu d'énergie. Pour l'installation, la maintenance et la gestion des contextes, il est nécessaire de pouvoir reprogrammer un, noeud sans avoir à le redémarrer. Ce projet de recherche vise l'amélioration de la reprogrammation des RCSF en utilisant l'ingénierie logicielle basée sur les composants (ILBC). En utilisant un cadriciel hybride de composants et un format exécutable allégé, les composants dynamiques deviennent utilisables à moindres coûts. Les résultats obtenus lors de ces travaux ont été publiés dans un article de journal. Les travaux de ce projet se divisent en deux volets. Le premier volet est l'optimisation des cadriciels dynamiques de composants. Le problème est que ces derniers demandent trop de ressources et ne sont pas envisageables pour les RCSF. Afin de diminuer la surcharge en taille de l'utilisation de composants dynamiques, un concept de cadriciel hybride de composants' est proposé. Pour valider ce concept, le cadriciel NodeCom est créé et requiert aussi peu de mémoire que Contiki. NodeCom possède un noyau minimal qui est statique alors que les autres composants peuvent être statiques ou dynamiques. Le deuxième volet est l'optimisation de la reprogrammation adaptée aux RCSF avec l'ILBC. C'est en compressant. le format de fichiers exécutable qui contint les composants que la reprogrammation est optimisée. Le chargement dynamique utilisé est accéléré et la consommation énergétique du transfert de composants est diminuée. C'est le format ELF qui est modifié pour partager les composants dynamiques. Pour réduire sa taille, plusieurs sections et symboles peuvent être supprimés en raison des contraintes imposées par l'utilisation de l'ILBC. Puisque les RCSF utilisent majoritairement des microcontrôleurs 8 bits ou 16 bits, les métadonnées 32 bits du format ELF sont converties. La résultante de ces modifications est le format de composants ComELF qui permet d'obtenir des compressions de près de 50 %. À ce format, une description des composants est finalement ajoutée pour permettre une gestion automatique du chargement dynamique.
45

Morozkin, Pavel. "Design and implementation of image processing and compression algorithms for a miniature embedded eye tracking system." Thesis, Sorbonne université, 2018. http://accesdistant.upmc.fr/login?url=http://theses-intra.upmc.fr/modules/resources/download/theses/2018SORUS435.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les interactions Homme-machines (IHM) deviennent progressivement une partie intégrante de notre futur. Parmi eux, les systèmes embarqués d’oculométrie permettent à l'utilisateur d’interagir avec les objets placés dans un environnement connu, par l'utilisation les mouvements naturels des yeux. La solution mobile d’oculométrie EyeDee™ (développée par SuriCog) est un exemple précis de produit basé sur l’IHM. Elle inclut un système portable filaire ou sans fil Weetsy™ composé d’une monture Weetsy™ et d’une carte électronique Weetsy™, d’un capteur intelligent à distance π-Box™ et d’une unité de traitement basé sur un PC exécutant le logiciel SuriDev (analyse des mouvements des yeux, détection de la position de la tête et estimation du regard) qui délivre les résultats en temps réel à une application du client via SuriSDK™ (Software Development Kit, Kit de Développement Logiciel). En raison du caractère portable du système d’oculométrie développé il faut se conformer à certaines contraintes. Les plus importantes sont : une faible consommation d'énergie, un faible dégagement de chaleur, un faible rayonnement électromagnétique, un nombre limité d’instructions par seconde (MIPS – Million Instructions Per Second), ainsi qu’un support de transmission sans fil de données de l’œil. Par rapport à l'état-de-l'art des systèmes de compression d'images employés généralement, il est possible de construire de toutes nouvelles méthodes, approches et algorithmes de traitement d’images et de compression spécialisées à l’application de l’analyse des mouvements des yeux. Développement et implémentation de ces méthodes, approches et algorithmes sont les objectifs de la thèse
Human-Machine Interaction (HMI) progressively becomes a part of coming future. Being an example of HMI, embedded eye tracking systems allow user to interact with objects placed in a known environment by using natural eye movements. The EyeDee™ portable eye tracking solution (developed by SuriCog) is an example of an HMI-based product, which includes Weetsy™ portable wire/wireless system (including Weetsy™ frame and Weetsy™ board), π-Box™ remote smart sensor and PC-based processing unit running SuriDev eye/head tracking and gaze estimation software, delivering its result in real time to a client’s application through SuriSDK (Software Development Kit). Due to wearable form factor developed eye-tracking system must conform to certain constraints, where the most important are low power consumption, low heat generation low electromagnetic radiation, low MIPS (Million Instructions per Second), as well as support wireless eye data transmission and be space efficient in general. Eye image acquisition, finding of the eye pupil ROI (Region Of Interest), compression of ROI and its wireless transmission in compressed form over a medium are very beginning steps of the entire eye tracking algorithm targeted on finding coordinates of human eye pupil. Therefore, it is necessary to reach the highest performance possible at each step in the entire chain. In contrast with state-of-the-art general-purpose image compression systems, it is possible to construct an entire new eye tracking application-specific image processing and compression methods, approaches and algorithms, design and implementation of which are the goal of this thesis
46

Cappelaere, Charles-Henri. "Estimation du risque de mort subite par arrêt cardiaque a l'aide de méthodes d'apprentissage artificiel." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque de mort subite. Nombre de ces implantations semblent prématurées, ce qui pose problème en raison des complications post-opératoires encourues. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients.Le pouvoir prédictif de mort subite des différents descripteurs du Holter a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs du Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. À l'aide de connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, par une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque, des patients pour lesquels l'implantation ne paraît pas opportune.Au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs
Implantable cardioverter defibrillators (ICD) have been prescribed for prophylaxis since the early 2000?s, for patients at high risk of SCD. Unfortunately, most implantations to date appear unnecessary. This result raises an important issue because of the perioperative and postoperative risks. Thus, it is important to improve the selection of the candidates to ICD implantation in primary prevention. Risk stratification for SCD based on Holter recordings has been extensively performed in the past, without resulting in a significant improvement of the selection of candidates to ICD implantation. The present report describes a nonlinear multivariate analysis of Holter recording indices. We computed all the descriptors available in the Holter recordings present in our database. The latter consisted of labelled Holter recordings of patients equipped with an ICD in primary prevention, a fraction of these patients received at least one appropriate therapy from their ICD during a 6-month follow-up. Based on physiological knowledge on arrhythmogenesis, feature selection was performed, and an innovative procedure of classifier design and evaluation was proposed. The classifier is intended to discriminate patients who are really at risk of sudden death from patients for whom ICD implantation does not seem necessary. In addition, we designed an ad hoc classifier that capitalizes on prior knowledge on arrhythmogenesis. We conclude that improving prophylactic ICD-implantation candidate selection by automatic classification from Holter recording features may be possible. Nevertheless, that statement should be supported by the study of a more extensive and appropriate database
47

Abou, Rjeily Yves. "Management and sustainability of urban drainage systems within smart cities." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10085/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail présente le Contrôle en Temps Réel (CTR) des Réseaux d’Assainissement (RA) dans le cadre des villes intelligentes. Le CTR nécessite de comprendre le fonctionnement du RA et d'effectuer des simulations sur des évènements mesurés, prévus et synthétiques. Par conséquent, un système de Surveillance en Temps Réel (STR) a été installé sur le site expérimental, et combinée à un modèle de simulation. Une méthode d'auto-calage des modèles hydrauliques et un système de prévision des conditions aux limites, ont été développés. Visant à protéger les citoyens et d'atténuer les conséquences des inondations, le CTR est composé d'un système de prévision des inondations suivi d'une gestion dynamique. Le concept et les méthodes proposés ont été appliqués sur le campus de l'Université de Lille 1, au sein du projet SunRise. STR a été trouvé très utile pour comprendre le fonctionnement du RA et pour le calage du modèle de simulation. L'Algorithme Génétique suivi par Pattern Search ont formé une procédure d'auto-calage efficace. NARX Neural Network a été développé et validé pour la prévision des conditions aux limites. Une fois l’opération du RA est analysée, le CTR a été développé. NARX Neural Network a été trouvé capable de prévoir les inondations. Une gestion dynamique pour augmenter la capacité de rétention du réservoir, a été étudiée sur la base du calcul de la variation temporaire de l’ouverture d’une vanne, et les résultats ont été satisfaisants en utilisant l'Algorithme Génétique et l’Algorithme des Abeilles, comme méthodes d'optimisation. Une gestion qualitative a également été examinée et testée pour vérifier son potentiel dans la réduction des volumes d'inondation
This work presents the Real Time Control (RTC) of Urban Drainage Systems (UDS) within smart cities. RTC requires to understand the UDS operation and to perform simulations on measured, forecasted and synthetic events. Therefore, a Real Time Monitoring system (RTM) was implemented on the experimental site, and combined to a simulation model. A model auto-calibration process and hydraulic boundary conditions forecast system were developed, in order to simulate the hydrologic-hydraulic response. Aiming to protect the citizens and mitigate flooding consequences, the RTC was composed of a flooding forecast system followed by a dynamic management strategy. The proposed concept and methodologies were applied and evaluated on the Lille 1 University Campus, within the SunRise project. RTM was found very helpful in understanding the system operation and calibrating the simulation model. Genetic Algorithm followed by Pattern Search formed an effective auto-calibration procedure for the simulation model. NARX Neural Network was developed and validated for forecasting hydraulic boundary conditions. Once understanding the UDS operations, the RTC was developed. NARX Neural Network was found capable to forecast flooding events. A dynamic management for increasing a tank retention capacity, was studied based on calculating a Valve State Schedule, and results were satisfying by using Genetic Algorithm and a modified form of Artificial Bee Colony, as optimization methods. A qualitative management was also proposed and tested for verifying its potential in reducing flooding volumes
48

Dambreville, Romain. "Prévision du rayonnement solaire global par télédétection pour la gestion de la production d’énergie photovoltaïque." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT078/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intégration des énergies intermittentes sur le réseau électrique existant soulèvedes problèmes de stabilité de la balance consommation/production. Afin de limiter les risques,la loi autorise un taux de pénétration maximum de ces énergies de 30% de la puissanceinstallée. Afin de pallier cette limitation, deux pistes sont envisagées, le stockage d’énergie etla prévision de production. Les travaux menés dans cette thèse s’inscrivent dans la secondecatégorie et se concentrent sur la prévision du rayonnement global au sol, ressource principaledes systèmes de production d’énergie photovoltaïque. Dans l’objectif d’une prévision à trèscourt terme (infra-horaire), la problématique développée concerne la fusion d’informationsprovenant d’une part d’observations satellitaires et de l’autre d’observations in-situ telles quedes images hémisphériques. L’approche suivie se veut progressive et s’articule autour de 4grand axes. Le premier chapitre énonce les définitions et les enjeux principaux liés à l’étudedu GHI en décrivant les différents facteurs physiques ayant des interactions sur sa mesure. Lesecond chapitre permet d’évaluer le potentiel des images hémisphériques pour l’estimation durayonnement global. On y développe une méthode d’estimation du GHI basée sur l’utilisationd’un réseau de neurones artificiels permettant d’effectuer une régression non linéaire entre descaractéristiques choisie de l’image et le rayonnement mesuré sur site par un pyranomètre. Letroisième chapitre concerne l’utilisation des images satellitaires pour la prévision à très courtterme du rayonnement global. L’originalité des méthodes proposées provient de l’utilisationen entrées de cartes de rayonnement dérivées des images satellitaires via une méthode externe.L’utilisation de ces cartes de rayonnement permet la construction de modèles linéairessimples (modèles auto-régressifs) grâce à l’homogénéité des données utilisées. Cependant,leur pertinence pour le calcul de champ de vecteurs a également été prouvé et validé dans unsecond modèle. La comparaison des deux modèles ainsi créés à partir d’imagerie satellitairea permis de caractériser les forces et faiblesses de ces modèles. L’intérêt de l’observationsatellitaire réside dans l’anticipation du déplacement des masses nuageuse. Cependant, unbiais non systématique persiste dans la conversion des valeurs des pixels en rayonnement.Ce biais est inhérent à la résolution spatio-temporelle de ces observations. Étant donné cesconsidérations, le chapitre 4 présente alors une méthode d’intégration des données acquisespar l’imagerie hémisphérique, disposant une meilleure résolution spatio-temporelle, dans lesrésultats de prévision satellitaires précédemment évoqués. On joint alors les caractéristiquesretenues au chapitre 2 dans un réseau de neurone avec la prévision pour produire uneprévision dont le biais est largement réduit. L’utilisation de caractéristiques dérivées del’imagerie hémisphérique à la place de simple mesures du pyranomètre est justifiée par l’effetde persistance non souhaité apportées par ces dernières. Ainsi, après avoir étudié chaquesource d’information séparément, on a pu développer un modèle leur permettant de secompléter
To handle the integration of intermittent energies to the existing grid,managers require more and more acurate tools to forecast the primary resources. This thesisfocuses on the very short term forecast of the global horizontal irradiance (GHI), maininput for most photovoltaic power plant. We chose to use both ground based images fromhemispherical cameras and satellite images to provide a forecating tool. In the first handwe present a novel appraoch to estimate the GHI using ground based images. On secondhand, we propose several satellite based methods to forecast the GHI up to one hour. Finally,we developp a new method allowing us to merge both data in order to benefit from theirrespective advantages. All the methods were tested against real data acquired on the SIRTAsite, Polytechnique campus
49

Belhadj-Mohamed, Bilel. "Systèmes neuromorphiques temps réel : contribution à l’intégration de réseaux de neurones biologiquement réalistes avec fonctions de plasticité." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14051/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’intègre dans le cadre du projet Européen FACETS. Pour ce projet, des systèmes matériels mixtes analogique-numérique effectuant des simulations en temps réel des réseaux de neurones doivent être développés. Le but est d’aider à la compréhension des phénomènes d’apprentissage dans le néocortex. Des circuits intégrés spécifiques analogiques ont préalablement été conçus par l’équipe pour simuler le comportement de plusieurs types de neurones selon le formalisme de Hodgkin-Huxley. La contribution de cette thèse consiste à la conception et la réalisation des circuits numériques permettant de gérer la connectivité entre les cellules au sein du réseau de neurones, suivant les règles de plasticité configurées par l’utilisateur. L’implantation de ces règles est réalisée sur des circuits numériques programmables (FPGA) et est optimisée pour assurer un fonctionnement temps réel pour des réseaux de grande taille. Des nouvelles méthodes de calculs et de communication ont été développées pour satisfaire les contraintes temporelles et spatiales imposées par le degré de réalisme souhaité. Entre autres, un protocole de communication basé sur la technique anneau à jeton a été conçu pour assurer le dialogue entre plusieurs FPGAs situés dans un système multicarte tout en garantissant l’aspect temps-réel des simulations. Les systèmes ainsi développés seront exploités par les laboratoires partenaires, neurobiologistes ou informaticiens
This work has been supported by the European FACETS project. Within this project, we contribute in developing hardware mixed-signal devices for real-time spiking neural network simulation. These devices may potentially contribute to an improved understanding of learning phenomena in the neo-cortex. Neuron behaviours are reproduced using analog integrated circuits which implement Hodgkin-Huxley based models. In this work, we propose a digital architecture aiming to connect many neuron circuits together, forming a network. The inter-neuron connections are reconfigurable and can be ruled by a plasticity model. The architecture is mapped onto a commercial programmable circuit (FPGA). Many methods are developed to optimize the utilisation of hardware resources as well as to meet real-time constraints. In particular, a token-passing communication protocol has been designed and developed to guarantee real-time aspects of the dialogue between several FPGAs in a multiboard system allowing the integration of a large number of neurons. The global system is able to run neural simulations in biological real-time with high degree of realism, and then can be used by neurobiologists and computer scientists to carry on neural experiments
50

Lafont, Damien. "Prise en compte des hétérogénéités dans la restitution de l'eau nuageuse et des précipitations par radiométrie micro-onde passive." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2005. http://tel.archives-ouvertes.fr/tel-00009275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'observation par satellites des précipitations grâce aux radiomètres micro-ondes (MW) constitue l'une des bases de l'étude du climat. Cependant, le remplissage partiel du champ de vision des radiomètres conduit à des sous-estimations des taux de pluies retrouvés (beam-filling effect, BFE). A partir de simulations (nuages et rayonnement), la relation BFE-couverture nuageuse fractionnaire sous-pixel (CF) est étudiée. Les résultats montrent une dépendance avec le type de nuage et un maximum pour une faible couverture. CF étant le principal facteur à prendre en compte pour une correction des estimations par MW, un couplage température de brillance micro-onde-CF en entrée d'un algorithme par réseaux de neurones est effectué. Pour tester cette approche, des données satellites MW, radar et IR sont utilisées, puis deux couvertures sous-pixel (dérivées des mesures IR et radar) sont combinées aux TB. Les résultats sont encourageants et montrent l'avantage d'une synergie entre différents capteurs. Dans l'optique d'une classification intégrée aux restitutions, une méthode a été développée à méso-échelle. La classification est obtenue à partir de données IR et ne nécessite pas de seuil ciel clair / ciel nuageux.

To the bibliography