Добірка наукової літератури з теми "Systèmes embarqués (informatique) – Apprentissage automatique"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Systèmes embarqués (informatique) – Apprentissage automatique".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Дисертації з теми "Systèmes embarqués (informatique) – Apprentissage automatique":

1

Ouairy, Léopold. "Analyse des vulnérabilités dans des systèmes embarqués face à des attaques par fuzzing." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, les cartes à puces sont utilisées quotidiennement. Elles nous permettent par exemple d'effectuer des paiements ou encore de signer des documents numériques. Parce que les cartes à puces contiennent des informations personnelles et sensibles relatives à leur propriétaire légitime, elles sont convoitées par les attaquants. En particulier, ces attaquants peuvent utiliser le fuzzing. Cette attaque consiste à tester le plus de messages de communication possible avec un programme afin de pouvoir détecter des vulnérabilités. Cette thèse vise à protéger les cartes à puces face aux attaques par fuzzing. Deux approches de détection automatique d'erreurs d'implémentation sont proposées. La première, est l'adaptation pour Java et son amélioration d'un outil issu de l'état de l'art. Il repose sur une technique de fouille de code sources automatique. La seconde approche est également basée sur la fouille de code sources, en prenant en compte les limites de la première. En particulier, la précision et la réduction des dimensions est améliorée par l'utilisation de techniques issues du Traitement Automatique du Langage Naturel. De plus, une étude des techniques de plagiat augmente la robustesse de l'analyse face aux différences d'implémentation des applets. Cette même approche effectue une analyse inter-procédurale du graphe de flot de contrôle des applets, lui permettant de réduire le nombre de faux positifs lors de la détection d'anomalies. Les deux approches sont évaluées sur deux points: leur capacité à retrouver des méthodes de sémantique similaire, ainsi que sur leur capacité à détecter des anomalies. Cette évaluation repose sur trois oracles construits manuellement à partir de programmes AES et d'applets OpenPGP. Les résultats montrent que la seconde approche permet de détecter des vulnérabilités avec plus de précision, de rappel, et en moins de temps que la première approche. Aussi, son implémentation nommée Confiance pourrait être utilisé en entreprise pour sécuriser des applets
Nowadays, smart cards are used daily. They enable users to pay or sign numeric documents for example. Because they contain sensible information about their user and secrets, attackers are interested in them. In particular, these attackers can use fuzzing. This attack consists in sending the most possible communication messages to a program in order to detect its vulnerabilities. This thesis aims at protecting smart cards against fuzzing. Two approaches for detecting implementation errors are proposed. The first one is from the state of the art, and it is adapted and improved for Java. It is based on an automated source code analysis. The second approach analyses source codes too, but it takes into account limitations of the first one. In particular, the precision and the dimension reduction is improved by using Natural Language Processing techniques. In addition, it studies plagiarsm techniques in order to reinforce its analysis against different implementations choices. An inter-procedural of the control flow graph is achieved for reducing the false positives. Both approaches are evaluated against three manually created oracles from OpenPGP and AES implementations for the neighborhood discovery and the anomaly detection. Results show that the second approach is improved in precision, recall and with less execution time than the first one. Its implementation, Confiance can be used in companies to secure source codes
2

Godin, Christelle. "Contributions à l'embarquabilité et à la robustesse des réseaux de neurones en environnement radiatif : apprentissage constructif : neurones à impulsions." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2000. http://www.theses.fr/2000ESAE0013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux de neurones et plus particulièrement les perceptrons multi-couches sont aujourd'hui largement utilisés pour des tâches de classification. L'environnement radiatif, hostile pour les équipements électroniques, provoque des modifications de leur fonctionnement. Cette thèse explore deux voies dans le but d'obtenir des réseaux de neurones robustes destinés à être embarqués dans des systèmes fonctionnant en environnement radiatif. La première approche est basée sur un nouvel algorithme d'apprentissage constructif, appelé NetLS, qui est une généralisation des algorithmes NetLines et Net Spheres. Nous montrons sur des problèmes étalons qu'il permet d'aboutir à des réseaux de neurones binaires de très petite taille alors que d'autres algorithmes conduisent à des classifieurs bien plus complexes pour des performances équivalentes. La seconde approche consiste à utiliser un nouveau modèle de neurone à impulsions pour l'implantation de neurones à fonction de réponse continue. Ainsi, n'importe quel algorithme d'apprentissage classique (rétropropagation et ses variantes) peut être utilisé et le réseau de neurones obtenu peut fonctionner avec ces neurones à impulsions. Dans ces conditions, nous montrons que lors de la relaxation du réseau les performances augmentent au cours du temps jusqu'à atteindre celles du réseau de neurones continus. Ainsi, si une erreur se produit au cours du calcul, l'information disponible peut représenter une partie du résultat. Une architecture numérique pour ce neurone est proposée et évaluée. La surface occupée sur le silicium est 10 fois inférieure à celle nécessaire pour implanter une neurone continu. Ces deux approches conduisent à des réseaux de neurones de faible surface : la probabilité d'une erreur due aux radiations est minimisée. Ils ont été confrontés à des problèmes de détection de signaux radar de deux types, les premiers étant générés par un modèle, et les seconds des échos ionosphériques mesurés par le radar du projet EISCAT (European Incoherent SCATter).
3

Allenet, Thibault. "Quantization and adversarial robustness of embedded deep neural networks." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/5f524c49-7a4a-4724-ae77-9afe383b7c3c.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux de neurones convolutifs et les réseaux neurones récurrents (RNN) ont été largement utilisés dans de nombreux domaines tels que la vision par ordinateur, le traitement naturel du langage et le traitement du signal. Néanmoins, la charge de calcul et le besoin en bande passante mémoire impliqués dans l'inférence des réseaux de neurones profonds empêchent souvent leur déploiement sur des cibles embarquées à faible ressources. De plus, la vulnérabilité des réseaux de neurones profonds à de petites perturbations sur les entrées remet en question leur déploiement pour des applications impliquant des décisions de haute criticité. Pour relever ces défis, cette thèse propose deux principales contributions. D'une part, nous proposons des méthodes de compression pour rendre les réseaux de neurones profonds plus adaptés aux systèmes embarqués ayant de faibles ressources. D'autre part, nous proposons une nouvelle stratégie pour rendre les réseaux de neurones profonds plus robustes aux attaques adverses en tenant compte des ressources limitées des systèmes embarqués. Dans un premier temps, nous présentons une revue de la littérature sur des principes et des outils de bases de l'apprentissage profond, des types de réseaux de neurones reconnus et un état de l'art sur des méthodes de compression de réseaux de neurones. Ensuite, nous présentons deux contributions autour de la compression des réseaux de neurones profonds : une étude de transférabilité du Lottery Ticket sur les RNN et une méthode de quantification à l’apprentissage. L’étude de transférabilité du Lottery Ticket sur les RNN analyse la convergence des RNN et étudie son impact sur l'élagage des paramètres pour des taches de classification d'images et de modélisation du langage. Nous proposons aussi une méthode de prétraitement basée sur le sous-échantillonnage des données qui permet une convergence plus rapide des LSTM tout en préservant les performances applicatives. Avec la méthode Disentangled Loss Quantization Aware Training (DL-QAT), nous proposons d'améliorer une méthode de quantification avancée avec des fonctions de coût favorables à la quantification afin d'atteindre des paramètres binaires. Les expériences sur ImageNet-1k avec DL-QAT montrent une amélioration de près de 1 % sur la précision du score de ResNet-18 avec des poids binaires et des activations de 2 bits. Il apparaît clairement que DL-QAT fournit le meilleur profil du compromis entre l'empreinte mémoire et la performance applicative. Ce travail étudie ensuite la robustesse des réseaux de neurones face aux attaques adverses. Après avoir présenté l'état de l'art sur les attaques adverses et les mécanismes de défense, nous proposons le mécanisme de défense Ensemble Hash Defense (EHD). EHD permet une meilleure résistance aux attaques adverses basées sur l'approximation du gradient tout en préservant les performances de l'application et en ne nécessitant qu'une surcharge de mémoire au moment de l'inférence. Dans la meilleure configuration, notre système réalise des gains de robustesse significatifs par rapport aux modèles de base et à une approche de robustesse basée sur la fonction de coût. De plus, le principe de l'EHD la rend complémentaire à d'autres méthodes d'optimisation robuste qui permettraient d'améliorer encore la robustesse du système final. Dans la perspective de l'inférence sur cible embarquée, la surcharge mémoire introduite par l'EHD peut être réduite par la quantification ou le partage de poids. En conclusion, les travaux de cette thèse ont proposé des méthodes de compression de réseaux de neurones et un système de défense pour résoudre des défis importants, à savoir comment rendre les réseaux de neurones profonds plus robustes face aux attaques adverses et plus faciles à déployer sur les plateformes à ressources limitées. Ces travaux réduisent davantage l'écart entre l'état de l'art des réseaux neurones profonds et leur exécution sur des cibles embarquées à faible ressources
Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs) have been broadly used in many fields such as computer vision, natural language processing and signal processing. Nevertheless, the computational workload and the heavy memory bandwidth involved in deep neural networks inference often prevents their deployment on low-power embedded devices. Moreover, deep neural networks vulnerability towards small input perturbations questions their deployment for applications involving high criticality decisions. This PhD research project objective is twofold. On the one hand, it proposes compression methods to make deep neural networks more suitable for embedded systems with low computing resources and memory requirements. On the other hand, it proposes a new strategy to make deep neural networks more robust towards attacks based on crafted inputs with the perspective to infer on edge. We begin by introducing common concepts for training neural networks, convolutional neural networks, recurrent neural networks and review the state of the art neural on deep neural networks compression methods. After this literature review we present two main contributions on compressing deep neural networks: an investigation of lottery tickets on RNNs and Disentangled Loss Quantization Aware Training (DL-QAT) on CNNs. The investigation of lottery tickets on RNNs analyze the convergence of RNNs and study its impact when subject to pruning on image classification and language modelling. Then we present a pre-processing method based on data sub-sampling that enables faster convergence of LSTM while preserving application performance. With the Disentangled Loss Quantization Aware Training (DL-QAT) method, we propose to further improve an advanced quantization method with quantization friendly loss functions to reach low bit settings like binary parameters where the application performance is the most impacted. Experiments on ImageNet-1k with DL-QAT show improvements by nearly 1\% on the top-1 accuracy of ResNet-18 with binary weights and 2-bit activations, and also show the best profile of memory footprint over accuracy when compared with other state-of-the art methods. This work then studies neural networks robustness toward adversarial attacks. After introducing the state of the art on adversarial attacks and defense mechanisms, we propose the Ensemble Hash Defense (EHD) defense mechanism. EHD enables better resilience to adversarial attacks based on gradient approximation while preserving application performance and only requiring a memory overhead at inference time. In the best configuration, our system achieves significant robustness gains compared to baseline models and a loss function-driven approach. Moreover, the principle of EHD makes it complementary to other robust optimization methods that would further enhance the robustness of the final system and compression methods. With the perspective of edge inference, the memory overhead introduced by EHD can be reduced with quantization or weight sharing. The contributions in this thesis have concerned optimization methods and a defense system to solve an important challenge, that is, how to make deep neural networks more robust towards adversarial attacks and easier to deployed on the resource limited platforms. This work further reduces the gap between state of the art deep neural networks and their execution on edge devices
4

Ramu, Jean-Philippe. "Efficience d'une documentation opérationnelle contextuelle sur la performance des pilotes de transport aérien." Toulouse, ISAE, 2008. http://www.theses.fr/2008ESAE0020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La documentation a rencontré des changements radicaux au cours de cette dernière décennie. Un pas important a été franchi avec l'avènement de la documentation en format électronique. La documentation opérationnelle aéronautique est elle aussi de plus en plus disponible en format électronique, et offre de nouvelles opportunités d'utilité et des défis d'utilisabilité. Nous nous attachons à étudier comment cette documentation peut être développée pour répondre à cette évolution. Grâce à une modélisation cognitive de la tâche de recherche d'information, nous catégorisons puis discutons les activités documentaires des pilotes telles que : support de performance, aide à la préparation ou entraînement. Dans ces différentes activités, l’interactivité entre le pilote et la documentation présuppose une notion de pertinence de l'information choisie. Nous utilisons la notion de contexte comme référentiel de pertinence. Notre modélisation du contexte est composée de trois catégories de descripteurs sémantiques, qui sont : les tâches, les conditions et les ressources. L'articulation de ces trois catégories de contexte définit l'ensemble des situations décrites dans la documentation aéronautique. La thèse met en application les propositions de notre modélisation en utilisant une approche centrée utilisateur. D'abord, un questionnaire sur l'utilisation de la documentation illustre les besoins des pilotes. Ensuite, deux cycles de conceptions/évaluations d'un prototype de documentation contextuelle permettent de spécifier une méthode de contextualisation de la documentation, ainsi que de proposer des interactions susceptibles de supporter les catégories d'activités documentaires des pilotes.
5

Emteu, Tchagou Serge Vladimir. "Réduction à la volée du volume des traces d'exécution pour l'analyse d'applications multimédia de systèmes embarqués." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM051/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le marché de l'électronique grand public est dominé par les systèmes embarqués du fait de leur puissance de calcul toujours croissante et des nombreuses fonctionnalités qu'ils proposent.Pour procurer de telles caractéristiques, les architectures des systèmes embarqués sont devenues de plus en plus complexes (pluralité et hétérogénéité des unités de traitements, exécution concurrente des tâches, ...).Cette complexité a fortement influencé leur programmabilité au point où rendre difficile la compréhension de l'exécution d'une application sur ces architectures.L'approche la plus utilisée actuellement pour l'analyse de l'exécution des applications sur les systèmes embarqués est la capture des traces d'exécution (séquences d'événements, tels que les appels systèmes ou les changements de contexte, générés pendant l'exécution des applications).Cette approche est utilisée lors des activités de test, débogage ou de profilage des applications.Toutefois, suivant certains cas d'utilisation, les traces d'exécution générées peuvent devenir très volumineuses, de l'ordre de plusieurs centaines de gigaoctets.C'est le cas des tests d'endurance ou encore des tests de validation, qui consistent à tracer l'exécution d'une application sur un système embarqué pendant de longues périodes, allant de plusieurs heures à plusieurs jours.Les outils et méthodes d'analyse de traces d'exécution actuels ne sont pas conçus pour traiter de telles quantités de données.Nous proposons une approche de réduction du volume de trace enregistrée à travers une analyse à la volée de la trace durant sa capture.Notre approche repose sur les spécificités des applications multimédia, qui sont parmi les plus importantes pour le succès des dispositifs populaires comme les Set-top boxes ou les smartphones.Notre approche a pour but de détecter automatiquement les fragments (périodes) suspectes de l'exécution d'une application afin de n'enregistrer que les parties de la trace correspondant à ces périodes d'activités.L'approche que nous proposons comporte deux étapes : une étape d'apprentissage qui consiste à découvrir les comportements réguliers de l'application à partir de la trace d'exécution, et une étape de détection d'anomalies qui consiste à identifier les comportements déviant des comportements réguliers.Les nombreuses expériences, réalisées sur des données synthétiques et des données réelles, montrent que notre approche permet d'obtenir une réduction du volume de trace enregistrée d'un ordre de grandeur avec d'excellentes performances de détection des comportements suspects
The consumer electronics market is dominated by embedded systems due to their ever-increasing processing power and the large number of functionnalities they offer.To provide such features, architectures of embedded systems have increased in complexity: they rely on several heterogeneous processing units, and allow concurrent tasks execution.This complexity degrades the programmability of embedded system architectures and makes application execution difficult to understand on such systems.The most used approach for analyzing application execution on embedded systems consists in capturing execution traces (event sequences, such as system call invocations or context switch, generated during application execution).This approach is used in application testing, debugging or profiling.However in some use cases, execution traces generated can be very large, up to several hundreds of gigabytes.For example endurance tests, which are tests consisting in tracing execution of an application on an embedded system during long periods, from several hours to several days.Current tools and methods for analyzing execution traces are not designed to handle such amounts of data.We propose an approach for monitoring an application execution by analyzing traces on the fly in order to reduce the volume of recorded trace.Our approach is based on features of multimedia applications which contribute the most to the success of popular devices such as set-top boxes or smartphones.This approach consists in identifying automatically the suspicious periods of an application execution in order to record only the parts of traces which correspond to these periods.The proposed approach consists of two steps: a learning step which discovers regular behaviors of an application from its execution trace, and an anomaly detection step which identifies behaviors deviating from the regular ones.The many experiments, performed on synthetic and real-life datasets, show that our approach reduces the trace size by an order of magnitude while maintaining a good performance in detecting suspicious behaviors
6

Bahl, Gaétan. "Architectures deep learning pour l'analyse d'images satellite embarquée." Thesis, Université Côte d'Azur, 2022. https://tel.archives-ouvertes.fr/tel-03789667.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès des satellites d'observation de la Terre à haute résolution et la réduction des temps de revisite introduite par la création de constellations de satellites ont conduit à la création quotidienne de grandes quantités d'images (des centaines de Teraoctets par jour). Simultanément, la popularisation des techniques de Deep Learning a permis le développement d'architectures capables d'extraire le contenu sémantique des images. Bien que ces algorithmes nécessitent généralement l'utilisation de matériel puissant, des accélérateurs d'inférence IA de faible puissance ont récemment été développés et ont le potentiel d'être utilisés dans les prochaines générations de satellites, ouvrant ainsi la possibilité d'une analyse embarquée des images satellite. En extrayant les informations intéressantes des images satellite directement à bord, il est possible de réduire considérablement l'utilisation de la bande passante, du stockage et de la mémoire. Les applications actuelles et futures, telles que la réponse aux catastrophes, l'agriculture de précision et la surveillance du climat, bénéficieraient d'une latence de traitement plus faible, voire d'alertes en temps réel.Dans cette thèse, notre objectif est double : D'une part, nous concevons des architectures de Deep Learning efficaces, capables de fonctionner sur des périphériques de faible puissance, tels que des satellites ou des drones, tout en conservant une précision suffisante. D'autre part, nous concevons nos algorithmes en gardant à l'esprit l'importance d'avoir une sortie compacte qui peut être efficacement calculée, stockée, transmise au sol ou à d'autres satellites dans une constellation.Tout d'abord, en utilisant des convolutions séparables en profondeur et des réseaux neuronaux récurrents convolutionnels, nous concevons des réseaux neuronaux de segmentation sémantique efficaces avec un faible nombre de paramètres et une faible utilisation de la mémoire. Nous appliquons ces architectures à la segmentation des nuages et des forêts dans les images satellites. Nous concevons également une architecture spécifique pour la segmentation des nuages sur le FPGA d'OPS-SAT, un satellite lancé par l'ESA en 2019, et réalisons des expériences à bord à distance. Deuxièmement, nous développons une architecture de segmentation d'instance pour la régression de contours lisses basée sur une représentation à coefficients de Fourier, qui permet de stocker et de transmettre efficacement les formes des objets détectés. Nous évaluons la performance de notre méthode sur une variété de dispositifs informatiques à faible puissance. Enfin, nous proposons une architecture d'extraction de graphes routiers basée sur une combinaison de Fully Convolutional Networks et de Graph Neural Networks. Nous montrons que notre méthode est nettement plus rapide que les méthodes concurrentes, tout en conservant une bonne précision
The recent advances in high-resolution Earth observation satellites and the reduction in revisit times introduced by the creation of constellations of satellites has led to the daily creation of large amounts of image data hundreds of TeraBytes per day). Simultaneously, the popularization of Deep Learning techniques allowed the development of architectures capable of extracting semantic content from images. While these algorithms usually require the use of powerful hardware, low-power AI inference accelerators have recently been developed and have the potential to be used in the next generations of satellites, thus opening the possibility of onboard analysis of satellite imagery. By extracting the information of interest from satellite images directly onboard, a substantial reduction in bandwidth, storage and memory usage can be achieved. Current and future applications, such as disaster response, precision agriculture and climate monitoring, would benefit from a lower processing latency and even real-time alerts.In this thesis, our goal is two-fold: On the one hand, we design efficient Deep Learning architectures that are able to run on low-power edge devices, such as satellites or drones, while retaining a sufficient accuracy. On the other hand, we design our algorithms while keeping in mind the importance of having a compact output that can be efficiently computed, stored, transmitted to the ground or other satellites within a constellation.First, by using depth-wise separable convolutions and convolutional recurrent neural networks, we design efficient semantic segmentation neural networks with a low number of parameters and a low memory usage. We apply these architectures to cloud and forest segmentation in satellite images. We also specifically design an architecture for cloud segmentation on the FPGA of OPS-SAT, a satellite launched by ESA in 2019, and perform onboard experiments remotely. Second, we develop an instance segmentation architecture for the regression of smooth contours based on the Fourier coefficient representation, which allows detected object shapes to be stored and transmitted efficiently. We evaluate the performance of our method on a variety of low-power computing devices. Finally, we propose a road graph extraction architecture based on a combination of fully convolutional and graph neural networks. We show that our method is significantly faster than competing methods, while retaining a good accuracy
7

Morozkin, Pavel. "Design and implementation of image processing and compression algorithms for a miniature embedded eye tracking system." Thesis, Sorbonne université, 2018. http://accesdistant.upmc.fr/login?url=http://theses-intra.upmc.fr/modules/resources/download/theses/2018SORUS435.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les interactions Homme-machines (IHM) deviennent progressivement une partie intégrante de notre futur. Parmi eux, les systèmes embarqués d’oculométrie permettent à l'utilisateur d’interagir avec les objets placés dans un environnement connu, par l'utilisation les mouvements naturels des yeux. La solution mobile d’oculométrie EyeDee™ (développée par SuriCog) est un exemple précis de produit basé sur l’IHM. Elle inclut un système portable filaire ou sans fil Weetsy™ composé d’une monture Weetsy™ et d’une carte électronique Weetsy™, d’un capteur intelligent à distance π-Box™ et d’une unité de traitement basé sur un PC exécutant le logiciel SuriDev (analyse des mouvements des yeux, détection de la position de la tête et estimation du regard) qui délivre les résultats en temps réel à une application du client via SuriSDK™ (Software Development Kit, Kit de Développement Logiciel). En raison du caractère portable du système d’oculométrie développé il faut se conformer à certaines contraintes. Les plus importantes sont : une faible consommation d'énergie, un faible dégagement de chaleur, un faible rayonnement électromagnétique, un nombre limité d’instructions par seconde (MIPS – Million Instructions Per Second), ainsi qu’un support de transmission sans fil de données de l’œil. Par rapport à l'état-de-l'art des systèmes de compression d'images employés généralement, il est possible de construire de toutes nouvelles méthodes, approches et algorithmes de traitement d’images et de compression spécialisées à l’application de l’analyse des mouvements des yeux. Développement et implémentation de ces méthodes, approches et algorithmes sont les objectifs de la thèse
Human-Machine Interaction (HMI) progressively becomes a part of coming future. Being an example of HMI, embedded eye tracking systems allow user to interact with objects placed in a known environment by using natural eye movements. The EyeDee™ portable eye tracking solution (developed by SuriCog) is an example of an HMI-based product, which includes Weetsy™ portable wire/wireless system (including Weetsy™ frame and Weetsy™ board), π-Box™ remote smart sensor and PC-based processing unit running SuriDev eye/head tracking and gaze estimation software, delivering its result in real time to a client’s application through SuriSDK (Software Development Kit). Due to wearable form factor developed eye-tracking system must conform to certain constraints, where the most important are low power consumption, low heat generation low electromagnetic radiation, low MIPS (Million Instructions per Second), as well as support wireless eye data transmission and be space efficient in general. Eye image acquisition, finding of the eye pupil ROI (Region Of Interest), compression of ROI and its wireless transmission in compressed form over a medium are very beginning steps of the entire eye tracking algorithm targeted on finding coordinates of human eye pupil. Therefore, it is necessary to reach the highest performance possible at each step in the entire chain. In contrast with state-of-the-art general-purpose image compression systems, it is possible to construct an entire new eye tracking application-specific image processing and compression methods, approaches and algorithms, design and implementation of which are the goal of this thesis
8

Yang, Wenlu. "Personalized physiological-based emotion recognition and implementation on hardware." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS064.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie la reconnaissance des émotions à partir de signaux physiologiques dans le contexte des jeux vidéo et la faisabilité de sa mise en œuvre sur un système embarqué. Les défis suivants sont abordés : la relation entre les états émotionnels et les réponses physiologiques dans le contexte du jeu, les variabilités individuelles des réponses psycho-physiologiques et les problèmes de mise en œuvre sur un système embarqué. Les contributions majeures de cette thèse sont les suivantes. Premièrement, nous construisons une base de données multimodale dans le cadre de l'Affective Gaming (DAG). Cette base de données contient plusieurs mesures concernant les modalités objectives telles que les signaux physiologiques de joueurs et des évaluations subjectives sur des phases de jeu. A l'aide de cette base, nous présentons une série d'analyses effectuées pour la détection des moments marquant émotionnellement et la classification des émotions à l'aide de diverses méthodes d'apprentissage automatique. Deuxièmement, nous étudions la variabilité individuelle de la réponse émotionnelle et proposons un modèle basé sur un groupe de joueurs déterminé par un clustering selon un ensemble de traits physiologiques pertinents. Nos travaux mettent en avant le fait que le modèle proposé, basé sur un tel groupe personnalisé, est plus performant qu'un modèle général ou qu'un modèle spécifique à un utilisateur. Troisièmement, nous appliquons la méthode proposée sur un système ARM A9 et montrons que la méthode proposée peut répondre à l'exigence de temps de calcul
This thesis investigates physiological-based emotion recognition in a digital game context and the feasibility of implementing the model on an embedded system. The following chanllenges are addressed: the relationship between emotional states and physiological responses in the game context, individual variabilities of the pschophysiological responses and issues of implementation on an embedded system. The major contributions of this thesis are : Firstly, we construct a multi-modal Database for Affective Gaming (DAG). This database contains multiple measurements concerning objective modalities: physiological signals (ECG, EDA, EMG, Respiration), screen recording, and player's face recording, as well as subjective assessments on both game event and match level. We presented statistics of the database and run a series of analysis on issues such as emotional moment detection and emotion classification, influencing factors of the overall game experience using various machine learning methods. Secondly, we investigate the individual variability in the collected data by creating an user-specific model and analyzing the optimal feature set for each individual. We proposed a personalized group-based model created the similar user groups by using the clustering techniques based on physiological traits deduced from optimal feature set. We showed that the proposed personalized group-based model performs better than the general model and user-specific model. Thirdly, we implemente the proposed method on an ARM A9 system and showed that the proposed method can meet the requirement of computation time
9

Caron, François. "Conception automatique de systèmes embarqués pour la téléphonie mobile 3G." Nice, 2006. http://www.theses.fr/2006NICE4091.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Apparues pour répondre à de nouveaux besoin du marché de la téléphonie mobile, les normes de télécommunication mobile de troisième génération posent de nouveaux défis aux industriels. En effet, ces normes proposent aux utilisateurs finals une multitude de services présentant des débits de données différents. Cette caractéristique implique une complexité très importante de certains éléments composant le réseau, notamment au niveau des stations de base. Les stations de base des réseaux de troisième génération doivent être capables de traiter en parallèle l’ensemble des données émises et reçues d’une multitude d’utilisateurs communiquant en simultanés. Les travaux de thèse présentés dans ce mémoire portent sur la définition d’un nouvel outil de co-conception logicielle-matérielle. Cet outil, nommé BERLIOZ, « emBedded systEM exploRation for pipeLIned executiOn optimiZation » propose au concepteur de systèmes embarqués un ensemble de solutions architecturales aux problèmes posés par les normes de télécommunication de troisième génération comme l’UMTS par exemple. Cet outil est donc capable d’analyser des applications de type traitements du signal ayant une périodicité potentiellement inférieure à son échéance. L’exploration de l’espace de solutions est réalisée à l’aide d’une heuristique basée sur deux algorithmes génétiques. L’utilisation de ces algorithmes permet d’atteindre des solutions architecturales respectant un ensemble de contraintes comme la surface de silicium nécessaire à la réalisation d’un système sur puce. Après avoir étudié profondément une norme de troisième génération, appelée UTMS, nous avons validé notre approche sur une application représentative des problèmes industriels : la réalisation de la partie « Symbol Rate » d’une station de base UTMS
Due to new request from the market of the mobile phone, the new third generation of standards challenges designers. Actually, these standards define a multitude of services using different bitrates that the final customer can use. This capability implies a very high complexity at some points of the network, in particular for base-stations. Base stations of the third generation mobile networks should be able to process a lot of data received from and sending to a multitude of users, communicating at the same time. PhD work presented in this document is about the definition of a new software/hardware co-design tool. This tool called BERLIOZ, « emBedded systEM exploRation for pipeLIned executiOn optimiZation », offers to embedded systems designers a set of architectural solutions to the problems posed by third mobile generations standards like the UMTS. So, this tool can analyse applications of signal processing which periodicity can be shorter than their deadlines. The computation of solutions is done with the help of a heuristic composed of two genetic algorithms. The use of these algorithms allows to achieve solutions matching a set of constraints like the silicium area of a system. After the deep study of third generation standard called UMTS, we have validated our approach on a real industrial application : the design of the “Symbol rate” part of a UMTS base-station
10

Lévy, Christophe. "Modèles acoustiques compacts pour les systèmes embarqués." Avignon, 2006. http://www.theses.fr/2006AVIG0143.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis le lancement des téléphones portables au milieu des années 90,leurs ventes n'ont cessé de progresser. Leur taille, comme celle de l'ensemble des systèmes embarqués (téléphone, GPS, PDA. . . ), a constamment été réduite, quand, dans le même temps, le nombre de services offerts n'a fait qu'augmenter. D'une manière générale, la plupart des systèmes embarqués offre aujourd'hui une interface homme-machine complexe et peu conviviale. L'intégration d'un moteur de reconnaissance de la parole dans ces systèmes offre une voie intéressante pour améliorer leurergonomie. Cette thèse s'inscrit dans le cadre de la Reconnaissance Automatique de la Parole (RAP) intégrée dans les systèmes embarqués. Les ressources disponibles dans ces systèmes sont nettement inférieures à celles des ordinateurs généralement utilisés pour la RAP, tant du point de vue de la puissance de calcul que de la quantité de mémoire. Les travaux que nous présentons s'inscrivent dans cette problématique de la RAP en situation de ressources réduites et plus particulièrement ans le cadre de la réduction de la taille des modèles acoustiques
The amount of services offered by the last generation mobile phones has significantly increased compared to previous generations. Nowadays, phones offer new kinds of facilitiessuch as organizers, phone books, e-mail/fax, and games. At the same time, the size of mobile phones has steadily reduced. Both these observations raise an important question: ?How can we use the full facilities of a mobile phone without a large keyboard??. Voice based human-to-computer interfaces supply a friendly solution to this problem but require an embedded speech recognizer. Over the last decade, the performance of Automatic Speech Recognition (ASR) systems has improved and nowadays facilites the implementation of vocal human-to-computer interfaces. Moreover, even if scientific progress could be noticed, the potential gain (in performance) remains limited by computing resources: a relatively modern computer with a lot of memory is generally required. The main problem to embed ASR in a mobile phone is the low level of resources available in this context which classically consists of a 50/100 MHz processor, a 50/100 MHz DSP, and less than 100KB of memory. This thesis focuses on embedded speech recognition in the context of limited resources

Книги з теми "Systèmes embarqués (informatique) – Apprentissage automatique":

1

Bhattacharyya, Dhruba K. Network anomaly detection: A machine learning perspective. Boca Raton: CRC Press, Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Gaines, Brian. Machine Learning and Uncertain Reasoning (Knowledge-Based Systems Ser.: Vol. 3). Academic Press, 1990.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Forsyth, R., and R. Rada. Machine Learning (Ellis Horwood Series Artificial Intelligence). Ellis Horwood, 1986.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Kumar, Neeraj, and Aaisha Makkar. Machine Learning in Cognitive Iot. Taylor & Francis Group, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Kumar, Neeraj, and Aaisha Makkar. Machine Learning in Cognitive IoT. Taylor & Francis Group, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Kumar, Neeraj, and Aaisha Makkar. Machine Learning in Cognitive IoT. Taylor & Francis Group, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Kumar, Neeraj, and Aaisha Makkar. Machine Learning in Cognitive IoT. Taylor & Francis Group, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Arslan, Hüseyin, and Ertuğrul Başar. Flexible and Cognitive Radio Access Technologies for 5G and Beyond. Institution of Engineering & Technology, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Arslan, Hüseyin, and Ertuğrul Başar. Flexible and Cognitive Radio Access Technologies for 5G and Beyond. Institution of Engineering & Technology, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії