Siga este enlace para ver otros tipos de publicaciones sobre el tema: Systèmes fog.

Tesis sobre el tema "Systèmes fog"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Systèmes fog".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Kouicem, Djamel Eddine. "Sécurité de l’Internet des objets pour les systèmes de systèmes". Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2518.

Texto completo
Resumen
L'internet des objets (IoT) est une nouvelle technologie qui vise à connecter des milliards d'objets physiques à Internet. Ces objets peuvent être engagés dans des relations complexes, notamment la composition et la collaboration avec d'autres systèmes indépendants et hétérogènes, afin de fournir de nouvelles fonctionnalités, conduisant ainsi à ce que l'on appelle les systèmes de systèmes (SoS). Les composants de l'IoT communiquent et collaborent dans des environnements distribués et dynamiques, confrontés à plusieurs problèmes de sécurité de grande ampleur. La sécurité es tconsidérée parmi les enjeux majeurs de l'IoT et soulève des défis liés aux contraintes de capacité de calcul et stockage ainsi que le très grand nombre des objets connectés. Dans cette thèse, nous nous intéressons à l'application des outils cryptographiques ainsi que la technologie blockchain pour résoudre les problèmes de sécurité dans l'IoT, à savoir : l'authentification et la gestion de confiance. Dans un premier lieu, nous nous sommes intéressés au problème du contrôle d'accès distant des actionneurs intelligents utilisant des dispositifs IoT. Pour aborder ce problème, nous avons proposé une solution de contrôle d'accès efficace et à granularité fine, basée sur le mécanisme ABE (Attribute Based Encryption) et des chaînes de hachage. À l'aide d'outils formels d'analyse de sécurité, nous avons démontré la sécurité de notre protocole face aux attaques malveillantes. Dans un deuxième lieu, nous avons abordé le problème d'authentification dans les applications IoT basé sur le paradigme du fog computing. Nous avons proposé un nouveau protocole d'authentification mutuelle efficace qui est basé sur la technologie blockchain et la cryptographie à seuil. Dans notre solution, les objets IoT et les serveurs de fog n'ont besoin que de quelques informations à stocker pour vérifier l'authenticité de chaque objet du système. L’authentification est effectuée seulement sur la bordure du réseau sans passer par des entités externes. Ainsi, la latence et la capacité de stockage sont réduites au minimum. Enfin, dans notre troisième contribution, nous avons proposé un nouveau protocole de gestion de réputation basé sur la technologie blockchain et le fog computing, avec la prise en charge de la mobilité des objets connectés. Notre protocole permet aux objets IoT d'évaluer et de partager avec précision la réputation relative aux autres objets de manière scalable, sans se recourir à une entité de confiance. Nous avons confirmé l'efficacité de notre protocole par des analyses théoriques et des simulations approfondies. Nous avons montré que notre protocole surpasse les solutions existantes,notamment en matière de scalabilité, prise en charge de la mobilité, la communication et le calcul
The Internet of things (IoT) is a new technology that aims to connect billions of physical devices to the Internet. The components of IoT communicate and collaborate between each other in distributed and dynamic environments, which are facing several security challenges. In addition, the huge number of connected objects and the limitation of their resources make the security in IoT very difficult to achieve. In this thesis, we focus on the application of lightweight cryptographic approaches and blockchain technology to address security problems in IoT, namely : authentication and trust management. First, we were interested on some kind of IoT applications where we need to control remotely the execution of smart actuators using IoT devices. To solve this problem, we proposed an efficient and fine-grained access controlsolution, based on the Attribute Based Encryption (ABE) mechanism and oneway hash chains. Using formal security tools, we demonstrated the security of our scheme against malicious attacks. Second, we tackled the problem of authentication in IoT based fog computing environments. Existing authentication techniques do not consider latency constraints introduced in the context of fog computing architecture. In addition, some of them do not provide mutual authentication between devices and fog servers. To overcome these challenges, we proposed a novel, efficient and lightweight mutual authentication scheme based on blockchain technologyand secret sharing technique. We demonstrated the efficiency of our authentication scheme through extensive simulations. The third problem treated in this work is the trust management in IoT. Existing trust management protocols do not meet the new requirements introduced in IoT such as heterogeneity, mobility and scalability. To address these challenges, we proposed a new scalable trust management protocol based on consortium blockchain technology and fog computing paradigm, with mobility support. Our solution allows IoT devices to accurately assess and share trust recommendations about other devices in a scalable way without referring to any pre-trusted entity. We confirmed the efficiency of our proposal through theoretical analysis and extensive simulations. Finally, we showed that our protocol outperforms existing solutions especially in terms of scalability, mobility support, communication and computation
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ozeer, Umar Ibn Zaid. "Autonomic resilience of distributed IoT applications in the Fog". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM054.

Texto completo
Resumen
Les dernières tendances de l'informatique distribuées préconisent le Fog computing quiétend les capacités du Cloud en bordure du réseau, à proximité des objets terminaux etdes utilisateurs finaux localisé dans le monde physique. Le Fog est un catalyseur clé desapplications de l'Internet des Objets (IoT), car il résout certains des besoins que le Cloud neparvient à satisfaire, tels que les faibles latences, la confidentialité des données sensibles, laqualité de service ainsi que les contraintes géographiques. Pour cette raison, le Fog devientde plus en plus populaire et trouve des cas d'utilisations dans de nombreux domaines telsque la domotique, l'agriculture, la e-santé, les voitures autonomes, etc.Le Fog, cependant, est instable car il est constitué de milliards d'objets hétérogènes ausein d'un écosystème dynamique. Les objets de l'IoT tombent en pannes régulièrementparce qu'ils sont produits en masse à des couts très bas. De plus, l'écosystème Fog-IoTest cyber-physique et les objets IoT sont donc affectés par les conditions météorologiquesdu monde physique. Ceci accroît la probabilité et la fréquence des défaillances. Dansun tel écosystème, les défaillances produisent des comportements incohérents qui peuventprovoquer des situations dangereuses et coûteuses dans le monde physique. La gestion dela résilience dans un tel écosystème est donc primordiale.Cette Thèse propose une approche autonome de gestion de la résilience des applicationsIoT déployées en environnement Fog. L'approche proposée comprend quatre tâches fonctionnelles:(i) sauvegarde d'état, (ii) surveillance, (iii) notification des défaillances, et(iv) reprise sur panne. Chaque tâche est un regroupement de rôles similaires et est miseen oeuvre en tenant compte les spécificités de l'écosystème (e.g., hétérogénéité, ressourceslimitées). La sauvegarde d'état vise à sauvegarder les informations sur l'état de l'application.Ces informations sont constituées des données d'exécution et de la mémoire volatile, ainsique des messages échangés et fonctions exécutées par l'application. La surveillance vise àobserver et à communiquer des informations sur le cycle de vie de l'application.Il est particulièrement utile pour la détection des défaillances. Lors d'une défaillance, des notificationssont propagées à la partie de l'application affectée par cette défaillance. La propagationdes notifications vise à limiter la portée de l'impact de la défaillance et à fournir un servicepartiel ou dégradé. Pour établir une reprise sur panne, l'application est reconfigurée et lesdonnées enregistrées lors de la tâche de sauvegarde d'état sont utilisées afin de restaurer unétat cohérent de l'application par rapport au monde physique. Cette réconciliation entrel'état de l'application et celui du monde physique est appelé cohérence cyber-physique. Laprocédure de reprise sur panne en assurant la cohérence cyber-physique évite les impactsdangereux et coûteux de la défaillance sur le monde physique.L'approche proposée a été validée à l'aide de techniques de vérification par modèle afin devérifier que certaines propriétés importantes sont satisfaites. Cette approche de résilience aété mise en oeuvre sous la forme d'une boîte à outils, F3ARIoT, destiné aux développeurs.F3ARIoT a été évalué sur une application domotique. Les résultats montrent la faisabilité de son utilisation sur des déploiements réels d'applications Fog-IoT, ainsi que desperformances satisfaisantes par rapport aux utilisateurs
Recent computing trends have been advocating for more distributed paradigms, namelyFog computing, which extends the capacities of the Cloud at the edge of the network, thatis close to end devices and end users in the physical world. The Fog is a key enabler of theInternet of Things (IoT) applications as it resolves some of the needs that the Cloud failsto provide such as low network latencies, privacy, QoS, and geographical requirements. Forthis reason, the Fog has become increasingly popular and finds application in many fieldssuch as smart homes and cities, agriculture, healthcare, transportation, etc.The Fog, however, is unstable because it is constituted of billions of heterogeneous devicesin a dynamic ecosystem. IoT devices may regularly fail because of bulk production andcheap design. Moreover, the Fog-IoT ecosystem is cyber-physical and thus devices aresubjected to external physical world conditions which increase the occurrence of failures.When failures occur in such an ecosystem, the resulting inconsistencies in the applicationaffect the physical world by inducing hazardous and costly situations.In this Thesis, we propose an end-to-end autonomic failure management approach for IoTapplications deployed in the Fog. The approach manages IoT applications and is composedof four functional steps: (i) state saving, (ii) monitoring, (iii) failure notification,and (iv) recovery. Each step is a collection of similar roles and is implemented, taking intoaccount the specificities of the ecosystem (e.g., heterogeneity, resource limitations). Statesaving aims at saving data concerning the state of the managed application. These includeruntime parameters and the data in the volatile memory, as well as messages exchangedand functions executed by the application. Monitoring aims at observing and reportinginformation on the lifecycle of the application. When a failure is detected, failure notificationsare propagated to the part of the application which is affected by that failure.The propagation of failure notifications aims at limiting the impact of the failure and providinga partial service. In order to recover from a failure, the application is reconfigured and thedata saved during the state saving step are used to restore a cyber-physical consistent stateof the application. Cyber-physical consistency aims at maintaining a consistent behaviourof the application with respect to the physical world, as well as avoiding dangerous andcostly circumstances.The approach was validated using model checking techniques to verify important correctnessproperties. It was then implemented as a framework called F3ARIoT. This frameworkwas evaluated on a smart home application. The results showed the feasibility of deployingF3ARIoT on real Fog-IoT applications as well as its good performances in regards to enduser experience
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Manzalini, Antonio. "An operating system for 5G Edge Clouds". Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0013.

Texto completo
Resumen
La technologie et les conducteurs socio-économiques créent les conditions d'une transformation profonde, appelée "Softwarization", du Telco et des TIC. Réseaux définis par logiciel et réseau Fonctions de virtualisation sont deux des principales technologies permettant ouvrant la voie à cette transformation. Softwarization permettra de virtualiser toutes les fonctions de réseau et de services d'une infrastructure de Telco et de les exécuter sur une plates-formes logicielles, entièrement découplés de l'infrastructure physique sous (presque basé sur du matériel standard). Tous les services seront fournis en utilisant un «continuum» des ressources virtuelles (traitement, de stockage et de communication) avec un investissement en capital initial pratiquement très limité et avec des coûts d'exploitation modestes. 5G sera la première exploitation de Softwarization. 5G sera une infrastructure distribuée massivement dense, intégrant le traitement, le stockage et (fixes et radio) des capacités de mise en réseau. En résumé, l'objectif général de cette thèse a étudié les défis techniques et les opportunités d'affaires apportées par le "Softwarization" et 5G. En particulier, la thèse propose que le 5G devra avoir une sorte de système d'exploitation (5GOS) capable de fonctionner les RAN et de base et les infrastructures fixes convergés. Les contributions de cette thèse ont été: 1) définir une vision pour les futures infrastructures 5G, des scénarios, des cas d'utilisation et les exigences principales: 2) définissant l'architecture fonctionnelle d'un système d'exploitation pour 5G; 3) la conception de l'architecture logicielle d'un 5GOS pour le "bord Cloud"; 4) comprendre les impacts technico-économiques de la vision et 5GOS, et les stratégies les plus efficaces pour l'exploiter
Technology and socio-economic drivers are creating the conditions for a profound transformation, called “Softwarization”, of the Telco and ICT. Software-Defined Networks and Network Functions Virtualization are two of the key enabling technologies paving the way towards this transformation. Softwarization will allow to virtualize all network and services functions of a Telco infrastructure and executing them onto a software platforms, fully decoupled from the underneath physical infrastructure (almost based on standard hardware). Any services will be provided by using a “continuum” of virtual resources (processing, storage and communications) with practically very limited upfront capital investment and with modest operating costs. 5G will be the first exploitation of Softwarization. 5G will be a massively dense distributed infrastructure, integrating processing, storage and (fixed and radio) networking capabilities. In summary, the overall goal of this thesis has been investigating technical challenges and business opportunities brought by the “Softwarization” and 5G. In particular, the thesis proposes that the 5G will have to have a sort of Operating System (5GOS) capable of operating the converged fixed and RAN and core infrastructures. Main contributions of this thesis have been: 1) defining a vision for future 5G infrastructures, scenarios, use-cases and main requirements; 2) defining the functional architecture of an Operating System for 5G; 3) designing the software architecture of a 5G OS for the “Edge Cloud”; 4) understanding the techno-economic impacts of the vision and 5GOS, and the most effective strategies to exploit it
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Awad, Hiba. "Quality of service assurance before deployment of fog systems with model-based engineering and DevOps". Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2025. http://www.theses.fr/2025IMTA0468.

Texto completo
Resumen
Le Fog Computing décentralise le Cloud en rapprochant les services de calcul, de stockage et de réseau de la périphérie du réseau. Cette approche réduit la latence, l’utilisation de la bande passante et améliore le traitement en temps réel. Cependant, la complexité et l’hétérogénéité des systèmes Fog rendent leur gestion difficile et coûteuse. Identifier les erreurs en phase d’exécution nécessite souvent de revenir aux étapes de conception, ce qui entraîne des coûts élevés en temps et en ressources. La vérification pré-déploiement est donc essentielle pour garantir fiabilité et efficacité. Les systèmes Fog, utilisés dans des domaines variés (santé, automobile, villes intelligentes), ajoutent de la complexité aux processus de vérification et de déploiement. Pour y répondre, nous proposons une approche générique et personnalisable basée sur un processus de vérification en deux étapes, combinant les phases de conception et de pré-déploiement, tout en automatisant les activités de vérification et de déploiement. Notre solution repose sur un langage de modélisation Fog adaptable, la vérification des propriétés non fonctionnelles à la conception (sécurité, énergie), et la génération de configurations de déploiement indépendantes des outils. La vérification pré-déploiement associe outils de déploiement et solutions QoS pour garantir la conformité aux critères définis avant le déploiement final. Validée par trois cas d’usage (campus intelligent, parking intelligent, hôpital intelligent), cette approche réduit les coûts, simplifie la gestion des systèmes Fog et garantit leur QoS. En intégrant des pratiques DevOps, elle répond aux exigences des environnements industriels et académiques modernes
Fog Computing decentralizes the Cloud by bringing computation, storage, and network services closer to the edge. This reduces latency and bandwidth usage while improving real-time processing. However, the complexity and heterogeneity of Fog systems, often comprising diverse entities, make lifecycle management challenging and costly. Runtime error handling frequently requires revisiting earlier phases, which is both timeconsuming and expensive. Ensuring reliability through pre-deployment verification is therefore essential. Fog systems are deployed in domains such as healthcare, automotive, and smart cities, further complicating verification and deployment processes. To address these challenges, we propose a generic and customizable approach based on a two-step verification process. This approach focuses on the design-time and pre-deployment phases, automating key verification and deployment activities. Our solution features a customizable Fog modeling language, design-time verification of non-functional properties (e.g., security, energy), preparation of pre-deployment configurations, and integration with industrial DevOps tools and Quality of Service (QoS) solutions. By combining Model-Based Engineering and DevOps practices, our approach ensures QoS, reduces deployment costs, and enhances automation to tackle the complexity of Fog systems. We validated this approach using three literature-based use cases—smart campus, smart parking, and smart hospital. Results demonstrate its effectiveness in QoS verification, deployment automation, and reducing complexity and costs, highlighting its relevance to state-of-the-art engineering and DevOps practices
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Manzalini, Antonio. "An operating system for 5G Edge Clouds". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0013.

Texto completo
Resumen
La technologie et les conducteurs socio-économiques créent les conditions d'une transformation profonde, appelée "Softwarization", du Telco et des TIC. Réseaux définis par logiciel et réseau Fonctions de virtualisation sont deux des principales technologies permettant ouvrant la voie à cette transformation. Softwarization permettra de virtualiser toutes les fonctions de réseau et de services d'une infrastructure de Telco et de les exécuter sur une plates-formes logicielles, entièrement découplés de l'infrastructure physique sous (presque basé sur du matériel standard). Tous les services seront fournis en utilisant un «continuum» des ressources virtuelles (traitement, de stockage et de communication) avec un investissement en capital initial pratiquement très limité et avec des coûts d'exploitation modestes. 5G sera la première exploitation de Softwarization. 5G sera une infrastructure distribuée massivement dense, intégrant le traitement, le stockage et (fixes et radio) des capacités de mise en réseau. En résumé, l'objectif général de cette thèse a étudié les défis techniques et les opportunités d'affaires apportées par le "Softwarization" et 5G. En particulier, la thèse propose que le 5G devra avoir une sorte de système d'exploitation (5GOS) capable de fonctionner les RAN et de base et les infrastructures fixes convergés. Les contributions de cette thèse ont été: 1) définir une vision pour les futures infrastructures 5G, des scénarios, des cas d'utilisation et les exigences principales: 2) définissant l'architecture fonctionnelle d'un système d'exploitation pour 5G; 3) la conception de l'architecture logicielle d'un 5GOS pour le "bord Cloud"; 4) comprendre les impacts technico-économiques de la vision et 5GOS, et les stratégies les plus efficaces pour l'exploiter
Technology and socio-economic drivers are creating the conditions for a profound transformation, called “Softwarization”, of the Telco and ICT. Software-Defined Networks and Network Functions Virtualization are two of the key enabling technologies paving the way towards this transformation. Softwarization will allow to virtualize all network and services functions of a Telco infrastructure and executing them onto a software platforms, fully decoupled from the underneath physical infrastructure (almost based on standard hardware). Any services will be provided by using a “continuum” of virtual resources (processing, storage and communications) with practically very limited upfront capital investment and with modest operating costs. 5G will be the first exploitation of Softwarization. 5G will be a massively dense distributed infrastructure, integrating processing, storage and (fixed and radio) networking capabilities. In summary, the overall goal of this thesis has been investigating technical challenges and business opportunities brought by the “Softwarization” and 5G. In particular, the thesis proposes that the 5G will have to have a sort of Operating System (5GOS) capable of operating the converged fixed and RAN and core infrastructures. Main contributions of this thesis have been: 1) defining a vision for future 5G infrastructures, scenarios, use-cases and main requirements; 2) defining the functional architecture of an Operating System for 5G; 3) designing the software architecture of a 5G OS for the “Edge Cloud”; 4) understanding the techno-economic impacts of the vision and 5GOS, and the most effective strategies to exploit it
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Duthon, Pierre. "Descripteurs d'images pour les systèmes de vision routiers en situations atmosphériques dégradées et caractérisation des hydrométéores". Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC065/document.

Texto completo
Resumen
Les systèmes de vision artificielle sont de plus en plus présents en contexte routier. Ils sont installés sur l'infrastructure, pour la gestion du trafic, ou placés à l'intérieur du véhicule, pour proposer des aides à la conduite. Dans les deux cas, les systèmes de vision artificielle visent à augmenter la sécurité et à optimiser les déplacements. Une revue bibliographique retrace les origines et le développement des algorithmes de vision artificielle en contexte routier. Elle permet de démontrer l'importance des descripteurs d'images dans la chaîne de traitement des algorithmes. Elle se poursuit par une revue des descripteurs d'images avec une nouvelle approche source de nombreuses analyses, en les considérant en parallèle des applications finales. En conclusion, la revue bibliographique permet de déterminer quels sont les descripteurs d'images les plus représentatifs en contexte routier. Plusieurs bases de données contenant des images et les données météorologiques associées (ex : pluie, brouillard) sont ensuite présentées. Ces bases de données sont innovantes car l'acquisition des images et la mesure des conditions météorologiques sont effectuées en même temps et au même endroit. De plus, des capteurs météorologiques calibrés sont utilisés. Chaque base de données contient différentes scènes (ex: cible noir et blanc, piéton) et divers types de conditions météorologiques (ex: pluie, brouillard, jour, nuit). Les bases de données contiennent des conditions météorologiques naturelles, reproduites artificiellement et simulées numériquement. Sept descripteurs d'images parmi les plus représentatifs du contexte routier ont ensuite été sélectionnés et leur robustesse en conditions de pluie évaluée. Les descripteurs d'images basés sur l'intensité des pixels ou les contours verticaux sont sensibles à la pluie. A l'inverse, le descripteur de Harris et les descripteurs qui combinent différentes orientations sont robustes pour des intensités de pluie de 0 à 30 mm/h. La robustesse des descripteurs d'images en conditions de pluie diminue lorsque l'intensité de pluie augmente. Finalement, les descripteurs les plus sensibles à la pluie peuvent potentiellement être utilisés pour des applications de détection de la pluie par caméra.Le comportement d'un descripteur d'images en conditions météorologiques dégradées n'est pas forcément relié à celui de la fonction finale associée. Pour cela, deux détecteurs de piéton ont été évalués en conditions météorologiques dégradées (pluie, brouillard, jour, nuit). La nuit et le brouillard sont les conditions qui ont l'impact le plus important sur la détection des piétons. La méthodologie développée et la base de données associée peuvent être utilisées à nouveau pour évaluer d'autres fonctions finales (ex: détection de véhicule, détection de signalisation verticale).En contexte routier, connaitre les conditions météorologiques locales en temps réel est essentiel pour répondre aux deux enjeux que sont l'amélioration de la sécurité et l'optimisation des déplacements. Actuellement, le seul moyen de mesurer ces conditions le long des réseaux est l'installation de stations météorologiques. Ces stations sont coûteuses et nécessitent une maintenance particulière. Cependant, de nombreuses caméras sont déjà présentes sur le bord des routes. Une nouvelle méthode de détection des conditions météorologiques utilisant les caméras de surveillance du trafic est donc proposée. Cette méthode utilise des descripteurs d'images et un réseau de neurones. Elle répond à un ensemble de contraintes clairement établies afin de pouvoir détecter l'ensemble des conditions météorologiques en temps réel, mais aussi de pourvoir proposer plusieurs niveaux d'intensité. La méthode proposée permet de détecter les conditions normales de jour, de nuit, la pluie et le brouillard. Après plusieurs phases d'optimisation, la méthode proposée obtient de meilleurs résultats que ceux obtenus dans la littérature, pour des algorithmes comparables
Computer vision systems are increasingly being used on roads. They can be installed along infrastructure for traffic monitoring purposes. When mounted in vehicles, they perform driver assistance functions. In both cases, computer vision systems enhance road safety and streamline travel.A literature review starts by retracing the introduction and rollout of computer vision algorithms in road environments, and goes on to demonstrate the importance of image descriptors in the processing chains implemented in such algorithms. It continues with a review of image descriptors from a novel approach, considering them in parallel with final applications, which opens up numerous analytical angles. Finally the literature review makes it possible to assess which descriptors are the most representative in road environments.Several databases containing images and associated meteorological data (e.g. rain, fog) are then presented. These databases are completely original because image acquisition and weather condition measurement are at the same location and the same time. Moreover, calibrated meteorological sensors are used. Each database contains different scenes (e.g. black and white target, pedestrian) and different kind of weather (i.e. rain, fog, daytime, night-time). Databases contain digitally simulated, artificial and natural weather conditions.Seven of the most representative image descriptors in road context are then selected and their robustness in rainy conditions is evaluated. Image descriptors based on pixel intensity and those that use vertical edges are sensitive to rainy conditions. Conversely, the Harris feature and features that combine different edge orientations remain robust for rainfall rates ranging in 0 – 30 mm/h. The robustness of image features in rainy conditions decreases as the rainfall rate increases. Finally, the image descriptors most sensitive to rain have potential for use in a camera-based rain classification application.The image descriptor behaviour in adverse weather conditions is not necessarily related to the associated final function one. Thus, two pedestrian detectors were assessed in degraded weather conditions (rain, fog, daytime, night-time). Night-time and fog are the conditions that have the greatest impact on pedestrian detection. The methodology developed and associated database could be reused to assess others final functions (e.g. vehicle detection, traffic sign detection).In road environments, real-time knowledge of local weather conditions is an essential prerequisite for addressing the twin challenges of enhancing road safety and streamlining travel. Currently, the only mean of quantifying weather conditions along a road network requires the installation of meteorological stations. Such stations are costly and must be maintained; however, large numbers of cameras are already installed on the roadside. A new method that uses road traffic cameras to detect weather conditions has therefore been proposed. This method uses a combination of a neural network and image descriptors applied to image patches. It addresses a clearly defined set of constraints relating to the ability to operate in real-time and to classify the full spectrum of meteorological conditions and grades them according to their intensity. The method differentiates between normal daytime, rain, fog and normal night-time weather conditions. After several optimisation steps, the proposed method obtains better results than the ones reported in the literature for comparable algorithms
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Darrous, Jad. "Scalable and Efficient Data Management in Distributed Clouds : Service Provisioning and Data Processing". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEN077.

Texto completo
Resumen
Cette thèse porte sur des solutions pour la gestion de données afin d'accélérer l'exécution efficace d'applications de type « Big Data » (très consommatrices en données) dans des centres de calculs distribués à grande échelle. Les applications de type « Big Data » sont de plus en plus souvent exécutées sur plusieurs sites. Les deux principales raisons de cette tendance sont 1) le déplacement des calculs vers les sources de données pour éliminer la latence due à leur transmission et 2) le stockage de données sur un site peut ne pas être réalisable à cause de leurs tailles de plus en plus importantes.La plupart des applications s'exécutent sur des clusters virtuels et nécessitent donc des images de machines virtuelles (VMI) ou des conteneurs d’application. Par conséquent, il est important de permettre l’approvisionnement rapide de ces services afin de réduire le temps d'attente avant l’exécution de nouveaux services ou applications. Dans la première partie de cette thèse, nous avons travaillé sur la récupération et le placement des données, en tenant compte de problèmes difficiles, notamment l'hétérogénéité des connexions au réseau étendu (WAN) et les besoins croissants en stockage pour les VMIs et les conteneurs d’application.Par ailleurs, les applications de type « Big Data » reposent sur la réplication pour fournir des services fiables et rapides, mais le surcoût devient de plus en plus grand. La seconde partie de cette thèse constitue l'une des premières études sur la compréhension et l'amélioration des performances des applications utilisant la technique, moins coûteuse en stockage, des codes d'effacement (erasure coding), en remplacement de la réplication
This thesis focuses on scalable data management solutions to accelerate service provisioning and enable efficient execution of data-intensive applications in large-scale distributed clouds. Data-intensive applications are increasingly running on distributed infrastructures (multiple clusters). The main two reasons for such a trend are 1) moving computation to data sources can eliminate the latency of data transmission, and 2) storing data on one site may not be feasible given the continuous increase of data size.On the one hand, most applications run on virtual clusters to provide isolated services, and require virtual machine images (VMIs) or container images to provision such services. Hence, it is important to enable fast provisioning of virtualization services to reduce the waiting time of new running services or applications. Different from previous work, during the first part of this thesis, we worked on optimizing data retrieval and placement considering challenging issues including the continuous increase of the number and size of VMIs and container images, and the limited bandwidth and heterogeneity of the wide area network (WAN) connections.On the other hand, data-intensive applications rely on replication to provide dependable and fast services, but it became expensive and even infeasible with the unprecedented growth of data size. The second part of this thesis provides one of the first studies on understanding and improving the performance of data-intensive applications when replacing replication with the storage-efficient erasure coding (EC) technique
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Koubeissi, Ahmad. "Methodology for unified modeling of system of systems of engineering". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10143/document.

Texto completo
Resumen
L'objectif principal de cette thèse est la contribution à la modélisation graphique multi-niveaux, à la fois comportementale et organisationnelle pour la conception d’un système de systèmes d’ingénierie. Dans le présent travail, nous avons modélisé l’échange d’information entre les composants des systèmes, en présence des imperfections, avec un outil de modélisation graphique Bond Graph, décrivant l’échange de puissance dans les systèmes multi-domaines. Ce modèle permet d'identifier mathématiquement, la qualité du signal reçu par un composant système, suivant les perturbations apparentes dans le canal de transmission. Nous avons mené une expérience sur le comportement coopératif entre deux humanoïdes dans le cadre d’un système de systèmes. Ensuite, nous avons élaboré une méthode qualitative pour identifier le niveau de tolérance aux fautes sur un lien de communication, permettant ainsi d'introduire le principe de liens redondants dans le système de systèmes. Ensuite, nous avons proposé une méthodologie de modélisation hiérarchisée et hybride, combinant à la fois l’hypergraphe et le Bond Graph. Le premier est utilisé pour l’analyse organisationnelle multi-niveaux, tandis que le second est utilisé pour l’analyse comportementale des composants systèmes élémentaires. Enfin, pour valider cette approche de modélisation, un système de systèmes a été réalisé, composé d’un véhicule aérien sans pilote (UAV) et un véhicule autonome intelligent, dans laquelle l’UAV fournit des informations de navigation redondantes au véhicule autonome intelligent, pour être en mesure de manœuvrer en toute sécurité dans un espace confiné, lors de pertes des informations liées à la navigation locale
The main focus of this thesis is on multilevel graphical modeling of behavior and organization of a set of component systems in a System of Systems concept. In the present work, we model the wireless communication link among component systems, with all its major effects, using a graphical modeling tool for describing flow of power in multi-physics domain called Bond Graph. This model permits identifying mathematically, the quality of signal received at information sink based on model parameter values. We conduct an experiment on cooperative behavior of two humanoids in a system of systems concept and demonstrate how we are able to experimentally measure the parameter values defined in our model.Next we justify how we are able to evaluate quantitatively, the fault tolerance level of a wireless communication link and introduce the need for redundant links in system of systems. Then we propose a methodology for coupling Hyper Graph, used for modeling the organization of component systems, and Bond Graph in multilevel graphical modeling of system of systems. Finally, we discuss another system of systems with two cooperating component systems, a Unmanned Aerial Vehicle (UAV) and an intelligent autonomous vehicle (robuTAINer), in which the UAV will supply navigation information to the intelligent autonomous vehicle to be able to safely maneuver in a confined space. We develop algorithms for robuTAINer detection and navigation from UAV. Then we practically test our algorithms and analyze the obtained results
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Imine, Youcef. "Cloud computing security". Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2520.

Texto completo
Resumen
Ces dernières années, nous assistons à une immense révolution numérique de l’internet où de nombreuses applications, innovantes telles que l’internet des objets, les voitures autonomes, etc., ont émergé. Par conséquent, l’adoption des technologies d’externalisations des données, telles que le cloud ou le fog computing, afin de gérer cette expansion technologique semble inévitable. Cependant, l’utilisation du cloud ou du fog computing en tant que plateforme d’externalisation pour le stockage ou le partage des données crée plusieurs défis scientifiques. En effet, externaliser ses données signifie que l’utilisateur perd le contrôle sur ces derniers. D’où la sécurité des données devienne une préoccupation majeure qui doit être proprement traitée. C’est dans ce contexte que s’inscrivent les travaux de cette thèse dans laquelle nous avons déterminé dans un premier temps les principaux problèmes de sécurité liés à l’adoption du cloud et du fog computing. Puis, nous avons adressé trois problématiques de sécurité majeure, qui sont : 1 - Le contrôle d’accès aux données dans une architecture de type Cloud storage, où nous avons proposé une nouvelle solution de contrôle d’accès basée sur le chiffrement à base d’attributs. Notre solution assure un contrôle d’accès souple et à grains fins. De plus, elle permet d’effectuer une révocation immédiate des utilisateurs et des attributs sans aucune mise à jour des clés de chiffrement fournies aux utilisateurs. 2 - Le problème de l’authentification mutuelle entre les utilisateurs et les serveurs Fog dans une architecture Fog computing, où nous avons proposé un nouveau schéma d’authentification efficace, qui assure l’authentification mutuelle et qui est robuste contre les comportements malicieux des serveurs Fog. 3 - Le problème de traçabilité et de la protection de la vie privée dans le cadre des applications de partage d’informations publiques, où nous avons proposé une nouvelle solution pour le partage d’informations publiques assurant le service de traçabilité tout en préservant les informations privées des utilisateurs. Avec notre solution, les serveurs d’externalisations authentifient les utilisateurs sans pouvoir obtenir des informations sur leur vie privée. En cas de comportements malicieux, notre solution permet de tracer les utilisateurs malveillants grâce à une autorité
These last years, we are witnessing a real digital revolution of Internet where many innovative applications such as Internet of Things, autonomous cars, etc., have emerged. Consequently, adopting externalization technologies such as cloud and fog computing to handle this technological expansion seems to be an inevitable outcome. However, using the cloud or fog computing as a data repository opens many challenges in prospect. This thesis addresses security issues in cloud and fog computing which is a major challenge that need to be appropriately overcomed. Indeed, adopting these technologies means that the users lose control over their own data, which exposes it to several security threats. Therefore, we first investigated the main security issues facing the adoption of cloud and fog computing technologies. As one of the main challenges pointed in our investigation, access control is indeed a cornerstone of data security. An efficient access control mechanism must provide enforced and flexible access policies that ensure data protection, even from the service provider. Hence, we proposed a novel secure and efficient attribute based access control scheme for cloud data-storage applications. Our solution ensures flexible and fine-grained access control and prevents security degradations. Moreover, it performs immediate users and attributes revocation without any key regeneration. Authentication service in fog computing architecture is another issue that we have addressed in this thesis. Some traditional authentication schemes endure latency issues while others do not satisfy fog computing requirements such as mutual authentication between end-devices and fog servers. Thus, we have proposed a new, secure and efficient authentication scheme that ensures mutual authentication at the edge of the network and remedies to fog servers' misbehaviors.Finally, we tackled accountability and privacy-preserving challenges in information-sharing applications for which several proposals in the literature have treated privacy issues, but few of them have considered accountability service. Therefore, we have proposed a novel accountable privacy preserving solution for public information sharing in data externalization platforms. Externalization servers in our scheme authenticate any user in the system without violating its privacy. In case of misbehavior, our solution allows to trace malicious users thanks to an authority
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Bouziat, Teddy. "A Cooperative Architecting Procedure for Systems of Systems Based on Self-Adaptive Multi-Agent Systems". Thesis, Toulouse 1, 2017. http://www.theses.fr/2017TOU10069.

Texto completo
Resumen
Depuis la seconde guerre mondiale, l’ingénierie des systèmes a permis le développement de méthodologies pour contrôler le développement de systèmes et de projets de plus en plus complexes. En 1990, la chute de l’URSS a provoqué un changement de doctrine militaire aux Etats-Unis en passant d’une confrontation bipolaire à une mondialisation des conflits comportant une grande variété de menaces. Sa nouvelle doctrine était de faire collaborer ses systèmes de défense existants pour produire un système de défense de haut niveau, décentralisé, adaptable et composé de systèmes indépendants. C’est l’apparition du concept de Système de Systèmes (SdS).Cette thèse de doctorat propose un nouveau modèle de SdS appelé SApHESIA (SoS ArchitectingHEuriStIc based on Agent), ainsi qu’une nouvelle méthodologie d’architecture. Cette nouvelle méthodologie est basée sur une coopération complète entre tous les composants du SdS, lui permettant d’évoluer de lui-même afin de faire face à des événements inattendus de son environnement tels que des menaces. Enfin, ce travail est testé à travers 4exemples issus de différents domaines (militaire, logistique et exploratoire)
Since the World War II, researchers have tended to develop methodologies and tools tobuild and control the development of more and more complex systems and projects. Thisinter-disciplinary research area has been called Systems Engineering (SE) and continues tobe developed nowadays. In 1990, the fall of USSR led the US Department of Defense (DoD)to re-think its defense doctrine and to switch from a one opponent confrontation to a globalizationof conflicts with a huge variety of scenarios. Its idea was to re-use and join itsdefense systems by producing a huge, decentralized and adaptive defense system that iscomposed of existing and independents (complex) systems. This is the apparition of theSystem of Systems (SoS) concept. After 2000’s, this concept spreads in civil domains suchas crisis management or logistic systems. More precisely, a SoS is a complex system characterizedby the particular nature of its components: these latter, which are systems, tend tobe managerially and operationally independent as well as geographically distributed. Thisspecific characterization led to re-think research areas of classic SE such as definition, taxonomy,modeling, architecting and so on. SoS architecting focuses on the way independentcomponents of a SoS can be dynamically structured and can change autonomously theirinteractions in an efficient manner to fulfill the goal of the SoS and to cope with the highdynamics of the environment. This PhD thesis mainly focuses on two SoS research areas: 1)SoS modeling and 2) SoS architecting. To achieve the first point, we propose a new modelcalled SApHESIA (SoS Architecting HEuriStIc based on Agent). We have used set theoryand ABM (Agent-Based Model) paradigm to define this model that takes into account thecharacteristics of SoS. Secondly, we propose a new SoS architecting procedure based on theAdaptive Multi-Agent System (AMAS) approach that advocates full cooperation betweenall the components of the SoS through the concept of criticality. This criticality is a metricthat represents the distance between the current state of a component and its goals. In thisprocedure, the SoS architecture evolves over time to self-adapt to the dynamics of the environmentin which it is plunged, while taking into account the respective local goals of itscomponents. Finally we instantiate this model and this procedure through 4 examples fromdifferent domains (military, logistics and exploratory missions) and validate the feasibility,the efficiency, the effectiveness and the robustness of the SoS architecting procedure we havedeveloped and proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Daoud, Ramez. "Wireless and wired Ethernet for intelligent transportation systems". Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/ace94389-4796-4b12-b00d-9d4eb917a682.

Texto completo
Resumen
Cette étude se focalise sur les aspects de communications filaires et sans fil des systèmes de transports intelligents. Dans une première partie, le réseau embarqué d’un véhicule est constitué à l’aide du réseau Ethernet. Cette approche vise à diminuer la quantité de câbles présents dans les véhicules actuels. Le modèle proposé apporte une aide pour satisfaire les demandes de communications des passagers des véhicules futurs en ce qui concerne les connections Internet, les vidéos en demande, les communications Voice over IP (VoIP) et les vidéos conférences. Un système de communication, interactif et temps réel, est également proposé pour assister le conducteur en fournissant des informations sur le trafic. Une seconde partie est consacrée à la communication sans fil pour la gestion des informations échangées entre entités mobiles dans une zone de trafic urbain. Un modèle de système de communication, s'appuyant sur la technologie WiFi, est utilisé pour les échanges d'informations entre les entités mobiles et entre un point central de communication (noeud de correspondance). Des algorithmes stigmergiques sont utilisés pour le pilotage des entités mobiles. Les entités mobiles communiquent continuellement avec le système de pilotage pour mettre à jour les informations du trafic. Le système de pilotage analyse ces informations et diffuse à tous les véhicules, sous forme de messages, la cartographie du trafic. Le modèle de communication "burst communication" et les techniques de communications mobiles MIPv6 ont été exploités. L'optimisation de l’architecture du modèle de communication permet d'obtenir un nombre minimum de messages perdus lors de la communication entre le point central et les mobiles. Les résultats obtenus montrent que l'on peut parvenir à une réception satisfaisante des messages au niveau des entités mobiles
This study focuses on the wireless as well as the wired aspect of Intelligent Transportation Systems (ITS). The On-Board network of a future smart vehicle is designed using Switched Ethernet as a backbone. This architecture aims at minimizing the amount of wiring present in today’s cars. With the increasing demand of entertainment and connectivity, the proposed model provides the vehicle passengers with internet connection, video on-demand, voice over IP (VoIP) and video conference capabilities. Also, to help the driver, a smart real-time interactive communication scheme is developed to supply traffic information. A wireless communication model is built to support the moving entities in a light urban traffic area; the model is based on stigmergic algorithms running at the core of the system infrastructure. A WiFi model is used to supply wireless connectivity to mobile nodes in a given region. The Mobile IPv4 as well as Mobile IPv6 are tested. The mobile nodes always communicate with the central intelligence of the system to update the traffic information. The stigmergic algorithm processes this data and sends to all moving vehicles messages regarding the actual traffic map. This research focuses on the wireless aspect of the problem and optimizes the architecture to satisfy minimum packet loss in the path from the central correspondent node (CN) to the mobile nodes (MN). It is found that based on MIPv6 technique and using redundant packet transmission (burst communication) one can statistically reach satisfactory
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Golden, Boris. "A unified formalism for complex systems architecture". Palaiseau, Ecole polytechnique, 2013. http://pastel.archives-ouvertes.fr/docs/00/82/71/07/PDF/phd.pdf.

Texto completo
Resumen
Les systèmes industriels complexes sont des objets artificiels conçus par l'Homme, et constitués d'un grand nombre de composants hétérogènes (e. G. Matériels, logiciels ou organisationnels) collaborant pour accomplir une mission globale. Dans cette thèse, nous nous intéressons à la modélisation du comportement fonctionnel de tels systèmes, ainsi qu'à leur intégration. Nous modéliserons donc les systèmes réels par le biais d'une approche de boîte noire fonctionnelle avec un état interne, dont la structure et le comportement fonctionnel peuvent être obtenus par l'intégration récursive de composants élémentaires hétérogènes
Complex industrial systems are typically artificial objects designed by men, involving a huge number of heterogeneous components (e. G. Hardware, software, or human organizations) working together to perform a mission. In this thesis, we are interested in modeling the functional behavior of such systems, and their integration. We will model real systems as functional black boxes (with an internal state), whose structure and behaviors can be described by the recursive integration of heterogeneous smaller subsystems. Our purpose is to give a unified and minimalist semantics for heterogeneous integrated systems and their integration
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Dahmane, Khouloud. "Analyse d'images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées". Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC020.

Texto completo
Resumen
De nos jours, les systèmes de vision sont de plus en plus utilisés dans le contexte routier. Ils permettent ainsi d'assurer la sécurité et faciliter la mobilité. Ces systèmes de vision sont généralement affectés par la dégradation des conditions météorologiques en présence de brouillard ou de pluie forte, phénomènes limitant la visibilité et réduisant ainsi la qualité des images. Afin d'optimiser les performances des systèmes de vision, il est nécessaire de disposer d'un système de détection fiable de ces conditions météorologiques défavorables.Il existe des capteurs météorologiques dédiés à la mesure physique, mais ils sont coûteux. Ce problème peut être résolu en utilisant les caméras qui sont déjà installées sur les routes. Ces dernières peuvent remplir simultanément deux fonctions : l'acquisition d'images pour les applications de surveillance et la mesure physique des conditions météorologiques au lieu des capteurs dédiés. Suite au grand succès des réseaux de neurones convolutifs (CNN) dans la classification et la reconnaissance d'images, nous avons utilisé une méthode d'apprentissage profond pour étudier le problème de la classification météorologique. L'objectif de notre étude est de chercher dans un premier temps à mettre au point un classifieur du temps, qui permet de discriminer entre temps « normal », brouillard et pluie. Dans un deuxième temps, une fois la classe connue, nous cherchons à développer un modèle de mesure de la distance de visibilité météorologique du brouillard. Rappelons que l'utilisation des CNN exige l'utilisation de bases de données d'apprentissage et de test. Pour cela, deux bases de données ont été utilisées, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), et la base "Cerema-AWH database", en cours d'acquisition depuis 2017 sur le site de la Fageole sur l'autoroute A75. Chaque image des deux bases est labellisée automatiquement grâce aux données météorologiques relevées sur le site permettant de caractériser diverses gammes de pluie et de brouillard. La base Cerema-AWH, qui a été mise en place dans le cadre de nos travaux, contient cinq sous-bases : conditions normales de jour, brouillard fort, brouillard faible, pluie forte et pluie faible. Les intensités de pluie varient de 0 mm/h à 70 mm/h et les visibilités météorologiques de brouillard varient entre 50m et 1800m. Parmi les réseaux de neurones connus et qui ont montré leur performance dans le domaine de la reconnaissance et la classification, nous pouvons citer LeNet, ResNet-152, Inception-v4 et DenseNet-121. Nous avons appliqué ces réseaux dans notre système de classification des conditions météorologiques dégradées. En premier lieu, une étude justificative de l'usage des réseaux de neurones convolutifs est effectuée. Elle étudie la nature de la donnée d'entrée et les hyperparamètres optimaux qu'il faut utiliser pour aboutir aux meilleurs résultats. Ensuite, une analyse des différentes composantes d'un réseau de neurones est menée en construisant une architecture instrumentale de réseau de neurones. La classification des conditions météorologiques avec les réseaux de neurones profonds a atteint un score de 83% pour une classification de cinq classes et 99% pour une classification de trois classes.Ensuite, une analyse sur les données d'entrée et de sortie a été faite permettant d'étudier l'impact du changement de scènes et celui du nombre de données d'entrée et du nombre de classes météorologiques sur le résultat de classification.Enfin, une méthode de transfert de bases de données a été appliquée. Cette méthode permet d'étudier la portabilité du système de classification des conditions météorologiques d'un site à un autre. Un score de classification de 63% a été obtenu en faisant un transfert entre une base publique et la base Cerema-AWH. (...)
Nowadays, vision systems are becoming more and more used in the road context. They ensure safety and facilitate mobility. These vision systems are generally affected by the degradation of weather conditions, like heavy fog or strong rain, phenomena limiting the visibility and thus reducing the quality of the images. In order to optimize the performance of the vision systems, it is necessary to have a reliable detection system for these adverse weather conditions.There are meteorological sensors dedicated to physical measurement, but they are expensive. Since cameras are already installed on the road, they can simultaneously perform two functions: image acquisition for surveillance applications and physical measurement of weather conditions instead of dedicated sensors. Following the great success of convolutional neural networks (CNN) in classification and image recognition, we used a deep learning method to study the problem of meteorological classification. The objective of our study is to first seek to develop a classifier of time, which discriminates between "normal" conditions, fog and rain. In a second step, once the class is known, we seek to develop a model for measuring meteorological visibility.The use of CNN requires the use of train and test databases. For this, two databases were used, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), and the "Cerema-AWH database", which has been acquired since 2017 on the Fageole site on the highway A75. Each image of the two bases is labeled automatically thanks to meteorological data collected on the site to characterize various levels of precipitation for rain and fog.The Cerema-AWH base, which was set up as part of our work, contains 5 sub-bases: normal day conditions, heavy fog, light fog, heavy rain and light rain. Rainfall intensities range from 0 mm/h to 70mm/h and fog weather visibilities range from 50m to 1800m. Among the known neural networks that have demonstrated their performance in the field of recognition and classification, we can cite LeNet, ResNet-152, Inception-v4 and DenseNet-121. We have applied these networks in our adverse weather classification system. We start by the study of the use of convolutional neural networks. The nature of the input data and the optimal hyper-parameters that must be used to achieve the best results. An analysis of the different components of a neural network is done by constructing an instrumental neural network architecture. The conclusions drawn from this analysis show that we must use deep neural networks. This type of network is able to classify five meteorological classes of Cerema-AWH base with a classification score of 83% and three meteorological classes with a score of 99%Then, an analysis of the input and output data was made to study the impact of scenes change, the input's data and the meteorological classes number on the classification result.Finally, a database transfer method is developed. We study the portability from one site to another of our adverse weather conditions classification system. A classification score of 63% by making a transfer between a public database and Cerema-AWH database is obtained.After the classification, the second step of our study is to measure the meteorological visibility of the fog. For this, we use a neural network that generates continuous values. Two fog variants were tested: light and heavy fog combined and heavy fog (road fog) only. The evaluation of the result is done using a correlation coefficient R² between the real values and the predicted values. We compare this coefficient with the correlation coefficient between the two sensors used to measure the weather visibility on site. Among the results obtained and more specifically for road fog, the correlation coefficient reaches a value of 0.74 which is close to the physical sensors value (0.76)
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Ziv, Nicolas. "Enrichment of functional analysis for the construction sector by the integration of systems engineering and constructibility : application to the multifunctional metro". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1065/document.

Texto completo
Resumen
L’objectif de la thèse est d’enrichir l’Analyse Fonctionnelle, une méthode de conception orientée sur la définition des fonctions d’un produit, pour le développement d’ouvrages complexes dans le domaine de la construction. Pour cela les concepts et pratiques de deux corpus méthodologiques sont adaptés et intégrés dans l’Analyse Fonctionnelle : l’Ingénierie Système et la Constructibilité. Cette méthode enrichie est appliquée sur un concept innovant de métro multifonctionnel qui consiste à utiliser un système unique pour répondre à plusieurs besoins de la ville : non seulement transporter des passagers mais aussi de l’eau, des déchets, de l’électricité, de la chaleur, de l’information, des marchandises et bien d’autres selon les particularités de chaque projet. Dans l’introduction après avoir brièvement décrit les enjeux rencontrés dans le domaine de la construction, qui justifient le besoin de nouvelles méthodes, nous soulignons que l’Analyse Fonctionnelle a essentiellement été utilisée dans d’autres domaines que celui de la construction pour faire face aux mêmes problèmes. En revanche, son application au domaine de la construction est limitée du fait de la non prise en compte des particularités de ce secteur : le besoin auquel répondent les systèmes dans ce domaine sont d’adapter l’espace pour que s’y réalise des activités humaines, mais aussi que chaque projet est unique. L’unicité de chaque projet nous a amené à prendre en compte la constructibilité, soit les contraintes liées au développement de l’ouvrage, à différentes étapes de l’Analyse Fonctionnelle. L’Analyse Fonctionnelle est aussi mal adaptée pour le développement de systèmes complexes, ainsi, les concepts et outils de l’ingénierie Système, dont l’objectif est la maitrise des systèmes complexes, sont intégrés à l’Analyse Fonctionnelle (V&V, SysML). La première partie de la thèse consiste en un état de l’art des trois méthodes étudiées : l’Analyse Fonctionnelle, l’Ingénierie Système et la Constructibilité. Dans cette partie les blocages et des adaptations nécessaires sont identifiés. Dans une deuxième partie, la méthode d’Analyse Fonctionnelle enrichie par la Constructibilité et l’Ingénierie Système est présentée. Le concept de Constructibilité notamment est étendu à la prise en compte non seulement des contraintes liées aux activités de réalisation mais aussi aux contraintes de conception et de planification/programmation (soit l’ensemble du système pour faire). L’Ingénierie Système pour sa part est adaptée en prenant en compte les caractéristiques spatiales des systèmes, composantes essentielles dans la construction. Deux outils ont été développés pendant la thèse permettant d’implémenter la méthode : un outil de modélisation des exigences basé sur le langage de modélisation SysML qui permet de lier les exigences avec des modèles BIM (Building Information Modeling) améliorant ainsi leur traçabilité et la facilitation de leur vérification, et la matrice de constructibilité qui permet d’analyser la constructibilité d’un système en prenant en compte l’ensemble des contraintes liées à son développement. Troisièmement, la méthode d’Analyse Fonctionnelle enrichie est appliquée sur 2 cas d’études liés au métro multifonctionnel : l’application de ce concept sur les études de la 5ème ligne de Lyon vers Alaï et l’intégration d’un réseau de fibre optique alimentant l’île de France dans la ligne 16 du projet du Grand Paris. En conclusion des pistes de recherche pour le futur sont proposées : d’autres méthodologies de conception existent avec des objectifs différents (innovation pour la théorie C-K) ou des nouveaux concepts (System of Systems). Ou comment mesurer et quantifier les critères de constructibilité ? Comment appliquer ces méthodes dans différents contextes législatifs et contractuels ? Sont autant de question qui méritent de nouvelles recherches ultérieures
Objectives of the thesis is to enrich Functional Analysis, a design method oriented on the definition of functions, by the integration of two methodological corpuses: Constructability and Systems Engineering in order to adapt it to complex construction products. The enriched method is used and applied on an innovative concept: the multifunctional metro. This new concept consists in the integration of new functions in a metro system: not only transport people but also energy, information, wastes, merchandises, water etc. in order to answer to several city needs with a unique infrastructure. In the introduction, after having describe challenges faced by the construction industry, we highlight that Functional Analysis has been used extensively in other industries to face similar issues. However, its application in the construction industry is limited due to particularities of the construction industry: each project is unique, construction projects are complex and that needs construction projects answer consists in adapting space in order to carry human or related activities. The identification of such particularities have led on one hand, to the consideration of constructability concepts and principles in Functional Analysis to better integrate development constraints of each project in the product development. On the other hand, to the consideration of Systems Engineering, a methodological corpus which objective is to manage complexity of projects. Firstly, Functional Analysis, Constructability and Systems Engineering corpuses are presented and issues are identified in these three methods either to adapt them to complex construction projects for their integration. Constructability notably, is improved with the integration of constraints from Design and Planning phases and a proposition is presented to shift from Constructability to Constructibility. Systems Engineering for its part is adapted by the integration of spatial characteristics of systems. A SysML tool (Systems Modeling Language) has been developed and linked with a BIM modeling tool to improve the capacity to model and verify requirements related to construction systems. The Constructibility matrix, a tool to ease the implementation of constructibility has also been developed.Secondly, Functional Analysis enriched by methodological inputs and tools related to the construction industry is applied. Case studies concern two different phases (planning and design) in two different projects where multifunctionnality concepts have been investigated: the 5th metro line of Lyon where the evaluation of the integration of new functions in the metro line have been studied. And the line 16 of the Greater Paris Project where the integration of a broadband network was the opportunity to study the integration of a new function more in detail (transport information). In conclusion we shall suggest some ways forward by outlining avenues for further researches: how to measure constructibility criteria at different systemic levels is a challenge on which we give some ways to follow. The application and adaptation of Systems Engineering to the construction industry remains to be better investigated and we give some further research indications, particularly on the integration with BIM (Building Information Modeling) methods. We also present how the use of MBSE (Model-Based Systems Engineering) techniques and Data Science could lead to the automation of some design activities which could enrich Functional Analysis methods. Insights on the organization of the profession and contractual issues are proposed and would require more researches to enable implementation of the presented methodology in projects
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Bazm, Mohammad Mahdi. "Unified isolation architecture and mechanisms against side channel attacks for decentralized cloud infrastructures". Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4042.

Texto completo
Resumen
Depuis les travaux de Ristenpart [Ristenpart et al., 2009], les attaques par canaux auxiliaires se sont imposées comme un enjeu sécurité important pour les environnements virtualises, avec une amélioration rapide des techniques d’attaque, et de nombreux travaux de recherche pour les détecter et s’en prémunir. Ces attaques exploitent le partage de ressources matérielles comme les différents niveaux de cache processeur entre des locataires multiples en utilisant la couche de virtualisation. Il devient alors possible d’en contourner les mécanismes de sécurité entre différentes instances virtualisées, par exemple pour obtenir des informations sensibles comme des clés cryptographiques. L’analyse des défis d’isolation et des formes d’attaques par canaux auxiliaires basées sur le cache dans les infrastructures virtualisées met en évidence différentes approches pour les détecter ou les contrer, entre machines virtuelles ou conteneurs Linux. Ces approches se distinguent selon la couche logicielle ou seront appliquées les contre-mesures, applicative, système ou matérielle. La détection reste principalement effectuée au niveau de la couche système ou de virtualisation, ce niveau permettant simplement d’analyser le comportement des instances virtualisées. De nouvelles formes distribuées d’attaques ont aussi pu être mises en évidence. Pour la détection, nous explorons une approche combinant des compteurs de performance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la configuration du système plus dynamique et plus difficilement attaquable, a différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invite ou dans l’hyperviseur, avec de plus un surcoût très faible en performance. Nous explorons enfin l’utilisation de techniques d’exécution matérielle a base d’enclaves comme Intel SGX (Software Guard Extensions) pour assurer une exécution repartie de confiance de conteneurs Linux sur des couches logicielles qui ne le sont pas nécessairement. Ceci s’est traduit par la proposition d’un modèle d’exécution repartie sur infrastructure Fog pour conteneurs Linux. Il s’agit d’un premier pas vers une infrastructure repartie sécurisée Fog illustrant le potentiel de telles technologies
Since their discovery by Ristenpart [Ristenpart et al., 2009], the security concern of sidechannelattacks is raising in virtualized environments such as cloud computing infrastructuresbecause of rapid improvements in the attack techniques. Therefore, the mitigationand the detection of such attacks have been getting more attention in these environments,and consequently have been the subject of intense research works.These attacks exploit for instance sharing of hardware resources such as the processorin virtualized environments. Moreover, the resources are often shared between differentusers at very low-level through the virtualization layer. As a result, such sharing allowsbypassing security mechanisms implemented at virtualization layer through such a leakysharing. Cache levels of the processor are the resources which are shared between instances,and play as an information disclosure channel. Side-channel attacks thus use this leakychannel to obtain sensitive information such as cryptographic keys.Different research works are already exist on the detection/mitigation of these attackin information systems. Mitigation techniques of cache-based side-channel attacks aremainly divided into three classes according to different layer of application in cloud infrastructures(i.e., application, system, and hardware). The detection is essentially done atOS/hypervisor layer because of possibility of analyzing virtualized instances behavior atboth layers.In this thesis, we first provide a survey on the isolation challenge and on the cachebasedside-channel attacks in cloud computing infrastructures. We then present differentapproaches to detect/mitigate cross-VM/cross-containers cache-based side-channel attacks.Regarding the detection of cache-based side-channel attacks, we achieve that by leveragingHardware performance Counters (HPCs) and Intel Cache Monitoring Technology (CMT)with anomaly detection approaches to identify a malicious virtual machine or a Linux container.Our experimental results show a high detection rate.We then leverage an approach based on Moving Target Defense (MTD) theory to interrupta cache-based side-channel attack between two Linux containers. MTD allows us tomake the configuration of system more dynamic and consequently more harder to attackby an adversary, by using shuffling at different level of system and cloud. Our approachdoes not need to carrying modification neither into the guest OS or the hypervisor. Experimentalresults show that our approach imposes very low performance overhead.We also discuss the challenge of isolated execution on remote hosts, different scenariosto secure execution of Linux containers on remote hosts and different trusted executiontechnologies for cloud computing environments. Finally, we propose a secure model fordistributed computing through using Linux containers secured by Intel SGX, to performtrusted execution on untrusted Fog computing infrastructures
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Mahdjoub, Morad. "La réalité virtuelle pour une conception de systèmes mécaniques centrée sur l'utilisateur". Besançon, 2007. http://www.theses.fr/2007BESA2039.

Texto completo
Resumen
Nos travaux de thèse menés au sein du laboratoire Systèmes et Transports dans l’équipe Ergonomie et Conception des Systèmes traitent de la conception de systèmes mécaniques centrée sur l’utilisateur. Notre recherche est plus spécifiquement orientée vers l’étude des systèmes mécaniques de type poste de travail. En effet, l’une des problématiques actuelles pour les industriels est de pouvoir concevoir des postes de travail en adéquation avec la composante humaine et ceci dans le but d’éviter l’apparition de disfonctionnements qui sont aujourd’hui matérialisés par des maladies professionnelles de type Troubles Musculo-Squelettiques (1ère maladie professionnelle déclarée en France et en Europe). Nous proposons pour cela d’étudier la notion d’usage (ou d’utilisabilité) des produits industriels à travers l’intégration de la discipline « ergonomie » dans le processus de conception. En effet, nos travaux bien que conduits dans le domaine des Sciences Pour l’Ingénieur, spécialité Génie mécanique (60ème section du CNU), ont tenté de prendre en considération le point de vue du métier ergonomie à travers une approche pluridisciplinaire. Dans ce contexte, nous positionnons notre recherche dans les domaines du Design For Ergonomics (conception pour l’ergonomie) et du Design For Usability (Conception pour l’utilisabilité) qui s’inscrivent plus globalement dans le Design For X (Conception en vue de X). Ainsi, notre objectif est de définir des méthodes et des outils qui visent à être intégrées au processus de conception de produit pour concevoir l’usage par l’intégration du métier ergonomie. Pour cela, à travers une première série d’expérimentations menée dans le domaine de la fabrication d’articles de maroquinerie de luxe, nous étudions successivement deux hypothèses de recherche. Notre première hypothèse de recherche introduit l’idée que : concevoir l’usage d’un système mécanique, à l’état numérique, équivaut à concevoir une interaction entre l’utilisateur réel et ce système. Dans cette optique de recherche, nous étudions le domaine d’application du prototypage virtuel qui présente aujourd’hui une montée en puissance importante grâce à la généralisation des outils de simulation numérique dans le domaine de l’ingénierie mécanique et de la conception. La deuxième hypothèse de recherche consiste à étudier la contribution de la réalité virtuelle, en tant qu’outil de prototypage virtuel temps réel, pour concevoir la fonction d’usage d’un produit donc l’interaction homme/produit numérique. Dans le cadre d’une deuxième série d’expérimentations conduites dans le domaine de l’industrie automobile et de l’agroalimentaire, nous étudions une troisième hypothèse de recherche. Cette troisième hypothèse de recherche suppose que la RV peut être utilisée pour concevoir de manière interactive le couple produit/usage plus tôt dans le processus de conception et notamment durant la phase d’études préliminaires. Dans un souci de généralisation de nos résultats expérimentaux, nous avons émis différentes limitations à nos résultats. Ces dernières nous ont amené à considérer l’intégration de la réalité virtuelle dans le processus de conception à travers la définition d’activités de conception. Nous proposons ainsi une quatrième hypothèse de recherche : « la réalité virtuelle peut être intégrée, de manière structurée, au processus de conception et de développement de produits centré sur l’homme ». Notre contribution finale, basée sur le retour d’expérience de l’ensemble des expérimentations présentées, introduit donc une méthodologie originale de Conception de l’Usage assistée par Réalité Virtuelle (CURV). La première originalité de nos travaux est de proposer l’application de notre méthodologie à tous les stades de la conception mettant en jeu des maquettes numériques (ou prototype virtuel). Nous introduisons pour cela la notion de « point de rencontre virtuel » qui permet de soutenir la collaboration et l’intégration des différents métiers dans la conception. La méthodologie CURV définit de manière structurée l’impact des outils de RV durant le processus de conception du produit et de l’usage associé. Ainsi, nous avons défini les acteurs de la conception touchés par les simulations en RV du prototype virtuel et de l’usage associé mais aussi le contexte d’action pour les concepteurs à travers la définition de rôles qui peuvent leur être assignés lors des simulations en RV. Nous proposons ainsi trois activités de conception mettant en œuvre les outils de RV, dans le cadre de la méthodologie CURV, qui sont l’analyse ergonomique qualitative du couple produit/usage en RV, l’évaluation ergonomique quantitative du couple produit/usage en RV et la conception en RV du prototype virtuel et de l’usage associé. La première activité de conception en RV propose d’évaluer, de manière immersive et interactive, le couple produit/usage sur la base de commentaires subjectifs (aspects qualitatifs de l’usage). La seconde originalité de nos travaux est de proposer une deuxième activité de conception, supportée par la RV, qui intègre des outils d’analyses ergonomiques quantitatifs de l’usage pour compléter les recommandations qualitatives déjà obtenues. La troisième originalité de nos travaux réside dans la troisième activité de conception en RV qui consiste à modifier de manière interactive et en temps réel le prototype virtuel lors des simulations en RV en fonction des évaluations ergonomiques (objectives et subjectives) précédentes. Pour cela, nous avons développé un module d’assemblage en RV, de type CAO, qui permet à l’ingénieur mécanicien de modifier dans une certaine limite l’architecture du poste de travail virtuel. Un retour direct, des modifications apportées lors des simulations en RV, au niveau du modèle CAO natif est réalisé grâce au couplage des outils de RV et des outils de CAO paramétrée ce qui diminue en partie les problèmes d’interopérabilité. Nous assurons finalement une continuité dans l’évolution du prototype virtuel au cours de sa conception. En effet, les paramètres modifiés sur le prototype virtuel sont stockés dans un outil de conception collaboratif de type PLM et peuvent être réutilisés, par la suite, par d’autres acteurs de la conception, assurant ainsi une mise à jour permanente des données du produit
Our thesis work carried out in the Systems and Transport laboratory (ERCOS team), deals with user-centred mechanical systems design. Our research is more specifically directed towards studying the mechanical systems which concern workstations. Indeed, one of the current problems for the industrialists is to be able to design workstations which are suitable for human (users/operators). The aim is to avoid the kind of serious health problems which are becoming apparent today, such as “repetitive strain injuries” (1st occupational disease declared in France and Europe). With this objective, we propose to study the “use” (or usability) of industrial equipment, by integrating “ergonomics” into the design process. Although our work was carried out in the field of Engineering Science (Mechanical engineering), we tried to take the ergonomics aspect into account through a multi-disciplinary approach. Consequently, our research is centred within the Design For Ergonomics (DFE) and design For Usability (DFU) disciplines which comes under the discipline of Design For X (DFX). Thus, our objective is to define a methodology, and associated tools, to be integrated into the ergonomic design process of both product and use. Thus, we successively studied two research hypotheses, by means of a first set of experiments carried out in the field of fine leather luxury goods. Our first research hypothesis is to study the use of a numerical mechanical system via the design of an interaction between the real user and this system. The second research hypothesis is to study the usefulness of virtual reality (VR), as a real-time virtual prototyping tool, to design the “use function” of the product and so the “human/numerical product” interaction. Within the context of a second set of experiments, carried out in the automobile industry and agro-alimentary fields, we studied a third research hypothesis. This third assumption is that VR can be used to design, in an interactive way, both the product and the product use earlier in the design process and in particular during the phases of preliminary studies and detailed studies. In order to generalise our experimental results, we identified various limitations of our results. It led us to consider integrating virtual reality into the design process through the definition of “design activities”. We thus propose a fourth research hypothesis: “virtual reality can be integrated, in a structured way, into a human-centred product design and development process”. Thus, our final contribution, based on all feedback from these experiments, introduces an original design methodology called Virtual Reality Aided Design for Use (VRADU). The first originality of our work is to propose using the application of VRADU methodology in all design stages implying a digital mock-Up (DMU) or a virtual prototype. For this reason, we introduced the concept of “virtual reality meeting point” which makes it possible to support the teamworking and the integration of the various disciplines within the design process. VRADU methodology defines, in a structured way, the impact of VR tools during the design of the product and its associated use. Thus, we defined the design actors concerned by the “virtual prototype and associated use” simulations in VR. We also defined their actions through role definition which can be assigned to them during simulations in VR. We proposed three “design activities” which use VR tools, within the VRADU methodology framework. These are: the qualitative ergonomic analysis of both product and associated use in VR, the quantitative ergonomic evaluation of both the product and associated use in VR and the design of the virtual prototype and its associated use in VR. The first “design activity” in VR proposes to evaluate, in an immersive and interactive way, product and product-use on the basis of subjective comments (qualitative aspects of use). The second originality of our work is to propose a second “design activity”, carried out using VR, which integrates tools for quantitative ergonomic analysis of the use, in order to supplement the qualitative recommendations already obtained. The third originality of our work lies in the third “design activity” in VR which is to modify the virtual prototype , in an interactive way and in real-time, during simulations in VR according to the previous ergonomic evaluations (objective and subjective) already made. For that, we developed a CAD type VR assembly module which makes it possible for the mechanical engineer to modify the virtual workstation structure within certain limits. A direct update of these modifications is possible on the native CAD model level due to the connection between the VR tools and the parametric CAD tools. This partially decreases the interworking problems between the various simulation tools. Finally, we ensured continuity in the virtual prototype development during its design. Indeed, the parameters modified on the virtual prototype are stored in a collaborative design tool of PLM type. These parameters can be re-used, thereafter, by other designers, thus ensuring permanent updating of the product data
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Warriner, Vanessa. "La responsabilité des controleurs aériens dans les systèmes américain et français /". Thesis, McGill University, 2000. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=30804.

Texto completo
Resumen
At the international level, standards and recommended practices adopted by the ICAO have settled the general framework followed by States in the provision of ATC services. However, as those international instruments have no binding effect, liability of air traffic controllers is governed by national regulations. Therefore, if in both the United States and France the liability regime is based on fault, nevertheless the nature of the fault and the one of the duties of air traffic controllers, as determined by the courts of each States, differ. This lack of uniformity is also obvious regarding the comparison between controllers' and pilots' liabilities. To mitigate the consequences of the deficiency of harmonisation, taking into account technical improvements inherent to the field of ATC and, broadly, to air navigation, two solutions have been suggested. The first one, Free flight, is still under study whereby the second one, privatisation, has already been successfully implemented in several countries and, while being strongly considered by the French government, has by now been initiated by the American one. However, we will have no option but to ascertain that such solutions will not solve the problem pertaining to disparities of regulations and holding of the courts on the matter of air traffic controllers' liability.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Crémilleux, Damien. "Visualization for information system security monitoring". Thesis, CentraleSupélec, 2019. http://www.theses.fr/2019CSUP0013.

Texto completo
Resumen
Le centre opérationnel de sécurité, SOC, est un élément central pour la sécurité des systèmes d’information. Danscette thèse, nous nous intéressons à ses limites et proposons un nouveau processus et deux outils visuels pour yrépondre. Nos contributions permettent à la fois une meilleure collaboration entre les analystes travaillant ausein des SOCs, ainsi que de faciliter visuellement le triage des événements de sécurité au sein des systèmesd’informations
A security operations center, SOC, is a key element for the security of information systems. In this thesis, weexhibited the limitations of SOCs and proposed a process associated with two tools to answer them. Ourcontributions enable a better collaboration between the security analysts working in SOCs and facilitate securityevents triage thanks to visualization
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Morgère, Jean-Christophe. "Mobile augmented reality system for maritime navigation". Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS365/document.

Texto completo
Resumen
A l'instar d'autres domaines d'activités, l'environnement du marin s'est enrichi d'appareils électroniques à des fins d'aide à la navigation et de sécurité. Dans le cas de la navigation maritime, ces dispositifs ont pour principal but de donner des informations sur l'environnement dans lequel évolue le bateau: profondeur d'eau, bouées de signalisation par exemple et sur son état: cap, vitesse, etc. La complexité et le nombre d'appareils à bord des bateaux dépendent de la taille du bateau, d'un GPS portatif pour un jet-ski à un ensemble complexe d'ECDIS, de radar et d'AIS sur les cargos. Aujourd'hui, malgré l'évolution des appareils d'aide à la navigation, les accidents perdurent (échouage et collisions) et sont en partie dus aux erreurs humaines (33%). Il existe 3 grandes causes:- La charge cognitive trop importante. Cette dernière est liée à la complexité des appareils (ECDIS par exemple) [Jie and Xian-Zhong, 2008], leurs nombres et leurs orientations différentes de la vue pont [Prison and Porathe, 2007].- La mobilité de l'information. La majorité des appareils électroniques à bord des bateaux est positionné à un endroit et ne permet pas l'accès aux données en dehors de cet emplacement.- Le manque de pratique de plaisanciers. Les règles de navigation sont indispensable à la sécurité du marin et peuvent être oubliées par manque de pratique et causent des incidents (ou accidents). Dans ces travaux, nous proposons une solution mobile pour rendre accessible Les données en tout point du bateau. De plus, le prototype est basé sur la technologie de réalité augmentée pour afficher les données dans le champ de vision de l'utilisateur pour une réduction de la charge cognitive. Enfin l'application exécutée sur le prototype délivre uniquement les informations essentielles pour une navigation sécurisée. La première partie de cette thèse détaille une étude utilisateur menée pour comprendre les habitudes et les besoins des plaisanciers afin de sélectionner les données à afficher et leur représentation graphique. Suite à cette étude, une analyse du besoin logiciel et matériel a été menée. Le but de cette analyse est de lister les différents éléments pouvant supporter les contraintes maritimes (soleil, brouillard, nuit, houle, mobilité) afin de proposer un appareil et une application mobile sur technologie de réalité augmentée. La deuxième partie de cette thèse aborde le design du prototype (architecture, display) et du logiciel. Cet ensemble a pour but d'aider le plaisancier lors de conditions météos difficiles. La technologie mise en œuvre dans ce nouvel outil est la réalité augmentée, plus précisément Optical See-through. Le principe de l'application exécutée sur le prototype est un serveur proposant des services à l'utilisateur en fonction des appareils disponibles à bord du bateau tout en limitant la charge cognitive du marin. En effet, l'application conserve uniquement les informations utiles et les affiche dans le champ de vision de l'utilisateur, de plus elles sont superposées à sa vue directe sur le monde.La dernière partie, elle, décrit le générateur de carte qui nous permet d'extraire les données maritimes issues de différents formats de carte pour les adapter au format 3D utilisé dans l'application. Ce dernier est capable de placer automatiquement des objets 3D pour représenter le système de balisage, les amers, etc. Ce générateur a été développé pour reconstituer des zones interdites comme les zones de profondeurs, d'interdiction de chasse sous-marine, etc. Ceci a été mis en œuvre afin de répondre au mieux aux besoins de tous types de plaisanciers, de l'utilisateur de jet-ski au yacht et du pêcheur au plongeur amateur par exemple
Compared to the other activities, the sailor's environment has been enhanced with electronic devices in order to help the sailor and improve the security. In case of maritime navigation, these devices are mainly used to give information on the environment which the boat moves such as the water depth, seamarks for instance and its state: bearing, speed, etc. The complexity and the number of devices onboard depend on the boat size, from a wearableGPS on a jet-ski to a complex set of ECDIS, radar and AIS on a merchant ship. Today, despite the evolution of the navigational aid devices, the accidents still happen and they are due in part to human errors (33%). There are 3 main causes: The cognitive load issue. The latter is linked to the complexity of devices (ECDIS for instance [Jie and Xian-Zhong, 2008]); their quantity and their orientations which is different from the bridge view or the user's field of view [Prison and Porathe, 2007]. The information's mobility. Most of the devices onboard are put in a specific place and the data are not accessible outside this place. The lack of practice of the recreational boats owner. The maritime navigation rules are vital to sail safely but some of sailors can forget some significations and an accident may result from a wrong choice.In this thesis, we provide a mobile solution to make accessible data everywhere on the boat. Furthermore, the prototype is based on the augmented reality technology to display data in the user's field of view to reduce cognitive load. Finally, the application run on the prototype delivers only the relevant information for a safe navigation. The first part in this thesis details a user study conducted to understand the sailor's habits and their needs in order to select data to display and their graphical representation. Following this study, a needs analysis on the software and hardware has been realized. The purpose of this analysis is to list the different elements that are usable under maritime constraints (sun, fog, night, swell, mobility) in order to provide a device and a mobile application based on the augmented reality technology.The second part in this thesis reaches the prototype (architecture, display) and the software design. Both of them aim to help the sailors when the weather is bad. The technology used in this new tool is the augmented reality, more precisely an Optical see-Through system. The principle of the application run on the prototype is like a server, which provides services to the user depending on devices available onboard, while limiting the sailor's cognitive load. Indeed, the applications keeps only the useful data and display them in the user's field of view, furthermore they are superimposed on his/her direct view of the world.The last part in this thesis details the chart generator, which allows us to extract maritime data from different chart formats to adopt the 3D one used in the application. The latter is able to automate the placement of the 3D objects to build the buoyage system, landmarks, etc. This generator has been developed to recreate the danger areas such as depth areas, prohibited diving areas and so on. This has been done to satisfy user's expectations from the jet-ski to the yacht owner and the fisher man to the diver for instance
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Cisneros, Montoya Rafael. "Commande PI basée sur la passivité : application aux systèmes physiques". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS187/document.

Texto completo
Resumen
Le régulateur PID (Proportionnel-Intégral-Dérivée) est la commande par retour d'état la plus connue. Elle permet d'aborder un bon nombre de problèmes de commande, particulièrement pour des systèmes faiblement non linéaire et dont la performance requise est relativement modeste. En plus, en raison de sa simplicité, la commande PID est largement utilisée en l'industrie. Étant donnés que les méthodes de réglage de la commande PID sont basées sur la linéarisation, la synthèse d'un contrôleur autour d'un point d'équilibre est relativement simple, néanmoins, la performance sera faible dans des modes de fonctionnement loin du point d'équilibre. Pour surmonter ce désavantage, une pratique courante consiste en adapter les gains du PID, procédure connue sous le nom de séquencement de gain (ou gain-scheduling en anglais). Il y a plusieurs désavantages à cette procédure, comme la commutation des gains de la commande et la définition -non triviale- des régions de l'espace d'état dans lesquelles cette commutation aura lieu. Ces deux problèmes se compliquent quand la dynamique est fortement non linéaire. Dans d'autres méthodes, la synthèse de la commande utilise des schémas empiriques, ce qui ne permet pas l'analyse de la stabilité globale du processus. Dans ce contexte, ce travail de thèse a pour objectif de synthétiser des contrôleurs PI, basés sur la passivité, de telle sorte que la stabilité globale du système en boucle fermé soit garantie. L'un des avantages à utiliser la passivité est son attrait intuitif, qui exploite les propriétés physique des systèmes. L'idée centrale dans un système passive est que l'écoulement d'énergie entrante au système provenant de l'extérieur n'est pas inférieur à l'incrément de son énergie de stockage. Par conséquence, ces systèmes ne peuvent pas stocker plus d'énergie que celle fournie, dont la différence correspond à l'énergie dissipée. En introduisant le concept d'énergie, cette méthodologie nous permet de formuler le problème de commande en celui de trouver un système dynamique dont la fonction de stockage d'énergie prend la forme désirée. En incorporant le concept d'énergie cette méthode devient accessible à la communauté de praticiens et permets de fournir des interprétations physique de l'action de commande. Dans cette thèse, une méthodologie constructive de commande PI basée sur la passivité est présentée et motivée par des applications à des systèmes physiques
One of the best known forms of feeding back a system is through a three-term control law called PID (Proportional-Integral-Derivative) controller. PID controllers are sufficient for many control problems, particularly when process dynamics are not highly nonlinear and the performance requirements are modest. Besides, because of its simple structure, the PID controller is the most adopted control scheme by industry and practitioners, beeing the PI the form mostly employed. Since the PI tuning methods are based on the linearization, commissioning a PI to operate around a single operating point is relatively easy, however, the performance will be below par in wide operating regimes. To overcome this drawback the current practice is to re-tune the gains of the PI controllers based on a linear model of the plant evaluated at various operating points, a procedure known as gain-scheduling. There are several disadvantages of gain-scheduling including the need to switch (or interpolate) the controller gains and the non-trivial definition of the regions in the plants state space where the switching takes place - both problems are exacerbated if the dynamics of the plant is highly nonlinear. In other common scenarios, a little information about the process dynamics or only a "good" linear approximation is taken into account when designing the control design. This impedes to analyse the global stability of the system. In this context, the current thesis work is aimed at the designing of PI controllers, based on the passivity theory, such that the stability of the closed-loop system is guarantied. One of the main advantages of passivity concepts is that they offer a physical and intuitive appeal. The primary idea in passive systems is that the power flowing into the system is not less that the increase of storage. Thus, they cannot store more energy than is supplied to it from the outside, with the difference being the dissipated energy. Thus, introducing the concept of energy, this methodology allows to recast the control problem as finding a dynamical system such that system energy function takes the desired form. Also, with this formulation, the communication between practitioners and control theorists is facilitated, incorporating prior knowledge of the system and providing physical interpretations of the control action. In this thesis, a constructive methodology for deriving PI passivity-based controllers is presented and motivated by the application to physical systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Wailly, Aurélien. "End-to-end security architecture for cloud computing environments". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0020.

Texto completo
Resumen
La virtualisation des infrastructures est devenue un des enjeux majeurs dans la recherche, qui fournissent des consommations d'énergie moindres et des nouvelles opportunités. Face à de multiples menaces et des mécanismes de défense hétérogènes, l'approche autonomique propose une gestion simplifiée, robuste et plus efficace de la sécurité du cloud. Aujourd'hui, les solutions existantes s'adaptent difficilement. Il manque des politiques de sécurité flexibles, une défense multi-niveaux, des contrôles à granularité variable, ou encore une architecture de sécurité ouverte. Ce mémoire présente VESPA, une architecture d'autoprotection pour les infrastructures cloud. VESPA est construit autour de politiques qui peuvent réguler la sécurité à plusieurs niveaux. La coordination flexible entre les boucles d'autoprotection réalise un large spectre de stratégies de sécurité comme des détections et des réactions sur plusieurs niveaux. Une architecture extensible multi plans permet d'intégrer simplement des éléments déjà présents. Depuis peu, les attaques les plus critiques contre les infrastructures cloud visent la brique la plus sensible: l'hyperviseur. Le vecteur d'attaque principal est un pilote de périphérique mal confiné. Les mécanismes de défense mis en jeu sont statiques et difficile à gérer. Nous proposons une approche différente avec KungFuVisor, un canevas logiciel pour créer des hyperviseurs autoprotégés spécialisant l'architecture VESPA. Nous avons montré son application à trois types de protection différents : les attaques virales, la gestion hétérogène multi-domaines et l'hyperviseur. Ainsi la sécurité des infrastructures cloud peut être améliorée grâce à VESPA
Since several years the virtualization of infrastructures became one of the major research challenges, consuming less energy while delivering new services. However, many attacks hinder the global adoption of Cloud computing. Self-protection has recently raised growing interest as possible element of answer to the cloud computing infrastructure protection challenge. Yet, previous solutions fall at the last hurdle as they overlook key features of the cloud, by lack of flexible security policies, cross-layered defense, multiple control granularities, and open security architectures. This thesis presents VESPA, a self-protection architecture for cloud infrastructures. Flexible coordination between self-protection loops allows enforcing a rich spectrum of security strategies. A multi-plane extensible architecture also enables simple integration of commodity security components.Recently, some of the most powerful attacks against cloud computing infrastructures target the Virtual Machine Monitor (VMM). In many case, the main attack vector is a poorly confined device driver. Current architectures offer no protection against such attacks. This thesis proposes an altogether different approach by presenting KungFuVisor, derived from VESPA, a framework to build self-defending hypervisors. The result is a very flexible self-protection architecture, enabling to enforce dynamically a rich spectrum of remediation actions over different parts of the VMM, also facilitating defense strategy administration. We showed the application to three different protection scheme: virus infection, mobile clouds and hypervisor drivers. Indeed VESPA can enhance cloud infrastructure security
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Sbai, Hugo. "Système de vidéosurveillance intelligent et adaptatif, dans un environnement de type Fog/Cloud". Thesis, Lille, 2018. http://www.theses.fr/2018LIL1I018.

Texto completo
Resumen
Les systèmes de vidéosurveillance utilisent des caméras sophistiquées (caméras réseau, smart caméras) et des serveurs informatiques pour l’enregistrement vidéo dans un système entièrement numérique. Ces systèmes intègrent parfois des centaines de caméras et génèrent une quantité colossale de données, dépassant largement les capacités des agents humains. Ainsi, l'un des défis modernes les plus importants est de faire évoluer un système basé sur le Cloud intégrant plusieurs caméras intelligentes hétérogènes et l'adapter à une architecture Fog/Cloud pour en améliorer les performances. Les FPGA sont de plus en plus présents dans les architectures FCIoT (FoG-Cloud-IoT). Ils sont caractérisés par des modes de configuration dynamiques et partiels, permettant de s'adapter rapidement aux changements survenus tout en augmentant la puissance de calcul disponible. De telles plateformes présentent de sérieux défis scientifiques, notamment en termes de déploiement et de positionnement des FoGs.Cette thèse propose un modèle de vidéosurveillance composé de caméras intelligentes plug & play, dotées de FPGAs dynamiquement reconfigurables sur une base hiérarchique FOG/ CLOUD. Dans ce système fortement évolutif, à la fois en nombre de caméras et de cibles trackées, nous proposons une approche automatique et optimisée d’authentification des caméras et de leur association dynamique avec les FoGs. L’approche proposée comporte également une méthodologie pour l’affectation optimale des trackers matériels aux ressources électroniques disponibles pour maximiser les performances et minimiser la consommation d’énergie. Toutes les contributions ont été validées avec un prototype de taille réelle
CCTV systems use sophisticated cameras (network cameras, smart cameras) and computer servers for video recording in a fully digital system. They often integrate hundreds of cameras generating a huge amount of data, far beyond human agent monitoring capabilities. One of the most important and modern challenges, in this field, is to scale an existing cloud-based video surveillance system with multiple heterogeneous smart cameras and adapt it to a Fog / Cloud architecture to improve performance without a significant cost overhead. Recently, FPGAs are becoming more and more present in FCIoT (FoG-Cloud-IoT) platform architectures. These components are characterized by dynamic and partial configuration modes, allowing platforms to quickly adapt themselves to changes resulting from an event, while increasing the available computing power. Today, such platforms present a certain number of serious scientific challenges, particularly in terms of deployment and positioning of FoGs. This thesis proposes a video surveillance model composed of plug & play smart cameras, equipped with dynamically reconfigurable FPGAs on a hierarchical FOG / CLOUD basis. In this highly dynamic and scalable system, both in terms of intelligent cameras (resources) and in terms of targets to track, we propose an automatic and optimized approach for camera authentication and their dynamic association with the FOG components of the system. The proposed approach also includes a methodology for an optimal allocation of hardware trackers to the electronic resources available in the system to maximize performance and minimize power consumption. All contributions have been validated with a real size prototype
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Fouquet, Céline. "Bases neurales des systèmes de mémoire et de leurs dysfonctionnents au cours du vieillissement". Paris 6, 2009. http://www.theses.fr/2009PA066425.

Texto completo
Resumen
La navigation est une fonction cognitive permettant de se repérer dans un environnement et de mettre en place une trajectoire vers un but en utilisant différentes stratégies. Celles-ci peuvent reposer sur l’organisation spatiale des informations de l’environnement (stratégie allocentrique) ou sur l’organisation temporelle de mouvements du corps (stratégie égocentrique séquentielle). Nous avons montré que des structures décrites comme appartenant à des systèmes mnésiques différents (hippocampe et striatum dorsomédian) sont activées lors de l’utilisation de ces deux stratégies et pourraient coopérer pour promouvoir un comportement de navigation reposant sur l’organisation spatio-temporelle d’informations. Ce type de comportement semble particulièrement sensible aux effets de l’âge. Nous avons détecté des déficits mnésiques précoces chez des souris de 10 mois (correspondant au tiers de leur espérance de vie) n’utilisant pas les stratégies allocentrique ou égocentrique séquentielle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Jagoret, Patrick. "Analyse et évaluation de systèmes agroforestiers complexes sur le long terme : application aux systèmes de culture à base de cacaoyer au Centre Cameroun". Thesis, Montpellier, SupAgro, 2011. http://www.theses.fr/2011NSAM0012.

Texto completo
Resumen
La cacaoculture est aujourd'hui considérée comme un des principaux facteurs de déforestation en milieu tropical. Dans de nombreux pays, elle repose en effet sur un modèle technique peu durable de monoculture intensive impliquant le déplacement des zones de production. Souvent délaissés par la recherche en raison de leurs faibles rendements en cacao marchand, les systèmes agroforestiers à base de cacaoyer apparaissent aujourd'hui comme une alternative crédible pour faire face aux nouveaux enjeux de la cacaoculture mondiale. Au Centre-Sud du Cameroun, la cacaoculture repose en grande partie sur des cacaoyères agroforestières anciennes, ce qui pose l'hypothèse qu'un modèle de cacaoculture durable basé sur des systèmes de culture agroforestiers est possible. Notre objectif est de mieux comprendre le fonctionnement de ces systèmes agroforestiers à base de cacaoyer, à travers leurs caractéristiques, leurs évolutions et leurs déterminants, ainsi que les conditions de leur production en cacao marchand sur le long terme. Notre démarche articule à la fois une évaluation des systèmes agroforestiers complexes à l'échelle de la parcelle et une analyse compréhensive des pratiques techniques sur le temps long. La thèse repose sur un dispositif de recherche mis en place dans la région du Centre, dans trois zones de culture différenciables par leurs conditions pédo-climatiques (Bokito, Zima et Ngomedzap). Une enquête d'agriculteurs a été réalisée à grande échelle (1 171 exploitations regroupant 1 638 cacaoyères), complétée par des observations spécifiques réalisées dans un réseau de 61 cacaoyères exploitées par 40 agriculteurs. Résultats. (1) Nos résultats d'enquête, complétés par des observations spécifiques, ont confirmé la durabilité des systèmes agroforestiers à base de cacaoyer aux plans agro-écologique et socio-économique. (2) Dans la zone de transition forêt-savane, considérée comme sub-optimale pour la cacaoculture, nous avons montré que le modèle technique adopté par les agriculteurs leur permet d'installer sur savane des cacaoyères viables sur le long terme. (3) Une méthode participative de quantification de la valeur d'usage des espèces par les agriculteurs, appliquée sur le réseau d'observation, a confirmé la multifonctionnalité des systèmes agroforestiers et mesuré la place qu'y occupe la composante cacaoyère. (4) L'évaluation des peuplements cacaoyers, réalisée en adaptant la méthode de diagnostic agronomique régional aux systèmes complexes, a permis d'identifier les facteurs limitant le rendement en cacao marchand. Celui-ci s'avère étroitement lié à la structure des peuplements cacaoyers et à celle des peuplements associés. (5) Enfin, l'analyse compréhensive des pratiques des agriculteurs sur le long terme, en lien avec l'évolution technique des peuplements cacaoyers a confirmé la flexibilité des systèmes agroforestiers à base de cacaoyer. Cette flexibilité peut être traduite par des trajectoires d'évolution des pratiques et des trajectoires de structures spécifiques. Ce travail fournit une nouvelle base méthodologique pour l'analyse et l'évaluation des systèmes agroforestiers complexes. L'ensemble des résultats et des connaissances produites dans ce travail permet de formuler des propositions pour la mise au point d'un nouveau modèle technique en cacaoculture
Cocoa cultivation is generally considered as one of the main deforestation factors in the Tropics. Indeed, in many countries it is based on a low-sustainability technical model of intensive monocrops with shifting production zones. Cocoa agroforests, which are often neglected by research due to their low fermented dried cocoa yields, now appear to be a credible alternative for taking up the new challenges facing world cocoa production. In Centre-South Cameroon, cocoa cultivation is largely based on old cocoa agroforests, which suggests that a sustainable cocoa growing model based on agroforestry systems is possible. Our aim was to more effectively understand how these cocoa agroforests function, through their characteristics, their evolution and their determinants, along with the conditions for their long-term fermented dried cocoa production. Our approach consisted of an evaluation of cocoa agroforests on a plot scale and a comprehensive analysis of technical practices over the long term. The thesis is based on an experimental design set up in the Centre region, in three growing zones that could be differentiated through their pedo climatic conditions (Bokito, Zima and Ngomedzap). A large-scale survey was undertaken (1,171 farms grouping 1,638 cocoa plantations) completed by specific observations collected in a network of 61 cocoa agroforests managed by 40 farmers. Results. (1) Our survey results, completed by specific observations, confirmed the sustainability of the cocoa agroforestry systems from an agro ecological and socio-economic viewpoint. (2) In the forest-savannah transition zone, which is considered sub-optimum for cocoa cultivation, we confirmed that the technical model adopted by the farmers enabled them to set up cocoa agroforests on savannah that were viable over the long term. (3) In the network, a participatory method applied to quantify the use value given to the species by the farmers confirmed the multi-functionality of cocoa agroforests and measured the place occupied in it by cocoa. (4) The evaluation of the cocoa tree stands, achieved by adapting the regional agronomic diagnosis method to complex systems, revealed the factors limiting cocoa yield. It was proved that cocoa yield is closely linked to the structure of the cocoa tree stand and that of the intercropped stands. (5) Lastly, a comprehensive analysis of farmer practices over the long term, in association with the evolution of the technical management of the cocoa tree stands, confirmed the flexibility of cocoa agroforestry systems. This flexibility was reflected in the evolution pathways for specific practices and structures. This work provides a new methodological basis to assess the performance of complex agroforestry systems. All the results and knowledge produced by this work make it possible to draw up proposals for developing a new technical model for cocoa growing
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Louis, Julien. "Discrétisation des systèmes de Lur'e : stabilisation et consistance". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0080/document.

Texto completo
Resumen
De récents résultats sur l’étude des systèmes de Lur’e (commutés) à temps discret mettent en avant une fonction de Lyapunov de type Lur’e avancée, dont les lignes de niveau peuvent être non convexes et non connexes. Celles-ci soulèvent de larges questions pour les systèmes de Lur’e à temps discret obtenus par la discrétisation d’un système continu. Les contributions de cette thèse sont d’apporter des éléments de réponse à ces questions. Tout d’abord, le verrou des lignes de niveau non-connexes est levé en construisant à partir de celles-ci une suite décroissante d’ensembles connexes et bornés qui converge vers l’origine et qui contient le futur de la trajectoire à temps continu. Dans un second temps, le problème de la stabilisation conjointe d’un système de Lur’e à données échantillonnées avec un échantillonnage non-uniforme est traité. Quand la période d’échantillonnage est à choisir parmi un nombre fini de valeurs, il est montré que ce problème se traduit comme la stabilisation conjointe d’un système commuté de Lur’e avec des incertitudes bornées en norme. En associant de plus à chaque mode un critère quadratique, une stratégie de type min-switching permet de résoudre cette question à l’aide d’un problème d’optimisation sous contraintes LMI. Enfin, les propriétés de la stratégie de min-switching pour les systèmes de Lur’e commutés à temps discret sont étudiées. Une extension de la notion de consistance permet de prouver que cette stratégie est consistante vis-à-vis de majorants quadratiques modaux du critère de performance et ainsi de garantir l’intérêt de la stratégie d’échantillonnage non-uniforme développée
Recent studies dealing with discrete-time (switched) Lur’e systems involve an adapted Lur’e type function exhibiting possibly non-convex and disconnected level sets. These properties raise fundamental issues in the case of discrete-time Lur’e system obtained by the sampling of a continuous time one. This PhD thesis aims at answering these questions. The first contribution is to avoid the discrete-time disconnected level sets by a decreasing sequence of bounded and connected sets that converges to the origin and that contain the future of the continuous-time trajectory. The second contribution deals with the joint stabilization of a sampled-data Lur’e system with non-uniform sampling. When the sampling period belongs to a finite set of values, this problem is reformulated as the joint stabilization of a discrete-time Lur’e switched system with norm-bounded uncertain parameters. Futhermore, if a quadratic criterion is associated with each mode, a min-switching strategy combined with LMI constraints allow to provide a solution to this problem. Finally the property of consistency for discrete-time switched Lur’e systems is investigated. It is shown that the min-switching strategy is consistent with respect to quadratic upper bounds of the performances. This result is applied on the stabilization of Lur’e systems with non-uniform sampling
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Sneessens, Inès. "La complémentarité entre culture et élevage permet-elle d’améliorer la durabilité des systèmes de production agricole ? : Approche par modélisation appliquée aux systèmes de polyculture-élevage ovin allaitant". Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22505/document.

Texto completo
Resumen
La spécialisation des systèmes agricoles et des territoires montre ses limites, principalement d’un point de vue environnemental mais aussi économique si les prix augmentent. La diversification et l’intégration de culture et d’élevage au sein des exploitations apparaît être une solution de production plus durable, mais leur fonctionnement n’est pas totalement appréhendé. Nous émettons les hypothèses qu’il existe des conditions d’intégration sous lesquelles les systèmes de polyculture-élevage (PCE) sont effectivement plus durables que les systèmes spécialisés et que les méthodes de caractérisation et d’évaluation des systèmes de polyculture-élevage ne permettent pas d’identifier ces conditions. Dans l’objectif de vérifier ces hypothèses, nous avons développé le modèle Sheep’n’Crop pour simuler des systèmes de polyculture-élevage ovin allaitant contrastés auxquels deux types d’analyses ont été effectuées : (i) analyses d’indicateurs économiques, de productivité et environnementaux (GES, MJ, bilan N) à l’échelle de l’exploitation agricole et des ateliers de production en vue d’évaluer la durabilité des systèmes, et (ii) analyse d’efficience énergétique à partir de la méthode de frontière de production DEA pour caractériser la complémentarité des ateliers de culture et d’élevage. Ces analyses ont été menées sur trois stratégies de production à possibilités d’interactions décroissantes – systèmes intégrés, non-intégrés, diversifiés fictifs – au sein desquels l’organisation culture-élevage (% culture) et la saisonnalité de la production ovine (printemps ou automne) varient. L’évaluation de la durabilité montre que les interactions culture-élevage et une mise-bas de printemps permettent d’améliorer tous les indicateurs de durabilité, mais un pourcentage de culture élevé réduit les performances pour la consommation d’énergie non-renouvelable et le bilan azoté. La caractérisation de l’intégration des systèmes PCE par leur gain d’efficience énergétique – la complémentarité - montre que les systèmes intégrés et non-intégrés simulés sont plus efficients que les systèmes diversifiés fictifs de +6.4% et +0.4%. Le lien entre l’indicateur de complémentarité et la durabilité des systèmes est néanmoins difficile à établir étant donné l’existence de trade-off. Nous recommandons de compléter ces résultats en améliorant la considération des contextes pédoclimatiques et socio-économique, de l’efficience d’échelle de production, du niveau d’intensification de l’atelier animal et des effets agronomiques et techniques des interactions culture-élevage
Specialization of farming systems and territories are not environmental-friendly, moreover those systems are threatened by the expected higher prices of inputs of production. Diversification and integration of crop and livestock at the farming system scale appears to be a valuable way to enhance farming system sustainability. We posit that they must be conditions of integration that permit mixed crop-livestock systems to be more sustainable than specialized systems and that existing methods of mixed crop-livestock systems characterization do not permit identifying those conditions. To test those hypothesis, we designed a whole-farm model – Sheep’n’Crop – that permits simulating contrasted mixed crop-livestock systems and evaluating (i) their sustainability through economic, productive and environmental (MJ, GHG, N balance) indicators and (ii) their energetic efficiency through a DEA production frontier analysis in order to characterize the complementarity that exists between crop and livestock subsystems. Those analyses were run on three contrasted farming system strategies, distinguished by a decreasing possibility of interactions between crop and livestock subsystems: integrated systems, non-integrated systems and virtual diversified systems. Those systems are also characterized by various crop-livestock organizations (% of crops) and lambing’s periods (spring or autumn). The analysis of sustainability indicates that crop-livestock interactions and spring seasonality permit enhancing each performance of sustainability. However, a high percentage of crops makes decrease the MJ consumption and N balance performances. The characterization of mixed crop-livestock systems through their energetic efficiency gains – the complementarity – show that integrated and non-integrated systems are respectively more efficient than virtual diversified systems by +6.4% and +0.4%. Comparing the complementarity index and indicators of sustainability of farming systems, we highlighted the existence of trade-off. Before analyzing and identifying the best trade-off compromise, we recommend completing our results by testing various pedoclimatic and socio-economic context, the effect of scale efficiencies, the effect of livestock intensification and increasing agronomic and technical effects of crop-livestock interactions
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Rioual, Yohann. "RL-based Energy Management for Autonomous Cyber Physical Systems". Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS533.

Texto completo
Resumen
La gestion d'énergie d'un système cyber physique est une tâche difficile à cause de la complexité des architectures matérielles et l'utilisation d'OS. En outre, ces systèmes sont déployés dans des environnements qui évoluent et où leur capacité de recharge en énergie varie. Avec le temps, leur consommation en énergie est modifiée du fait du vieillissement des composants. Les modèles de consommation conçus en laboratoire ne peuvent pas prendre en compte tous les scénarios de déploiement possible ainsi que le vieillissement du système. Une approche qui se développe est l'utilisation d'apprentissage par renforcement dans lequel nous n'avons plus connaissance du modèle de consommation du système ; mais grâce à cette approche, ce dernier est capable d'adapter son fonctionnement pendant son déploiement en fonction de l'évolution de son environnement. Plusieurs approches existent en apprentissage par renforcement. La première partie de cette thèse est consacrée à la proposition de lignes directrices pour aider à la sélection de l’approche la plus appropriée pour une application et une cible donnée. La deuxième partie se concentre sur la conception de la récompense que l’on donne à notre système et qui va influencer son comportement dans son environnement. Deux fonctions de récompense capables d’ajuster la performance du système en fonction de l’énergie disponible y sont présentées. La troisième et dernière partie explore l’utilisation de plusieurs agents pour contrôler indépendamment les différents modules de notre système. Cette approche permet un contrôle plus précis de la consommation en énergie, réduisant l’utilisation de mémoire par rapport à une approche avec un agent unique
The energy management of a cyber physical system is a difficult task because of the complexity of hardware architectures and the use of OS. In addition, these systems are deployed in changing environments where their energy harvesting capacity varies. Over time, their energy consumption is modified due to the ageing of the components. Consumption models designed in the laboratory cannot take into account all possible deployment scenarios and system aging. One approach that is developing is the use of reinforcement learning in which we no longer know the system's consumption model; but thanks to this approach, the system is still able to adapt its operation during its deployment according to the evolution of its environment. Several approaches exist in reinforcement learning. The first part of this thesis is devoted to proposing guidelines to help for selecting the most appropriate approach for a given application and target. The second part of this thesis focuses on the design of the reward we give to our system that will influence its behaviour in its environment. Two reward functions able to adjust the system’s performance according to the energy available are presented. The third and last part of this thesis explores the use of several agents to independently control the different modules of our system. This approach allows a more precise control of energy consumption, reducing memory usage compared to a single agent approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Louis, Julien. "Discrétisation des systèmes de Lur'e : stabilisation et consistance". Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0080.

Texto completo
Resumen
De récents résultats sur l’étude des systèmes de Lur’e (commutés) à temps discret mettent en avant une fonction de Lyapunov de type Lur’e avancée, dont les lignes de niveau peuvent être non convexes et non connexes. Celles-ci soulèvent de larges questions pour les systèmes de Lur’e à temps discret obtenus par la discrétisation d’un système continu. Les contributions de cette thèse sont d’apporter des éléments de réponse à ces questions. Tout d’abord, le verrou des lignes de niveau non-connexes est levé en construisant à partir de celles-ci une suite décroissante d’ensembles connexes et bornés qui converge vers l’origine et qui contient le futur de la trajectoire à temps continu. Dans un second temps, le problème de la stabilisation conjointe d’un système de Lur’e à données échantillonnées avec un échantillonnage non-uniforme est traité. Quand la période d’échantillonnage est à choisir parmi un nombre fini de valeurs, il est montré que ce problème se traduit comme la stabilisation conjointe d’un système commuté de Lur’e avec des incertitudes bornées en norme. En associant de plus à chaque mode un critère quadratique, une stratégie de type min-switching permet de résoudre cette question à l’aide d’un problème d’optimisation sous contraintes LMI. Enfin, les propriétés de la stratégie de min-switching pour les systèmes de Lur’e commutés à temps discret sont étudiées. Une extension de la notion de consistance permet de prouver que cette stratégie est consistante vis-à-vis de majorants quadratiques modaux du critère de performance et ainsi de garantir l’intérêt de la stratégie d’échantillonnage non-uniforme développée
Recent studies dealing with discrete-time (switched) Lur’e systems involve an adapted Lur’e type function exhibiting possibly non-convex and disconnected level sets. These properties raise fundamental issues in the case of discrete-time Lur’e system obtained by the sampling of a continuous time one. This PhD thesis aims at answering these questions. The first contribution is to avoid the discrete-time disconnected level sets by a decreasing sequence of bounded and connected sets that converges to the origin and that contain the future of the continuous-time trajectory. The second contribution deals with the joint stabilization of a sampled-data Lur’e system with non-uniform sampling. When the sampling period belongs to a finite set of values, this problem is reformulated as the joint stabilization of a discrete-time Lur’e switched system with norm-bounded uncertain parameters. Futhermore, if a quadratic criterion is associated with each mode, a min-switching strategy combined with LMI constraints allow to provide a solution to this problem. Finally the property of consistency for discrete-time switched Lur’e systems is investigated. It is shown that the min-switching strategy is consistent with respect to quadratic upper bounds of the performances. This result is applied on the stabilization of Lur’e systems with non-uniform sampling
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Wailly, Aurélien. "End-to-end security architecture for cloud computing environments". Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0020/document.

Texto completo
Resumen
La virtualisation des infrastructures est devenue un des enjeux majeurs dans la recherche, qui fournissent des consommations d'énergie moindres et des nouvelles opportunités. Face à de multiples menaces et des mécanismes de défense hétérogènes, l'approche autonomique propose une gestion simplifiée, robuste et plus efficace de la sécurité du cloud. Aujourd'hui, les solutions existantes s'adaptent difficilement. Il manque des politiques de sécurité flexibles, une défense multi-niveaux, des contrôles à granularité variable, ou encore une architecture de sécurité ouverte. Ce mémoire présente VESPA, une architecture d'autoprotection pour les infrastructures cloud. VESPA est construit autour de politiques qui peuvent réguler la sécurité à plusieurs niveaux. La coordination flexible entre les boucles d'autoprotection réalise un large spectre de stratégies de sécurité comme des détections et des réactions sur plusieurs niveaux. Une architecture extensible multi plans permet d'intégrer simplement des éléments déjà présents. Depuis peu, les attaques les plus critiques contre les infrastructures cloud visent la brique la plus sensible: l'hyperviseur. Le vecteur d'attaque principal est un pilote de périphérique mal confiné. Les mécanismes de défense mis en jeu sont statiques et difficile à gérer. Nous proposons une approche différente avec KungFuVisor, un canevas logiciel pour créer des hyperviseurs autoprotégés spécialisant l'architecture VESPA. Nous avons montré son application à trois types de protection différents : les attaques virales, la gestion hétérogène multi-domaines et l'hyperviseur. Ainsi la sécurité des infrastructures cloud peut être améliorée grâce à VESPA
Since several years the virtualization of infrastructures became one of the major research challenges, consuming less energy while delivering new services. However, many attacks hinder the global adoption of Cloud computing. Self-protection has recently raised growing interest as possible element of answer to the cloud computing infrastructure protection challenge. Yet, previous solutions fall at the last hurdle as they overlook key features of the cloud, by lack of flexible security policies, cross-layered defense, multiple control granularities, and open security architectures. This thesis presents VESPA, a self-protection architecture for cloud infrastructures. Flexible coordination between self-protection loops allows enforcing a rich spectrum of security strategies. A multi-plane extensible architecture also enables simple integration of commodity security components.Recently, some of the most powerful attacks against cloud computing infrastructures target the Virtual Machine Monitor (VMM). In many case, the main attack vector is a poorly confined device driver. Current architectures offer no protection against such attacks. This thesis proposes an altogether different approach by presenting KungFuVisor, derived from VESPA, a framework to build self-defending hypervisors. The result is a very flexible self-protection architecture, enabling to enforce dynamically a rich spectrum of remediation actions over different parts of the VMM, also facilitating defense strategy administration. We showed the application to three different protection scheme: virus infection, mobile clouds and hypervisor drivers. Indeed VESPA can enhance cloud infrastructure security
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Brandon, Quentin. "Numerical method of bifurcation analysis for piecewise-smooth nonlinear dynamical systems". Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000312/.

Texto completo
Resumen
Dans le domaine de l’analyse des systèmes dynamiques, les modèles lisses par morceaux ont gagné en popularité du fait de leur grande flexibilité et précision pour la représentation de certains systèmes dynamiques hybrides dans des applications telles que l’électronique ou la mécanique. Les systèmes dynamiques hybrides possèdent deux ensembles de variables, l’un évoluant dans un espace continu, l’autre dans un espace discret. La plupart des méthodes d’analyse nécessitent que l’orbite reste lisse pour être applicable, de telle sorte que certaines manipulations d’adaptation aux systèmes hybrides deviennent inévitables lors de leur analyse. Sur la base d’un modèle lisse par morceaux, où l’orbite du système est découpée en morceaux localement lisses, et une méthode d’analyse des bifurcations hybride, utilisant une application de Poincaré dont les sections sont régies par les conditions de commutation du système, nous étudions le processus d’analyse en détails. Nous analysons ensuite plusieurs extensions de l’oscillateur d’Aplazur, dont la version originale est un oscillateur bidimensionnel non-lisse à commutation. Ce dernier, en tant que système dynamique non linéaire à commutation, est un excellent candidat pour démontrer l’efficacité de cette approche. De plus, chaque extension présente un nouveau scénario, permettant d’introduire les démarches appropriées et d’illustrer la flexibilité du modèle. Finalement, afin d’exposer l’implémentation de notre programme, nous présentons quelques unes des méthodes numériques les plus pertinentes. Il est intéressant de signaler que nous avons choisi de mettre l’accent sur les systèmes dynamiques autonomes car le traitement des systèmes non-autonomes nécessitent seulement une simplification (pas de variation du temps). Cette étude présente une méthode généraliste et structurée pour l’analyse des bifurcations des systèmes dynamiques non-linéaires hybrides, illustrée par des résultats pratiques. Parmi ces derniers, nous exposons quelques propriétés locales et globales de l’oscillateur d’Alpazur, dont la présence d’une cascade de points cuspidaux dans le diagramme de bifurcation. Notre travail a abouti à la réalisation d’un outil d’analyse informatique, programmé en C++, utilisant les méthodes numériques que nous avons sélectionnées à cet effet, telles que l’approximation numérique de la dérivée seconde des éléments de la matrice Jacobienne
In the field of dynamical system analysis, piecewise-smooth models have grown in popularity due to there greater flexibility and accuracy in representing some hybrid systems in applications such as electronics or mechanics. Hybrid dynamical systems have two sets of variables, one which evolve in a continuous space, and the other in a discrete one. Most analytical methods require the orbit to be smooth during objective intervals, so that some special treatments are inevitable to study the existence and stability of solutions in hybrid dynamical systems. Based on a piecewise-smooth model, where the orbit of the system is broken down into locally smooth pieces, and a hybrid bifurcation analysis method, using a Poincare map with sections ruled by the switching conditions of the system, we review the analysis process in details. Then we apply it to various extensions of the Alpazur oscillator, originally a nonsmooth 2-dimension switching oscillator. The original Alpazur oscillator, as a simple nonlinear switching system, was a perfect candidate to prove the efficiency of the approach. Each of its extensions shows a new scenario and how it can be handled, in order to illustrate the generality of the model. Finally, and in order to show more of the implementation we used for our own computer-based analysis tool, some of the most relevant numerical methods we used are introduced. It is noteworthy that the emphasis has been put on autonomous systems because the treatment of non-autonomous ones only requires a simplification (no time variation). This study brings a strong and general framework for the bifurcation analysis of nonlinear hybrid dynamical systems, illustrated by some results. Among them, some interesting local and global properties of the Alpazur Oscillator are revealed, such as the presence of a cascade of cusps in the bifurcation diagram. Our work resulted in the implementation of an analysis tool, implemented in C++, using the numerical methods that we chose for this particular purpose, such as the numerical approximation of the second derivative elements in the Jacobian matrix
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Liu, Ruotian. "Contributions to event driven control of batches Petri nets for steady state reaching". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0656.

Texto completo
Resumen
Le problème considéré dans cette thèse porte sur la commande de systèmes hybrides étudiés du point de vue de la théorie des systèmes à événements discrets (SED). L'objectif est de déterminer une trajectoire transitoire pour atteindre un état donné à partir d'un état initial. Dans la théorie des SED, les réseaux de Petri lots généralisés (GBPN) enrichissent la classe des réseaux de Petri hybrides en ajoutant un nouveau type de nœuds, appelés nœuds lots. Ce travail de thèse est dédié à une classe de GBPN, les RdPLots contrôlés (cGBPN). Dans ce contexte, nous proposons trois stratégies de contrôle pour atteindre un état stationnaire, sous hypothèses que le modèle cGBPN. La première stratégie, appelée loi de contrôle par flux stationnaire (loi SF), pour lequel le flux de franchissement maximal de chaque transition ON est limité par son flux de franchissement stationnaire. Un inconvénient de cette première loi de commande est qu'un problème de blocage peut survenir. Une condition sur la quantité de marquage initial est proposée pour éviter les états bloqués et atteindre l'état stationnaire par la loi SF de contrôle. La deuxième loi de contrôle, appelée loi de contrôle par flux maximal (loi MF), est développée en utilisant le flux maximal de franchissement comme seuil. La troisième loi de contrôle est dédiée au cas où la condition de non-blocage sur la quantité de marquage initial n'est pas satisfaite. Ainsi, cette troisième loi de contrôle est construite pour atteindre la région attractive à partir d’un marquage initial bloquant. Enfin, les méthodes de contrôle proposées ont été implémentées et illustrées sur une étude de cas dédiée à une ligne d'embouteillage
The problem considered in this thesis deals with the control of hybrid systems, studied from the discrete event systems (DES) theory viewpoint. The objective is to compute the transient trajectory for reaching a given state from an initial one. In the DES theory, generalized batches Petri nets (GBPN) enrich the classes of hybrid Petri nets by adding a new kind of nodes, called batch nodes. This thesis work is dedicated to a class of GBPN, controlled GBPN (cGBPN) without discrete nodes. In this class, a state in which the marking and the firing flow vector are constant is defined to be a steady state. In this context, we propose three control strategies for reaching a reachable steady state under the conservative and consistent assumptions. The first one, called steady flow control law, is based on an ON/OFF state of transitions for which the maximal firing flow of each ON-transition is limited to its steady firing flow. One drawback is that a blockness issue may occur, consequently, the target steady state may not be reached. A condition with respect to the initial marking quantity is proposed to avoid blocking quantity and reach the steady state by the control law. The second control law, called maximal flow control law, is developed by using the maximal firing flow as the threshold. The third control law is dedicated to the case when the non-blocking condition on the initial marking quantity is not satisfied. This third control law is constructed to reach the attractive region from any blocking initial quantity. Finally, the proposed control methods have been implemented and their efficiency has been shown on a case study dedicated to a bottling production line
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Mabrouk, Mohamed. "Proposition d'une méthode et d'un outil d'aide à la reconfiguration des systèmes automatisés de production". Valenciennes, 1996. https://ged.uphf.fr/nuxeo/site/esupversions/bb1377a3-80a9-42ca-8703-a7c13fd6373d.

Texto completo
Resumen
La compétitivité et la flexibilité en matière de production conduisent à des systèmes de production de plus en plus automatisés. Ceci entraine un niveau supérieur de complexité pour assurer l'exploitation de ces systèmes. Les problèmes liés a la phase d'exploitation des systèmes automatisés de production (SAP) sont apparents lors des phases d'utilisation et de maintenance de ces systèmes. Les plus notables sont les problèmes liés aux modes non compatibles, notamment pour la reconfiguration des SAP qui peut intervenir en cas d'une défaillance dans le système, de changement de production face à ces problèmes, il s'avère nécessaire de mettre en œuvre des méthodes et des outils d'aide à la reconfiguration des SAP. Ce mémoire présente des travaux réalisés dans ce contexte. Après avoir analysé la phase d'exploitation d'un SAP, nous mettons en évidence ses principales activités et la problématique associée, en particulier les problèmes liés à la reconfiguration. Nous montrons ensuite les insuffisances des modèles et des méthodes actuels de gestion de modes d'exploitation des SAP pour fournir une aide à la reconfiguration de ces systèmes. Après avoir défini le concept de la reconfiguration dans sa forme générale, nous proposons une méthode permettant la définition de l'ensemble de séquences d'évolution d'état de mode d'exploitation des entités du SAP au cours de la reconfiguration. Cette méthode, que nous exposons, repose sur l'analyse des modes d'exploitation des entités du SAP, des contraintes entre ces modes et des procédures de recherche des séquences d'évolution d'états de modes d'exploitation du système. Nous établissons ensuite les spécifications d'un outil d'aide à la reconfiguration des SAP basé sur la méthode proposée. Les différents modèles relatifs aux connaissances et aux fonctions sont précisés et décrits par la méthode de conception hiérarchique orientée objet HOOD. L’architecture fonctionnelle de la plate-forme support de l'outil est également présentée. Enfin, nous présentons le site industriel et la maquette logicielle développée pour la validation de nos travaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Huby, Elsa. "Caractérisation de systèmes binaires par imagerie haute dynamique non redondante fibrée". Phd thesis, Observatoire de Paris, 2013. http://tel.archives-ouvertes.fr/tel-00951542.

Texto completo
Resumen
Mon travail de thèse s'inscrit dans le cadre de l'imagerie à haute résolution angulaire et à haute dynamique et a porté plus particulièrement sur le développement de l'instrument FIRST, Fibered Imager foR a Single Telescope. Celui-ci repose sur la technique novatrice du réarrangement de pupille, combinant masquage de pupille et filtrage spatial du front d'onde par fibres optiques monomodes. L'objectif de ma thèse était de porter cet instrument sur le ciel, d'améliorer ses performances et de développer un programme de traitement et d'analyse des données. Après l'obtention de la première lumière de FIRST en juillet 2010 sur le télescope de 3 m de l'observatoire Lick, je me suis dans un premier temps attachée à améliorer certains aspects du montage optique et mécanique, en vue d'accroître ses performances lors des observations. La qualité des données nous a ensuite permis de mener une campagne d'observations répartie sur de nombreuses nuits entre juillet 2011 et décembre 2012. Le programme d'observation a été centré sur les systèmes binaires, cibles idéales pour évaluer dynamique et pouvoir de résolution de l'instrument. Dans ce but, j'ai donc développé un programme de réduction des images d'interférences permettant d'estimer les observables interférométriques et de les ajuster par un modèle binaire. J'ai ainsi traité une partie de la grande quantité de données acquises à l'observatoire Lick, et en particulier les données prises sur le système binaire Capella. Les résultats montrent que le compagnon est détecté, à une séparation de l'ordre de la limite de diffraction du télescope. De plus, nos données fournissent une mesure directe du rapport de flux spectral aux longueurs d'onde visibles, ce qui constitue une donnée totalement nouvelle pour ce système par ailleurs très bien connu. L'analyse que nous avons menée de ce spectre, par un ajustement de modèles d'atmosphères stellaires démontre que les données FIRST apportent des informations précieuses pour caractériser un système binaire et notamment contraindre les températures effectives des deux composantes. Enfin, le succès des observations conduites à l'observatoire Lick nous a permis d'initier une collaboration avec l'équipe SCExAO du télescope Subaru et nous avons ainsi eu l'opportunité d'y intégrer FIRST. La première lumière de FIRST sur le télescope Subaru a été obtenue le 25 juillet 2013. En conclusion, j'ai pu montrer la viabilité du projet FIRST sur le ciel et obtenir de premiers résultats originaux, démontrant la capacité de cette technique à restaurer la limite de diffraction aux longueurs d'onde visibles. Bien que la sensibilité de l'instrument soit encore limitée à ce jour, ces résultats sont prometteurs quant à son exploitation à venir sur le télescope Subaru et aux développements futurs de cette technique, notamment dans le contexte de la détection et caractérisation de systèmes exoplanétaires.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Huby, Elsa. "Caractérisation de systèmes binaires par imagerie haute dynamique non redondante fibrée". Phd thesis, Observatoire de Paris (1667-....), 2013. http://www.theses.fr/2013OBSP0236.

Texto completo
Resumen
Le sujet de cette thèse s’inscrit dans le cadre de l’imagerie à haute résolution angulaire et à haute dynamique et porte en particulier sur le développement de l’instrument FIRST, Fibered Imager foR a Single Telescope. Celui-ci repose sur la technique novatrice du réarrangement de pupille, combinant masquage de pupille et filtrage spatial du front d’onde par fibres optiques monomodes. L’objectif de ma thèse était de porter cet instrument sur le ciel, d’améliorer ses performances et de développer un programme de traitement et d’analyse des données. Après l’obtention de la première lumière de FIRST en juillet 2010 sur le télescope de 3m de l’observatoire Lick, je me suis dans un premier temps attachée à améliorer certains aspects du montage optique et mécanique. Nous avons ensuite mené une campagne d’observations centrée sur les systèmes binaires, cibles idéales pour évaluer dynamique et pouvoir de résolution de l’instrument. Dans ce but, j’ai développé un programme de réduction des images d’interférences permettant d’estimer les observables interférométriques et de les ajuster par un modèle binaire. J’ai ainsi pu montrer la viabilité du projet FIRST sur le ciel et obtenir de premiers résultats originaux, notamment sur la binaire Capella, démontrant la capacité de cette technique à restaurer la limite de diffraction aux longueurs d’onde visibles. Bien que la sensibilité de l’instrument soit encore limitée à ce jour, ces résultats sont prometteurs quant à son exploitation à venir sur le télescope Subaru et aux développements futurs de cette technique, notamment dans le contexte de la détection et caractérisation de systèmes exoplanétaires
My work has been carried out in the context of imaging at high angular resolution and high dynamic range, and in particular on the development of the instrument called FIRST, Fibered Imager foR a Single Telescope. Its principle relies on the novel technique of pupil remapping, combining aperture masking and spatial filtering of the wavefront thanks to single-mode fibers. The purpose of my thesis was to mount FIRST on a telescope, improve its performances and develop a pipeline for data reduction and analysis. First light of the instrument was obtained in July 2010 on the 3m Shane telescope at Lick Observatory. Afterwards, I have been working on different aspects of the optical and mechanical design, in order to improve its performances during observations. We have then conducted an observation campaign consisting of binary systems, which are ideal objects to assess the resolving power and the dynamic range of the instrument. For that purpose, I have developed a data reduction pipeline, allowing the estimation of interferometric observables from the fringe images and performing a fit of a binary model. I have obtained first results on the binary system Capella, which validate the concept of pupil remapping on-sky and demonstrate that this technique allows the recovery of the capabilities of a telescope at the diffraction limit and at visible wavelengths. Although the sensitivity of FIRST is still limited, these results are highly promising regarding observations to come at the Subaru telescope and more generally regarding future developments based on this technique, in particular in the context of exoplanet detection and characterization
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Doualle, Benjamin. "Méthode d'évaluation de la soutenabilité en conception de Systèmes Produits-Services (PSS)". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEM002/document.

Texto completo
Resumen
De nos jours, l’industrie doit faire face à de nombreux défis. La concurrence accrue de l’industrie manufacturière issue d’une mondialisation du marché ainsi que la raréfaction et la hausse du prix des ressources poussent les entreprises à innover afin de rester compétitives notamment en réduisant les flux de matières et d’énergie. De plus, les consommateurs semblent être de plus en plus conscients et soucieux des notions introduites par le concept de développement durable. Les systèmes ‘produits-services’ (associés à l’économie de fonctionnalités) sont montrés comme une opportunité pour l’Industrie de proposer des solutions prospères et respectueuses de l’environnement tout en répondant aux besoins du consommateur. Cependant, ces systèmes ne sont pas soutenables de façon intrinsèque. Il est, par conséquent, nécessaire de créer des outils et méthodes afin d’aider les entreprises à développer ce type de modèle économique dans un objectif de soutenabilité.Ce travail de thèse a donc pour objectif de fournir une méthode d’évaluation de la soutenabilité à l’intérieur du processus de conception d’un PSS. Les caractéristiques spécifiques d'une conception de PSS soutenable doivent être prises en compte afin de fournir aux concepteurs une évaluation de la soutenabilité précieuse et donc un soutien de leur processus de prise de décision. Cette méthode a pour but de fournir un appui supplémentaire lors du processus de prise de décision par le biais d’évaluations de soutenabilité qualitatives et quantitatives
Nowadays, industry faces many challenges. The increased competition from the manufacturing industry which is resulting from the market globalization and from the scarcity and rising price of resources are pushing companies to innovate in order to remain competitive, in particular by reducing the flow of materials and energy. In addition, consumers seem to be more and more conscious of their impacts introduced by the concept of sustainable development. Products-services systems (or economy of functionality) are shown as an opportunity for the industry to offer solutions that are prosperous and respectful of the environment while meeting the needs of the consumer. However, these systems are not intrinsically sustainable. It is therefore necessary to create tools and methods to help companies develop this type of economic model with a view to sustainability.This research thesis aims to provide a method to assess the sustainability within the design process of a PSS. The specific characteristics of a sustainable PSS design must be taken into account in order to provide designers with valuable sustainability assessment and therefore support for their decision-making process. This method is intended to provide additional support in the decision-making process through qualitative and quantitative sustainability assessments
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Zenadi, Mohamed. "Méthodes hybrides pour la résolution de grands systèmes linéaires creux sur calculateurs parallèles". Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0126/document.

Texto completo
Resumen
Nous nous intéressons à la résolution en parallèle de système d’équations linéaires creux et de large taille. Le calcul de la solution d’un tel type de système requiert un grand espace mémoire et une grande puissance de calcul. Il existe deux principales méthodes de résolution de systèmes linéaires. Soit la méthode est directe et de ce fait est rapide et précise, mais consomme beaucoup de mémoire. Soit elle est itérative, économe en mémoire, mais assez lente à atteindre une solution de qualité suffisante. Notre travail consiste à combiner ces deux techniques pour créer un solveur hybride efficient en consommation mémoire tout en étant rapide et robuste. Nous essayons ensuite d’améliorer ce solveur en introduisant une nouvelle méthode pseudo directe qui contourne certains inconvénients de la méthode précédente. Dans les premiers chapitres nous examinons les méthodes de projections par lignes, en particulier la méthode Cimmino en bloc, certains de leurs aspects numériques et comment ils affectent la convergence. Ensuite, nous analyserons l’accélération de ces techniques avec la méthode des gradients conjugués et comment cette accélération peut être améliorée avec une version en bloc du gradient conjugué. Nous regarderons ensuite comment le partitionnement du système linéaire affecte lui aussi la convergence et comment nous pouvons améliorer sa qualité. Finalement, nous examinerons l’implantation en parallèle du solveur hybride, ses performances ainsi que les améliorations possible. Les deux derniers chapitres introduisent une amélioration à ce solveur hybride, en améliorant les propriétés numériques du système linéaire, de sorte à avoir une convergence en une seule itération et donc un solveur pseudo direct. Nous commençons par examiner les propriétés numériques du système résultants, analyser la solution parallèle et comment elle se comporte face au solveur hybride et face à un solveur direct. Finalement, nous introduisons de possible amélioration au solveur pseudo direct. Ce travail a permis d’implanter un solveur hybride "ABCD solver" (Augmented Block Cimmino Distributed solver) qui peut soit fonctionner en mode itératif ou en mode pseudo direct
We are interested in solving large sparse systems of linear equations in parallel. Computing the solution of such systems requires a large amount of memory and computational power. The two main ways to obtain the solution are direct and iterative approaches. The former achieves this goal fast but with a large memory footprint while the latter is memory friendly but can be slow to converge. In this work we try first to combine both approaches to create a hybrid solver that can be memory efficient while being fast. Then we discuss a novel approach that creates a pseudo-direct solver that compensates for the drawback of the earlier approach. In the first chapters we take a look at row projection techniques, especially the block Cimmino method and examine some of their numerical aspects and how they affect the convergence. We then discuss the acceleration of convergence using conjugate gradients and show that a block version improves the convergence. Next, we see how partitioning the linear system affects the convergence and show how to improve its quality. We finish by discussing the parallel implementation of the hybrid solver, discussing its performance and seeing how it can be improved. The last two chapters focus on an improvement to this hybrid solver. We try to improve the numerical properties of the linear system so that we converge in a single iteration which results in a pseudo-direct solver. We first discuss the numerical properties of the new system, see how it works in parallel and see how it performs versus the iterative version and versus a direct solver. We finally consider some possible improvements to the solver. This work led to the implementation of a hybrid solver, our "ABCD solver" (Augmented Block Cimmino Distributed solver), that can either work in a fully iterative mode or in a pseudo-direct mode
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Corzo, Zavaleta Janet Ivonne. "Les difficultés des étudiants internationaux dans le système universitaire français : en quoi le Français sur Objectifs Universitaire (FOU) peut-il les aider à réussir leurs études ?" Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0071.

Texto completo
Resumen
Ce travail s’inscrit dans le cadre de la didactique du Français sur Objectifs Universitaire. Il porte sur l’accueil des étudiants de nationalité étrangère en mobilité en France et les difficultés qu’ils rencontrent pour leur intégration dans le système universitaire français. L’objectif de ce travail est d’analyser les difficultés ressenties par d'étudiants en mobilité en France dans le cadre de leur parcours universitaire. Ces difficultés peuvent être liées aux dimensions linguistiques, culturelles et à l’organisation du système universitaire. Par ailleurs, ce travail cherche à donner des pistes et des alternatives pour améliorer l’intégration d'étudiants de nationalité étrangère en France ; donc nous avons essayé de proposer les bases pour l'élaboration d’un programme de Français sur Objectifs Universitaires (FOU) visant à préparer d'étudiants à l’acquisition de compétences langagières, disciplinaires et méthodologiques de la vie universitaire à partir de l’analyse de leurs besoins spécifiques
This work is part of the pedagogy of “French as Foreign Language”, and more specifically French for university purpose. It focuses on the reception of foreign students who moved to France and are having difficulties relating to their integration into the French university system.The objective of this work was to analyze the difficulties felt by international students studying in France as part of their university career. The most difficulties were related to linguistic, cultural and organizational aspects of the university system..This work gives leads and alternatives to improve the integration of foreign students in French universities. There fore we propose basis for the development of a program for French university purpose aimed at preparing students to acquire linguistic, disciplinary and methodological skills for university life due to an analysis of their specific needs
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Issa, Homam. "Contributions à la conception de produits configurables dans les systèmes avancés de CAO". Thesis, Belfort-Montbéliard, 2015. http://www.theses.fr/2015BELF0282/document.

Texto completo
Resumen
Aujourd'hui, dans un monde globalisé, la conception des produits est en train de basculer vers la conceptiondistribuée multi-sites. En effet, la complexité des produits avec des contraintes économiques et d'ingénierie ontaccéléré la transformation et l'organisation des activités de conception en service-orientés dans un réseau distribué.Alors, la conception pour la configuration des produits émerge comme un outil efficace pour résoudre les nouveauxdéfis de la conception des produits. Beaucoup de recherches sur la conception pour la configuration considèrent leproblème de la conception pour la configuration uniquement comme un problème d'arrangement des composants.En effet, le processus de conception implique de multiple-métiers, la distribution des métiers et des acteurs, etl'interaction dans un environnement dynamique et incertain. De plus, nous pensons que la structure interne duprocessus de conception est une image homomorphe des discontinuités du produit perçu. En considérant l'espacede la conception pour la configuration comme multi vues, multi dimensionnels et incertain, cette thèse porte surl'étude de la conception pour la configuration comme un problème holistique.Nous avons proposé à étudier : (1) appréhender et modéliser la conception pour la configuration comme unproblème de recherche de consensus entre différents métiers ; (2) appréhender et modéliser les relations intra etinter domaines considérant la conception pour la configuration comme un problème holistique ; (3) formaliser lesgrammaires génératives pour la modélisation de produit dans les deux principaux espaces : fonctionnel et structurelet (4) modéliser les liens entre ces deux espaces à l'aide du concept d'holon de conception. A partir de cesconsidérations, nous établissons les hypothèses les plus importantes de notre recherche : (a) Hypothèse de multivues; (b) Hypothèse de flou ; (c) Hypothèse de dérivation ; (d) Hypothèse holistique et (e) Hypothèse d'attracteur.Nous avons décrit un modèle de conception pour la configuration dans lequel les aspects d'optimisation desconfigurations et la recherche des noyaux des configurations sont intégrés. D'ailleurs, nous avons proposé desgrammaires fonctionnelles floues graphes et des grammaires fonctionnelles floues formelles pour représentergraphiquement et formellement les structures fonctionnelles de produit. Nous avons aussi proposé une approche demodélisation holonique des configurations. Les concepts d'Holon Conception Floue et de l'Attracteur Flou sontproposés pour comprendre la coévolution dans la conception pour la configuration. Nous avons étudié un casindustriel de la conception pour la configuration à l'aide des modules pour un groupe motopropulseur
Product design is switching to the multi-site distributed design. Indeed, the complexity of products with engineeringand economic constraints have accelerated the transformation and organization of design activities into serviceorientedin a distributed network. So, design for product configuration emerges as an effective tool to address thenew challenges of product design. Many researches on design for configuration consider the design problem only asa problem of arrangement of components. Indeed, the design process involves multi-trades, distribution of tradesand actors, and interaction in a dynamic and uncertain environment. Moreover, we believe that the internal structureof the design process is a homomorphic image of the product perceived discontinuities. Considering the space ofthe design for the configuration as multi-views, multi-dimensional and uncertain, this thesis focuses on the study ofdesign for the configuration as a holistic problem.We proposed to study: (1) understand and model design for configuration as a consensus-building problem betweendifferent trades; (2) understand and model the relationships within and between domains considering the design forconfiguration as a holistic problem; (3) formalize the generative grammars for product modeling in two main spaces:functional and structural and (4) model the links between these two spaces with the concept of design holon. Fromthese considerations, we establish the most important assumptions of our research: (a) Assumption of multi-view;(b) Assumption of fuzzy; (c) Assumption of derivation; (d) Holistic assumption and (e) Assumption of attractor.We have described a design model for configuration wherein the optimization aspects of configurations andsearching of configurations cores are integrated. Moreover, we proposed fuzzy graphs functional grammars andformal fuzzy functional grammars to represent formally and graphically the functional structures of product. We alsoproposed an approach of holonic modeling for configurations. The concepts of Fuzzy Design Holon and FuzzyAttractor are proposed to understand the co-evolution in design for configuration. We studied an industrial case ofdesign for configuration using modules of a power train
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Le, Gall Tristan. "Abstract lattices for the verification of systèmes with stacks and queues". Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00424552.

Texto completo
Resumen
L'analyse des systèmes communiquant par file a fait l'objet d'études scientifiques nombreuses mais qui n'ont pu offrir des solutions totalement satisfaisantes. Nous proposons d'aborder ce problème dans le cadre de l'interprétation abstraite, en définissant des treillis abstraits adaptés à ce type de systèmes. Nous considérons d'abord le cas où les messages échangés sont assimilables à un alphabet fini, puis nous nous attaquons au cas, plus difficile, des messages portant des valeurs entières ou réelles. Ce problème nous amène à définir et à étudier un nouveau type d'automate, les automates de treillis. Ces automates de treillis peuvent également être utilisés pour l'analyses des programmes utilisant une pile d'appels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Lombardi, Giulia. "Unified nonlinear electrical interfaces for hybrid piezoelectric-electromagnetic small-scale harvesting systems". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI101.

Texto completo
Resumen
Ce travail de recherche présente des interfaces électroniques non-linéaires pour des systèmes hybrides de récupération d'énergie combinant des transducteurs piézoélectriques et électromagnétiques. Ces systèmes ont reçu un grand intérêt en raison de leur capacité à convertir les vibrations mécaniques en énergie électrique suffisante pour alimenter des capteurs à faible puissance. Afin d'alimenter ces appareils microélectroniques, une fois l'énergie convertie, une extraction efficace et intelligente doit être mise en place avec une unité dédiée. Les interfaces hybrides non-linéaires proposées dans ce travail, visant à inclure autant de parties électroactives que possible dans le même circuit, permettent une augmentation de la puissance de sortie finale des microgénérateurs concernés, ainsi qu'une solution pour obtenir une valeur commune de charge optimale, même si chacun des éléments traités présentent des principes de fonctionnement et des valeurs de charge optimale différents. Une première solution est dérivée du SSHI (Synchronized Switch Harvesting on Inductor) et se base sur la technique de commutation synchronisée. Cette méthode vise à remplacer l'inductance passive dans l'interface SSHI par un système électromagnétique actif, conduisant à une interface de microgénérateurs entièrement actifs et augmentant la puissance de sortie finale. Une deuxième solution est issue de la combinaison des techniques SECE (Synchronous Electric Charge Extraction) et SMFE (Synchronous Magnetic Flux Extraction), respectivement développées pour les systèmes piézoélectriques et électromagnétiques. Son principe de base consiste à transférer l'énergie de l’élément piézoélectrique vers le transducteur électromagnétique, et ensuite à extraire l'énergie du système électromagnétique, préalablement amplifiée par le transfert de charges issues du dispositif piézoélectrique. La stratégie consistant à inclure autant de parties électroactives que possible dans la même interface électrique ouvre de nouvelles possibilités de combiner plusieurs systèmes électroactifs, constituant des récupérateurs d'énergie hybride, sans inclure des étages supplémentaires dans les circuits, ce qui permet de maintenir une relative simplicité sans perte de puissance significative
In this research work, electronic nonlinear interfaces for hybrid energy harvesting systems combining piezoelectric and electromagnetic transducers are presented. Such systems have received great attention due to their ability to detect mechanical vibrations and convert them into electrical energy sufficient to power low-power sensors. In order to supply these microelectronic devices the generated sinusoidal signal needs to be rectified into a constant DC voltage. In other words, once the energy is converted, a proper and smart extraction of such energy needs to be implemented with a dedicated unit. The proposed nonlinear hybrid interfaces developed in this work, aimed at incorporating as much as electroactive parts as possible in the circuit, not only increase the final output power of the involved transducers but also provide a solution for obtaining a common optimal load value, despite dealing with elements singularly presenting different working principles and values of optimal load, without the use of additional load adaptation stages. A first solution is derived from the previously developed SSHI (Synchronized Switch Harvesting on Inductor) and based on the Synchronized Switching technique. This method aims at replacing the passive inductor in the SSHI interface with an active electromagnetic system, leading to an all-active microgenerators interface and increasing the final output power. A second solution is derived from a combination of the SECE (Synchronous Electric Charge Extraction) and SMFE (Synchronous Magnetic Flux Extraction) techniques. Its main principle consists of transferring the energy from the piezoelectric to the electromagnetic transducer and then extracting the boosted energy from the electromagnetic system. The strategy of including as much as electroactive parts within the same electrical interface open many different possibilities of interfacing more than one electroactive system, constituting hybrid energy harvesters, without including extra circuit stages, thus maintaining a relative simplicity without high power losses
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Moro, Puppi Wanderley Gregory. "A framework for facilitating the development of systems of systems". Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2425/document.

Texto completo
Resumen
Le développement de Systèmes de Systèmes a pris de l'ampleur dans de nombreux domaines. Aujourd'hui, les applications complexes nécessitent que plusieurs systèmes développés indépendamment coopèrent ensemble, ce qui conduit au concept de Systèmes de Systèmes. Malgré une telle popularité, aucun consensus n'y a pas encore pu être atteint sur une définition précise de ce que sont les Systèmes de Systèmes. De plus, le nœud du problème est que la plupart des applications sont encore construites à la main et développées de manière ad hoc, c'est-à-dire, sans contraintes et sans être guidées par une structure prédéfinie. Développer un système de systèmes à la main est une tâche herculéenne pour un architecte informatique, en lui demandant de créer un entrelacement de connexions entre les systèmes composant du Système de Systèmes pour qu'ils puissent coopérer. En raison d'un tel entrelas, la complexité et le couplage serré augmentent, et l'évolution des Systèmes de Systèmes devient plus difficile, nécessitant des efforts substantiels. Pour trancher le nœud gordien auquel font face les architectes de Systèmes de Systèmes, nous proposons dans cette recherche un « framework » générique pour faciliter le développement de Systèmes de Systèmes dans le cadre de l'ingénierie des systèmes. Notre approche introduit une nouvelle architecture que nous appelons MBA pour Memory-Broker-Agent. Pour tester notre framework, nous avons construit un système de systèmes dans le domaine du développement collaboratif de logiciel. Les résultats montrent que notre approche réduit la difficulté et l'effort de développement. Sur la base de ces résultats, nous avons créé une méthode originale pour construire un système de systèmes à travers notre framework. Nous avons testé le potentiel de notre méthode ainsi que les caractéristiques génériques de notre framework, en construisant avec succès et avec plus de précision un nouveau système de systèmes dans le domaine de la Santé
Building Systems of Systems (SoS) has gained momentum in various domains. Today, complex applications require to let several systems developed independently cooperate, leading to the moniker of SoS. Despite such popularity, no consensus has yet been reached about a precise definition of what SoS are. Moreover, the crux of the matter is that most applications are still handcrafted, being developed in an ad hoc fashion, i.e., freely and without being constrained by a predefined structure. Handcrafting SoS is an Herculean task for architects, requiring them to create an interwoven set of connections among SoS constituent systems for allowing cooperation. Because of the large number of interconnections, the complexity and tight coupling increase in SoS, and their evolution becomes more difficult, requiring substantial efforts from architects. To sever the Gordian knot faced by SoS architects, we propose in this research a generic framework for facilitating the development of SoS from a systems engineering perspective. Our approach is based on a novel architecture we call MBA for Memory-Broker-Agent. To test our framework we built an SoS for developing software collaboratively. Results show that our approach reduces the difficulty and effort for developing a SoS. Based on such results, we created an original method for building a SoS using our framework. We tested the potential of our method along with the generic features of our framework, by building a new SoS in the Health Care domain successfully and more accurately
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Hamid, Brahim. "Distributed fault-tolerance techniques for local computations". Bordeaux 1, 2007. http://www.theses.fr/2007BOR13383.

Texto completo
Resumen
Ce travail constitue une contribution théorique et pratique à l'étude de la tolérance aux pannes dans les système distribués, et de spécifier l'impacte de la théorie des graphes dans ce domaine. Précisément, on s'intéresse aux pannes de processus et nous considérons les pannes transitoires et les pannes franches. Notre but est d'étudier ces systèmes dans le contexte de la localité: Les seuls calculs autorisés sont ceux à base d'informations locales. Ceci revient à capturer la notion de détection et de correction des configurations ``illégales'' qui résultent de l'état arbitraire du système. Comme modèle, on utilisera les calculs locaux et à passage de messages. Nos constructions sont basées sur les techniques les plus répondues dans ce domaine: La détection de pannes et l'auto-stabilisation. En combinant ces deux techniques et en gardant la localité comme but ultime, nous construisons un nouvel outil pour transformer un algorithme intolérant en un autre algorithme équivalent mais qui est tolérant aux pannes, dont la preuve de correction est déduite du premier. D'une autre part, nous avons augmenté la plate-forme Visidia pour simuler les pannes. Les pannes transitoires sont simplement simulées à travers des vues permettant de changer l'état des noeuds. Pour les pannes franches, en premier le détecteur de pannes est intégré dans Visidia, en plus d'une interface pour mesurer ses performances pour atteindre les comportements attendus. En second, à travers des vues, l'utilisateur peut stopper le travail d'un noeud et simuler la panne d'un processus. Pour termier cette thèse, nous sollicitons la théorie de graphe pour aider la tolérance aux pannes selon deux aspects. Nous présentons une nouvelle formalisation du test de la connexité de graphes en utilisant la notion de fils de secours. Un algorithme distribué et local pour tester la 2-connexité est proposé dans les deux modèles. Ce résultat nous illumine à propos de la manière dont un pont peut être construit entre ces deux modèles. En second, le calcul des fils de secours est entendu pour étudier la maintenance de forêts d'arbres recouvrants en présence de pannes franches.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Benkamoun, Nadège. "Systemic design methodology for changeable manufacturing systems". Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22723/document.

Texto completo
Resumen
Les systèmes de production sont devenus des systèmes de grande échelle dont la complexité est accentuée par des contextes marqués de plus en plus par le changement. La capacité des systèmes a répondre au changement – appelée également changea-bilité – est reconnue comme étant une propriété essentielle pour leur cycle de vie, aussi bien dans le domaine des systèmes de production que dans le domaine de la conception en ingénierie. Au regard de la complexité des systèmes de production changeables, la méthodologie proposée par cette thèse a pour objectif de supporter la change-abilité dans la conception en souscrivant au domaine de l’ingénierie des systèmes. La première contribution est un formalisme pour la modélisation des systèmes changeables étayé d’après les principes de la conception systémique. Les concepts de flexibilité et de reconfigurabilité ne sont ici pas limités à des composants organiques du système, mais englobent l’ensemble des artefacts d’ingénierie dans le domaine du problème (exigences) et le domaine de la solution (blocs structurels). La deuxième contribution est une méthodologie pour la conception et la gestion des systèmes changeables. Elle repose sur un modèle du cycle de vie des systèmes changeables où des phases de conception des capacités de change-abilité du système s’alternent avec des phases de reconception tirant bénéfice de ces capacités existantes. Ces processus complémentaires garantissent la cohérence entre les décisions de conception pour intégrer et réutiliser des capacités de change-abilité, augmentant alors leurs potentiels tout au long du cycle de vie des systèmes complexes. Les concepts et les méthodologies développés ont été validés par des projets de conception de systèmes de production chez un équipementier automobile. Enfin, des développements possibles d’outils d’aide à la conception supportant la méthodologie proposée sont discutés
Manufacturing systems have become large scale systems with increasing complexity particularly magnified by highly changing contexts. The system’s ability to cope with change (i.e. changeability) is recognized as a critical lifecycle property in the manufacturing system and engineering design domains. Given the complexity of changeable manufacturing systems, the proposed methodology of this dissertation aims to support design of changeability in subscribing to the domain of system engineering. The first contribution is a formalism for modeling changeability in a systemic way. Flexibility and reconfigurability paradigms are not limited to physical components of the system, but to the overall system architecture that encompasses all engineering artifacts relating to the designed system in both the requirements and physical solution domains. The second contribution is the methodology for the design and the management of changeability. The methodology utilizes a lifecycle model for changeable systems, in which design for changeability phases alternate with re-design phases that embrace and benefit from the existing changeability capabilities. These complementary processes allow a better consistency between design decisions to embed and reuse changeability, increasing changeability potential during the lifecycle of complex systems. The developed concepts and methodologies are validated in manufacturing system design projects from an automotive supplier. Finally, perspectives on design tools assisting the proposed methodology are discussed
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Clementini, Eliseo. "A conceptual framework for modelling spatial relations". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0028/these.pdf.

Texto completo
Resumen
The models of spatial relations have stimulated great interest among researchers in spatial databases from the nineties. We can distinguish three different levels of representation where we can identify spatial relations: a purely geometric one, where objects are represented as point-sets and relations can be formally defined in mathematical terms; a computational level, where objects are represented as spatial data types and relations are calculated using spatial operators; a user level, where objects and relations correspond to the concepts of user context. >From a geometric point of view, we can consider a categorization of spatial relations in three groups: topological, projective, and metric. This dissertation proposes both a general framework for modelling qualitative spatial relations and presents new developments for projective relations. By providing a formal mathematical framework to a qualitative description of relations, the models are of great research interest in geographic information science. The most important geometric property that has been taken into account is the collinearity of three points. The importance of this property is such that it influences the whole approach, making ternary relations the formal basis of the models. We have developed algorithms to calculate the relations from a vector data structure and a reasoning system on ternary projective relations. We also extended the model to the three-dimensional space and the sphere. >From a user perspective, projective relations should consider context information, combining them with reference systems to avoid ambiguities in the meaning of the relation
Les modèles pour les relations spatiales ont stimulé un grand intérêt parmi les chercheurs dans les bases de données spatiales des années 90. On peut distinguer trois niveaux différents de représentation où nous pouvons identifier des relations spatiales : un niveau purement géométrique, où des objets sont représentés comme ensembles de points et les relations peuvent être formellement définies en termes mathématiques ; un niveau informatique, où les objets sont représentés en tant que types de données spatiaux et les relations sont calculées au moyen d'opérateurs spatiaux ; un niveau utilisateur, où les objets et les relations correspondent aux concepts du contexte d'utilisateur. Du point de vue géométrique, on peut considérer une catégorisation des relations spatiales dans trois groupes : topologique, projectif, et métrique. Ce mémoire de thèse propose à la fois un cadre général pour la modélisation des relations spatiales qualitatives, et présente des nouveaux développements pour les relations projectives. En offrant un cadre mathématique formel à une description qualitative des relations, les modèles envisagés se révèlent d’un grand intérêt dans la recherche en sciences de l’information géographique. La propriété géométrique la plus importante qui a été prise en considération est la colinéarité entre trois points. L’importance de cette propriété est telle qu’elle conditionne toute l’approche, en faisant des relations ternaires la base formelle des modèles envisagés. Nous avons développé les algorithmes pour calculer les relations à partir d'une structure de données en format vectoriel et un système de raisonnement sur les relations projectives ternaires. On a aussi étendu les modèles vers l’espace trois-dimensionnelles et la sphère. Du point de vue de l’utilisateur, les relations projectives doivent envisager l’information sur le contexte, en les combinant avec des systèmes de référence pour ôter les ambiguïtés du sens de la relation
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Laslandes, Marie. "Miroirs actifs de l'espace - Développement de systèmes d'optique active pour les futurs grands observatoires". Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00764315.

Texto completo
Resumen
Le besoin tant en haute qualité d'imagerie qu'en structures légères est l'un des principaux moteurs pour la conception des télescopes spatiaux. Un contrôle e fficace du front d'onde va donc devenir indispensable dans les futurs grands observatoires spatiaux, assurant une bonne performance optique tout en relâchant les contraintes sur la stabilité globale du système. L'optique active consiste à contrôler la déformation des miroirs, cette technique peut être utilisée afin de compenser la déformation des grands miroirs primaires, afin de permettre l'utilisation d'instrument reconfigurable ou afin de fabriquer des miroirs asphériques avec le polissage sous contraintes. Dans ce manuscrit, la conception de miroirs actifs dédiés à l'instrumentation spatiale est présentée. Premièrement, un système compensant la déformation d'un grand miroir allégé dans l'espace est conçu et ses performances sont démontrées expérimentalement. Avec 24 actionneurs, le miroir MADRAS (Miroir Actif Déformable et Régulé pour Applications Spatiales) e ffectuera une correction e fficace du front d'onde dans un relais de pupille du télescope. Deuxièmement, un harnais de déformation pour le polissage sous contraintes des segments du télescope géant européen de 39 m (E-ELT) est présenté. La performance du procédé est prédite et optimisée avec des analyses éléments finis et la production en masse des segments est considérée. Troisièmement, deux concepts originaux de miroirs déformables avec un nombre minimal d'actionneurs ont été développés. VOALA (Variable O ff-Axis parabola) est un système à trois actionneurs et COMSA (Correcting Optimized Mirror with a Single Actuator) est un système à un actionneur. Les systèmes actifs présentés dans ce manuscrit off rent de nombreux avantages pour une utilisation dans les futurs grands observatoires spatiaux: nombre de degrés de liberté limités, compacité, légèreté, robustesse et fiabilité. Ils permettront d'importantes ruptures technologiques et l'apparition d'architectures de télescope innovantes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Moussaileb, Routa. "Log analysis for malicious software detection". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0211.

Texto completo
Resumen
Les rançongiciels demeurent la menace informatique principale pour les particuliers, les entreprises et les gouvernements. Les conséquences de ces attaques peuvent causer des pertes irréversibles si les exigences des attaquants ne sont pas satisfaites à temps. Cette thèse cible les rançongiciels Windows. Ils affectent les données des utilisateurs sauvegardées sur les ordinateurs ainsi que de nombreux services publics. Quatre étapes de l’attaque des rançongiciels sont définies : infection, déploiement, destruction et transaction. Les contre-mesures sont regroupées selon les techniques utilisées et attribuées à chaque phase de l'attaque. Cette thèse présente trois contributions. Le premier mécanisme de détection est situé dans la couche du système de fichiers. Il est basé sur la traversée du système qui permet d’exposer les comportements malveillants. Cette thèse propose également une analyse du trafic réseau. Les échantillons sont collectés pour une détection au niveau des paquets. Une étude des notes de rançon est faite pour situer la contre-mesure réseau dans l'étape appropriée de l’intrusion. La dernière contribution donne un aperçu des attaques, particulièrement des Doxware. Un modèle de quantification qui explore le système de fichiers Windows à la recherche de données importantes est présenté et complémenté par les pots de miels pour protéger les fichiers sensibles. Enfin, cette thèse offre des perspectives permettant d'établir un meilleur plan d’action pour les chercheurs
Ransomware remains the number one cyberthreat for individuals, enterprises, and governments. Malware’s aftermath can cause irreversible casualties if the requirements of the attackers are not met in time. This thesis targets Windows ransomware. It affects users’ data and undermines many public services. Four stages of this malware attack are defined: delivery, deployment, destruction, and dealing. The corresponding countermeasures are assigned to each phase of the attack and clustered according to the techniques used. This thesis presents three contributions. The first detection mechanism is located in the file system layer. It is based on the system traversal that is sufficient to highlight the malicious behavior. This thesis proposes also an analysis of the network traffic. It is generated by collected ransomware samples to perform a packet-level detection. A study of the ransom notes is made to define where it takes place in a ransomware workflow. The last contribution provides an insight into plausible attacks, especially Doxware. A quantification model that explores the Windows file system in search of valuable data is presented. It is based on the term frequency-inverse document frequency solution provided in the literature for information retrieval. Honeypot techniques are also used to protect the sensitive files of the users. Finally, this thesis provides future perspectives granting a better roadmap for researchers
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Durand, William. "Automated test generation for production systems with a model-based testing approach". Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22691/document.

Texto completo
Resumen
Ce manuscrit de thèse porte sur le problème du test basé modèle de systèmes de production existants, tels ceux de notre partenaire industriel Michelin, l’un des trois plus grands fabricants de pneumatiques au monde. Un système de production est composé d’un ensemble de machines de production contrôlées par un ou plusieurs logiciels au sein d’un atelier dans une usine. Malgré les nombreux travaux dans le domaine du test basé modèle, l’écriture de modèles permettant de décrire un système sous test ou sa spécification reste un problème récurrent, en partie à cause de la complexité d’une telle tâche. De plus, un modèle est utile lorsqu’il est à jour par rapport à ce qu’il décrit, ce qui implique de le maintenir dans le temps. Pour autant, conserver une documentation à jour reste compliqué puisqu’il faut souvent le faire manuellement. Dans notre contexte, il est important de souligner le fait qu’un système de production fonctionne en continu et ne doit être ni arrêté ni perturbé, ce qui limite l’usage des techniques de test classiques. Pour pallier le problème de l’écriture de modèles, nous proposons une approche pour construire automatiquement des modèles depuis des séquences d’événements observés (traces) dans un environnement de production. Pour se faire, nous utilisons les informations fournies par les données échangées entre les éléments qui composent un système de production. Nous adoptons une approche boîte noire et combinons les notions de système expert, inférence de modèles et machine learning, afin de créer des modèles comportementaux. Ces modèles inférés décrivent des comportements complets, enregistrés sur un système analysé. Ces modèles sont partiels, mais également très grands (en terme de taille), ce qui les rend difficilement utilisable par la suite. Nous proposons une technique de réduction spécifique à notre contexte qui conserve l’équivalence de traces entre les modèles de base et les modèles fortement réduits. Grâce à cela, ces modèles inférés deviennent intéressant pour la génération de documentation, la fouille de données, mais également le test. Nous proposons une méthode passive de test basé modèle pour répondre au problème du test de systèmes de production sans interférer sur leur bon fonctionnement. Cette technique permet d’identifier des différences entre deux systèmes de production et réutilise l’inférence de modèles décrite précédemment. Nous introduisons deux relations d’implantation : une relation basée sur l’inclusion de traces, et une seconde relation plus faible proposée, pour remédier au fait que les modèles inférés soient partiels. Enfin, ce manuscrit de thèse présente Autofunk, un framework modulaire pour l’inférence de modèles et le test de systèmes de production qui aggrège les notions mentionnées précédemment. Son implémentation en Java a été appliquée sur différentes applications et systèmes de production chez Michelin dont les résultats sont donnés dans ce manuscrit. Le prototype développé lors de la thèse a pour vocation de devenir un outil standard chez Michelin
This thesis tackles the problem of testing (legacy) production systems such as those of our industrial partner Michelin, one of the three largest tire manufacturers in the world, by means of Model-based Testing. A production system is defined as a set of production machines controlled by a software, in a factory. Despite the large body of work within the field of Model-based Testing, a common issue remains the writing of models describing either the system under test or its specification. It is a tedious task that should be performed regularly in order to keep the models up to date (which is often also true for any documentation in the Industry). A second point to take into account is that production systems often run continuously and should not be disrupted, which limits the use of most of the existing classical testing techniques. We present an approach to infer exact models from traces, i.e. sequences of events observed in a production environment, to address the first issue. We leverage the data exchanged among the devices and software in a black-box perspective to construct behavioral models using different techniques such as expert systems, model inference, and machine learning. It results in large, yet partial, models gathering the behaviors recorded from a system under analysis. We introduce a context-specific algorithm to reduce such models in order to make them more usable while preserving trace equivalence between the original inferred models and the reduced ones. These models can serve different purposes, e.g., generating documentation, data mining, but also testing. To address the problem of testing production systems without disturbing them, this thesis introduces an offline passive Model-based Testing technique, allowing to detect differences between two production systems. This technique leverages the inferred models, and relies on two implementation relations: a slightly modified version of the existing trace preorder relation, and a weaker implementation proposed to overcome the partialness of the inferred models.Overall, the thesis presents Autofunk, a modular framework for model inference and testing of production systems, gathering the previous notions. Its Java implementation has been applied to different applications and production systems at Michelin, and this thesis gives results from different case studies. The prototype developed during this thesis should become a standard tool at Michelin
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Perrot, Clément. "Imagerie directe de systèmes planétaires avec SPHERE et prédiction des performances de MICADO sur l’E-ELT". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC212/document.

Texto completo
Resumen
Cette thèse s'inscrit dans la thématique de l'étude de la formation et de l'évolution des systèmes planétaire grâce à la méthode de l'imagerie à haut contraste, aussi appelée imagerie directe, par comparaison aux méthodes de détection dites "indirectes". Le travail que je présente dans ce manuscrit s'articule en deux parties bien distinctes. La première partie concerne la composante observationnel de ma thèse, à l'aide de l'instrument SPHERE installé au Very Large Telescope, au sein du consortium du même nom. L'instrument SPHERE a pour objectif la détection et la caractérisation de jeunes et massives exoplanètes mais également de disques circumstellaires allant des très jeune disques protoplanétaires aux disques de débris, plus âgés. Ainsi, je présente dans ce manuscrit ma contribution au programme SHINE, un grand relevé de 200 nuits dont le but est la détection de nouvelles exoplanètes ainsi que la caractérisation spectrale et orbitale des quelques compagnons déjà connus. J'y présente également les deux études de disques circumstellaires que j'ai réalisées, autour des étoiles HD 141569 et HIP 86598. La première étude ayant permis la découverte d'anneaux concentriques à quelques dizaine d'UA de l'étoile ainsi que de asymétrie dans le flux du disque inhabituelle. La seconde étude porte sur la découverte d'un disque de débris présentant également une asymétrie en flux inhabituelle. La deuxième partie concerne la composante instrumentale de mon travail de thèse, au sein du consortium MICADO, en charge de la conception de la caméra du même nom qui sera l'un des instruments de première lumière de l'Extremely Large Telescope Européen (ELT). Dans ce manuscrit, je présente l'étude que j'ai menée afin de définir le design de certain composant du mode coronographique de MICADO tout en tenant compte des contraintes de l'instrument qui n'est pas dédié à l'imagerie haut contraste, contrairement à SPHERE
This thesis is performed in the context of the study of the formation and evolution of planetary systems using high contrast imaging, also known as direct imaging in contrast to so-called "indirect" detection methods. The work I present in this manuscript is divided into two distinct parts.The first part concerns the observational component of my thesis, using the SPHERE instrument installed at Very LargeTelescope. This work was done as part of the consortium of the same name. The purpose of the SPHERE instrument is to detect and characterize young and massive exoplanets, but also circumstellar disks ranging from very young protoplanetary disks to older debris disks. In this manuscript, I present my contribution to the program SHINE, a large survey with an integration time of 200 nights' worth of observation, the goal of which is the detection of new exoplanets and the spectral and orbital characterization of some previously-known companions. I also present the two studies of circumstellar disks that I made, around the stars HD 141569 and HIP 86598. The first study allowed the discovery of concentric rings at about ten AU of the star along with an unusual flux asymmetry in the disk. The second study is about the discovery of a debris disk that also has an unusual flux asymmetry. The second part concerns the instrumental component of my thesis work done within the MICADO consortium, in charge of the design of the camera of the same name which will be one of the first light instruments of the European Extremely Large Telescope (ELT). In this manuscript, I present the study in which I define the design of some components of the coronagraphic mode of MICADO while taking into account the constraints of the instrument - which is not dedicated to high contrast imaging, unlike SPHERE
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Oliva, Venegas Yaset. "High level modeling of run-time managers for the design of heterogeneous embedded systems". Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0017.

Texto completo
Resumen
Afin de répondre à la difficulté toujours croissante de réaliser des systèmes embarqués, les concepteurs ont dû se tourner vers des méthodes et outils permettant d’abstraire le niveau de description. Ces systèmes modernes sont généralement caractérisés par la présence de multiples fonctions complexes de traitement numérique du signal et s’articulent de plus en plus autour de blocs hétérogènes (logiciels et matériels). Dans ce contexte, la tendance actuelle est d’incorporer un noyau afin de gérer ces différents blocs de manière flexible et dynamique. Lorsque ces blocs deviennent trop complexes, il devient alors possible d’ajouter au noyau des services supplémentaires afin d’en assurer la gestion. Ceci est notamment le cas lorsque les fonctions peuvent s’exécuter sur plusieurs processeurs hétérogènes ou dans des zones matérielles reconfigurables. Compte tenu de tous ces aspects, la première partie de cette thèse porte sur une contribution à un outil de conception et propose une méthodologie permettant d'explorer la structure d'un système embarqué. L'outil permet la spécification des trois éléments de base d'un système : l'application, l'architecture et le système d'exploitation (noyau) à partir de modèles de haut niveau. La méthodologie consiste à spécifier, simuler et analyser les trois éléments de base. La démarche d’exploration s’effectue de manière itérative jusqu'à ce qu’une solution satisfaisante soit déterminée. La seconde partie de la thèse a porté sur une extension d’un modèle noyau afin de gérer dynamiquement la migration des tâches entre différents blocs de traitement (processeurs ou zones reconfigurables). Le service proposé est conçu pour gérer les architectures à mémoire partagée contenant un noyau supportant une configuration maître/esclave. Ce service d’Offloading complète le modèle du noyau en y ajoutant de nouvelles fonctionnalités (la migration des tâches, gestion des tâches hétérogènes et le placement intelligent)
In order to circumvent the ever increasing difficulty of designing embedded systems, designers have to envisage using new methods and tools to abstract the level of description. These modern systems are usually composed of multiple complex functions of digital signal processing that are often implemented in heterogeneous (software and hardware) blocks. In this context, the current trend is to incorporate a kernel destined to manage these different processing blocks in a flexible and dynamic manner. As these blocks become too complex to handle, it is thus possible to add specific services to the kernel to manage it. This is particularly the case when the functions may run on multiple heterogeneous processors or in reconfigurable hardware. Considering all these aspects, the first part of this thesis is a contribution to a design tool and proposes a methodology to explore the structure of an embedded system. The tool allows the specification of three basic elements of a system: the application, the architecture and the operating system (kernel) from high level models. The methodology consists in specifying, simulating and analyzing these three basic elements. The process of exploration is performed iteratively until a satisfactory solution is reached. The second part of the thesis focused on an extension of a core model to dynamically manage the migration of tasks between different blocks (processors or reconfigurable areas). The proposed service is designed to manage the shared-memory architectures containing a kernel that supports a master / slave configuration. This Offloading service is part of the kernel model and adds new features (migration tasks, heterogeneous task management and the smart placement)
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Chretien, Benoît. "Simulation of a new automotive concept based on a centralized approach for driver assistance system activation decision". Thesis, Evry-Val d'Essonne, 2012. http://www.theses.fr/2011EVRY0033.

Texto completo
Resumen
De nos jours, afin d'améliorer la sécurité routière, de plus en plus de systèmes d'assistance à la conduite, appelé ADAS (Advanced Driver Assistance System) sont embarqués dans les véhicules. Leur augmentation rend le développement des véhicules toujours plus complexes. Pour parer à ces difficultés, dans un premier temps, ma thèse propose l'élaboration d'un simulateur de véhicule, capable d'aider le développeur. Afin de résoudre les problèmes de décisions et de synchronisation, l'état de l'art a été considéré pour choisir une architecture adaptée aux ADAS. En dernier lieu, un algorithme de prise de décision a été développé, pour optimiser l'intégrité du véhicule. Pour modéliser le véhicule, un simulateur émule le comportement planaire de celui-ci et des actionneurs qui agissent sur sa dynamique, tels que le moteur ou les freins. Une fois la base du véhicule réalisée, j'ai concentré mon travail sur les ADAS. Comme actuellement aucune solution concrète n’existe pour la stratégie de décision, afin de choisir l’aide la plus adaptée à la situation, le dernier point traité dans ma thèse a été le développement d'une décision assurant l'intégrité du véhicule. Celle-ci couple un calcul de trajectoire avec un ensemble invariant de Lyapunov, obtenu par un problème d'optimisation avec contraintes sous forme de d'inégalités matricielles bilinéaires. Elle permet d’évaluer l'activation des fonctions et de fournir un avertissement au conducteur dans les situations critiques. Pour illustrer le fonctionnement de cette décision, un exemple de contrôle longitudinal a été choisi, comprenant un régulateur automatique de vitesse et un freinage d'urgence
Nowadays, to enhance traffic safety, more and more Advance Driver Assistance Systems (ADAS) are embedded in mass-production vehicles. Their increase renders development of vehicles more and more complex, especially to design Electronic and Electric (E/E) architecture, to synchronize the different embedded ADAS and decide which ADAS should be engaged. To cope with E/E architecture issues, my PhD thesis proposes a vehicle simulator, which is able to support architect designers. Then, to solve synchronization and decision problems, ADAS architecture has been chosen, according to the state of the art. Finally, a decision algorithm has been developed to optimise vehicle safety. To model the vehicle, a simulator emulates its plane motion according to embedded actuators acting on dynamic, like engine and brakes. Once the vehicle basis has been performed, I focus my work on ADAS. Because nowadays no generic solution exists to decide which ADAS to engage, last focus of my PhD has been the design of a decision method, optimizing vehicle safety. This latter couples a path-planning witch a Lyapunov invariant set, obtained through optimization problem constraints by bilinear matrix inequality. This strategy enables to assess embedded ADAS-functions and to warn the driver in critical situations. In order to illustrate this former, it has been illustrated with 2 longitudinal functions, a Adaptive Cruise Control and an Emergency Brake
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía