To see the other types of publications on this topic, follow the link: Document network.

Dissertations / Theses on the topic 'Document network'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Document network.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hasan, Mohammed Jaffer. "Document legalisation : a new approach to the document legalisation process using enterprise network technology." Thesis, Middlesex University, 2012. http://eprints.mdx.ac.uk/9875/.

Full text
Abstract:
Documents issued in one country often have to be legalised (authenticated)before they can be used in another country. Different types of documents (legal papers) such as birth, death and marriage records, deeds of assignments, powers of attorney, commercial invoices etc. need to be legalised by the Destination Country before they can be assumed legal. Legalising a document simply means confirming that official documents are sealed and signed either with an Apostille Certificate for countries that are part of the Hague convention 1961, or with a Certificate of Authentication where countries are not party to The Hague Convention. Legalising (authenticating) documents is a process of verification of signatures. The aim of this research is to critically examine the current processes of document legalisation, through analysing and establishing the opportunities that lie before the organisation to implement a new process in document legalisation to replace the prolonged historical process currently used in some countries, specifically the United Arab Emirates (UAE). Using enterprise network technology1, this research will also produce a solution to the risks involved, the implementation and the security, and it will also analyse the impact of such implementation to the organisation. Considering the project, which explores a very sensitive area in the organisation and one of major change to the organisation’s business process, the authenticity of data must be given a high priority. Therefore, an online survey may not always be a legitimate approach. A paper survey may well fit the purpose but, on the other hand, a detailed interview and/ or telephone survey will be even more accurate. Hence I made use of a mixed method (qualitative/ quantitative) approach. The business of document legalisation goes back in history by more than two thousand years and, therefore, needs to be explored historically, establishing how the business of the document legalisation process has evolved alongside the established professions in government today, and defining the areas of concern such as security, availability, traceability and mobility. This will pave the way for an investigation to evaluate a new process that can utilise available technology to solve the areas of concern. The current process of Document Legalisation has been used for many years and a change in this process may take some time. There are many possible pitfalls that the programme may encounter, one of which is the change to a process that has not yet been established in any other area of the world, so there are no other occurrences in this subject for comparison. A clear and informative document explaining the project – a Specific, Measurable, Achievable, Realistic and Time Limit (SMART) description of the project – will solve any conflict. Considering that the research in th is complex topic runs in history for more than two thousand years, a mixed method approach should be used. However, to elaborate the methodology that can explore the underlying philosophical assumption taken by researchers a mixed methodology term should be more accurate, due to the history and composition of knowledge that have been accumulated in this topic. Hence clarification is needed to establish reasons and define a new approach in the document legalisation process. In addition to the historical literature, the main groups taken into consideration to form the data are the decision makers, interviews with senior staff and a survey for employees working in the field of document legalisation. To find reasons for every step in document legalisation, experiments should not be ignored. The reason for this is to clarify the area of data mismatch. The scope of the project will discuss the current risk involved in the current process of legalising documents, identifying its weaknesses, and the needs and requirements of the newly proposed process with recommendations to establish a solution utilising state of the art technology to provide a new secure, mobile and traceable process which is available 24/7.
APA, Harvard, Vancouver, ISO, and other styles
2

De, Bacco Caterina. "Decentralized network control, optimization and random walks on networks." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112164/document.

Full text
Abstract:
Dans les dernières années, plusieurs problèmes ont été étudiés à l'interface entre la physique statistique et l'informatique. La raison étant que, souvent, ces problèmes peuvent être réinterprétés dans le langage de la physique des systèmes désordonnés, où un grand nombre de variables interagit à travers champs locales qui dépendent de l'état du quartier environnant. Parmi les nombreuses applications de l'optimisation combinatoire le routage optimal sur les réseaux de communication est l'objet de la première partie de la thèse. Nous allons exploiter la méthode de la cavité pour formuler des algorithmes efficaces de type ‘’message-passing’’ et donc résoudre plusieurs variantes du problème grâce à sa mise en œuvre numérique. Dans un deuxième temps, nous allons décrire un modèle pour approcher la version dynamique de la méthode de la cavité, ce qui permet de diminuer la complexité du problème de l'exponentielle de polynôme dans le temps. Ceci sera obtenu en utilisant le formalisme de ‘’Matrix Product State’’ de la mécanique quantique.Un autre sujet qui a suscité beaucoup d'intérêt en physique statistique de processus dynamiques est la marche aléatoire sur les réseaux. La théorie a été développée depuis de nombreuses années dans le cas que la topologie dessous est un réseau de dimension d. Au contraire le cas des réseaux aléatoires a été abordé que dans la dernière décennie, laissant de nombreuses questions encore ouvertes pour obtenir des réponses. Démêler plusieurs aspects de ce thème fera l'objet de la deuxième partie de la thèse. En particulier, nous allons étudier le nombre moyen de sites distincts visités au cours d'une marche aléatoire et caractériser son comportement en fonction de la topologie du graphe. Enfin, nous allons aborder les événements rares statistiques associées aux marches aléatoires sur les réseaux en utilisant le ‘’Large deviations formalism’’. Deux types de transitions de phase dynamiques vont se poser à partir de simulations numériques. Nous allons conclure décrivant les principaux résultats d'une œuvre indépendante développée dans le cadre de la physique hors de l'équilibre. Un système résoluble en deux particules browniens entouré par un bain thermique sera étudiée fournissant des détails sur une interaction à médiation par du bain résultant de la présence du bain
In the last years several problems been studied at the interface between statistical physics and computer science. The reason being that often these problems can be reinterpreted in the language of physics of disordered systems, where a big number of variables interacts through local fields dependent on the state of the surrounding neighborhood. Among the numerous applications of combinatorial optimisation the optimal routing on communication networks is the subject of the first part of the thesis. We will exploit the cavity method to formulate efficient algorithms of type message-passing and thus solve several variants of the problem through its numerical implementation. At a second stage, we will describe a model to approximate the dynamic version of the cavity method, which allows to decrease the complexity of the problem from exponential to polynomial in time. This will be obtained by using the Matrix Product State formalism of quantum mechanics. Another topic that has attracted much interest in statistical physics of dynamic processes is the random walk on networks. The theory has been developed since many years in the case the underneath topology is a d-dimensional lattice. On the contrary the case of random networks has been tackled only in the past decade, leaving many questions still open for answers. Unravelling several aspects of this topic will be the subject of the second part of the thesis. In particular we will study the average number of distinct sites visited during a random walk and characterize its behaviour as a function of the graph topology. Finally, we will address the rare events statistics associated to random walks on networks by using the large-deviations formalism. Two types of dynamic phase transitions will arise from numerical simulations, unveiling important aspects of these problems. We will conclude outlining the main results of an independent work developed in the context of out-of-equilibrium physics. A solvable system made of two Brownian particles surrounded by a thermal bath will be studied providing details about a bath-mediated interaction arising for the presence of the bath
APA, Harvard, Vancouver, ISO, and other styles
3

Li, Yue. "Edge computing-based access network selection for heterogeneous wireless networks." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S042/document.

Full text
Abstract:
Au cours de ces dernières décennies, les réseaux de télécommunications mobiles ont évolué de la 1G à la 4G. La 4G permet la coexistence de différents réseaux d'accès. Ainsi, les utilisateurs ont la capacité de se connecter à un réseau hétérogène, constitué de plusieurs réseaux d'accès. Toutefois, la sélection du réseau approprié n'est pas une tâche facile pour les utilisateurs mobiles puisque les conditions de chaque réseau d'accès changent rapidement. Par ailleurs, en termes d'usage, le streaming vidéo devient le service principal de transfert de données sur les réseaux mobiles, ce qui amène les fournisseurs de contenu et les opérateurs de réseau à coopérer pour garantir la qualité de la diffusion. Dans ce contexte, la thèse propose la conception d'une approche novatrice pour la prise de décision optimale de sélection de réseau et une architecture améliorant les performances des services de streaming adaptatif dans un réseau hétérogène. En premier lieu, nous introduisons un modèle analytique décrivant la procédure de sélection de réseau en ne considérant déjà qu'une seule classe de trafic. Nous concevons ensuite une stratégie de sélection basée sur des fondements de la théorie du contrôle optimal linéaire. Des simulations sous MATLAB sont effectuées pour valider l'efficacité du mécanisme proposé. Sur ce même principe, nous étendons ce modèle avec un modèle analytique général décrivant les procédures de sélection de réseau dans des environnements de réseaux hétérogènes avec de multiples classes de trafic. Le modèle proposé est ensuite utilisé pour dériver un mécanisme adaptatif basé sur la théorie du contrôle, qui permet non seulement d'aider à piloter dynamiquement le trafic vers l'accès réseau le plus approprié mais aussi de bloquer dynamiquement le trafic résiduel lorsque le réseau est congestionné en ajustant les probabilités d'accès optimales. Nous discutons aussi les avantages d'une intégration transparente du mécanisme proposé avec l'ANDSF, solution fonctionnelle normalisée pour la sélection de réseau. Un prototype est également implémenté dans ns-3. En second lieu, nous nous concentrons sur l'amélioration des performances de DASH pour les utilisateurs mobiles dans un environnement de réseau d'accès 4G uniquement. Nous introduisons une nouvelle architecture basée sur l'utilisation de serveurs distribués en périphérie de réseau suivant le standard MEC. Le mécanisme d'adaptation proposé, fonctionnant en tant que service MEC, peut modifier les fichiers de manifeste en temps réel, en réponse à la congestion du réseau et à la demande dynamique de flux de streaming. Ces modifications conduisent ainsi les clients à sélectionner des représentations vidéo de débit / qualité plus appropriées. Nous avons développé une plateforme de test virtualisée pour l'expérimentation de notre proposition. Les résultats ainsi obtenus démontrent ses avantages en terme de QoE comparés aux approches d'adaptation traditionnelles, purement pilotées par les clients, car notre approche améliore non seulement le MOS mais aussi l'équité face à la congestion. Enfin, nous étendons l'architecture proposée basée sur MEC pour supporter le service de streaming adaptatif DASH dans un réseau hétérogène multi-accès afin de maximiser la QoE et l'équité des utilisateurs mobiles. Dans ce scénario, notre mécanisme doit aider les utilisateurs à sélectionner la qualité vidéo et le réseau et nous le formulons comme un problème d'optimisation. Ce problème d'optimisation peut être résolu par l'outil IBM CPLEX, mais cela prend du temps et ne peut être envisagé à grande échelle. Par conséquent, nous introduisons une heuristique pour aborder la solution optimale avec moins de complexité. Ensuite, nous mettons en œuvre une expérimentation sur notre plateforme de tests. Le résultat démontre que, par rapport à l'outil IBM CPLEX, notre algorithme permet d'obtenir des performances similaires sur la QoE globale et l'équité, avec un gain de temps significatif
Telecommunication network has evolved from 1G to 4G in the past decades. One of the typical characteristics of the 4G network is the coexistence of heterogeneous radio access technologies, which offers end-users the capability to connect them and to switch between them with their mobile devices of the new generation. However, selecting the right network is not an easy task for mobile users since access network condition changes rapidly. Moreover, video streaming is becoming the major data service over the mobile network where content providers and network operators should cooperate to guarantee the quality of video delivery. In order to cope with this context, the thesis concerns the design of a novel approach for making an optimal network selection decision and architecture for improving the performance of adaptive streaming in the context of a heterogeneous network. Firstly, we introduce an analytical model (i.e. linear discrete-time system) to describe the network selection procedure considering one traffic class. Then, we consider the design of a selection strategy based on foundations from linear optimal control theory, with the objective to maximize network resource utilization while meeting the constraints of the supported services. Computer simulations with MATLAB are carried out to validate the efficiency of the proposed mechanism. Based on the same principal we extend this model with a general analytical model describing the network selection procedures in heterogeneous network environments with multiple traffic classes. The proposed model was, then, used to derive a scalable mechanism based on control theory, which allows not only to assist in steering dynamically the traffic to the most appropriate network access but also helps in blocking the residual traffic dynamically when the network is congested by adjusting dynamically the access probabilities. We discuss the advantages of a seamless integration with the ANDSF. A prototype is also implemented into ns-3. Simulation results sort out that the proposed scheme prevents the network congestion and demonstrates the effectiveness of the controller design, which can maximize the network resources allocation by converging the network workload to the targeted network occupancy. Thereafter, we focus on enhancing the performance of DASH in a mobile network environment for the users which has one access network. We introduce a novel architecture based on MEC. The proposed adaptation mechanism, running as an MEC service, can modify the manifest files in real time, responding to network congestion and dynamic demand, thus driving clients towards selecting more appropriate quality/bitrate video representations. We have developed a virtualized testbed to run the experiment with our proposed scheme. The simulation results demonstrate its QoE benefits compared to traditional, purely client-driven, bitrate adaptation approaches since our scheme notably improves both on the achieved MOS and on fairness in the face of congestion. Finally, we extend the proposed the MEC-based architecture to support the DASH service in a multi-access heterogeneous network in order to maximize the QoE and fairness of mobile users. In this scenario, our scheme should help users select both video quality and access network and we formulate it as an optimization problem. This optimization problem can be solved by IBM CPLEX tool. However, this tool is time-consuming and not scalable. Therefore, we introduce a heuristic algorithm to make a sub-optimal solution with less complexity. Then we implement a testbed to conduct the experiment and the result demonstrates that our proposed algorithm notably can achieve similar performance on overall achieved QoE and fairness with much more time-saving compared to the IBM CPLEX tool
APA, Harvard, Vancouver, ISO, and other styles
4

Benfattoum, Youghourta. "Network coding for quality of service in wireless multi-hop networks." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112267/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l’application du codage réseau pour garantir la qualité de service (QoS) dans les réseaux sans fil multi-sauts. Comme le support de transmission est partagé, les réseaux sans fil souffrent de l’impact négatif des interférences sur la bande passante. Il est alors intéressant de proposer une approche basée sur le codage réseau qui prenne en compte ces interférences durant le processus de routage. Dans ce contexte, nous proposons d’abord un algorithme minimisant l’impact des interférences pour des flux unicast tout en respectant la bande passante qu’ils exigent. Puis, nous le combinons avec le codage réseau afin d’augmenter le nombre des flux acceptés et avec le contrôle de topologie pour améliorer davantage la gestion des interférences. Nous montrons par simulation l’intérêt de combiner les trois domaines : codage réseau, gestion des interférences et contrôle de topologie. Nous abordons également la gestion du délai pour les flux multicast et utilisons le codage réseau basé sur les générations (GBNC) qui combine les paquets par bloc. La plupart des travaux portant sur le GBNC considèrent une taille de génération fixe mais à cause des variations de l’état du réseau le délai de décodage et de récupération du bloc de paquets peut varier, dégradant la QoS. Pour résoudre ce problème, nous proposons une méthode qui ajuste la taille de la génération de façon dynamique pour respecter un certain délai de décodage avec prise en compte des contextes réseau et contenu. De plus, nous améliorons notre approche pour contrecarrer les pertes des acquittements. Puis, nous proposons de l’utiliser dans un réseau de domicile pour la diffusion de vidéo à la demande. Notre solution améliore la QoS et la qualité d’expérience pour l’utilisateur final sans équipement additionnel. Finalement, nous abordons un sujet plus théorique dans lequel nous présentons un nouveau réseau basé sur le schéma Butterfly pour des flux multi-sources multi-destinations. Nous caractérisons la taille du buffer du nœud source en utilisant la théorie des files d’attente et montrons qu’elle correspond aux résultats de simulation
In this thesis we deal with the application of Network Coding to guarantee the Quality of Service (QoS) for wireless multi-hop networks. Since the medium is shared, wireless networks suffer from the negative interference impact on the bandwidth. It is thus interesting to propose a Network Coding based approach that takes into account this interference during the routing process. In this context, we first propose an algorithm minimizing the interference impact for unicast flows while respecting their required bandwidth. Then, we combine it with Network Coding to increase the number of admitted flows and with Topology Control to still improve the interference management. We show by simulation the benefit of combining the three fields: Network Coding, interference consideration and Topology Control. We also deal with delay management for multicast flows and use the Generation-Based Network Coding (GBNC) that combines the packets per blocks. Most of the works on GBNC consider a fixed generation size. Because of the network state variations, the delay of decoding and recovering a block of packets can vary accordingly degrading the QoS. To solve this problem, we propose a network-and content-aware method that adjusts the generation size dynamically to respect a certain decoding delay. We also enhance it to overcome the issue of acknowledgement loss. We then propose to apply our approach in a Home Area Network for Live TV and video streaming. Our solution provides QoS and Quality of Experience for the end user with no additional equipment. Finally, we focus on a more theoretical work in which we present a new Butterfly-based network for multi-source multi-destination flows. We characterize the source node buffer size using the queuing theory and show that it matches the simulation results
APA, Harvard, Vancouver, ISO, and other styles
5

Varloot, Rémi. "Dynamic network formation." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE048/document.

Full text
Abstract:
Cette thèse porte sur la rapidité du temps de mélange de chaînes de Markov sur des graphes. La contribution principale concerne les graphes avec des dynamiques locales sur les arêtes, la topologie du graphe évoluant au fur et à mesure que les arêtes glissent les unes le long des autres. Nous proposons une classification des différents modèles existants de graphes dynamiques, tout en illustrant l’importance des transitions le long d’une structure mouvante pour améliorer la vitesse de convergence. Cette étude est complétée par la preuve, pour l’une de ces dynamiques, d’un temps de mélange rapide. Nous définissons notamment l’expansion partielle d’un graphe. Celle-ci permet de suivre l’avancement de la dynamique, partant d’un état de faible expansion, jusqu’à obtention d’une bonne expansion à l’équilibre. La fin de cette thèse porte sur une amélioration de l’algorithme de simulation parfaite de Propp et Wilson. Nous introduisant un oracle pour les transitions, inspiré de l’échantillonnage préférentiel, qui permet de réduire la complexité de l’algorithme. Nous fournissons une preuve de correction, ainsi qu’une étude de l’impact de cette méthode sur la vitesse d’échantillonnage d’ensembles indépendants pour certains graphes
This thesis focuses on the rapid mixing of graph-related Markov chains. The main contribution concerns graphs with local edge dynamics, in which the topology of a graph evolves as edges slide along one another. We propose a classification of existing models of dynamic graphs, and illustrate how evolving along a changing structure improves the convergence rate. This is complemented by a proof of the rapid mixing time for one such dynamic. As part of this proof, we introduce the partial expansion of a graph. This notion allows us to track the progression of the dynamic, from a state with poor expansion to good expansion at equilibrium. The end of the thesis proposes an improvement of the Propp and Wilson perfect sampling technique. We introduce oracle sampling, a method inspired by importance sampling that reduces the overall complexity of the Propp and Wilson algorithm. We provide a proof of correctness, and study the performance of this method when sampling independent sets from certain graphs
APA, Harvard, Vancouver, ISO, and other styles
6

Blein, Florent. "Automatic Document Classification Applied to Swedish News." Thesis, Linköping University, Department of Computer and Information Science, 2005. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-3065.

Full text
Abstract:

The first part of this paper presents briefly the ELIN[1] system, an electronic newspaper project. ELIN is a framework that stores news and displays them to the end-user. Such news are formatted using the xml[2] format. The project partner Corren[3] provided ELIN with xml articles, however the format used was not the same. My first task has been to develop a software that converts the news from one xml format (Corren) to another (ELIN).

The second and main part addresses the problem of automatic document classification and tries to find a solution for a specific issue. The goal is to automatically classify news articles from a Swedish newspaper company (Corren) into the IPTC[4] news categories.

This work has been carried out by implementing several classification algorithms, testing them and comparing their accuracy with existing software. The training and test documents were 3 weeks of the Corren newspaper that had to be classified into 2 categories.

The last tests were run with only one algorithm (Naïve Bayes) over a larger amount of data (7, then 10 weeks) and categories (12) to simulate a more real environment.

The results show that the Naïve Bayes algorithm, although the oldest, was the most accurate in this particular case. An issue raised by the results is that feature selection improves speed but can seldom reduce accuracy by removing too many features.

APA, Harvard, Vancouver, ISO, and other styles
7

Tsai, Chun-I. "A Study on Neural Network Modeling Techniques for Automatic Document Summarization." Thesis, Uppsala universitet, Institutionen för informationsteknologi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-395940.

Full text
Abstract:
With the Internet becoming widespread, countless articles and multimedia content have been filled in our daily life. How to effectively acquire the knowledge we seek becomes one of the unavoidable issues. To help people to browse the main theme of the document faster, many studies are dedicated to automatic document summarization, which aims to condense one or more documents into a short text yet still keep its essential content as much as possible. Automatic document summarization can be categorized into extractive and abstractive. Extractive summarization selects the most relevant set of sentences to a target ratio and assemble them into a concise summary. On the other hand, abstractive summarization produces an abstract after understanding the key concept of a document. The recent past has seen a surge of interest in developing deep neural network-based supervised methods for both types of automatic summarization. This thesis presents a continuation of this line and exploit two kinds of frameworks, which integrate convolutional neural network (CNN), long short-term memory (LSTM) and multilayer perceptron (MLP) for extractive speech summarization. The empirical results seem to demonstrate the effectiveness of neural summarizers when compared with other conventional supervised methods. Finally, to further explore the ability of neural networks, we experiment and analyze the results of applying sequence-to-sequence neural networks for abstractive summarization.
APA, Harvard, Vancouver, ISO, and other styles
8

Lyazidi, Mohammed Yazid. "Dynamic resource allocation and network optimization in the Cloud Radio Access Network." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066549/document.

Full text
Abstract:
Le Cloud Radio Access Network (C-RAN) est une future direction dans les réseaux de communications sans fils pour déployer des systèmes cellulaires 4G et renforcer la migration des opérateurs vers la nouvelle génération 5G. En comparaison avec l'architecture traditionnelle des stations de base distribuées, l'architecture C-RAN apporte un lot d'avantages à l'opérateur: meilleure utilisation des ressources radio, flexibilité du réseau, minimisation de la puissance consommée et amenuisement des coûts de déploiement. Dans cette thèse, nous adressons le problème d'allocation dynamique des ressources et minimisation de la puissance des communications à liaison descendante dans le C-RAN. Notre recherche vise à allouer les ressources radio à des flux dynamiques d'utilisateurs, tout en trouvant les meilleures combinaisons entre points d'accès et unités de calculs, pour satisfaire la demande de trafic. Il s'agit en outre, d'un problème d'optimisation non linéaire et NP-difficile, comprenant plusieurs contraintes relatives aux demandes de ressources des utilisateurs, gestion d'interférences, capacités fixes des unités de calcul dans le Cloud et des liaisons de transport ainsi que la limitation de la puissance transmise maximale. Afin de surmonter la complexité inhérente à cette problématique du C-RAN, nous présentons différentes approches pour l'allocation dynamique des ressources en trois principales contributions. Les résultats de nos simulations prouvent l'efficacité de nos méthodes, comparé à celles existantes dans la littérature, en termes de taux de débit de satisfaction, nombre d'antennes actives, puissance consommée dans le Cloud, résilience et coût opérationnel du C-RAN
Cloud Radio Access Network (C-RAN) is a future direction in wireless communications for deploying cellular radio access subsystems in current 4G and next-generation 5G networks. In the C-RAN architecture, BaseBand Units (BBUs) are located in a pool of virtual base stations, which are connected via a high-bandwidth low latency fronthaul network to Radio Remote Heads (RRHs). In comparison to standalone clusters of distributed radio base stations, C-RAN architecture provides significant benefits in terms of centralized resource pooling, network flexibility and cost savings. In this thesis, we address the problem of dynamic resource allocation and power minimization in downlink communications for C-RAN. Our research aims to allocate baseband resources to dynamic flows of mobile users, while properly assigning RRHs to BBUs to accommodate the traffic and network demands. This is a non-linear NP-hard optimization problem, which encompasses many constraints such as mobile users' resources demands, interference management, BBU pool and fronthaul links capacities, as well as maximum transmission power limitation. To overcome the high complexity involved in this problem, we present several approaches for resource allocation strategies and tackle this issue in three stages. Obtained results prove the efficiency of our proposed strategies in terms of throughput satisfaction rate, number of active RRHs, BBU pool processing power, resiliency, and operational budget cost
APA, Harvard, Vancouver, ISO, and other styles
9

Mangili, Michele. "Efficient in-network content distribution : wireless resource sharing, network planning, and security." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS182/document.

Full text
Abstract:
Au cours de ces dernières années, la quantité de trafic que les utilisateurs Internet produisent sur une base quotidienne a augmenté de façon exponentielle, principalement en raison du succès des services de streaming vidéo, tels que Netflix et YouTube. Alors que les réseaux de diffusion de contenu (Content-Delivery Networks, CDN) sont la technique standard utilisée actuellement pour servir les demandes des utilisateurs, la communauté scientifique a formulé des propositions connues sous le nom de Content-Centric Networks (CCN) pour changer la pile de protocoles réseau afin de transformer Internet en une infrastructure de distribution de contenu. Dans ce contexte, cette thèse de doctorat étudie des techniques efficaces pour la distribution de contenu numérique en tenant compte de trois problèmes complémentaires : 1) Nous considérons le scénario d’un réseau hétérogène sans fil, et nous formulons un mécanisme pour motiver les propriétaires des points d’accès à partager leur capacité WiFi et stockage cache inutilisés, en échange d’une contribution économique.2) Nous étudions le problème centralisé de planification du réseau en présence de caches distribuées et (I) nous analysons la migration optimale du réseau à CCN; (II) nous comparons les bornes de performance d’un réseau CDN avec ceux d’un CCN, et (III) nous considérons un réseau CDN virtualisé et étudions le problème stochastique de planification d’une telle infrastructure.3) Nous considérons les implications de sécurité sur le contrôle d’accès et la traçabilité, et nous formulons ConfTrack-CCN, une extension deCCN utilisée pour garantir la confidentialité, traçabilité et l’évolution de la politique d’accès, en présence de caches distribuées
In recent years, the amount of traffic requests that Internet users generate on a daily basis has increased exponentially, mostly due to the worldwide success of video streaming services, such as Netflix and YouTube. While Content-Delivery Networks (CDNs) are the de-facto standard used nowadays to serve the ever increasing users’ demands, the scientific community has formulated proposals known under the name of Content-Centric Networks (CCN) to change the network protocol stack in order to turn the network into a content distribution infrastructure. In this context this Ph.D. thesis studies efficient techniques to foster content distribution taking into account three complementary problems:1) We consider the scenario of a wireless heterogeneous network, and we formulate a novel mechanism to motivate wireless access point owners to lease their unexploited bandwidth and cache storage, in exchange for an economic incentive.2) We study the centralized network planning problem and (I) we analyze the migration to CCN; (II) we compare the performance bounds for a CDN with those of a CCN, and (III) we take into account a virtualized CDN and study the stochastic planning problem for one such architecture.3) We investigate the security properties on access control and trackability and formulate ConfTrack-CCN: a CCN extension to enforce confidentiality, trackability and access policy evolution in the presence of distributed caches
APA, Harvard, Vancouver, ISO, and other styles
10

Macpherson, Janet Robertson. "Implications of the inclusion of document retrieval systems as actors in a social network." Thesis, University of North Texas, 2005. https://digital.library.unt.edu/ark:/67531/metadc4913/.

Full text
Abstract:
Traditionally, social network analysis (SNA) techniques enable the examination of relationships and the flow of information within networks of human members or groups of humans. This study extended traditional social network analysis to include a nonhuman group member, specifically a document retrieval system. The importance of document retrieval systems as information sources, the changes in business environments that necessitates the use of information and communication technologies, and the attempts to make computer systems more life-like, provide the reasons for considering the information system as a group member. The review of literature for this study does not encompass a single body of knowledge. Instead, several areas combined to inform this study, including social informatics for its consideration of the intersection of people and information technology, network theory and social network analysis, organizations and information, organizational culture, and finally, storytelling in organizations as a means of transferring information. The methodology included distribution of surveys to two small businesses that used the same document retrieval system, followed by semi-structured interviews of selected group members, which allowed elaboration on the survey findings. The group members rated each other and the system on four interaction criteria relating to four social networks of interest, including awareness, access, information flow, and problem solving. Traditional measures of social networks, specifically density, degree, reciprocity, transitivity, distance, degree centrality, and closeness centrality provided insight into the positioning of the nonhuman member within the social group. The human members of the group were able to respond to the survey that included the system but were not ready to consider the system as being equivalent to other human members. SNA measures positioned the system as an average member of the group, not a star, but not isolated either. Examination of the surveys or the interviews in isolation would not have given a complete picture of the system's place within the group.
APA, Harvard, Vancouver, ISO, and other styles
11

Mazel, Johan. "Unsupervised network anomaly detection." Thesis, Toulouse, INSA, 2011. http://www.theses.fr/2011ISAT0024/document.

Full text
Abstract:
La détection d'anomalies est une tâche critique de l'administration des réseaux. L'apparition continue de nouvelles anomalies et la nature changeante du trafic réseau compliquent de fait la détection d'anomalies. Les méthodes existantes de détection d'anomalies s'appuient sur une connaissance préalable du trafic : soit via des signatures créées à partir d'anomalies connues, soit via un profil de normalité. Ces deux approches sont limitées : la première ne peut détecter les nouvelles anomalies et la seconde requiert une constante mise à jour de son profil de normalité. Ces deux aspects limitent de façon importante l'efficacité des méthodes de détection existantes.Nous présentons une approche non-supervisée qui permet de détecter et caractériser les anomalies réseaux de façon autonome. Notre approche utilise des techniques de partitionnement afin d'identifier les flux anormaux. Nous proposons également plusieurs techniques qui permettent de traiter les anomalies extraites pour faciliter la tâche des opérateurs. Nous évaluons les performances de notre système sur des traces de trafic réel issues de la base de trace MAWI. Les résultats obtenus mettent en évidence la possibilité de mettre en place des systèmes de détection d'anomalies autonomes et fonctionnant sans connaissance préalable
Anomaly detection has become a vital component of any network in today’s Internet. Ranging from non-malicious unexpected events such as flash-crowds and failures, to network attacks such as denials-of-service and network scans, network traffic anomalies can have serious detrimental effects on the performance and integrity of the network. The continuous arising of new anomalies and attacks create a continuous challenge to cope with events that put the network integrity at risk. Moreover, the inner polymorphic nature of traffic caused, among other things, by a highly changing protocol landscape, complicates anomaly detection system's task. In fact, most network anomaly detection systems proposed so far employ knowledge-dependent techniques, using either misuse detection signature-based detection methods or anomaly detection relying on supervised-learning techniques. However, both approaches present major limitations: the former fails to detect and characterize unknown anomalies (letting the network unprotected for long periods) and the latter requires training over labeled normal traffic, which is a difficult and expensive stage that need to be updated on a regular basis to follow network traffic evolution. Such limitations impose a serious bottleneck to the previously presented problem.We introduce an unsupervised approach to detect and characterize network anomalies, without relying on signatures, statistical training, or labeled traffic, which represents a significant step towards the autonomy of networks. Unsupervised detection is accomplished by means of robust data-clustering techniques, combining Sub-Space clustering with Evidence Accumulation or Inter-Clustering Results Association, to blindly identify anomalies in traffic flows. Correlating the results of several unsupervised detections is also performed to improve detection robustness. The correlation results are further used along other anomaly characteristics to build an anomaly hierarchy in terms of dangerousness. Characterization is then achieved by building efficient filtering rules to describe a detected anomaly. The detection and characterization performances and sensitivities to parameters are evaluated over a substantial subset of the MAWI repository which contains real network traffic traces.Our work shows that unsupervised learning techniques allow anomaly detection systems to isolate anomalous traffic without any previous knowledge. We think that this contribution constitutes a great step towards autonomous network anomaly detection.This PhD thesis has been funded through the ECODE project by the European Commission under the Framework Programme 7. The goal of this project is to develop, implement, and validate experimentally a cognitive routing system that meet the challenges experienced by the Internet in terms of manageability and security, availability and accountability, as well as routing system scalability and quality. The concerned use case inside the ECODE project is network anomaly
APA, Harvard, Vancouver, ISO, and other styles
12

Pham, Van Dung. "Architectural exploration of network Interface for energy efficient 3D optical network-on-chip." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S076/document.

Full text
Abstract:
Depuis quelques années, les réseaux optiques sur puce (ONoC) sont devenus une solution intéressante pour surpasser les limitations des interconnexions électriques, compte tenu de leurs caractéristiques attractives concernant la consommation d’énergie, le délai de transfert et la bande passante. Cependant, les éléments optiques nécessaires pour définir un tel réseau souffrent d’imperfections qui introduisent des pertes durant les communications. De plus, l'utilisation de la technique de multiplexage en longueurs d'ondes (WDM) permet d'augmenter les performances, mais introduit de nouvelles pertes et de la diaphonie entre les longueurs d'ondes, ce qui a pour effet de réduire le rapport signal sur bruit et donc la qualité de la communication. Les contributions présentées dans ce manuscrit adressent cette problématique d’amélioration de performance des liens optiques dans un ONoC. Pour cela, nous proposons tout d’abord un modèle analytique des pertes et de la diaphonie dans un réseau optique sur puce WDM. Nous proposons ensuite une méthodologie pour améliorer les performances globales du système s'appuyant sur l'utilisation de codes correcteurs d'erreurs. Nous présentons deux types de codes, le premier(Hamming) est d'une complexité d'implémentation faible alors que le second(Reed-Solomon) est plus complexe, mais offre un meilleur taux de correction. Nous avons implémenté des blocs matériels supportant ces corrections d'erreurs avec une technologie 28nm FDSOI. Finalement, nous proposons la définition d'une interface complète entre le domaine électrique et le domaine optique permettant d'allouer les longueurs d'ondes, de coder l'information, de sérialiser le flux de données et de contrôler le driver du laser pour obtenir la modulation à la puissance optique souhaitée
Electrical Network-on-Chip (ENoC) has long been considered as the de facto technology for interconnects in multiprocessor systems-on-chip (MPSoCs). However, with the increase of the number of cores integrated on a single chip, ENoCs are less and less suitable to adapt the bandwidth and latency requirements of nowadays complex and highly-parallel applications. In recent years, due to power consumption constraint, low latency, and high data bandwidth requirements, optical interconnects became an interesting solution to overcome these limitations. Indeed, Optical Networks on Chip (ONoC) are based on waveguides which drive optical signals from source to destination with very low latency. Unfortunately, the optical devices used to built ONoCs suffer from some imperfections which introduce losses during communications. These losses (crosstalk noises and optical losses) are very important factors which impact the energy efficiency and the performance of the system. Furthermore, Wavelength Division Multiplexing (WDM) technology can help the designer to improve ONoC performance, especially the bandwidth and the latency. However, using the WDM technology leads to introduce new losses and crosstalk noises which negatively impact the Signal to Noise Ratio (SNR) and Bit Error Rate (BER). In detail, this results in higher BER and increases power consumption, which therefore reduces the energy efficiency of the optical interconnects. The contributions presented in this manuscript address these issues. For that, we first model and analyze the optical losses and crosstalk in WDM based ONoC. The model can provide an analytical evaluation of the worst case of loss and crosstalk with different parameters for optical ring network-on-chip. Based on this model, we propose a methodology to improve the performance and then to reduce the power consumption of optical interconnects relying on the use of forward error correction (FEC). We present two case studies of lightweight FEC with low implementation complexity and high error-correction performance under 28nm Fully-Depleted Silicon-On-Insulator (FDSOI) technology. The results demonstrate the advantages of using FEC on the optical interconnect in the context of the CHAMELEON ONoC. Secondly, we propose a complete design of Optical Network Interface (ONI) which is composed of data flow allocation, integrated FECs, data serialization/deserialization, and control of the laser driver. The details of these different elements are presented in this manuscript. Relying on this network interface, an allocation management to improve energy efficiency can be supported at runtime depending on the application demands. This runtime management of energy vs. performance can be integrated into the ONI manager through configuration manager located in each ONI. Finally, the design of an ONoC configuration sequencer (OCS), located at the center of the optical layer, is presented. By using the ONI manager, the OCS can configure ONoC at runtime according to the application performance and energy requirements
APA, Harvard, Vancouver, ISO, and other styles
13

Iova, Oana-Teodora. "Standards optimization and network lifetime maximization for wireless sensor networks in the Internet of things." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD022/document.

Full text
Abstract:
De nouveaux protocoles ont été standardisés afin d'intégrer les réseaux de capteurs sans fil (WSN) dans l'Internet. Parmi eux, RPL pour la couche routage et IEEE 802.15.4 pour la couche MAC. L'objectif de cette thèse est d'améliorer ces protocoles en prenant compte des contraintes énergétiques des dispositifs du WSN. Tout d'abord, nous avons conçu une nouvelle méthode de diffusion dans la norme IEEE 802.15.4, afin d'assurer une livraison fiable des paquets de contrôle des couches supérieures. Ensuite, nous avons fourni une évaluation exhaustive de RPL, en soulignant un problème d'instabilité qui génère une surcharge d'énergie importante. Compte tenu que la durée de vie des WSN est très limitée, nous avons aussi proposé une nouvelle métrique de routage qui identifie les goulets d'étranglement énergétiques afin de maximiser la durée de vie du réseau. Enfin, en couplant cette mesure avec une version multiparent de RPL, nous avons résolu le problème d'instabilité souligné précédemment
New protocols have been standardized in order to integrate Wireless Sensor Networks (WSN) in the Internet. Among them, the IEEE 802.15.4 MAC layer protocol, and RPL, the IPv6 Routing Protocol for Low-power and Lossy Networks. The goal of this thesis is to improve these protocols, considering the energy constraints of the devices that compose the WSN. First, we proposed a new MAC layer broadcast mechanism in IEEE 802.15.4, to ensure a reliable delivery of the control packets from the upper layers (especially from RPL). Then, we provided an exhaustive evaluation of RPL and highlighted an instability problem. This instability generates a large overhead, consuming a lot of energy. Since the lifetime of WSN is very limited, we proposed a new routing metric that identifies the energy bottlenecks and maximizes the lifetime of the network. Finally, by coupling this metric with a multipath version of RPL, we are able to solve the instability problem previously highlighted
APA, Harvard, Vancouver, ISO, and other styles
14

Vallet, Jason. "Where Social Networks, Graph Rewriting and Visualisation Meet : Application to Network Generation and Information Diffusion." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0818/document.

Full text
Abstract:
Dans cette thèse, nous présentons à la fois une collection de modèles de générations de réseaux et de diffusion d'information exprimés à l'aide d'un formalisme particulier appelé la réécriture de graphes, ainsi qu'une nouvelle méthode de représentation permettant la visualisation de la diffusion d'information dans des grands réseaux sociaux. Les graphes sont des objets mathématiques particulièrement versatiles qui peuvent être utilisés pour représenter une large variété de systèmes abstraits. Ces derniers peuvent être transformés de multiples façons (création, fusion ou altération de leur éléments), mais de telles modifications doivent être contrôlées afin d'éviter toute opération non souhaitée. Pour cela, nous faisons appel au formalisme particulier de la réécriture de graphes afin d'encadrer et de contrôler toutes les transformations. Dans notre travail, un système de réécriture de graphes opère sur un graphe, qui peut être transformé suivant un ensemble de règles, le tout piloté par une stratégie. Nous commençons tout d'abord par utiliser la réécriture en adaptant deux algorithmes de génération de réseaux, ces derniers permettant la création de réseaux aux caractéristiques petit monde. Nous traduisons ensuite vers le formalisme de réécriture différents modèles de diffusion d'information dans les réseaux sociaux. En énonçant à l'aide d'un formalisme commun différents algorithmes, nous pouvons plus facilement les comparer, ou ajuster leurs paramètres. Finalement, nous concluons par la présentation d'un nouvel algorithme de dessin compact de grands réseaux sociaux pour illustrer nos méthodes de propagation d'information
In this thesis, we present a collection of network generation and information diffusion models expressed using a specific formalism called strategic located graph rewriting, as well as a novel network layout algorithm to show the result of information diffusion in large social networks. Graphs are extremely versatile mathematical objects which can be used to represent a wide variety of high-level systems. They can be transformed in multiple ways (e.g., creating new elements, merging or altering existing ones), but such modifications must be controlled to avoid unwanted operations. To ensure this point, we use a specific formalism called strategic graph rewriting. In this work, a graph rewriting system operates on a single graph, which can then be transformed according to some transformation rules and a strategy to steer the transformation process. First, we adapt two social network generation algorithms in order to create new networks presenting small-world characteristics. Then, we translate different diffusion models to simulate information diffusion phenomena. By adapting the different models into a common formalism, we make their comparison much easier along with the adjustment of their parameters. Finally, we finish by presenting a novel compact layout method to display overviews of the results of our information diffusion method
APA, Harvard, Vancouver, ISO, and other styles
15

Cros, Olivier. "Mixed criticality management into real-time and embedded network architectures : application to switched ethernet networks." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1033/document.

Full text
Abstract:
La CM (Criticité Mixte) est une solution pour intégrer différents niveaux de criticité dans le même système au sein des mécanismes industriels intégrant des infrastructures réseau différentes. Notre objectif est de proposer des solutions pour intégrer la criticité mixte dans des domaines industriels hautements contraints afin de mélanger des flux de différentes criticité au sein de la même infrastructure. Cette intégration implique des contraintes d'isolation : l'impact du traffic non critique sur le traffic critique doit être borné, et le plus faible possible. C'est une condition indispensable pour assurer le respect des contraintes de temps de transmission. Afin d'analyser ces délais de transmission et de centrer notre travail sur le déterminisme de ces transmissions, nous avons recours à une méthode de calcul de délai de bout en bout appelé l'approche par trajectoires. Dans ce travail, nous utilisons une version corrigée de l'approche par trajectoires, prenant en compte la serialisation des messages.Afin d'assurer les contraintes de délais dans les réseaux à criticité mixte, nous présentons tout d'abord un modèle théorique d'intégration de la criticité mixte. Ce modèles est issu de l'ordonnancement temps-réel en contexte processeur. Ce modèle présente une modélisation des flux considérant que chaque flux peut être de plusieurs niveaux de criticité.Pour intégrer la criticité mixte dans les réseaux temps-réel, nous proposons deux protocoles différents. Le premier est le protocole centralisé. Il est organisé autour de la désignation d'un noeud central dans le réseau, responsable de la synchronisation des niveaux de criticité de chaque noeud via a un mécanisme d'émission multiple fiable. Ce mécanisme est chargé de faire changer les niveaux de criticité de tous les noeuds au même instant. Le second protocole est basé sur une approche distribuée. Il propose une gestion locale à chaque noeud de la criticité. Chaque noeud gère individuellement son propre niveau de criticité interne. Ce protocol permet de préserver les transmissions d'une part du traffic non critique au sein du réseau, même en parallèle de transmissions de flux critiques.Afin de proposer une implémentation de ces protocoles dans Ethernet, nous détaillons comment réutiliser la marque de l'en-tête de Ethernet 802.1Q pour spécifier le niveau criticité d'un message directement au sein de la trame. Grâce à cette solution, chaque flux du réseau est marqué de son niveau de criticité et cette information peut être décodée par les noeuds du réseau afin d'opérer un ordonnancement en conséquence. De plus, en gestion centralisée, nous proposons une solution permettant d'intégrer les informations de gestion de la criticité directement dans les trames du protocole de synchronization d'horloge gls{PTP}.Durant notre travail, nous avons conçu un outil de simulation dénommé gls{ARTEMIS}. Cet outil est utilisé pour l'analyse de délais de transmission dans des réseaux temps-réel et pour l'analyse de scénarios d'ordonnancement à criticité mixte. Les résultats de simulation obtenus nous permettent de formuler différentes hypothèses sur les garanties de qualité de service offertes par les protocoles centralisé et décentralisé. En termes de transmission de trafic non critique, le protocole décentralisé permet d'assurer la transmission d'une certaine quantité de messages grâce au fait que certains noeuds du réseau soient resté en mode non-critique.Pour conclure, nous proposons des solutions d'intégration de la criticité mixte à la fois dans des contextes industriels lourds et dans des architectures Ethernet grand public. Les solutions proposées peuvent être à la fois adaptées à des réseaux synchronisés ou non synchronisés. Selon le protocole, la configuration individuelle à appliquer à chaque noeud peut être réduite afin de proposer des solutions implémentables sur du matériel moins coûteux
MC (Mixed-Criticality) is an answer for industrial systems requiring different network infrastructures to manage informations of different criticality levels inside the same system. Our purpose in this work is to find solutions to integrate gls{MC} inside highly constrained industrial domains in order to mix flows of various criticality levels inside the same infrastructure. This integration induces isolation constraints : the impact of non-critical traffic on critical traffic must be characterized and bounded. This a condition to respect timing constraints. To analyze transmission delays and focus on the determinism of transmissions, we use an end-to-end delay computation method called the trajectory approach. In our work, we use a corrected version of the trajectory approach taking into account the serialization of messages.To assure the respect of timing constraints in mixed critical networks, we first present a theoretical model of gls{MC} representation. This model is issued from gls{MC} tasks scheduling on processors. This model proposes a flow modelization which considers that each flow can be of one (low critical flows) or several criticality levels.To integrate gls{MC} inside gls{RT} networks, we propose two network protocols. The first is the centralized protocol. It is structured around the definition of a central node in the network, which is responsible for synchronizing the criticality level switch of each node through a reliable multicast protocol in charge of switching the network criticality level. This centralized protocol proposes solutions to detect the needs to change the criticality levels of all nodes and to transmit this information to the central node. The second protocol is based on a distributed approach. It proposes a local gls{MC} management on each node of a network. Each node individually manages its own internal criticality level. This protocol offers solutions to preserve when possible non-critical network flows even while transmitting critical flows in the network through weak isolation.In order to propose an implementation of these protocols inside Ethernet, we describe how to use Ethernet 802.1Q header tag to specify the criticality level of a message directly inside the frame. With this solution, each flow in the network is tagged with its criticality level and this information can be analyzed by the nodes of the network to transmit the messages from the flow or not. Additionnally, for the centralized approach, we propose a solution integrating gls{MC} configuration messages into gls{PTP} clock-synchronization messages to manage criticality configuration information in a network.In this work, we designed a simulation tool denoted as gls{ARTEMIS} (Another Real-Time Engine for Message-Issued Simulation). This tool is dedicated to gls{RT} networks analysis and gls{MC} integration scheduling scenarios. This tool, based on open and modular development guidelines, has been used all along our work to validate the theoretical models we presented through simulation. We integrated both centralized and decentralized protocols inside gls{ARTEMIS} core. The obtained simulations results allowed us to provide information about the gls{QOS} guarantees offered by both protocols. Concerning non-critical traffic : the decentralized protocol, by permitting specific nodes to stay in non-critical nodes, assures a highest success ratio of non-critical traffic correct transmission.As a conclusion, we propose solutions to integrate gls{MC} inside both industrial and gls{COTS} Ethernet architectures. The solutions can be either adapted to clock-synchronized or non clock-synchronized protocols. Depending on the protocol, the individual configuration required by each switch can be reduced to adapt these solutions to less costly network devices
APA, Harvard, Vancouver, ISO, and other styles
16

Zhao, Yi. "Combination of Wireless sensor network and artifical neuronal network : a new approach of modeling." Thesis, Toulon, 2013. http://www.theses.fr/2013TOUL0013/document.

Full text
Abstract:
Face à la limitation de la modélisation paramétrique, nous avons proposé dans cette thèse une procédure standard pour combiner les données reçues a partir de Réseaux de capteurs sans fils (WSN) pour modéliser a l'aide de Réseaux de Neurones Artificiels (ANN). Des expériences sur la modélisation thermique ont permis de démontrer que la combinaison de WSN et d'ANN est capable de produire des modèles thermiques précis. Une nouvelle méthode de formation "Multi-Pattern Cross Training" (MPCT) a également été introduite dans ce travail. Cette méthode permet de fusionner les informations provenant de différentes sources de données d'entraînements indépendants (patterns) en un seul modèle ANN. D'autres expériences ont montré que les modèles formés par la méthode MPCT fournissent une meilleure performance de généralisation et que les erreurs de prévision sont réduites. De plus, le modèle de réseau neuronal basé sur la méthode MPCT a montré des avantages importants dans le multi-variable Model Prédictive Control (MPC). Les simulations numériques indiquent que le MPC basé sur le MPCT a surpassé le MPC multi-modèles au niveau de l'efficacité du contrôle
A Wireless Sensor Network (WSN) consisting of autonomous sensor nodes can provide a rich stream of sensor data representing physical measurements. A well built Artificial Neural Network (ANN) model needs sufficient training data sources. Facing the limitation of traditional parametric modeling, this paper proposes a standard procedure of combining ANN and WSN sensor data in modeling. Experiments on indoor thermal modeling demonstrated that WSN together with ANN can lead to accurate fine grained indoor thermal models. A new training method "Multi-Pattern Cross Training" (MPCT) is also introduced in this work. This training method makes it possible to merge knowledge from different independent training data sources (patterns) into a single ANN model. Further experiments demonstrated that models trained by MPCT method shew better generalization performance and lower prediction errors in tests using different data sets. Also the MPCT based Neural Network Model has shown advantages in multi-variable Neural Network based Model Predictive Control (NNMPC). Software simulation and application results indicate that MPCT implemented NNMPC outperformed Multiple models based NNMPC in online control efficiency
APA, Harvard, Vancouver, ISO, and other styles
17

Tran, Thi-Minh-Dung. "Methods for finite-time average consensus protocols design, network robustness assessment and network topology reconstruction." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT023/document.

Full text
Abstract:
Le consensus des systèmes multi-agents a eu une attention considérable au cours de la dernière décennie. Le consensus est un processus coopératif dans lequel les agents interagissent afin de parvenir à un accord. La plupart des études se sont engagés à l'analyse de l'état d'équilibre du comportement de ce processus. Toutefois, au cours de la transitoire de ce processus une énorme quantité de données est produite. Dans cette thèse, notre objectif est d'exploiter les données produites au cours de la transitoire d'algorithmes de consensus moyenne asymptotique afin de concevoir des protocoles de consensus moyenne en temps fini, évaluer la robustesse du graphique, et éventuellement récupérer la topologie du graphe de manière distribuée. Le consensus de moyenne en temps fini garantit un temps d'exécution minimal qui peut assurer l'efficacité et la précision des algorithmes distribués complexes dans lesquels il est impliqué. Nous nous concentrons d'abord sur l'étape de configuration consacrée à la conception de protocoles de consensus qui garantissent la convergence de la moyenne exacte dans un nombre donné d'étapes. En considérant des réseaux d'agents modélisés avec des graphes non orientés connectés, nous formulons le problème de la factorisation de la matrice de moyenne et étudions des solutions distribuées à ce problème. Puisque, les appareils communicants doivent apprendre leur environnement avant d'établir des liens de communication, nous suggérons l'utilisation de séquences d'apprentissage afin de résoudre le problème de la factorisation. Ensuite, un algorithme semblable à l'algorithme de rétro-propagation du gradient est proposé pour résoudre un problème d'optimisation non convexe sous contrainte. Nous montrons que tout minimum local de la fonction de coût donne une factorisation exacte de la matrice de moyenne. En contraignant les matrices de facteur à être comme les matrices de consensus basées sur la matrice laplacienne, il est maintenant bien connu que la factorisation de la matrice de moyenne est entièrement caractérisé par les valeurs propres non nulles du laplacien. Par conséquent, la résolution de la factorisation de la matrice de la moyenne de manière distribuée avec une telle contrainte sur la matrice laplacienne, permet d'estimer le spectre de la matrice laplacienne. Depuis le spectre peut être utilisé pour calculer des indices de la robustesse (Nombre d'arbres couvrant et la résistance effective du graphe), la deuxième partie de cette thèse est consacrée à l'évaluation de la robustesse du réseau à travers l'estimation distribuée du spectre du Laplacien. Le problème est posé comme un problème de consensus sous contrainte formulé de deux façons différentes. La première formulation (approche directe) cède à un problème d'optimisation non-convexe résolu de manière distribuée au moyen de la méthode des multiplicateurs de Lagrange. La seconde formulation (approche indirecte) est obtenue après une reparamétrisation adéquate. Le problème est alors convexe et résolu en utilisant l'algorithme du sous-gradient distribué et la méthode de direction alternée de multiplicateurs. En outre, trois cas sont considérés: la valeur moyenne finale est parfaitement connue, bruyant, ou complètement inconnue. Nous fournissons également une façon pour calculer les multiplicités des valeurs propres estimées au moyen d'une programmation linéaire en nombres entiers. L'efficacité des solutions proposées est évaluée au moyen de simulations. Cependant, dans plusieurs cas, la convergence des algorithmes proposés est lente et doit être améliorée dans les travaux futurs. En outre, l'approche indirecte n'est pas évolutive pour des graphes de taille importante car elle implique le calcul des racines d'un polynôme de degré égal à la taille du réseau. Cependant, au lieu d'estimer tout le spectre, il peut être possible de récupérer seulement un petit nombre des valeurs propres, puis déduire des limites significatives sur les indices de la robustesse
Consensus of Multi-agent systems has received tremendous attention during the last decade. Consensus is a cooperative process in which agents interact in order to reach an agreement. Most of studies are committed to analysis of the steady-state behavior of this process. However, during the transient of this process a huge amount of data is produced. In this thesis, our aim is to exploit data produced during the transient of asymptotic average consensus algorithms in order to design finite-time average consensus protocols, assess the robustness of the graph, and eventually recover the topology of the graph in a distributed way. Finite-time Average Consensus guarantees a minimal execution time that can ensure the efficiency and the accuracy of sophisticated distributed algorithms in which it is involved. We first focus on the configuration step devoted to the design of consensus protocols that guarantee convergence to the exact average in a given number of steps. By considering networks of agents modelled with connected undirected graphs, we formulate the problem as the factorization of the averaging matrix and investigate distributed solutions to this problem. Since, communicating devices have to learn their environment before establishing communication links, we suggest the usage of learning sequences in order to solve the factorization problem. Then a gradient backpropagation-like algorithm is proposed to solve a non-convex constrained optimization problem. We show that any local minimum of the cost function provides an accurate factorization of the averaging matrix. By constraining the factor matrices to be as Laplacian-based consensus matrices, it is now well known that the factorization of the averaging matrix is fully characterized by the nonzero Laplacian eigenvalues. Therefore, solving the factorization of the averaging matrix in a distributed way with such Laplacian matrix constraint allows estimating the spectrum of the Laplacian matrix. Since that spectrum can be used to compute some robustness indices (Number of spanning trees and Effective graph Resistance also known as Kirchoff index), the second part of this dissertation is dedicated to Network Robustness Assessment through distributed estimation of the Laplacian spectrum. The problem is posed as a constrained consensus problem formulated in two ways. The first formulation (direct approach) yields a non-convex optimization problem solved in a distributed way by means of the method of Lagrange multipliers. The second formulation (indirect approach) is obtained after an adequate re-parameterization. The problem is then convex and solved by using the distributed subgradient algorithm and the alternating direction method of multipliers. Furthermore, three cases are considered: the final average value is perfectly known, noisy, or completely unknown. We also provide a way for computing the multiplicities of the estimated eigenvalues by means of an Integer programming. In this spectral approach, given the Laplacian spectrum, the network topology can be reconstructed through estimation of Laplacian eigenvector. The efficiency of the proposed solutions is evaluated by means of simulations. However, in several cases, convergence of the proposed algorithms is slow and needs to be improved in future works. In addition, the indirect approach is not scalable to very large graphs since it involves the computation of roots of a polynomial with degree equal to the size of the network. However, instead of estimating all the spectrum, it can be possible to recover only a few number of eigenvalues and then deduce some significant bounds on robustness indices
APA, Harvard, Vancouver, ISO, and other styles
18

Tandon, Seema Amit. "Web Texturizer: Exploring intra web document dependencies." CSUSB ScholarWorks, 2004. https://scholarworks.lib.csusb.edu/etd-project/2539.

Full text
Abstract:
The goal of this project is to create a customized web browser to facilitate the skimming of documents by offsetting the document with relevant information. This project added techniques of learning information retrieval to automate the web browsing experience to the web texturizer. The script runs on the web texturizer website; and it allows users to quickly navigate through the web page.
APA, Harvard, Vancouver, ISO, and other styles
19

Mohan, Raj. "XML based adaptive IPsec policy management in a trust management context /." Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2002. http://library.nps.navy.mil/uhtbin/hyperion-image/02sep%5FMohan.pdf.

Full text
Abstract:
Thesis (M.S. in Computer Science and M.S. in Information Technology Management)--Naval Postgraduate School, September 2002.
Thesis advisor(s): Cynthia E. Irvine, Timothy E. Levin. Includes bibliographical references (p. 71-72). Also available online.
APA, Harvard, Vancouver, ISO, and other styles
20

Grandinetti, Pietro. "Control of large scale traffic network." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT102/document.

Full text
Abstract:
La thèse concerne le contrôle de feux tricolores dans de larges réseaux urbains. Le point de départ est l’étude d’un modèle macroscopique se basant sur le Cell Transmission model. Nous avons formulé une version du modèle intégrant les feux tricolores à sa dynamique. De plus, nous avons introduit deux simplifications à ce modèle orientées vers la conception des techniques de contrôle ; la première se base sur la théorie de la moyenne et considère le pourcentage de vert des feux tricolores, la seconde décrit les trajectoires des feux tricolores en utilisant les instants d’activation et de désactivation d’un signal binaire. Nous utilisons des simulations numériques pour valider les modèles en les comparant avec le Cell Transmisson model intégrant les feux tricolores, ainsi que des simulations microscopiques (avec le logiciel Aimsun) afin de valider les mêmes modèles en les comparant cette fois-ci à un comportement réaliste des véhicules.Nous proposons deux techniques de contrôle à partir des deux modèles mentionnés ci-dessus. Le premier, qui utilise le modèle moyen de transmission de véhicules, considère les pourcentages de vert des feux tricolores comme variables contrôlées, et il est formulé comme un problème d'optimisation des mesures de trafic standards. Nous analysons un tel problème et nous montrons que cela équivaut à un problème d'optimisation convexe, afin d'assurer son efficacité de calcul. Nous analysons sa performance par rapport à un best-practice control à la fois dans des simulations MatLab, et dans des simulations microscopiques, avec un modèle Aimsun qui reproduit une grande partie de Grenoble, en France. La deuxième approche proposée est un problème d'optimisation dans lequel les variables contrôlées sont les instants d'activation et de désactivation de chaque feu tricolore. Nous utilisons la technique de modélisation Big-M dans le but de formuler un tel problème comme un programme linéaire avec variables entières, et nous montrons par des simulations numériques que l’expressivité de cette optimisation conduit à des améliorations de la dynamique du trafic, au prix de l'efficacité de calcul.Pour poursuivre la scalabilité des techniques de contrôle proposées nous développons deux algorithmes itératifs pour le problème de contrôle des feux de signalisation. Le premier, basé sur l'optimisation convexe mentionnée ci-dessus, utilise la technique dual descent et nous prouvons qu’il est optimal, i.e., il donne la même solution que l'optimisation centralisée. Le second, basé sur le problème d’optimisation entier susmentionné, est un algorithme sous-optimal qui mène à des améliorations substantielles par rapport au problème centralisé connexe, concernant l'efficacité de calcul. Nous analysons par des simulations numériques la vitesse de convergence des algorithmes itératifs, leur charge de calcul et leurs performances en matière de mesure du trafic.La thèse est conclue avec une étude de l'algorithme de contrôle des feux de circulation qui est utilisé dans plusieurs grandes intersections dans Grenoble. Nous présentons le principe de fonctionnement d'un tel algorithme, en détaillant les différences technologiques et méthodologiques par rapport aux approches proposées. Nous créons dans Aimsun le scénario représentant la partie intéressée de la ville, en reproduisant également l'algorithme de contrôle et en comparant ses performances avec celles de l'une de nos approches sur le même scénario
The thesis focuses on traffic lights control in large scale urban networks. It starts off with a study of macroscopic modeling based on the Cell Transmission model. We formulate a signalized version of such a model in order to include traffic lights’ description into the dynamics. Moreover, we introduce two simplifications of the signalized model towards control design, one that is based on the average theory and considers duty cycles of traffic lights, and a second one that describes traffic lights trajectories with the time instants of the rising and falling edges of a binary signals. We use numerical simulations to validate the models with respect to the signalized Cell Transmission model, and microsimulations (with the software Aimsun), to validate the same model with respect to realistic vehicles’ behavior.We propose two control algorithms based on the two models above mentioned. The first one, that uses the average Cell Transmission model, considers traffic lights’ duty cycles as controlled variables and it is formulated as an optimization problem of standard traffic measures. We analyze such a problem and we show that it is equivalent to a convex optimization problem, so ensuring its computational efficiency. We analyze its performance with respect to a best-practice control scheme both in MatLab simulations and in Aimsun simulations that emulate a large portion of Grenoble, France. The second proposed approach is an optimization problem in which the decision variables are the activation and deactivation time instants of every traffic lights. We employ the Big-M modeling technique to reformulate such a problem as a mixed integer linear program, and we show via numerical simulations that the expressivity of it can lead to improvements of the traffic dynamics, at the price of the computational efficiency of the control scheme.To pursue the scalability of the proposed control techniques we develop two iterative distributed approaches to the traffic lights control problem. The first, based on the convex optimization above mentioned, uses the dual descent technique and its provably optimal, that is, it gives the same solution of the centralized optimization. The second, based on the mixed integer problem aforesaid, is a suboptimal algorithm that leads to substantial improvements by means of the computational efficiency with respect to the related centralized problem. We analyze via numerical simulations the convergence speed of the iterative algorithms, their computational burden and their performance regarding traffic metrics.The thesis is concluded with a study of the traffic lights control algorithm that is employed in several large intersections in Grenoble. We present the working principle of such an algorithm, detailing technological and methodological differences with our proposed approaches. We create into Aimsun the scenario representing the related part of the city, also reproducing the control algorithm and comparing its performance with the ones given by one of our approaches on the same scenario
APA, Harvard, Vancouver, ISO, and other styles
21

Shehadeh, Dareen. "Dynamic network adaptation for energy saving." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0067/document.

Full text
Abstract:
Notre travail s'inscrit dans le cadre des recherches sur le Sleeping mode. Notre contribution est structurée principalement autour deux axes : l'étude et l'évaluation de la performance des processus de mise en veille/réveil des points d'accès et la sélection du nombre minimal des points d'accès dans un milieu urbain dense. Dans un premier temps, nous étudions les processus de mise en veille/réveil des points d'accès dans un scenario classique de réseau domestique. Ce scenario suppose que le point d'accès mis en veille doit détecter la présence d'un utilisateur potentiel dans sa zone de couverture et réagir par conséquence d'une façon autonome pour se mettre en état de fonctionnement normal. Nous avons choisi quatre processus de réveil du point d'accès, et nous avons ensuite étudié chacun de ces processus, et proposé un protocole de communication qui permette à un utilisateur d'envoyer l'ordre au point d'accès de s'éteindre. Lorsque cela était possible, nous avons utilisé le protocole COAP qui est prévu pour établir des sessions de commande pour l'Internet des Objets. Nous avons ensuite mesuré les performances du point de vue de l'économie d'énergie qu'il permet de réaliser et du délai entre le moment où un utilisateur potentiel est détecté et le moment où le point d'accès devient opérationnel. Nous avons aussi étudié un réseau dense dans un milieu urbain (le centre ville de Rennes) où la zone de couverture d'un point d'accès pouvait être partiellement ou totalement couverte par d'autres points d'accès. Pour évaluer la redondance dans le réseau, nous avons collecté des informations réelles sur les points d'accès en utilisant l'application Wi2Me. Le traitement de ces informations nous a permis d'identifier les points d'accès existants dans la zone étudiée et leurs zones de couverture respectives démontrant ainsi la superposition de ces zones de couverture et le potentiel d'élimination d'un certain nombre de points d'accès sans affecter la couverture globale. Nous avons alors proposé un système centralisé qui collecte les données de couverture des points d'accès observée par les utilisateur. Nous avons donc utilisé ce simple fait pour centraliser la vue du réseau de plusieurs utilisateurs, ce qui permet d'avoir une vue assez précise de la disponibilité des points d'accès dans une zone géographie. Nous avons alors proposé une représentation de ces données de couverture à travers des matrices qui traitent les différentes erreurs de capture (coordonnées GPS non précises, réutilisation des noms de réseaux, etc). Enfin, nous avons ensuite proposé deux algorithmes permettant de sélectionner l'ensemble minimal des points d'accès requis fournissant une couverture identique à celle d'origine
The main goal of the thesis is to design an Energy Proportional Network by taking intelligent decisions into the network such as switching on and off network components in order to adapt the energy consumption to the user needs. Our work mainly focuses on reducing the energy consumption by adapting the number of APs that are operating to the actual user need. In fact, traffic load varies a lot during the day. Traffic is high in urban areas and low in the suburb during day work hours, while it is the opposite at night. Often, peak loads during rush hours are lower than capacities of the networks. Thus they remain lightly utilized for long periods of time. Thus keeping all APs active all the time even when the traffic is low causes a huge waste of energy. Our goal is to benefit from low traffic periods by automatically switch off redundant cells, taking into consideration the actual number of users, their traffic and the bandwidth requested to serve them. Ideally we wish to do so while maintaining reliable service coverage for existing and new coming users. First we consider a home networking scenario. In this case only one AP covers a given area. So when this AP is switched off (when no users are present), there will be no other AP to fill the gap of coverage. Moreover, upon the arrival of new users, no controller or other mechanism exists to wake up the AP. Consequently, new arriving users would not be served and would remain out of coverage. The study of the state of the art allowed us to have a clear overview of the existing approaches in this context. As a result, we designed a platform to investigate different methods to wake up an AP using different technologies. We measure two metrics to evaluate the Switching ON/OFF process for the different methods. The first is the energy consumed by the AP during the three phases it goes through. The second is the delay of time for the AP to wake up and be operational to serve the new users. In the second case we consider a dense network such as the ones found in urban cities, where the coverage area of an AP is also covered by several other APs. In other words, the gap resulting from switching off one or several APs can be covered by other neighbouring ones. Thus the first thing to do was to evaluate the potential of switching off APs using real measurements taken in a dense urban area. Based on this collected information, we evaluate how many APs can be switched off while maintaining the same coverage. To this end, we propose two algorithms that select the minimum set of APs needed to provide full coverage. We compute several performance parameters, and evaluate the proposed algorithms in terms of the number of selected APs, and the coverage they provide
APA, Harvard, Vancouver, ISO, and other styles
22

Pinat, Magali. "Global linkages, trade network and development." Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E031/document.

Full text
Abstract:
Cette thèse doctorale étudie l’impact des effets de réseau sur le commerce et la finance internationale. Le premier chapitre évalue le rôle que joue la centralité des partenaires commerciaux dans la diffusion des connaissances et conclut que l’importation de biens provenant de partenaires situés au cœur du réseau est génératrice de croissance économique. Le deuxième chapitre étudie le rôle des communautés de commerce dans la vitesse d’adoption de nouvelles technologies et établit que la diffusion des idées est encouragée au sein des pays appartenant à la même communauté. Le troisième chapitre souligne le rôle que jouent les partenaires financiers dans le choix d’investir dans une nouvelle destination et montre que les pays sont plus susceptibles d’investir dans un nouveau pays si un de leurs partenaires actuels y a déjà investi. Le quatrième chapitre évalue l’impact de l’importation des produits à risque et estime qu’une augmentation d’un pourcent des importations de produits fragiles provenant d’un pays touché par une catastrophe naturelle est associée à une réduction de 0,7 pourcent des exportations nationales
This doctoral dissertation investigates the impact of networks effects on international trade and finance. The first chapter estimates the role a trade partners’ centrality plays in the diffusion of knowledge and finds that importing from countries at the core of the network leads to a significant increase in economic growth. The second chapter investigates the role of clusters in the speed of technology adoption and concludes that the diffusion of ideas is fostered among countries belonging to the same cluster. The third chapter emphasizes the role of current partners in choosing a destination for new investments and finds that countries are more likely to invest in a new destination if one of their existing partners have already made some investments in the location. The fourth chapter evaluates the impact of importing risky products on the economy and finds that the elasticity of a country’s exports with respect to its import share of fragile products from a partner impacted by a natural disaster is -0.7 percent
APA, Harvard, Vancouver, ISO, and other styles
23

Iwaza, Lana. "Joint Source-Network Coding & Decoding." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112048/document.

Full text
Abstract:
Dans les réseaux traditionnels, la transmission de flux de données s'effectuaient par routage des paquets de la source vers le ou les destinataires. Le codage réseau (NC) permet aux nœuds intermédiaires du réseau d'effectuer des combinaisons linéaires des paquets de données qui arrivent à leurs liens entrants. Les opérations de codage ont lieu dans un corps de Galois de taille finie q. Aux destinataires, le décodage se fait par une élimination de Gauss des paquets codés-réseau reçus. Cependant, dans les réseaux sans fils, le codage réseau doit souvent faire face à des erreurs de transmission causées par le bruit, les effacements, et les interférences. Ceci est particulièrement problématique pour les applications temps réel, telle la transmission de contenus multimédia, où les contraintes en termes de délais d'acheminement peuvent aboutir à la réception d'un nombre insuffisant de paquets, et par conséquent à des difficultés à décoder les paquets transmis. Dans le meilleurs des cas, certains paquets arrivent à être décodés. Dans le pire des cas, aucun paquet ne peut être décodé.Dans cette thèse, nous proposons des schémas de codage conjoint source-réseau dont l'objectif est de fournir une reconstruction approximative de la source, dans des situations où un décodage parfait est impossible. L'idée consiste à exploiter la redondance de la source au niveau du décodeur afin d'estimer les paquets émis, même quand certains de ces paquets sont perdus après avoir subi un codage réseau. La redondance peut être soit naturelle, c'est-à-dire déjà existante, ou introduite de manière artificielle.Concernant la redondance artificielle, le codage à descriptions multiples (MDC) est choisi comme moyen d'introduire de la redondance structurée entre les paquets non corrélés. En combinant le codage à descriptions multiples et le codage réseau, nous cherchons à obtenir une qualité de reconstruction qui s'améliore progressivement avec le nombre de paquets codés-réseau reçus.Nous considérons deux approches différentes pour générer les descriptions. La première approche consiste à générer les descriptions par une expansion sur trame appliquée à la source avant la quantification. La reconstruction de données se fait par la résolution d'un problème d' optimisation quadratique mixte. La seconde technique utilise une matrice de transformée dans un corps de Galois donné, afin de générer les descriptions, et le décodage se fait par une simple éliminationde Gauss. Ces schémas sont particulièrement intéressants dans un contexte de transmission de contenus multimédia, comme le streaming vidéo, où la qualité s'améliore avec le nombre de descriptions reçues.Une seconde application de tels schémas consiste en la diffusion de données vers des terminaux mobiles à travers des canaux de transmission dont les conditions sont variables. Dans ce contexte, nous étudions la qualité de décodage obtenue pour chacun des deux schémas de codage proposés, et nous comparons les résultats obtenus avec ceux fournis par un schéma de codage réseau classique.En ce qui concerne la redondance naturelle, un scénario typique est celui d'un réseau de capteurs, où des sources géographiquement distribuées prélèvent des mesures spatialement corrélées. Nous proposons un schéma dont l'objectif est d'exploiter cette redondance spatiale afin de fournir une estimation des échantillons de mesures transmises par la résolution d'un problème d'optimisation quadratique à variables entières. La qualité de reconstruction est comparée à celle obtenue à travers un décodage réseau classique
While network data transmission was traditionally accomplished via routing, network coding (NC) broke this rule by allowing network nodes to perform linear combinations of the upcoming data packets. Network operations are performed in a specific Galois field of fixed size q. Decoding only involves a Gaussian elimination with the received network-coded packets. However, in practical wireless environments, NC might be susceptible to transmission errors caused by noise, fading, or interference. This drawback is quite problematic for real-time applications, such as multimediacontent delivery, where timing constraints may lead to the reception of an insufficient number of packets and consequently to difficulties in decoding the transmitted sources. At best, some packets can be recovered, while in the worst case, the receiver is unable to recover any of the transmitted packets.In this thesis, we propose joint source-network coding and decoding schemes in the purpose of providing an approximate reconstruction of the source in situations where perfect decoding is not possible. The main motivation comes from the fact that source redundancy can be exploited at the decoder in order to estimate the transmitted packets, even when some of them are missing. The redundancy can be either natural, i.e, already existing, or artificial, i.e, externally introduced.Regarding artificial redundancy, we choose multiple description coding (MDC) as a way of introducing structured correlation among uncorrelated packets. By combining MDC and NC, we aim to ensure a reconstruction quality that improves gradually with the number of received network-coded packets. We consider two different approaches for generating descriptions. The first technique consists in generating multiple descriptions via a real-valued frame expansion applied at the source before quantization. Data recovery is then achieved via the solution of a mixed integerlinear problem. The second technique uses a correlating transform in some Galois field in order to generate descriptions, and decoding involves a simple Gaussian elimination. Such schemes are particularly interesting for multimedia contents delivery, such as video streaming, where quality increases with the number of received descriptions.Another application of such schemes would be multicasting or broadcasting data towards mobile terminals experiencing different channel conditions. The channel is modeled as a binary symmetric channel (BSC) and we study the effect on the decoding quality for both proposed schemes. Performance comparison with a traditional NC scheme is also provided.Concerning natural redundancy, a typical scenario would be a wireless sensor network, where geographically distributed sources capture spatially correlated measures. We propose a scheme that aims at exploiting this spatial redundancy, and provide an estimation of the transmitted measurement samples via the solution of an integer quadratic problem. The obtained reconstruction quality is compared with the one provided by a classical NC scheme
APA, Harvard, Vancouver, ISO, and other styles
24

Plissonneau, Louis. "Network tomography from an operator perspective." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0033/document.

Full text
Abstract:
Le domaine de la mesure des caractéristiques du trafic transitant sur un réseau a été largement traité par une vaste communauté de chercheurs, en premier lieu pour répondre aux attentes des opérateurs fournisseurs d'accès à Internet. En effet, leur première préoccupation est de savoir quel type de trafic ils doivent transporter. Une des principales caractéristiques de l'Internet est qu'il évolue très vite, de sorte que le besoin de mesures du trafic grand public ne se tarit jamais. Dans ce travail, nous abordons la question de la mesure du trafic Internet grand public par deux perspectives différentes: les mesures passives et les mesures actives. Dans la première partie de cette thèse, nous capturons et analysons passivement les statistiques des connections d'utilisateurs d'Internet durant plus d'une semaine. Nous utilisons ces données pour réviser et approfondir notre connaissance du trafic Internet résidentiel. Ensuite, nous utilisons des méthodes de regroupement pour créer des ensembles d'utilisateurs en fonctions des applications qu'ils utilisent. Nous apprenons donc qu'une vaste majorité des clients se connectent à Internet principalement pour surfer sur le Web et regarder des vidéos en streaming. Ces données nous servent aussi à évaluer de nouvelles possibilités de contrôler le trafic d'une plateforme ADSL. Comme la principale partie du trafic provient du vidéo streaming, nous prenons plusieurs instantanés de ce trafic avec des captures paquet durant une période de plusieurs années, ceci pour comprendre précisément l'évolution de ce trafic. De plus, nous analysons et relions la performance du vidéo streaming, définie par des indicateurs de qualité de service, au comportement des utilisateurs de ce service. Dans la deuxième partie de cette thèse, nous tirons parti de cette connaissance pour concevoir une sonde active capable de mesurer la qualité d'expérience des sites de vidéo streaming. Nous avons modélisé la lecture des vidéos \emph{streaming} pour pouvoir déterminer leur qualité telle qu'elle est perçue par les utilisateurs. Grâce à cet outil, nous pouvons comprendre l'impact de la sélection du serveur vidéo et du serveur DNS sur la perception de la qualité vidéo par l'utilisateur. De plus, la possibilité de réaliser des mesures depuis divers opérateurs, nous permet de détailler les politiques de distribution vidéo utilisées par les sites de streaming
Network tomography is the study of a network's traffic characteristics using measures. This subject has already been addressed by a whole community of researchers, especially to answer the need for knowledge of residential Internet traffic that ISPs have to carry. One of the main aspects of the Internet is that it evolves very quickly, so that there is a never ending need for Internet measurements. In this work, we address the issue of residential Internet measure from two different perspectives: passive measurements and active measurements. In the first part of this thesis, we passively collect and analyse statistics of residential users' connections spanning over a whole week. We use this data to update and deepen our knowledge of Internet residential traffic. Then, we use clustering methods to form groups of users according to the application they use. This shows how the vast majority of customers are now using the Internet mainly for Web browsing and watching video Streaming. This data is also used to evaluate new opportunities for managing the traffic of a local ADSL platform. As the main part of the traffic is video streaming, we use multiple snapshots of packet captures of this traffic over a period of many years to accurately understand its evolution. Moreover we analyse and correlate its performance, defined out of quality of service indicators, to the behavior of the users of this service. In the second part of this thesis, we take advantage of this knowledge to design a new tool for actively probing the quality of experience of video streaming sites. We have modeled the playback of streaming videos so that we are able to figure out its quality as perceived by the users. With this tool, we can understand the impact of the video server selection and the DNS servers on the user's perception of the video quality. Moreover the ability to perform the experiments on different ISPs allows us to further dig into the delivery policies of video streaming sites
APA, Harvard, Vancouver, ISO, and other styles
25

Dinkelacker, Vera. "Network pathology in temporal lobe epilepsy." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066156/document.

Full text
Abstract:
Notre vision de l'épilepsie du lobe temporal avec sclérose hippocampique a beaucoup évolué grâce aux techniques de neuroimagerie multimodale. Initialement perçue comme maladie restreinte à la lésion, à savoir la sclérose hippocampique (SH), elle est aujourd'hui considérée comme un modèle de pathologie en réseau. Cette thèse a pour but d'approfondir les caractéristiques du réseau sous tendant cette épilepsie.Nous avons pour cela recueilli des données de connectivité structurelle, d'EEG et de données cognitives chez une cohorte de 44 patient avec SH unilatérale (22 droite, 22 gauche) et chez 28 sujets contrôle. Nous avons déterminé les régions d'intérêt corticales et le volume hippocampique avec Freesurfer et la connectivité structurelle (locale ou en réseau) avec MRtrix ou FSL.Trois principaux résultats émergent de ces études :1. La connectivité globale montre un pattern de déconnexion très marqué de l'hémisphère gauche en cas de SH gauche. La SH semble donc s'accompagner d'une atteinte de réseau plus importante lorsqu'elle se situe dans l'hémisphère dominant pour le langage.2. La connectivité hippocampo-thalamique est augmentée du côté de la SH. Cette augmentation semble dysfonctionnelle, car corrélée avec une baisse de fonctions cognitives exécutives. 3.L'EEG de ces patients révèle des anomalies interictales ipsi-latérales qui sont corrélées avec une diminution de fonctions cognitives exécutives. Nos données confirment ainsi le concept de l'épilepsie du lobe temporal en tant que pathologie de réseau. L'atteinte structurelle, mais également cognitive s'étend sur des régions à distance de l'hippocampe et affecte notamment les réseaux de langage de l'hémisphère dominant
Our vision of temporal lobe epilepsy (TLE) with hippocampal sclerosis has much evolved in recent years. Initially regarded as a disease centered on a single lesion, it is now perceived as a genuine network disease, which we intended to explore with a multimodal approach. We examined structural connectivity, fMRI, EEG and cognitive dysfunction in a cohort of 44 patients with unilateral hippocampal sclerosis (HS, 22 with right, 22 with left HS) and 28 healthy age and gender matched control participants. Cortical regions of interest and hippocampal volumes were determined with Freesurfer, structural connectivity with MRtrix (pairwise disconnections and component effects with Network Based Statistics), or for hippocampal-thalamic connections with FSL. We found a pronounced pattern of disconnections most notably in the left hemisphere of patients with left TLE. Network Based Statistics showed large bi hemispheric clusters lateralized to the diseased side in both left and right temporal lobe epilepsy. We suggest that hippocampal sclerosis is associated with widespread disconnections if situated in the dominant hemisphere. We then determined streamline connections between hippocampus and thalamus and found an increase in connections in relation to the HS. This increase was seemingly dysfunctional as the number of hippocampal-thalamic connections was negatively correlated with performance in executive tasks. EEG analysis revealed predominantly ipsilateral epileptic discharge. The number of sharp waves was highly correlated with a number of executive functions depending on the frontal lobe, hence at distance of the HS. Our data thus confirms the concept of temporal lobe epilepsy as a network disease that finds its expression both in widespread, though lateralized alterations of structural connectivity and in neuropsychological dysfunction way beyond the hippocampus
APA, Harvard, Vancouver, ISO, and other styles
26

Ahrneteg, Jakob, and Dean Kulenovic. "Semantic Segmentation of Historical Document Images Using Recurrent Neural Networks." Thesis, Blekinge Tekniska Högskola, Institutionen för programvaruteknik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-18219.

Full text
Abstract:
Background. This thesis focuses on the task of historical document semantic segmentation with recurrent neural networks. Document semantic segmentation involves the segmentation of a page into different meaningful regions and is an important prerequisite step of automated document analysis and digitisation with optical character recognition. At the time of writing, convolutional neural network based solutions are the state-of-the-art for analyzing document images while the use of recurrent neural networks in document semantic segmentation has not yet been studied. Considering the nature of a recurrent neural network and the recent success of recurrent neural networks in document image binarization, it should be possible to employ a recurrent neural network for document semantic segmentation and further achieve high performance results. Objectives. The main objective of this thesis is to investigate if recurrent neural networks are a viable alternative to convolutional neural networks in document semantic segmentation. By using a combination of a convolutional neural network and a recurrent neural network, another objective is also to determine if the performance of the combination can improve upon the existing case of only using the recurrent neural network. Methods. To investigate the impact of recurrent neural networks in document semantic segmentation, three different recurrent neural network architectures are implemented and trained while their performance are further evaluated with Intersection over Union. Afterwards their segmentation result are compared to a convolutional neural network. By performing pre-processing on training images and multi-class labeling, prediction images are ultimately produced by the employed models. Results. The results from the gathered performance data shows a 2.7% performance difference between the best recurrent neural network model and the convolutional neural network. Notably, it can be observed that this recurrent neural network model has a more consistent performance than the convolutional neural network but comparable performance results overall. For the other recurrent neural network architectures lower performance results are observed which is connected to the complexity of these models. Furthermore, by analyzing the performance results of a model using a combination of a convolutional neural network and a recurrent neural network, it can be noticed that the combination performs significantly better with a 4.9% performance increase compared to the case with only using the recurrent neural network. Conclusions. This thesis concludes that recurrent neural networks are likely a viable alternative to convolutional neural networks in document semantic segmentation but that further investigation is required. Furthermore, by combining a convolutional neural network with a recurrent neural network it is concluded that the performance of a recurrent neural network model is significantly increased.
Bakgrund. Detta arbete handlar om semantisk segmentering av historiska dokument med recurrent neural network. Semantisk segmentering av dokument inbegriper att dela in ett dokument i olika regioner, något som är viktigt för att i efterhand kunna utföra automatisk dokument analys och digitalisering med optisk teckenläsning. Vidare är convolutional neural network det främsta alternativet för bearbetning av dokument bilder medan recurrent neural network aldrig har använts för semantisk segmentering av dokument. Detta är intressant eftersom om vi tar hänsyn till hur ett recurrent neural network fungerar och att recurrent neural network har uppnått mycket bra resultat inom binär bearbetning av dokument, borde det likväl vara möjligt att använda ett recurrent neural network för semantisk segmentering av dokument och även här uppnå bra resultat. Syfte. Syftet med arbetet är att undersöka om ett recurrent neural network kan uppnå ett likvärdigt resultat jämfört med ett convolutional neural network för semantisk segmentering av dokument. Vidare är syftet även att undersöka om en kombination av ett convolutional neural network och ett recurrent neural network kan ge ett bättre resultat än att bara endast använda ett recurrent neural network. Metod. För att kunna avgöra om ett recurrent neural network är ett lämpligt alternativ för semantisk segmentering av dokument utvärderas prestanda resultatet för tre olika modeller av recurrent neural network. Därefter jämförs dessa resultat med prestanda resultatet för ett convolutional neural network. Vidare utförs förbehandling av bilder och multi klassificering för att modellerna i slutändan ska kunna producera mätbara resultat av uppskattnings bilder. Resultat. Genom att utvärdera prestanda resultaten för modellerna kan vi i en jämförelse med den bästa modellen och ett convolutional neural network uppmäta en prestanda skillnad på 2.7%. Noterbart i det här fallet är att den bästa modellen uppvisar en jämnare fördelning av prestanda. För de två modellerna som uppvisade en lägre prestanda kan slutsatsen dras att deras utfall beror på en lägre modell komplexitet. Vidare vid en jämförelse av dessa två modeller, där den ena har en kombination av ett convolutional neural network och ett recurrent neural network medan den andra endast har ett recurrent neural network uppmäts en prestanda skillnad på 4.9%. Slutsatser. Resultatet antyder att ett recurrent neural network förmodligen är ett lämpligt alternativ till ett convolutional neural network för semantisk segmentering av dokument. Vidare dras slutsatsen att en kombination av de båda varianterna bidrar till ett bättre prestanda resultat.
APA, Harvard, Vancouver, ISO, and other styles
27

Baker, Dylan. "The Document Similarity Network: A Novel Technique for Visualizing Relationships in Text Corpora." Scholarship @ Claremont, 2017. https://scholarship.claremont.edu/hmc_theses/100.

Full text
Abstract:
With the abundance of written information available online, it is useful to be able to automatically synthesize and extract meaningful information from text corpora. We present a unique method for visualizing relationships between documents in a text corpus. By using Latent Dirichlet Allocation to extract topics from the corpus, we create a graph whose nodes represent individual documents and whose edge weights indicate the distance between topic distributions in documents. These edge lengths are then scaled using multidimensional scaling techniques, such that more similar documents are clustered together. Applying this method to several datasets, we demonstrate that these graphs are useful in visually representing high-dimensional document clustering in topic-space.
APA, Harvard, Vancouver, ISO, and other styles
28

Gross, Pierre Henri. "A document architecture and conferencing system for a network of multimedia medical workstations." Thesis, University of Ottawa (Canada), 1989. http://hdl.handle.net/10393/5951.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Barbosa, Camila Cornutti. "A bossa nova, seus documentos e articulações: um movimento para além da música." Universidade do Vale do Rio do Sinos, 2008. http://www.repositorio.jesuita.org.br/handle/UNISINOS/2637.

Full text
Abstract:
Made available in DSpace on 2015-03-05T18:25:03Z (GMT). No. of bitstreams: 0 Previous issue date: 29
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
A presente dissertação tem como tema “A Bossa Nova, seus documentos e suas articulações: um movimento para além da música”. Trata-se, mais especificamente, de selecionar documentos relativos à Bossa Nova, entre os anos de 1958 e 1964, para a composição do corpus de pesquisa e articulá-los sob o processo metodológico de rede para observação. Assim sendo, faz-se uma retomada de como o movimento da Bossa Nova é formalmente contado, buscando pontuar sua história, bem como o contexto social e político de quando surgiu. Nesta seqüência faz-se uma exploração parcial do arquivo de documentos selecionados da Bossa Nova a partir de anúncios publicitários, materiais jornalísticos, capas de LPs, letras de canções e o som das músicas do movimento, fotografias dos personagens da Bossa Nova e os movimentos artísticos contemporâneos ao gênero, buscando pistas, traços comuns e oposições, partindo do movimento musical, também no Cinema Novo, nas Artes Plásticas, no Design, na Arquitetura e na Poesia Concreta. Já no último capí
The theme of the present work is "Bossa Nova, its documents and unfoldings: a movement beyond the music”. More specifically, it is about selecting Bossa Nova related documents from 1958 to 1964 to compose the research corpus and articulate them under a methodological network process for observation. Thus, a recollection is made on how the Bossa Nova movement is formally spoken, aiming at punctuating its history, as well as the social and political context at the time it appeared. In this sequence, a partial exploration is made on the archive of Bossa Nova documents previously selected from the point viewpoint of commercial advertising, journalistic materials, LP covers, song lyrics and the movement sounds, photographs of Bossa Nova personalities and contemporaneous artistic movements, searching for evidences, common and oppositional threads, starting from the musical movement, but also in the Cinema Novo, plastic arts, design, architecture and the concrete poetry. Yet in the last chapter, this series of docu
APA, Harvard, Vancouver, ISO, and other styles
30

Mimouni, Nada. "Interrogation d'un réseau sémantique de documents : l'intertextualité dans l'accès à l'information juridique." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD084/document.

Full text
Abstract:
Une collection documentaire est généralement représentée comme un ensemble de documents mais cette modélisation ne permet pas de rendre compte des relations intertextuelles et du contexte d’interprétation d’un document. Le modèle documentaire classique trouve ses limites dans les domaines spécialisés où les besoins d’accès à l’information correspondent à des usages spécifiques et où les documents sont liés par de nombreux types de relations. Ce travail de thèse propose deux modèles permettant de prendre en compte cette complexité des collections documentaire dans les outils d’accès à l’information. Le premier modèle est basée sur l’analyse formelle et relationnelle de concepts, le deuxième est basée sur les technologies du web sémantique. Appliquées sur des objets documentaires ces modèles permettent de représenter et d’interroger de manière unifiée les descripteurs de contenu des documents et les relations intertextuelles qu’ils entretiennent
A collection of documents is generally represented as a set of documents but this simple representation does not take into account cross references between documents, which often defines their context of interpretation. This standard document model is less adapted for specific professional uses in specialized domains in which documents are related by many various references and the access tools need to consider this complexity. We propose two models based onformal and relational concept analysis and on semantic web techniques. Applied on documentary objects, these two models represent and query in a unified way documents content descriptors and documents relations
APA, Harvard, Vancouver, ISO, and other styles
31

Bui, Quang Vu. "Pretopology and Topic Modeling for Complex Systems Analysis : Application on Document Classification and Complex Network Analysis." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEP034/document.

Full text
Abstract:
Les travaux de cette thèse présentent le développement d'algorithmes de classification de documents d'une part, ou d'analyse de réseaux complexes d'autre part, en s'appuyant sur la prétopologie, une théorie qui modélise le concept de proximité. Le premier travail développe un cadre pour la classification de documents en combinant une approche de topicmodeling et la prétopologie. Notre contribution propose d'utiliser des distributions de sujets extraites à partir d'un traitement topic-modeling comme entrées pour des méthodes de classification. Dans cette approche, nous avons étudié deux aspects : déterminer une distance adaptée entre documents en étudiant la pertinence des mesures probabilistes et des mesures vectorielles, et effet réaliser des regroupements selon plusieurs critères en utilisant une pseudo-distance définie à partir de la prétopologie. Le deuxième travail introduit un cadre général de modélisation des Réseaux Complexes en développant une reformulation de la prétopologie stochastique, il propose également un modèle prétopologique de cascade d'informations comme modèle général de diffusion. De plus, nous avons proposé un modèle agent, Textual-ABM, pour analyser des réseaux complexes dynamiques associés à des informations textuelles en utilisant un modèle auteur-sujet et nous avons introduit le Textual-Homo-IC, un modèle de cascade indépendant de la ressemblance, dans lequel l'homophilie est fondée sur du contenu textuel obtenu par un topic-model
The work of this thesis presents the development of algorithms for document classification on the one hand, or complex network analysis on the other hand, based on pretopology, a theory that models the concept of proximity. The first work develops a framework for document clustering by combining Topic Modeling and Pretopology. Our contribution proposes using topic distributions extracted from topic modeling treatment as input for classification methods. In this approach, we investigated two aspects: determine an appropriate distance between documents by studying the relevance of Probabilistic-Based and Vector-Based Measurements and effect groupings according to several criteria using a pseudo-distance defined from pretopology. The second work introduces a general framework for modeling Complex Networks by developing a reformulation of stochastic pretopology and proposes Pretopology Cascade Model as a general model for information diffusion. In addition, we proposed an agent-based model, Textual-ABM, to analyze complex dynamic networks associated with textual information using author-topic model and introduced Textual-Homo-IC, an independent cascade model of the resemblance, in which homophily is measured based on textual content obtained by utilizing Topic Modeling
APA, Harvard, Vancouver, ISO, and other styles
32

Baccouche, Alexandre. "Functional analysis of artificial DNA reaction network." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCB135/document.

Full text
Abstract:
La gestion et transmission d’information au sein d’organismes vivants implique la production et le trafic de molécules via des voies de signalisation sutructurées en réseaux de réactions chimiques. Ces derniers varient selon leur forme, taille ainsi que la nature des molécules mises en jeu. Parmi eux, les réseaux de régulation génétiques nous ont servi de modèle pour le développement et la mise en place d’un système de programmation moléculaire in vitro. En effet, l’expression d’un gène est majoritairement dominé par des facteurs de transcription, autres protéines ou acides nucléiques, eux-mêmes exprimés par d’autres gènes. L’ensemble forme l’interactome de la cellule, carte globale des interactions entre gènes et sous-produits, où la fonction du réseau est relié à sa topologie. L’observation des noeuds et sous-architectures dénote trois mécanismes récurrents : premièrement, la nature des interactions est de type activation ou inhibition, ce qui implique que tout comportement non trivial est obtenu par une combinaison de noeuds plutôt que le développement de nouvelles interactions. Ensuite, la longévité du réseau est assurée par la stabilité chimique de l’ADN couplée à la chimiosélectivié des réactions enzymatiques. Enfin, l’aspect dynamique est maintenu par le constant anabolisme/catabolisme des intermédiaires et donc l’utilisation de combustible/énergie. C’est suivant ces observations que nous avons développé un ensemble de trois réactions enzymatiques élémentaires : la «PEN-DNA toolbox». L’architecture du réseau, à savoir les connections entre les noeuds est médiée par la séquence de brins d’ADN synthétiques (appelés matrice), et trois enzymes (polymérase, nickase, et exonucléase) assurent la catalyse des réactions chimiques. La production et dégradation des intermédiaires consomme des désoxyribonucléotides triphosphates et rejette des désoxyribonucléotides monophosphate, dissipant ainsi le potentiel chimique. Les réactions sont suivies grâce au greffage d’un fluorophore sur le brin matriciel et au «nucleobase quenching» qui intervient lorsqu’une base d’un intermédiaire se rapproche du fluorophore après hybdridation sur le brin matriciel. L’activation correspond alors à la synthèse d’un brin output en réponse à un brin input, alors que l’inhibition survient lorsqu’un brin output s’hybride sur un brin matriciel, empêchant ainsi à l’input correspondant de s’y fixer. Oscillations, bistabilité et mémoire sont des exemples de comportements implémentés en PEN-DNA toolbox, faisant appel à des architectures de plus en plus complexes. Pour cela, un réglage fin des concentrations en effecteurs (ADN et enzymes) est nécessaire, ce qui sous-tend l’existence de plusieurs comportements pour un même circuit, dépendant des conditions paramétriques. L’établissement d’une carte de chaque combinaison de paramètres avec le comportement global associé permettrait de comprendre le fonctionnement du réseau dans son ensemble, et donnerait accès à tous les comportements disponibles. Dans le cas d’un système dynamique non linéaire, une telle carte est un diagramme de bifurcation du système. Pour explorer de manière exhaustive les possibilités d’un réseau dans un cadre expérimental raisonable, nous avons développé une plateforme microfluidique capable de générer des goutelettes d’eau dans l’huile à partir de quatres canaux aqueux différents. Ce dispositif nous donne accès, grâce à un contrôle fin des contributions de chaque canal aqueux, à des goutelettes monodisperses (volume de l’ordre du picolitre) dont le contenu est différent pour chaque goutelette. Nous avons adapté notre dispositif aux contraintes matérielles (design microfluidique, génération de goutelettes à contenu différents et controllés, observation et stabilité à long terme) et techniques (tracabilité des goutelettes et stabilité/compatibilité chimique). (...)
Information processing within and in between living organisms involves the production and exchange of molecules through signaling pathways organized in chemical reactions networks. They are various by their shape, size, and by the nature of the molecules embroiled. Among them, gene regulatory networks were our inspiration to develop and implement a new framework for in-vitro molecular programming. Indeed, the expression of a gene is mostly controlled by transcription factors or regulatory proteins and/or nucleic acids that are themselves triggered by other genes. The whole assembly draws a web of cross-interacting genes and their subproducts, in which the well controlled topology relates to a precise function. With a closer look at the links between nodes in such architectures, we identify three key points in the inner operating system. First, the interactions either activate or inhibit the production of the later node, meaning that non trivial behaviors are obtained by a combination of nodes rather than a specific new interaction. Second, the chemical stability of DNA, together with the precise reactivity of enzymes ensures the longevity of the network. Finally, the dynamics are sustained by the constant anabolism/catabolism of the effectors, and the subsequent use of fuel/energy. All together, these observations led us to develop an original set of 3 elementary enzymatic reactions: the PEN-DNA toolbox. The architecture of the assembly, i.e. the connectivity between nodes relies on the sequence of synthetic DNA strands (called DNA templates), and 3 enzymes (a polymerase, a nickase and an exonuclease) are taking care of catalysis. The production and degradation of intermediates consume deoxyribonucleoside triphosphates (dNTP) and produce deoxynucleotide monophosphates leading to the dissipation of chemical potential. Reactions are monitored thanks to a backbone modification of a template with a fluorophore and the nucleobase quenching effect consecutive to an input strand binding the template. The activation mechanism is then the production of an output following the triggering of an input strand, and the inhibition comes from the production of an output strand that binds the activator-producing sequence. Various behaviors such as oscillation, bistability, or switchable memory have been implemented, requiring more and more complex topologies. For that, each circuit requires a fine tuning in the amount of chemical parameters, such as templates and enzymes. This underlies the fact that a given network may lead to different demeanors depending on the set of parameters. Mapping the output of each combination in the parameter space to find out the panel of behaviors leads to the bifurcation diagram of the system. In order to explore exhaustively the possibilities of one circuit with a reasonable experimental cost, we developped a microfluidic tool generating picoliter-sized water-in-oil droplets with different contents. We overcame the technical challenges in hardware (microfluidic design, droplet generation and long-term observation) and wetware (tracability of the droplet and emulsion compatibility/stability). So far, bifurcation diagrams were calculated from mathematical models based on the enzymes kinetics and the thermodynamic properties of each reaction. The model was then fitted with experimental data taken in distant points in the parameter space. Here, millions of droplets are created, and each one encloses a given amount of parameters, becoming one point in the diagram. The parameter coordinates are barcoded in the droplet, and the output fluorescence signal is recorded by time lapse microscopy. We first applied this technique to a well-known network, and obtained the first experimental two-dimensional bifurcation diagram of the bistable system. The diagram enlightens features that were not described by the previous mathematical model. (...)
APA, Harvard, Vancouver, ISO, and other styles
33

Fouchet, Arnaud. "Kernel methods for gene regulatory network inference." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0058/document.

Full text
Abstract:
De nouvelles technologies, notamment les puces à adn, multiplient la quantité de données disponibles pour la biologie moléculaire. dans ce contexte, des méthodes informatiques et mathématiques sont activement développées pour extraire le plus d'information d'un grand nombre de données. en particulier, le problème d'inférence de réseaux de régulation génique a été abordé au moyen de multiples modèles mathématiques et statistiques, des plus basiques (corrélation, modèle booléen ou linéaire) aux plus sophistiqués (arbre de régression, modèles bayésiens avec variables cachées). malgré leurs qualités pour des problèmes similaires, les modèles à noyaux ont été peu utilisés pour l'inférence de réseaux de régulation génique. en effet, ces méthodes fournissent en général des modèles difficiles a interpréter. dans cette thèse, nous avons développé deux façons d'obtenir des méthodes à noyaux interprétables. dans un premier temps, d'un point de vue théorique, nous montrons que les méthodes à noyaux permettent d'estimer, a partir d'un ensemble d'apprentissage, une fonction de transition et ses dérivées partielles de façon consistante. ces estimations de dérivées partielles permettent, sur des exemples réalistes, de mieux identifier le réseau de régulation génique que des méthodes standards. dans un deuxième temps, nous développons une méthode à noyau interprétable grâce à l'apprentissage à noyaux multiples. ce modèle fournit des résultats du niveau de l'état de l'art sur des réseaux réels et des réseaux simulés réalistes
New technologies in molecular biology, in particular dna microarrays, have greatly increased the quantity of available data. in this context, methods from mathematics and computer science have been actively developed to extract information from large datasets. in particular, the problem of gene regulatory network inference has been tackled using many different mathematical and statistical models, from the most basic ones (correlation, boolean or linear models) to the most elaborate (regression trees, bayesian models with latent variables). despite their qualities when applied to similar problems, kernel methods have scarcely been used for gene network inference, because of their lack of interpretability. in this thesis, two approaches are developed to obtain interpretable kernel methods. firstly, from a theoretical point of view, some kernel methods are shown to consistently estimate a transition function and its partial derivatives from a learning dataset. these estimations of partial derivatives allow to better infer the gene regulatory network than previous methods on realistic gene regulatory networks. secondly, an interpretable kernel methods through multiple kernel learning is presented. this method, called lockni, provides state-of-the-art results on real and realistically simulated datasets
APA, Harvard, Vancouver, ISO, and other styles
34

Ben, Ticha Hamza. "Vehicle Routing Problems with road-network information." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC071/document.

Full text
Abstract:
Les problèmes de tournées de véhicules (VRPs) ont fait l’objet de plusieurs travaux de recherche depuis maintenant plus de 50 ans. La plupart des approches trouvées dans la littérature s’appuient sur un graphe complet ou un nœud est introduit pour tout point d’intérêt du réseau routier (typiquement les clients et le dépôt). Cette modélisation est, implicitement, basée sur l’hypothèse que le meilleur chemin entre toute paire de points du réseau routier est bien défini. Cependant, cette hypothèse n’est pas toujours valide dans de nombreuses situations. Souvent, plus d’informations sont nécessaires pour modéliser et résoudre correctement le problème. Nous commençons par examiner ces situations et définir les limites de la modélisation basée sur un graphe complet. Nous proposons un état de l’art des travaux qui examinent ces limites et qui traitent des VRPs en considérant plus d’informations issues du réseau routier. Nous décrivons les approches alternatives proposées, à savoir la modélisation utilisant un multi-graphe et celle utilisant la résolution directe sur un graph représentant le réseau routier. Dans une seconde étude, nous nous intéressons à l’approche basée sur la construction d’un multi-graphe. Nous proposons, d’abord, un algorithme qui permet de calculer d’une manière efficace la représentation par multi-graph du réseau routier. Puis, nous présentons une analyse empirique sur l’impact de cette modélisation sur la qualité de la solution. Pour ce faire, nous considérons le problème classique VRPTW comme un problème de pilote. Par la suite, nous développons une méthode heuristique efficace afin de résoudre le VRPTW basée sur une représentation par un multi-graphe.Dans une troisième étape, nous nous concentrons sur l’approche basée sur la résolution directe du problème sur un graphe représentant le réseau routier. Nous développons un algorithme de type branch-and-price pour la résolution de cette variante du problème. Une étude expérimentale est, ensuite, menée afin d’évaluer l’efficacité relative des deux approches. Enfin, nous étudions les problèmes de tournées de véhicules dans lesquels les temps de parcours varient au cours de la journée. Nous proposons un algorithme de type branch-and-price afin de résoudre le problème avec des fenêtres de temps directement sur le graphe représentant le réseau routier. Une analyse empirique sur l’impact de l’approche proposée sur la qualité de la solution est proposée
Vehicle routing problems (VRPs) have drawn many researchers’ attention for more than fifty years. Most approaches found in the literature are, implicitly, based on the key assumption that the best path between each two points of interest in the road network (customers, depot, etc.) can be easily defined. Thus, the problem is tackled using the so-called customer-based graph, a complete graph representation of the road network. In many situations, such a graph may fail to accurately represent the original road network and more information are needed to address correctly the routing problem.We first examine these situations and point out the limits of the traditional customer-based graph. We propose a survey on works investigating vehicle routing problems by considering more information from the road network. We outline the proposed alternative approaches, namely the multigraph representation and the road network approach.Then, we are interested in the multigraph approach. We propose an algorithm that efficiently compute the multigraph representation for large sized road networks. We present an empirical analysis on the impact of the multigraph representation on the solution quality for the VPR with time windows (VRPTW) when several attributes are defined on road segments. Then, we develop an efficient heuristic method for the multigraph-based VRPTW.Next, we investigate the road network approach. We develop a complete branch-and-price algorithm that can solve the VRPTW directly on the original road network. We evaluate the relative efficiency of the two approaches through an extensive computational study.Finally, we are interested in problems where travel times vary over the time of the day, called time dependent vehicle routing problems (TDVRPs). We develop a branch-and-price algorithm that solves the TDVRP with time windows directly on the road network and we analyze the impact of the proposed approach on the solution quality
APA, Harvard, Vancouver, ISO, and other styles
35

Islam, Saif Ul. "Energy management in content distribution network servers." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30007/document.

Full text
Abstract:
Les infrastructures Internet et l'installation d'appareils très gourmands en énergie (en raison de l'explosion du nombre d'internautes et de la concurrence entre les services efficaces offerts par Internet) se développent de manière exponentielle. Cela entraîne une augmentation importante de la consommation d'énergie. La gestion de l'énergie dans les systèmes de distribution de contenus à grande échelle joue un rôle déterminant dans la diminution de l'empreinte énergétique globale de l'industrie des TIC (Technologies de l'information et de la communication). Elle permet également de diminuer les coûts énergétiques d'un produit ou d'un service. Les CDN (Content Delivery Networks) sont parmi les systèmes de distribution à grande échelle les plus populaires, dans lesquels les requêtes des clients sont transférées vers des serveurs et traitées par des serveurs proxy ou le serveur d'origine, selon la disponibilité des contenus et la politique de redirection des CDN. Par conséquent, notre objectif principal est de proposer et de développer des mécanismes basés sur la simulation afin de concevoir des politiques de redirection des CDN. Ces politiques prendront la décision dynamique de réduire la consommation d'énergie des CDN. Enfin, nous analyserons son impact sur l'expérience utilisateur. Nous commencerons par une modélisation de l'utilisation des serveurs proxy et un modèle de consommation d'énergie des serveurs proxy basé sur leur utilisation. Nous ciblerons les politiques de redirection des CDN en proposant et en développant des politiques d'équilibre et de déséquilibre des charges (en utilisant la loi de Zipf) pour rediriger les requêtes des clients vers les serveurs. Nous avons pris en compte deux techniques de réduction de la consommation d'énergie : le DVFS (Dynamic Voltage Frequency Scaling) et la consolidation de serveurs. Nous avons appliqué ces techniques de réduction de la consommation d'énergie au contexte d'un CDN (au niveau d'un serveur proxy), mais aussi aux politiques d'équilibre et de déséquilibre des charges afin d'économiser l'énergie. Afin d'évaluer les politiques et les mécanismes que nous proposons, nous avons mis l'accent sur la manière de rendre l'utilisation des ressources des CDN plus efficace, mais nous nous sommes également intéressés à leur coût en énergie, à leur impact sur l'expérience utilisateur et sur la qualité de la gestion des infrastructures. Dans ce but, nous avons défini comme métriques d'évaluation l'utilisation des serveurs proxy, d'échec des requêtes comme les paramètres les plus importants. Nous avons transformé un simulateur d'événements discrets CDNsim en Green CDNsim, et évalué notre travail selon différents scénarios de CDN en modifiant : les infrastructures proxy des CDN (nombre de serveurs proxy), le trafic (nombre de requêtes clients) et l'intensité du trafic (fréquence des requêtes client) en prenant d'abord en compte les métriques d'évaluation mentionnées précédemment. Nous sommes les premiers à proposer un DVFS et la combinaison d'un DVFS avec la consolidation d'un environnement de simulation de CDN en prenant en compte les politiques d'équilibre et de déséquilibre des charges. Nous avons conclu que les techniques d'économie d'énergie permettent de réduire considérablement la consommation d'énergie mais dégradent l'expérience utilisateur. Nous avons montré que la technique de consolidation des serveurs est plus efficace dans la réduction d'énergie lorsque les serveurs proxy ne sont pas beaucoup chargés. Dans le même temps, il apparaît que l'impact du DVFS sur l'économie d'énergie est plus important lorsque les serveurs proxy sont bien chargés. La combinaison des deux (DVFS et consolidation des serveurs) permet de consommer moins d'énergie mais dégrade davantage l'expérience utilisateur que lorsque ces deux techniques sont utilisées séparément
Explosive increase in Internet infrastructure and installation of energy hungry devices because of huge increase in Internet users and competition of efficient Internet services causing a great increase in energy consumption. Energy management in large scale distributed systems has an important role to minimize the contribution of Information and Communication Technology (ICT) industry in global CO2 (Carbon Dioxide) footprint and to decrease the energy cost of a product or service. Content distribution Networks (CDNs) are one of the popular large scale distributed systems, in which client requests are forwarded towards servers and are fulfilled either by surrogate servers or by origin server, depending on contents availability and CDN redirection policy. Our main goal is therefore, to propose and to develop simulation-based principled mechanisms for the design of CDN redirection policies which will do and carry out dynamic decisions to reduce CDN energy consumption and then to analyze its impact on user experience constraints to provide services. We started from modeling surrogate server utilization and derived surrogate server energy consumption model based on its utilization. We targeted CDN redirection policies by proposing and developing load-balance and load-unbalance policies using Zipfian distribution, to redirect client requests to servers. We took into account two energy reduction techniques, Dynamic Voltage Frequency Scaling (DVFS) and server consolidation. We applied these energy reduction techniques in the context of a CDN at surrogate server level and injected them in load-balance and load-unbalance policies to have energy savings. In order to evaluate our proposed policies and mechanisms, we have emphasized, how efficiently the CDN resources are utilized, at what energy cost, its impact on user experience and on quality of infrastructure management. For that purpose, we have considered surrogate server's utilization, energy consumption, energy per request, mean response time, hit ratio and failed requests as evaluation metrics. In order to analyze energy reduction and its impact on user experience, energy consumption, mean response time and failed requests are considered more important parameters. We have transformed a discrete event simulator CDNsim into Green CDNsim and evaluated our proposed work in different scenarios of a CDN by changing: CDN surrogate infrastructure (number of surrogate servers), traffic load (number of client requests) and traffic intensity (client requests frequency) by taking into account previously discussed evaluation metrics. We are the first who proposed DVFS and the combination of DVFS and consolidation in a CDN simulation environment, considering load-balance and loadunbalance policies. We have concluded that energy reduction techniques offer considerable energy savings while user experience is degraded. We have exhibited that server consolidation technique performs better in energy reduction while surrogate servers are lightly loaded. While, DVFS impact is more considerable for energy gains when surrogate servers are well loaded. Impact of DVFS on user experience is lesser than that of server consolidation. Combination of both (DVFS and server consolidation) presents more energy savings at higher cost of user experience degradation in comparison when both are used individually
APA, Harvard, Vancouver, ISO, and other styles
36

Falih, Issam. "Attributed Network Clustering : Application to recommender systems." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD011/document.

Full text
Abstract:
Au cours de la dernière décennie, les réseaux (les graphes) se sont révélés être un outil efficace pour modéliser des systèmes complexes. La problématique de détection de communautés est une tâche centrale dans l’analyse des réseaux complexes. La majeur partie des travaux dans ce domaine s’intéresse à la structure topologique des réseaux. Cependant, dans plusieurs cas réels, les réseaux complexes ont un ensemble d’attributs associés aux nœuds et/ou aux liens. Ces réseaux sont dites : réseaux attribués. Mes activités de recherche sont basées principalement sur la détection des communautés dans les réseaux attribués. Pour aborder ce problème, on s’est intéressé dans un premier temps aux attributs relatifs aux liens, qui sont un cas particulier des réseaux multiplexes. Un multiplex est un modèle de graphe multi-relationnel. Il est souvent représenté par un graphe multi-couches. Chaque couche contient le même ensemble de nœuds mais encode une relation différente. Dans mes travaux de recherche, nous proposons une étude comparative des différentes approches de détection de communautés dans les réseaux multiplexes. Cette étude est faite sur des réseaux réels. Nous proposons une nouvelle approche centrée "graine" pour la détection de communautés dans les graphes multiplexes qui a nécessité la redéfinition des métriques de bases des réseaux complexes au cas multiplex. Puis, nous proposons une approche de clustering dans les réseaux attribués qui prend en considération à la fois les attributs sur les nœuds et sur les liens. La validation de mes approches a été faite avec des indices internes et externes, mais aussi par une validation guidée par un système de recommandation que nous avons proposé et dont la détection de communautés est sa tâche principale. Les résultats obtenus sur ces approches permettent d’améliorer la qualité des communautés détectées en prenant en compte les informations sur les attributs du réseaux. De plus, nous offrons des outils d’analyse des réseaux attribués sous le langage de programmation R
In complex networks analysis field, much effort has been focused on identifying graphs communities of related nodes with dense internal connections and few external connections. In addition to node connectivity information that are mostly composed by different types of links, most real-world networks contains also node and/or edge associated attributes which can be very relevant during the learning process to find out the groups of nodes i.e. communities. In this case, two types of information are available : graph data to represent the relationship between objects and attributes information to characterize the objects i.e nodes. Classic community detection and data clustering techniques handle either one of the two types but not both. Consequently, the resultant clustering may not only miss important information but also lead to inaccurate findings. Therefore, various methods have been developed to uncover communities in networks by combining structural and attribute information such that nodes in a community are not only densely connected, but also share similar attribute values. Such graph-shape data is often referred to as attributed graph.This thesis focuses on developing algorithms and models for attributed graphs. Specifically, I focus in the first part on the different types of edges which represent different types of relations between vertices. I proposed a new clustering algorithms and I also present a redefinition of principal metrics that deals with this type of networks.Then, I tackle the problem of clustering using the node attribute information by describing a new original community detection algorithm that uncover communities in node attributed networks which use structural and attribute information simultaneously. At last, I proposed a collaborative filtering model in which I applied the proposed clustering algorithms
APA, Harvard, Vancouver, ISO, and other styles
37

Fabre, Pierre-Edouard. "Using network resources to mitigate volumetric DDoS." Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0020/document.

Full text
Abstract:
Les attaques massives par déni de service représentent une menace pour les services Internet. Ils impactent aussi les fournisseurs de service réseau et menace même la stabilité de l’Internet. Il y a donc un besoin pressant de contrôler les dommages causés par ces attaques. De nombreuses recherches ont été menées, mais aucune n’a été capable de combiner le besoin d’atténuation de l’attaque, avec l’obligation de continuité de service et les contraintes réseau. Les contre mesures proposées portent sur l’authentification des clients légitimes, le filtrage du trafic malicieux, une utilisation efficace des interconnections entre les équipements réseaux, ou l’absorption de l’attaque par les ressources disponibles. Dans cette thèse, nous proposons un mécanisme de contrôle de dommages. Basé sur une nouvelle signature d’attaque et les fonctions réseaux du standard Multiprotocol Label Switching (MPLS), nous isolons le trafic malicieux du trafic légitime et appliquons des contraintes sur la transmission du trafic malicieux. Le but est de rejeter suffisamment de trafic d’attaque pour maintenir la stabilité du réseau tout en préservant le trafic légitime. La solution prend en compte des informations sur l’attaque, mais aussi les ressources réseaux. Considérant que les opérateurs réseaux n’ont pas une même visibilité sur leur réseau, nous étudions l’impact de contraintes opérationnelles sur l’efficacité d’une contre mesure régulièrement recommandée, le filtrage par liste noire. Les critères d’évaluation sont le niveau d’information sur l’attaque ainsi que sur le trafic réseau. Nous formulons des scénarios auxquels chaque opérateur peut s’identifier. Nous démontrons que la l’algorithme de génération des listes noires doit être choisi avec précaution afin de maximiser l’efficacité du filtrage
Massive Denial of Service attacks represent a genuine threat for Internet service, but also significantly impact network service providers and even threat the Internet stability. There is a pressing need to control damages caused by such attacks. Numerous works have been carried out, but were unable to combine the need for mitigation, the obligation to provide continuity of service and network constraints. Proposed countermeasures focus on authenticating legitimate traffic, filtering malicious traffic, making better use of interconnection between network equipment or absorbing attack with the help of available resources. In this thesis, we propose a damage control mechanism against volumetric Denial of Services. Based on a novel attack signature and with the help of Multiprotocol Label Switching (MPLS) network functions, we isolate malicious from legitimate traffic. We apply a constraint-based forwarding to malicious traffic. The goal is to discard enough attack traffic to sustain network stability while preserving legitimate traffic. It is not only aware of attack details but also network resource, especially available bandwidth. Following that network operators do not have equal visibility on their network, we also study the impact of operational constraints on the efficiency of a commonly recommended countermeasure, namely blacklist filtering. The operational criteria are the level of information about the attack and about the traffic inside the network. We then formulate scenario which operators can identify with. We demonstrate that the blacklist generation algorithm should be carefully chosen to fit the operator context while maximizing the filtering efficiency
APA, Harvard, Vancouver, ISO, and other styles
38

Sareh, Said Adel Mounir. "Ubiquitous sensor network in the NGN environment." Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0016/document.

Full text
Abstract:
Ubiquitous Sensor Network (USN) est un réseau conceptuel construit sur des réseaux physiques existantes. Il se sert des données détectées et fournit des services de connaissances à quiconque, n'importe où et à tout moment, et où l'information est générée en utilisant la sensibilité au contexte. Dispositifs et USN portables intelligents émergent rapidement en offrant de nombreux services fiables facilitant la vie des gens. Ces petits terminaux et terminaux très utiles besoin d'un substrat de communication globale pour fournir un service complet de l'utilisateur final global. En 2010, ITU -T a fourni les exigences pour supporter des applications et services USN dans le Next Generation Network (NGN) de l'environnement d'exploiter les avantages du réseau de base. L'un des principaux marchés prometteurs pour l'application et les services USN est la e- santé. Il fournit le suivi des patients en continu et permet une grande amélioration dans les services médicaux. D'autre part, des Véhicules Ad-hoc NETwork (VANET) est une technologie émergente qui permet une communication intelligente entre les véhicules mobiles. Intégrer VANET avec USN a un grand potentiel pour améliorer la sécurité routière et la fluidité du trafic. La plupart des applications VANET sont appliqués en temps réel et ils sont sensibles à retarder, en particulier ceux liés à la sécurité et à la santé. Dans ce travail, nous proposons d'utiliser l'IP Multimédia Subsystem (IMS) comme une sous- couche de contrôle de service dans l'environnement USN fournir un substrat mondiale pour un service complet de bout en bout. De plus, nous vous proposons d'intégrer VANETs avec USN pour des applications et des installations riches plus, ce qui facilitera la vie des humains. Nous avons commencé à étudier les défis sur la route pour atteindre cet objectif
Ubiquités Sensor Network (USN) is a conceptual network built over existing physical networks. It makes use of sensed data and provides knowledge services to anyone, anywhere and at anytime, and where the information is generated by using context awareness. Smart wearable devices and USNs are emerging rapidly providing many reliable services facilitating people life. Those very useful small end terminals and devices require a global communication substrate to provide a comprehensive global end user service. In 2010, the ITU-T provided the requirements to support USN applications and services in the Next Génération Network (NGN) environment to exploit the advantages of the core network. One of the main promising markets for the USN application and services is the e-Health. It provides continuous patients’ monitoring and enables a great improvement in medical services. On the other hand, Vehicular Ad-Hoc NETwork (VANET) is an emerging technology, which provides intelligent communication between mobile vehicles. Integrating VANET with USN has a great potential to improve road safety and traffic efficiency. Most VANET applications are applied in real time and they are sensitive to delay, especially those related to safety and health. In this work, we propose to use IP Multimedia Subsystem (IMS) as a service controller sub-layer in the USN environment providing a global substrate for a comprehensive end-to-end service. Moreover, we propose to integrate VANETs with USN for more rich applications and facilities, which will ease the life of humans. We started studying the challenges on the road to achieve this goal
APA, Harvard, Vancouver, ISO, and other styles
39

Masri, Ali. "Multi-Network integration for an Intelligent Mobility." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV091/document.

Full text
Abstract:
Les systèmes de transport sont un des leviers puissants du progrès de toute société. Récemment les modes de déplacement ont évolué significativement et se diversifient. Les distances quotidiennement parcourues par les citoyens ne cessent d'augmenter au cours de ces dernières années. Cette évolution impacte l'attractivité et la compétitivité mais aussi la qualité de vie grandement dépendante de l'évolution des mobilités des personnes et des marchandises. Les gouvernements et les collectivités territoriales développent de plus en plus des politiques d'incitation à l'éco-mobilité. Dans cette thèse nous nous concentrons sur les systèmes de transport public. Ces derniers évoluent continuellement et offrent de nouveaux services couvrant différents modes de transport pour répondre à tous les besoins des usagers. Outre les systèmes de transports en commun, prévus pour le transport de masse, de nouveaux services de mobilité ont vu le jour, tels que le transport à la demande, le covoiturage planifié ou dynamique et l'autopartage ou les vélos en libre-service. Ils offrent des solutions alternatives de mobilité et pourraient être complémentaires aux services traditionnels. Cepandant, ces services sont à l'heure actuelle isolés du reste des modes de transport et des solutions multimodales. Ils sont proposés comme une alternative mais sans intégration réelle aux plans proposés par les outils existants. Pour permettre la multimodalité, le principal challenge de cette thèse est l'intégration de données et/ou de services provenant de systèmes de transports hétérogènes. Par ailleurs, le concept de données ouvertes est aujourd'hui adopté par de nombreuses organisations publiques et privées, leur permettant de publier leurs sources de données sur le Web et de gagner ainsi en visibilité. On se place dans le contexte des données ouvertes et des méthodes et outils du web sémantique pour réaliser cette intégration, en offrant une vue unifiée des réseaux et des services de transport. Les verrous scientifiques auxquels s'intéresse cette thèse sont liés aux problèmes d'intégration à la fois des données et des services informatiques des systèmes de transport sous-jacents
Multimodality requires the integration of heterogeneous transportation data and services to construct a broad view of the transportation network. Many new transportation services (e.g. ridesharing, car-sharing, bike-sharing) are emerging and gaining a lot of popularity since in some cases they provide better trip solutions.However, these services are still isolated from the existing multimodal solutions and are proposed as alternative plans without being really integrated in the suggested plans. The concept of open data is raising and being adopted by many companies where they publish their data sources to the web in order to gain visibility. The goal of this thesis is to use these data to enable multimodality by constructing an extended transportation network that links these new services to existing ones.The challenges we face mainly arise from the integration problem in both transportation services and transportation data
APA, Harvard, Vancouver, ISO, and other styles
40

Desmouceaux, Yoann. "Network-Layer Protocols for Data Center Scalability." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX011/document.

Full text
Abstract:
Du fait de la croissance de la demande en ressources de calcul, les architectures de centres de données gagnent en taille et complexité.Dès lors, cette thèse prend du recul par rapport aux architectures réseaux traditionnelles, et montre que fournir des primitives génériques directement à la couche réseau permet d'améliorer l'utilisation des ressources, et de diminuer le trafic réseau et le surcoût administratif.Deux architectures réseaux récentes, Segment Routing (SR) et Bit-Indexed Explicit Replication (BIER), sont utilisées pour construire et analyser des protocoles de couche réseau, afin de fournir trois primitives: (1) mobilité des tâches, (2) distribution fiable de contenu, et (3) équilibre de charge.Premièrement, pour la mobilité des tâches, SR est utilisé pour fournir un service de migration de machine virtuelles sans perte.Cela ouvre l'opportunité d'étudier comment orchestrer le placement et la migration de tâches afin de (i) maximiser le débit inter-tâches, tout en (ii) maximisant le nombre de nouvelles tâches placées, mais (iii) minimisant le nombre de tâches migrées.Deuxièmement, pour la distribution fiable de contenu, BIER est utilisé pour fournir un protocole de multicast fiable, dans lequel les retransmissions de paquets perdus sont ciblés vers l'ensemble précis de destinations n'ayant pas reçu ce packet : ainsi, le surcoût de trafic est minimisé.Pour diminuer la charge sur la source, cette approche est étendue en rendant possible des retransmissions par des pairs locaux, utilisant SR afin de trouver un pair capable de retransmettre.Troisièmement, pour l'équilibre de charge, SR est utilisé pour distribuer des requêtes à travers plusieurs applications candidates, chacune prenant une décision locale pour accepter ou non ces requêtes, fournissant ainsi une meilleure équité de répartition comparé aux approches centralisées.La faisabilité d'une implémentation matérielle de cette approche est étudiée, et une solution (utilisant des canaux cachés pour transporter de façon invisible de l'information vers l'équilibreur) est implémentée pour une carte réseau programmable de dernière génération.Finalement, la possibilité de fournir de l'équilibrage automatique comme service réseau est étudiée : en faisant passer (avec SR) des requêtes à travers une chaîne fixée d'applications, l'équilibrage est initié par la dernière instance, selon son état local
With the development of demand for computing resources, data center architectures are growing both in scale and in complexity.In this context, this thesis takes a step back as compared to traditional network approaches, and shows that providing generic primitives directly within the network layer is a great way to improve efficiency of resource usage, and decrease network traffic and management overhead.Using recently-introduced network architectures, Segment Routing (SR) and Bit-Indexed Explicit Replication (BIER), network layer protocols are designed and analyzed to provide three high-level functions: (1) task mobility, (2) reliable content distribution and (3) load-balancing.First, task mobility is achieved by using SR to provide a zero-loss virtual machine migration service.This then opens the opportunity for studying how to orchestrate task placement and migration while aiming at (i) maximizing the inter-task throughput, while (ii) maximizing the number of newly-placed tasks, but (iii) minimizing the number of tasks to be migrated.Second, reliable content distribution is achieved by using BIER to provide a reliable multicast protocol, in which retransmissions of lost packets are targeted towards the precise set of destinations having missed that packet, thus incurring a minimal traffic overhead.To decrease the load on the source link, this is then extended to enable retransmissions by local peers from the same group, with SR as a helper to find a suitable retransmission candidate.Third, load-balancing is achieved by way of using SR to distribute queries through several application candidates, each of which taking local decisions as to whether to accept those, thus achieving better fairness as compared to centralized approaches.The feasibility of hardware implementation of this approach is investigated, and a solution using covert channels to transparently convey information to the load-balancer is implemented for a state-of-the-art programmable network card.Finally, the possibility of providing autoscaling as a network service is investigated: by letting queries go through a fixed chain of applications using SR, autoscaling is triggered by the last instance, depending on its local state
APA, Harvard, Vancouver, ISO, and other styles
41

La, Vinh Hoa. "Security monitoring for network protocols and applications." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLL006/document.

Full text
Abstract:
La sécurité informatique, aussi connue comme la cyber-sécurité, est toujours un sujet d'actualité dans la recherche en sciences informatiques. Comme les cyber-attaques grandissent de plus en plus en volume et en sophistication, la protection des systèmes ou réseaux d'information devient une tâche difficile. Les chercheurs dans la communauté de recherche prêtent une attention constante à la sécurité, en particulier ils s'orientent vers deux directions principales: (i) - la conception des infrastructures sécurisées avec des protocoles de communication sécurisés et (ii) - surveillance / supervision des systèmes ou des réseaux afin de trouver et de remédier des vulnérabilités. La dernière vérifie que tout ce qui a été conçu dans la première fonctionne correctement et en toute sécurité, ainsi détectant les violations de sécurité. Ceci étant le sujet principal de cette thèse.Cette dissertation présente un cadre de surveillance de la sécurité en tenant en compte des différents types de jeu de données d'audit y compris le trafic de réseaux et les messages échangés dans les applications. Nous proposons également des approches innovantes fondées sur l'apprentissage statistique, la théorie de l'information et de l'apprentissage automatique pour prétraiter et analyser l'entrée de données. Notre cadre est validé dans une large gamme des études de cas, y compris la surveillance des réseaux traditionnels TCP / IP (v4) (LAN, WAN, la surveillance de l'Internet), la supervision des réseaux de objets connectés utilisant la technologie 6LoWPAN (IPv6), et également, l’analyse des logs d'autres applications. Enfin, nous fournissons une étude sur la tolérance d’intrusion par conception et proposons une approche basée sur l’émulation pour détecter et tolérer l’intrusion simultanément.Dans chaque étude de cas, nous décrivons comment nous collectons les jeux de données d'audit, extrayons les attributs pertinents, traitons les données reçues et décodons leur signification de sécurité. Pour attendre ces objectifs, l'outil MMT est utilisé comme le cœur de notre approche. Nous évaluons également la performance de la solution et sa possibilité de marcher dans les systèmes “à plus grande échelle” avec des jeux de données plus volumineux
Computer security, also known as cyber-security or IT security, is always an emerging topic in computer science research. Because cyber attacks are growing in both volume and sophistication, protecting information systems or networks becomes a difficult task. Therefore, researchers in research community give an ongoing attention in security including two main directions: (i)-designing secured infrastructures with secured communication protocols and (ii)-monitoring/supervising the systems or networks in order to find and re-mediate vulnerabilities. The former assists the later by forming some additional monitoring-supporting modules. Whilst, the later verifies whether everything designed in the former is correctly and securely functioning as well as detecting security violations. This is the main topic of this thesis.This dissertation presents a security monitoring framework that takes into consideration different types of audit dataset including network traffic and application logs. We propose also some novel approaches based on supervised machine learning to pre-process and analyze the data input. Our framework is validated in a wide range of case studies including traditional TCP/IPv4 network monitoring (LAN, WAN, Internet monitoring), IoT/WSN using 6LoWPAN technology (IPv6), and other applications' logs. Last but not least, we provide a study regarding intrusion tolerance by design and propose an emulation-based approach to simultaneously detect and tolerate intrusion.In each case study, we describe how we collect the audit dataset, extract the relevant attributes, handle received data and decode their security meaning. For these goals, the tool Montimage Monitoring Tool (MMT) is used as the core of our approach. We assess also the solution's performance and its possibility to work in "larger scale" systems with more voluminous dataset
APA, Harvard, Vancouver, ISO, and other styles
42

Khadraoui, Younes. "Towards a seamless multi-technology access network." Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0411/document.

Full text
Abstract:
Le trafic de données mobiles augmente de façon permanente. Afin d'éviter une saturation, les opérateurs doivent décharger le réseau cellulaire vers des réseaux d'accès alternatifs. WiFi se trouve être une bonne solution qui permet à l'opérateur de tirer parti de bandes de fréquence sans licence ainsi que du très grand nombre de points d'accès déjà déployés. Dans cette thèse, nous présentons tout d'abord un état de l'art des différentes solutions de couplage entre LTE et WiFi. Nous montrons que la plupart de ces solutions ne garantissent pas la continuité de session ou sont sujettes à une duplication des procédures de sécurité. Ceci a conduit à la proposition du Very Tight Coupling entre LTE et WiFi. Dans ce type d'architecture, les points d'accès WiFi sont connectés à une station de base LTE et les mécanismes de sécurité LTE sont réutilisées afin de permettre un accès rapide au réseau WiFi. Ceci permet également d'avoir une double connectivité et de garder le trafic de signalisation sur le réseau LTE, ce qui donne la possibilité d'avoir des procédures de sélection optimisées. Nous étudions comment le Very Tight Coupling peut être implémenté et comment les points d'accès WiFi intégrés dans les passerelles résidentielles peuvent être connectées aux stations de base LTE dans le cas d'un réseau fixe/cellulaire convergent. Nous évaluons ensuite par des outils mathématiques, les performances de différents schémas de couplage et calculons le taux de capacité pouvant être économisée. Ensuite, nous présentons une implémentation du Very Tight Coupling sur une plateforme utilisant une interface radio LTE réelle basée sur Open Air Interface. Nous effectuons plusieurs expérimentations afin de trouver la meilleure configuration du protocole de la couche liaison de données. Nous démontrons que le fait d'utiliser WiFi et LTE en parallèle n'augmente pas systématiquement le débit
The mobile data traffic has been continuously increasing. To avoid saturation of cellular network, operators need to use alternative access networks for offloading purpose. WiFi is a good solution as the operator can take advantage of its unlicensed spectrum as well as the large number of deployed WiFi access points.In this thesis, we first provide a state-of-the-art of the different coupling solutions between LTE and WiFi. We show that most solutions cannot guarantee session continuity or duplicate the security procedures. This leads to propose "Very Tight Coupling" between LTE and WiFi. In this architecture, WiFi access points are connected to the LTE base stations and the security mechanisms of LTE are reused to ensure fast access to WiFi. It allows dual connectivity and to keep control signalling in the LTE network, which gives the possibility to have optimized interface selection procedures.We study how very tight coupling can be implemented and how WiFi APs that integrated in customer residential gateways can be connected to LTE base stations in a converged fixed/cellular network. We then mathematically evaluate the performance of different deployment schemes and compute how much capacity can be saved on the LTE network. Furthermore, we implement the solution on a platform with a real LTE radio interface based on the Open Air Interface framework as a proof-of-concept. We perform several experiments to find the configuration of the link-layer protocols that gives the highest bit rate. In particular, we show that using WiFi and LTE simultaneously does not always increase the bit rate
APA, Harvard, Vancouver, ISO, and other styles
43

Guellier, Antoine. "Strongly Private Communications in a Homogeneous Network." Thesis, CentraleSupélec, 2017. http://www.theses.fr/2017SUPL0001/document.

Full text
Abstract:
L’avènement de l’ère digitale a changé la façon dont les individus communiquent à travers le monde, et a amené de nouvelles problématiques en terme de vie privée. La notion d’anonymat la plus répandue pour les communications sur Internet consiste à empêcher tout acteur du réseau de connaître à la fois l’expéditeur d’un message et son destinataire. Bien que ce niveau de protection soit adéquat pour l’utilisateur d’Internet moyen, il est insuffisant lorsqu’un individu peut être condamné pour le simple envoi de documents à une tierce partie. C’est le cas en particulier des lanceurs d’alerte, prenant des risques personnels pour informer le public de pratiques illégales ou antidémocratiques menées par de grandes organisations. Dans cette thèse, nous envisageons un niveau d’anonymat plus fort, où l’objectif est de dissimuler le fait même qu’un utilisateur envoie ou reçoive des données. Pour cela, nous délaissons l’architecture client-serveur couramment utilisée dans les réseaux anonymes, en faveur d’une architecture entièrement distribuée et homogène, où chaque utilisateur remplit également le rôle de serveur relai, lui permettant de dissimuler son propre trafic dans celui qu’il relai pour les autres. Dans cette optique, nous proposons un nouveau protocole pour les communications pairs à pairs sur Internet. À l’aide de récents outils de preuves cryptographiques, nous prouvons que ce protocole réalise les propriétés d’anonymat désirées. De plus, nous montrons par une étude pratique que, bien que le protocole induise une grande latence dans les communications, il assure un fort anonymat, même pour des réseaux de petite taille
With the development of online communications in the past decades, new privacy concerns have emerged. A lot of research effort have been focusing on concealing relationships in Internet communications. However, most works do not prevent particular network actors from learning the original sender or the intended receiver of a communication. While this level of privacy is satisfactory for the common citizen, it is insufficient in contexts where individuals can be convicted for the mere sending of documents to a third party. This is the case for so-called whistle-blowers, who take personal risks to alert the public of anti-democratic or illegal actions performed by large organisations. In this thesis, we consider a stronger notion of anonymity for peer-to-peer communications on the Internet, and aim at concealing the very fact that users take part in communications. To this end, we deviate from the traditional client-server architecture endorsed by most existing anonymous networks, in favor of a homogeneous, fully distributed architecture in which every user also acts as a relay server, allowing it to conceal its own traffic in the traffic it relays for others. In this setting, we design an Internet overlay inspired from previous works, that also proposes new privacy-enhancing mechanisms, such as the use of relationship pseudonyms for managing identities. We formally prove with state-of-the-art cryptographic proof frameworks that this protocol achieves our privacy goals. Furthermore, a practical study of the protocol shows that it introduces high latency in the delivery of messages, but ensures a high anonymity level even for networks of small size
APA, Harvard, Vancouver, ISO, and other styles
44

Lin, Trista Shuenying. "Smart parking : Network, infrastructure and urban service." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0138/document.

Full text
Abstract:
Le parking intelligent, permettant aux conducteurs d'accéder aux informations de stationnement sur leurs appareils mobiles, réduit les difficultés des usagers. Tout d'abord, nous mettons en lumière la manière de recueillir les informations de parking en introduisant une architecture de réseaux de capteurs multi-saut, et les modèles d'intensité applicative en examinant la probabilité d'arrivées et de départs de véhicules. Puis nous étudions la stratégie de déploiement des réseaux de capteurs et définissons un problème multi-objectifs, puis nous le résolvons sur deux cartes de parking réelles. Ensuite, nous définissons un service Publish-Subscribe pour fournir aux conducteurs des informations pertinentes. Nous illustrons le système dans des réseaux véhiculaires et mobiles et soulignons l'importance du contenu et du contexte du message au conducteur. Afin d'évaluer la résilience du système, nous proposons un modèle Publish-Subscribe étendu et nous l'évaluons dans différentes circonstances imprévues. Notre travail est basé sur la prémisse que les capteurs de parking sont déployés à une grande échelle dans la ville. Nous considérons une vue d'ensemble des services urbains du point de vue de la municipalité. Ainsi, nous faisons la lumière sur deux thèmes principaux: la collecte d'informations sur le déploiement de capteurs et un modèle étendu de Publish-Subscribe. Notre travail donne un guide avant de démarrer un projet de parking intelligent ou tout service urbain similaire en temps réel. Il fournit également une plate-forme d'évaluation valable pour tester des jeux de données plus réalistes, comme des traces de véhicules ou de trafic réseau
Smart parking, allowing drivers to access parking information through their smart-phone, is proposed to ease drivers' pain. We first spotlight the manner to collect parking information by introducing the multi-hop sensor network architecture, and how the network is formed. We then introduce the traffic intensity models by looking at the vehicle's arrival and departure probabilities, following the heavy-tailed distribution. We study the deployment strategy of wireless on-street parking sensor layouts. We define a multiple-objective problem and solve it with two real street parking maps. In turn, we present a Publish-Subscribe service system to provide good parking information to drivers. We illustrate the system with a vehicular network and point out the importance of content and context of a driver’s message. To evaluate the resilience, we propose an extended Publish-Subscribe model, and evaluate it under different unforeseen circumstances. Our work is based on the premise that large-scale parking sensors are deployed in the city. We look at the whole picture of urban service from viewpoint of the municipality. As such, we shed light on two main topics: the information collection on sensor deployment and an extended version of Publish-Subscribe messaging paradigm. Our work gives a guideline from network-related perspectives for city before launching a smart parking or any similar real-time urban service. It also provides a meaningful evaluation platform for testing more realistic datasets, such as real vehicle traces or network traffic
APA, Harvard, Vancouver, ISO, and other styles
45

Ravaioli, Riccardo. "Inférence active de la neutralité des réseaux." Thesis, Nice, 2016. http://www.theses.fr/2016NICE4044/document.

Full text
Abstract:
Durant la dernière décennie, des FAI ont été accusés de discriminer certainstypes de trafic utilisateur générés par des applications gourmandes en bandepassante (peer-to-peer, streaming vidéo) ou par des services concurrents(Voice-over-IP). La neutralité des réseaux, un principe selon lequel un réseaudevrait traiter tous les paquets entrants de la même manière, a été largementdébattue. Dans cette thèse, nous présentons ChkDiff, un nouvel outil pour ladétection de la différentiation du trafic dans le réseau d'accès. Contrairementaux travaux existants, notre méthode est agnostique à la fois vis-à-vis desapplications testées et des mécanismes de shaping déployés. ChkDiff comprenddeux phases dans lesquelles nous testons séparément le trafic montant etdescendant capturé auparavant dans la machine de l'utilisateur. Dans ladirection montante, ChkDiff rejoue le trafic sortant de la machine del'utilisateur avec une valeur TTL modifiée afin de pouvoir tester les routeursaux premiers sauts. En comparant les délais et les pertes des paquets des fluxqui ont traversé les mêmes routeurs et en analysant les résultats sur latopologie des routeurs traversés, nous montrons que nous pouvons détecter lescas de différentiation et localiser les shapers. Notre étude sur la réactivité desrouteurs aux sondes avec TTL limité consolide notre choix de mesures dansl'expérimentation sur le trafic montant. Dans la direction descendante, nousrejouons le trafic entrant dans la machine de l'utilisateur à partir d'un serveurde mesure et analysons pour chaque flux les délais unidirectionnels et lespertes, tout en tenant compte la possibilité de trajets multiples entre le serveuret l’utilisateur. Le long des chapitres de cette thèse, nous fournissons unedescription détaillée de notre méthodologie et une validation de notre outil
In the last decade, some ISPs have been reported to discriminate againstspecific user traffic, especially if generated by bandwidth-hungry applications(e.g., peer-to-peer, video streaming) or competing services (e.g. Voice-over-IP).Network neutrality, a design principle according to which a network shouldtreat all incoming packets equally, has been widely debated ever since. In thisthesis we present ChkDiff, a novel tool for the detection of trafficdifferentiation at the Internet access. In contrast to existing work, our methodis agnostic to both the applications being tested and the shaping mechanismsdeployed by an ISP. The experiment comprises two parts, in which we check fordifferentiation separately on upstream and downstream traffic that wepreviously dump directly from the user. In the upstream direction, ChkDiffreplays the user's outgoing traffic with a modified TTL value in order to checkfor differentiation on routers at the first few hops from the user. By comparingthe resulting delays and losses of flows that traversed the same routers, andanalyzing the behaviour on the immediate router topology spawning from theuser end point, we manage to detect instances of traffic shaping and attempt tolocalize shapers. Our study on the responsiveness of routers to TTL-limitedprobes consolidates our choice of measurements in the upstream experiment.In the downstream experiment, we replay the user's incoming traffic from ameasurement server and analyze per-flow one-way delays and losses, whiletaking into account the possibility of multiple paths between the two endpoints.Along the chapters of this thesis, we provide a detailed description of ourmethodology and a validation of our tool
APA, Harvard, Vancouver, ISO, and other styles
46

Shaun, Ferdous Jahan. "Multi-Parameters Miniature Sensor for Water Network Management." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1138/document.

Full text
Abstract:
L’eau est une ressource vitale, indispensable à la vie sur terre. A l’instar de nombreuses autres ressources naturelles, l’eau propre à la consommation est soumise à une forte pression à cause de l’impact de l’activité humaine d’une part et de l’augmentation continue de la population mondiale d’autre part. Une pression tellement forte que l’eau propre représente l’un des 17 objectifs de développement durable des Nations Unies. Dans ce contexte, une gestion rationnelle et durable de la ressource s’avère indispensable. Dans ce but, un système intelligent de supervision des réseaux d’eau potable peut s’avérer très utile. Les systèmes existant sont toutefois peu intégrés et compacts, nécessitent souvent une alimentation externe, et restent relativement chers pour un déploiement massif sur les réseaux. La présente thèse s’inscrit dans le cadre d’un projet de recherche européen, PROTEUS, visant à pallier ces différents problèmes en mettant au point un système de mesure pour la supervision de la ressource en eau permettant la mesure de 9 paramètres physico-chimiques, reconfigurable, et énergétiquement autonome. La contribution de la présente thèse à ce projet porte sur la conception et l’optimisation des différents capteurs physiques (conductivité électrique, pression, température et débit) ainsi qu’à leur co-intégration sur une même puce. Le système proposé montre des performances au moins égales à celle de l’état de l’art en ce qui concerne la robustesse, assurée par la redondance de nombreux éléments sensibles, le domaine de sensibilité et la consommation énergétique. Le présent manuscrit est par conséquent construit comme suit : le premier chapitre est une introduction générale à la supervision de grandeurs environnementales et à la puce multi-capteurs. Le second chapitre décrit la structure de la puce multi-capteurs ainsi que les méthodes de fabrication utilisées, avec une attention particulière accordée aux capteurs de pression et de conductivité électrique. Le troisième chapitre porte sur l’utilisation de résistances électriques pour la mesure de diverses grandeurs physiques, notamment la température. Le dernier chapitre s’attarde plus particulièrement sur l’utilisation de ce type de résistances pour la mesure de débit avant de conclure et de proposer des perspectives pour des travaux futurs
Water is a vital element for every living being on the earth. Like many other dwindling natural resources, clean water faces a strong pressure because of human activity and the rapid growth of global population. The situation is so critical that clean water has been identified as one of the seventeenth sustainable development goals of the United Nations. Under these conditions, a sustainable management of water resources is necessary. For this purpose, a smart solution for water networks monitoring can be very helpful. However, commercially available solutions lack compactness, self-powering capabilities cost competitiveness, necessary to enable the large rollout over water networks. The present thesis takes place in the framework of a European research project, PROTEUS, which addresses these different problems by designing and fabricating a multi-parameter sensor chip (MPSC) for water resources monitoring. The MPSC enables the measurement of 9 physical and chemical parameters, is reconfigurable and self-powered. The present thesis addresses more precisely physical sensors, their design, optimization and co-integration on the MPSC. The developed device exhibits state of the art or larger performances with regard to its redundancy, turn-down ratio and power consumption. The present manuscript is split into two main parts: Part-I and Part-II. Part-I deals with non-thermal aspects of the MPSC, the pressure and conductivity sensor for instance, as well as the fabrication process of the whole device (Chapter 1 and 2). The background of environmental monitoring is presented in Chapter 1 along with the State of Art review. Chapter 2 describes fabrication methods of the MPSC. Preliminary characterization results of non-thermal sensors are also reported in this chapter. Chapter 3 and 4, included in Part-II, deal with thermal sensors (temperature and flow-rate). Chapter 3 describes the many possible uses of electric resistances for sensing applications. Finally, in chapter four, we focus on flowrate sensors before concluding and making a few suggestions for future works
APA, Harvard, Vancouver, ISO, and other styles
47

Bouzembrak, Yamine. "Multi-criteria Supply Chain Network Design under uncertainty." Thesis, Artois, 2011. http://www.theses.fr/2011ARTO0211/document.

Full text
Abstract:
Les modèles de conception des chaînes logistiques sont devenus de plus en plus complexes, à cause de l'environnement économique incertain et l'introduction de nouveaux critères de décision tels que : l'aspect environnemental, l'aspect social, l'aspect législatif, l'aspect économique, la satisfaction du client et la prise en compte des risques. Répondre aux changements qui touchent les chaînes logistiques exige de composer avec des incertitudes et des informations incomplètes. Configurer des chaînes logistiques multicritères avec prise en compte des incertitudes peut garantir la continuité des activités de l'entreprise.L'objectif principal de cette thèse est la conception de chaînes logistiques multicritères qui résistent aux changements et l'instabilité des marchés. Le manuscrit de cette thèse s'articule autour de sept principaux chapitres:1 - introduction.2 - Etat de l'art sur la conception des chaînes logistiques.3 -Conception des chaînes logistiques multicritères en mesure de répondre aux nouveauxcritères économiques, sociaux, environnementaux et législatifs.4 - Conception des chaînes logistiques multi-objectifs.5 - Développement d'une heuristique de résolution des problèmes de conception deschaînes logistiques de taille réelle.6 - Conception des chaînes logistiques avec prise en compte des incertitudes.7 - Conclusions et perspectives
This thesis contributes to the debate on how uncertainty and concepts of sustainable development can be put into modern supply chain network and focuses on issues associated with the design of multi-criteria supply chain network under uncertainty. First, we study the literature review , which is a review of the current state of the art of Supply Chain Network Design approaches and resolution methods. Second, we propose a new methodology for multi-criteria Supply Chain Network Design (SCND) as well as its application to real Supply Chain Network (SCN), in order to satisfy the customers demand and respect the environmental, social, legislative, and economical requirements. The methodology consists of two different steps. In the first step, we use Geographic Information System (GIS) and Analytic Hierarchy Process (AHP) to buildthe model. Then, in the second step, we establish the optimal supply chain network using Mixed Integer Linear Programming model (MILP). Third, we extend the MILP to a multi-objective optimization model that captures a compromisebetween the total cost and the environment influence. We use Goal Programming approach seeking to reach the goals placed by Decision Maker. After that, we develop a novel heuristic solution method based on decomposition technique, to solve large scale supply chain network design problems that we failed to solve using exact methods. The heuristic method is tested on real case instances and numerical comparisons show that our heuristic yield high quality solutions in very limited CPU time. Finally, again, we extend the MILP model presented before where we assume that the costumer demands are uncertain. We use two-stage stochastic programming approach to model the supply chain network under demand uncertainty. Then, we address uncertainty in all SC parameters: opening costs, production costs, storage costs and customers demands. We use possibilistic linear programming approach to model the problem and we validate both approaches in a large application case
APA, Harvard, Vancouver, ISO, and other styles
48

Millereau, Pierre Michel. "Large Strain and Fracture of Multiple Network Elastomers." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066082/document.

Full text
Abstract:
Durant ce travail, nous avons étudié les propriétés mécaniques et de fracture d'élastomères à réseaux multiples synthétisés par des étapes successives de gonflement/polymérisation inspirées de l'architecture moléculaire développée par Gong pour les doubles réseaux hydrogels. Une méthode de synthèse plus versatile a été utilisée pour varier de façon continue le pré-étirement isotrope du premier réseau λ0, qui contrôle le module d'Young et le durcissement. Dans le cas d'une dilution importante du premier réseau (<10%), une scission moléculaire apparaît à grande déformation dans le réseau pré-étiré sans rompre le matériau. Le taux de dilution contrôle la quantité d’endommagement et donc la pente de la courbe contrainte-déformation. Finalement, pour les systèmes les plus dilués (<3%), une striction est observée au-dessus d’un seuil de contrainte. Changer le taux de réticulant du premier réseau ou les monomères utilisés ont conduit par ailleurs à l’obtention de comportements mécaniques similaires. L’énergie de fracture Γ est une fonction croissante de λ0. Des techniques de visualisation locale comme la Corrélation d’Image Numérique et l’intégration de molécules méchanoluminescentes ont été utilisées pour décrire une zone d’endommagement en tête de fissure dont la taille augmente avec λ0. Enfin, le mécanisme de renforcement des élastomères à réseaux multiples a pu être partiellement décrit dans le contexte du modèle de Brown sur les doubles réseaux
We investigated systematically the mechanical and fracture properties of multiple network elastomers synthesized by successive swelling/polymerization steps inspired by the molecular architecture of Gong’s double network gels. A more versatile synthesis method was used to vary continuously the isotropic degree of prestretching λ0 of the first network resulting in a wider range of mechanical behaviours, where λ0 controls the Young’s modulus at small strain and the strain hardening at large strain. If the first network is diluted enough (<10%) molecular bond breakage occurs in this prestretched network at high strain while avoiding sample failure. The degree of dilution controls the amount of damage and therefore the slope of the stress-strain curve. Finally, for the most diluted systems (<3%), a yield stress and a necking phenomenon was observed. Changing the degree of crosslinking of the first network or the monomers used led to the same qualitative mechanical behaviour. The fracture energy Γ was shown to be an increasing function of λ0 however different regimes could be distinguished with macroscopic fracture occurring before or after bulk damage was detected. Visualisation techniques such as Digital Image Correlation and embedded mechanoluminescent molecules were used to map a damage zone in front of the crack tip, the size of which increased with λ0. Finally, the toughening mechanism of the multiple network elastomers could be understood in a nearly quantitative way within the framework of Brown's model of fracture of double network gels
APA, Harvard, Vancouver, ISO, and other styles
49

Rubanova, Natalia. "MasterPATH : network analysis of functional genomics screening data." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC109/document.

Full text
Abstract:
Dans ce travail nous avons élaboré une nouvelle méthode de l'analyse de réseau à définir des membres possibles des voies moléculaires qui sont important pour ce phénotype en utilisant la « hit-liste » des expériences « omics » qui travaille dans le réseau intégré (le réseau comprend des interactions protéine-protéine, de transcription, l’acide ribonucléique micro-l’acide ribonucléique messager et celles métaboliques). La méthode tire des sous-réseaux qui sont construit des voies de quatre types les plus courtes (qui ne se composent des interactions protéine-protéine, ayant au minimum une interaction de transcription, ayant au minimum une interaction l’acide ribonucléique micro-l’acide ribonucléique messager, ayant au minimum une interaction métabolique) entre des hit –gènes et des soi-disant « exécuteurs terminaux » - les composants biologiques qui participent à la réalisation du phénotype finale (s’ils sont connus) ou entre les hit-gènes (si « des exécuteurs terminaux » sont inconnus). La méthode calcule la valeur de la centralité de chaque point culminant et de chaque voie dans le sous-réseau comme la quantité des voies les plus courtes trouvées sur la route précédente et passant à travers le point culminant et la voie. L'importance statistique des valeurs de la centralité est estimée en comparaison avec des valeurs de la centralité dans les sous-réseaux construit des voies les plus courtes pour les hit-listes choisi occasionnellement. Il est supposé que les points culminant et les voies avec les valeurs de la centralité statistiquement signifiantes peuvent être examinés comme les membres possibles des voies moléculaires menant à ce phénotype. S’il y a des valeurs expérimentales et la P-valeur pour un grand nombre des points culminant dans le réseau, la méthode fait possible de calculer les valeurs expérimentales pour les voies (comme le moyen des valeurs expérimentales des points culminant sur la route) et les P-valeurs expérimentales (en utilisant la méthode de Fischer et des transpositions multiples).A l'aide de la méthode masterPATH on a analysé les données de la perte de fonction criblage de l’acide ribonucléique micro et l'analyse de transcription de la différenciation terminal musculaire et les données de la perte de fonction criblage du procès de la réparation de l'ADN. On peut trouver le code initial de la méthode si l’on suit le lien https://github.com/daggoo/masterPATH
In this work we developed a new exploratory network analysis method, that works on an integrated network (the network consists of protein-protein, transcriptional, miRNA-mRNA, metabolic interactions) and aims at uncovering potential members of molecular pathways important for a given phenotype using hit list dataset from “omics” experiments. The method extracts subnetwork built from the shortest paths of 4 different types (with only protein-protein interactions, with at least one transcription interaction, with at least one miRNA-mRNA interaction, with at least one metabolic interaction) between hit genes and so called “final implementers” – biological components that are involved in molecular events responsible for final phenotypical realization (if known) or between hit genes (if “final implementers” are not known). The method calculates centrality score for each node and each path in the subnetwork as a number of the shortest paths found in the previous step that pass through the node and the path. Then, the statistical significance of each centrality score is assessed by comparing it with centrality scores in subnetworks built from the shortest paths for randomly sampled hit lists. It is hypothesized that the nodes and the paths with statistically significant centrality score can be considered as putative members of molecular pathways leading to the studied phenotype. In case experimental scores and p-values are available for a large number of nodes in the network, the method can also calculate paths’ experiment-based scores (as an average of the experimental scores of the nodes in the path) and experiment-based p-values (by aggregating p-values of the nodes in the path using Fisher’s combined probability test and permutation approach). The method is illustrated by analyzing the results of miRNA loss-of-function screening and transcriptomic profiling of terminal muscle differentiation and of ‘druggable’ loss-of-function screening of the DNA repair process. The Java source code is available on GitHub page https://github.com/daggoo/masterPATH
APA, Harvard, Vancouver, ISO, and other styles
50

Belabed, Dallal. "Design and Evaluation of Cloud Network Optimization Algorithms." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066149/document.

Full text
Abstract:
Le but de cette thèse est de tenté de donner une meilleure compréhension des nouveaux paradigmes de l'informatique en Nuage. En ce qui concerne l'Ingénierie du Trafic, l'économie d'énergie, de l'équité dans le partage du débit.Dans la première partie de note thèse, nous étudions l'impact de ces nouvelles techniques dans les réseaux de Data Center, nous avons formulé notre problème en un modèle d'optimisation, et nous le résolvons en utilisons un algorithme glouton. Nous avons étudié l'impact des ponts virtuels et du multi chemin sur différentes architectures de Data Centers. Nous avons en particulier étudié l’impact de la virtualisation des switches et l’utilisation du multi-chemin sur les différents objectifs d'optimisation tels que l'Ingénierie du Trafic, l'économie d'énergie.Dans notre seconde partie, nous avons essayé d’avoir une meilleure compréhension de l'impact des nouvelles architectures sur le contrôle de congestion, et vice versa. En effet, l'une des préoccupations majeures du contrôle de congestion est l'équité en terme de débit, l'impact apporté par le multi-chemin, les nouvelles architectures Data Center et les nouveaux protocoles, sur le débit des points terminaux et des points d'agrégations reste vague.Enfin, dans la troisième partie nous avons fait un travail préliminaire sur le nouveau paradigme introduit par la possibilité de virtualisé les Fonctions Réseaux. Dans cette partie, nous avons formulé le problème en un modèle linéaire, dans le but est de trouver le meilleur itinéraire à travers le réseau où les demandes des clients doivent passer par un certain nombre de NFV
This dissertation tries to give a deep understanding of the impact of the new Cloud paradigms regarding to the Traffic Engineering goal, to the Energy Efficiency goal, to the fairness in the endpoints offered throughput, and of the new opportunities given by virtualized network functions.In the first part of our dissertation we investigate the impact of these novel features in Data Center Network optimization, providing a formal comprehensive mathematical formulation on virtual machine placement and a metaheuristic for its resolution. We show in particular how virtual bridging and multipath forwarding impact common DCN optimization goals, Traffic Engineering and Energy Efficiency, assess their utility in the various cases in four different DCN topologies.In the second part of the dissertation our interest move into better understand the impact of novel attened and modular DCN architectures on congestion control protocols, and vice-versa. In fact, one of the major concerns in congestion control being the fairness in the offered throughput, the impact of the additional path diversity, brought by the novel DCN architectures and protocols, on the throughput of individual endpoints and aggregation points is unclear.Finally, in the third part we did a preliminary work on the new Network Function Virtualization paradigm. In this part we provide a linear programming formulation of the problem based on virtual network function chain routing problem in a carrier network. The goal of our formulation is to find the best route in a carrier network where customer demands have to pass through a number of NFV node, taking into consideration the unique constraints set by NFV
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography