To see the other types of publications on this topic, follow the link: Médias sociaux – Modèles mathématiques.

Dissertations / Theses on the topic 'Médias sociaux – Modèles mathématiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 33 dissertations / theses for your research on the topic 'Médias sociaux – Modèles mathématiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Allard, Antoine. "Percolation sur graphes aléatoires - modélisation et description analytique -." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30822/30822.pdf.

Full text
Abstract:
Les graphes sont des objets mathématiques abstraits utilisés pour modéliser les interactions entre les éléments constitutifs des systèmes complexes. Cette utilisation est motivée par le fait qu’il existe un lien fondamental entre la structure de ces interactions et les propriétés macroscopiques de ces systèmes. La théorie de la percolation offre un paradigme de choix pour analyser la structure de ces graphes, et ainsi mieux comprendre les conditions dans lesquelles ces propriétés émergent. Les interactions dans une grande variété de systèmes complexes partagent plusieurs propriétés structurelles universelles, et leur incorporation dans un cadre théorique unique demeure l’un des principaux défis de l’étude des systèmes complexes. Exploitant une approche multitype, une idée toute simple mais étonnamment puissante, nous avons unifié l’ensemble des modèles de percolation sur graphes aléatoires connus en un même cadre théorique, ce qui en fait le plus général et le plus réaliste proposé à ce jour. Bien plus qu’une simple compilation, le formalisme que nous proposons augmente significativement la complexité des structures pouvant être reproduites et, de ce fait, ouvre la voie à plusieurs nouvelles avenues de recherche. Nous illustrons cette assertion notamment en utilisant notre modèle pour valider et formaliser certaines intuitions inspirées de résultats empiriques. Dans un premier temps, nous étudions comment la structure en réseau de certains systèmes complexes (ex. réseau de distribution électrique, réseau social) facilite leur surveillance, et par conséquent leur éventuel contrôle. Dans un second temps, nous explorons la possibilité d’utiliser la décomposition en couches “k-core” en tant que structure effective des graphes extraits des systèmes complexes réels. Enfin, nous utilisons notre modèle pour identifier les conditions pour lesquelles une nouvelle stratégie d’immunisation contre des maladies infectieuses est la stratégie optimale.<br>Graphs are abstract mathematical objects used to model the interactions between the elements of complex systems. Their use is motivated by the fact that there exists a fundamental relationship between the structure of these interactions and the macroscopic properties of these systems. The structure of these graphs is analyzed within the paradigm of percolation theory whose tools and concepts contribute to a better understanding of the conditions for which these emergent properties appear. The underlying interactions of a wide variety of complex systems share many universal structural properties, and including these properties in a unified theoretical framework is one of the main challenges of the science of complex systems. Capitalizing on a multitype approach, a simple yet powerful idea, we have unified the models of percolation on random graphs published to this day in a single framework, hence yielding the most general and realistic framework to date. More than a mere compilation, this framework significantly increases the structural complexity of the graphs that can now be mathematically handled, and, as such, opens the way to many new research opportunities. We illustrate this assertion by using our framework to validate hypotheses hinted at by empirical results. First, we investigate how the network structure of some complex systems (e.g., power grids, social networks) enhances our ability to monitor them, and ultimately to control them. Second, we test the hypothesis that the “k-core” decomposition can act as an effective structure of graphs extracted from real complex systems. Third, we use our framework to identify the conditions for which a new immunization strategy against infectious diseases is optimal.
APA, Harvard, Vancouver, ISO, and other styles
2

Tanimura, Emily. "Structure et dynamique des réseaux sociaux : un essai de modélisation mathématique." Paris, EHESS, 2008. http://www.theses.fr/2008EHES0108.

Full text
Abstract:
Cette thèse étudie la modélisation des réseaux sociaux et analyse la diffusion des innovations à travers ceux-ci. Elle propose des extensions du modèle « Petit Monde» de Watts, basées sur des structures de communautés denses rapprochées par des « liens faibles» qui permettent d'aboutir à des topologies plus réalistes tout en conservant les propriétés principales du modèle original. Ce cadre théorique permet ensuite d'étudier les phénomènes de diffusion dans ces types de « PetIts Mondes» et d'y effectuer des simulations de la transmission d'information. Enfin, un autre modèle de choix binaire, inspiré par une problématique liée aux prescriptions médicales est analysé afin de comprendre comment le réseau social influence les comportements des médecins<br>This thesis studies the modeling of social interaction networks and analyzes the diffusion of innovations through such networks. It proposes an extension of Watt's Small World networks built upon clusters connected through a few long range links which leads to more realistic topologies while preserving the main features of the original model. This theoretical framework is then applied to the study of diffusion in such small worlds and to the simulation of information transmission. A different model of binary individual choices, inspired by medical treatment prescriptions by physicians is finally analyzed to understand the role of the social network in generating prescription behaviors
APA, Harvard, Vancouver, ISO, and other styles
3

Martin, Sophie. "La résilience dans les modèles de systèmes écologiques et sociaux." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2005. http://tel.archives-ouvertes.fr/tel-00135007.

Full text
Abstract:
Nous proposons une formulation mathématique de la résilience dans les modèles de systèmes écologiques et sociaux. Cette formulation s'inscrit dans le cadre de la théorie de la viabilité et souligne le lien entre résilience et coût de restauration après une perturbation. L'application à un modèle d'eutrophisation des lacs montre l'intérêt de cette définition.
APA, Harvard, Vancouver, ISO, and other styles
4

Guille, Adrien. "Diffusion de l’information dans les médias sociaux : modélisation et analyse." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO22015/document.

Full text
Abstract:
Les médias sociaux ont largement modifié la manière dont nous produisons, diffusons et consommons l'information et sont de fait devenus des vecteurs d'information importants. L’objectif de cette thèse est d’aider à la compréhension du phénomène de diffusion de l’information dans les médias sociaux, en fournissant des moyens d’analyse et de modélisation.Premièrement, nous proposons MABED, une méthode statistique pour détecter automatiquement les évènements importants qui suscitent l'intérêt des utilisateurs des médias sociaux à partir du flux de messages qu'ils publient, dont l'originalité est d'exploiter la fréquence des interactions sociales entre utilisateurs, en plus du contenu textuel des messages. Cette méthode diffère par ailleurs de celles existantes en ce qu'elle estime dynamiquement la durée de chaque évènement, plutôt que de supposer une durée commune et fixée à l'avance pour tous les évènements. Deuxièmement, nous proposons T-BASIC, un modèle probabiliste basé sur la structure de réseau sous-jacente aux médias sociaux pour prédire la diffusion de l'information, plus précisément l'évolution du volume d'utilisateurs relayant une information donnée au fil du temps. Contrairement aux modèles similaires également basés sur la structure du réseau, la probabilité qu'une information donnée se diffuse entre deux utilisateurs n'est pas constante mais dépendante du temps. Nous décrivons aussi une procédure pour l'inférence des paramètres latents du modèle, dont l'originalité est de formuler les paramètres comme des fonctions de caractéristiques observables des utilisateurs. Troisièmement, nous proposons SONDY, un logiciel libre et extensible implémentant des méthodes tirées de la littérature pour la fouille et l'analyse des données issues des médias sociaux. Le logiciel manipule deux types de données : les messages publiés par les utilisateurs, et la structure du réseau social interconnectant ces derniers. Contrairement aux logiciels académiques existants qui se concentrent soit sur l'analyse des messages, soit sur l'analyse du réseau, SONDY permet d'analyser ces deux types de données conjointement en permettant l'analyse de l'influence par rapport aux évènements détectés. Les expérimentations menées à l'aide de divers jeux de données collectés sur le média social Twitter démontrent la pertinence de nos propositions et mettent en lumière des propriétés qui nous aident à mieux comprendre les mécanismes régissant la diffusion de l'information. Premièrement, en comparant les performances de MABED avec celles de méthodes récentes tirées de la littérature, nous montrons que la prise en compte des interactions sociales entre utilisateurs conduit à une détection plus précise des évènements importants, avec une robustesse accrue en présence de contenu bruité. Nous montrons également que MABED facilite l'interprétation des évènements détectés en fournissant des descriptions claires et précises, tant sur le plan sémantique que temporel. Deuxièmement, nous montrons la validité de la procédure proposée pour estimer les probabilités de diffusion sur lesquelles repose le modèle T-BASIC, en illustrant le pouvoir prédictif des caractéristiques des utilisateurs sélectionnées et en comparant les performances de la méthode d'estimation proposée avec celles de méthodes tirées de la littérature. Nous montrons aussi l'intérêt d'avoir des probabilités non constantes, ce qui permet de prendre en compte dans T-BASIC la fluctuation du niveau de réceptivité des utilisateurs des médias sociaux au fil du temps. Enfin, nous montrons comment, et dans quelle mesure, les caractéristiques sociales, thématiques et temporelles des utilisateurs affectent la diffusion de l'information. Troisièmement, nous illustrons à l'aide de divers scénarios l'utilité du logiciel SONDY, autant pour des non-experts, grâce à son interface utilisateur avancée et des visualisations adaptées, que pour des chercheurs du domaine, grâce à son interface de programmation<br>Social media have greatly modified the way we produce, diffuse and consume information, and have become powerful information vectors. The goal of this thesis is to help in the understanding of the information diffusion phenomenon in social media by providing means of modeling and analysis.First, we propose MABED (Mention-Anomaly-Based Event Detection), a statistical method for automatically detecting events that most interest social media users from the stream of messages they publish. In contrast with existing methods, it doesn't only focus on the textual content of messages but also leverages the frequency of social interactions that occur between users. MABED also differs from the literature in that it dynamically estimates the period of time during which each event is discussed rather than assuming a predefined fixed duration for all events. Secondly, we propose T-BASIC (Time-Based ASynchronous Independent Cascades), a probabilistic model based on the network structure underlying social media for predicting information diffusion, more specifically the evolution of the number of users that relay a given piece of information through time. In contrast with similar models that are also based on the network structure, the probability that a piece of information propagate from one user to another isn't fixed but depends on time. We also describe a procedure for inferring the latent parameters of that model, which we formulate as functions of observable characteristics of social media users. Thirdly, we propose SONDY (SOcial Network DYnamics), a free and extensible software that implements state-of-the-art methods for mining data generated by social media, i.e. the messages published by users and the structure of the social network that interconnects them. As opposed to existing academic tools that either focus on analyzing messages or analyzing the network, SONDY permits the joint analysis of these two types of data through the analysis of influence with respect to each detected event.The experiments, conducted on data collected on Twitter, demonstrate the relevance of our proposals and shed light on some properties that give us a better understanding of the mechanisms underlying information diffusion. First, we compare the performance of MABED against those of methods from the literature and find that taking into account the frequency of social interactions between users leads to more accurate event detection and improved robustness in presence of noisy content. We also show that MABED helps with the interpretation of detected events by providing clearer textual description and more precise temporal descriptions. Secondly, we demonstrate the relevancy of the procedure we propose for estimating the pairwise diffusion probabilities on which T-BASIC relies. For that, we illustrate the predictive power of users' characteristics, and compare the performance of the method we propose to estimate the diffusion probabilities against those of state-of-the-art methods. We show the importance of having non-constant diffusion probabilities, which allows incorporating the variation of users' level of receptivity through time into T-BASIC. We also study how -- and in which proportion -- the social, topical and temporal characteristics of users impact information diffusion. Thirdly, we illustrate with various scenarios the usefulness of SONDY, both for non-experts -- thanks to its advanced user interface and adapted visualizations -- and for researchers -- thanks to its application programming interface
APA, Harvard, Vancouver, ISO, and other styles
5

Liu, Xueliang. "Fouille d'informations multimédia partagées orienté événements." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0071/document.

Full text
Abstract:
La notion d’"évènement" est une des clés majeures permettant de se remémorer des souvenirs. Avec le développement du Web 2.0, beaucoup de sites de partage d’information au sujet d’évènements font leur apparition sur internet, et une grande variété d’évènements sont programmés et décrits par plusieurs services et réseaux sociaux en ligne. L’étude des relations entre medias sociaux et évènements pourrait tirer parti des connaissances liées au domaine des évènements et des ontologies afin de formuler les problèmes soulevés ; l’exploitation des caractéristiques multimodales peut aussi permettre d’explorer les caractéristiques en profondeur. Dans cette thèse, nous étudions le problème de l’extraction de connaissances quant aux relations entre évènements et données des réseaux sociaux. Trois problèmes sont au centre de notre analyse. Le premier problème porte sur l’enrichissement visuel des évènements : notre recherche vise à comprendre comment utiliser les médias sociaux pour illustrer des évènements. Le deuxième problème, la découverte d’évènement. Nous proposons d’utiliser la détection de niveaux et des méthodes de détection de sujet pour découvrir des évènements grâce aux annotations spatiales et temporelles présentes dans les médias sociaux. Le troisième problème concerne la modélisation visuelle des évènements, dont la problématique est de rassembler de façon automatique des échantillons d’apprentissage, afin de mettre en œuvre une représentation visuelle des évènements. La solution proposée consiste à rassembler des exemples à la fois positifs et négatifs ; de même, elle est dérivée de l’analyse du contexte des médias sociaux<br>The exponential growth of social media data requires scalable, effective and robust technologies to manage and index them. Event is one of the most important cues to recall people’s past memory. With the development of Web 2.0, many event-based information sharing sites are appearing online, and a wide variety of events are scheduled and described by several social online services. The study of the relation between social media and events could leverage the event domain knowledge and ontologies to formulate the raised problems, and it could also exploit multimodal features to mine the patterns deeply, hence gain better performance compared with some other methods. In this thesis, we study the problem of mining relations between events and social media data. There are mainly three problems that are well investigated. The first problem is event enrichment, in which we investigate how to leverage the social media to events illustration. The second problem is event discovery, which focuses on discovering event patterns from social media stream. We propose burst detection and topic model based methods to find events from the spatial and temporal labeled social media. The third problem is visual event modeling, which studies the problem of automatically collecting training samples to model the visualization of events. The solution of collecting both of the positive and negative samples is also derived from the analysis of social media context. Thanks to the approaches proposed in this thesis, the intrinsic relationship between social media and events are deeply investigated, which provides a way to explore and organize online medias effectively
APA, Harvard, Vancouver, ISO, and other styles
6

Caron-Lormier, Geoffrey. "Un processus de branchement et son application à l'étude des populations structurées en groupes sociaux : exemple d'espèces à femelles philopatriques." Rennes 1, 2005. http://www.theses.fr/2005REN1S135.

Full text
Abstract:
Les populations de nombreuses espèces de mammifères sont structurées en groupes sociaux dans lesquels la plus petite unité cohérente est représentée par la lignée matriarcale (macaques, chauve-souris par exemple). Sur la base des processus de branchement, nous avons étudié mathématiquement l'influence des paramètres démographiques sur le nombre de lignées, leur taille et leur profondeur. Les résultats obtenus contribueront à préciser le rôle des lignées dans la structuration génétique des groupes et des populations chez les espèces concernées. L'étude analytique du processus permet de mettre en relation les caractéristiques des lignées avec les taux de natalité et de mortalité. Nous obtenons explicitement la distribution du nombre de lignées par rapport à la taille du groupe, et les distributions des tailles et profondeurs des lignées en fonction du nombre de lignées. Les coefficients de parenté des femelles sont mis en relation avec le processus de branchement.
APA, Harvard, Vancouver, ISO, and other styles
7

Tabourier, Lionel. "Méthode de comparaison des topologies de graphes complexes : applications aux réseaux sociaux." Paris 6, 2010. http://www.theses.fr/2010PA066335.

Full text
Abstract:
Les graphes des réseaux d'interactions sociales révèlent des propriétés topologiques dont nous cherchons à comprendre l'origine. Dans ce but nous manquons de références qui permettraient de construire une échelle de comparaison de leurs caractéristiques géométriques. Cette thèse propose une méthode générique pour produire des graphes synthétiques dont les propriétés sont ajustables, dans l'ambition de réaliser un balisage de l'espace des graphes. La méthode proposée dérive de procédures markoviennes dont l'étape élémentaire consiste à échanger les extrêmités de liens du graphe. Selon les contraintes imposées, une telle procédure doit être adaptée; nous discutons alors des difficultés inhérentes à sa réalisation pratique et les moyens à notre disposition pour estimer sa validité. Puis nous rendons compte d'applications pratiques sur des réseaux technologiques, de collaborations, ou d'échanges commerciaux. Le principe mis en oeuvre dans ces illustrations consiste à construire une suite d'ensembles de graphes obéissant à des contraintes de plus en plus exigeantes; puis à comparer les propriétés de chacun aux données réelles afin de déterminer quels éléments topologiques ont un rôle essentiel. Au fil des exemples, nous proposons des améliorations techniques de nos algorithmes qui permettraient d'en élargir les utilisations possibles. Cette méthode serait suffisamment générale pour pouvoir décrire des réseaux d'interactions d'une autre nature, mais aussi pour intégrer des informations supplémentaires à la description graphique telles que l'activité temporelle des agents; nous proposons pour conclure quelques éléments de réflexion pour réaliser ces objectifs.
APA, Harvard, Vancouver, ISO, and other styles
8

Henry, Didier. "Modèles de propagation de l'information et méthodes de sciences des données." Thesis, Antilles, 2018. http://www.theses.fr/2018ANTI0323/document.

Full text
Abstract:
De nos jours, les médias sociaux en ligne ont transformé notre façon de créer, de partager et d'accéder à l'information. Ces plateformes reposent sur de gigantesques réseaux favorisent le libre échange d'informations entre des centaines de millions de personnes à travers le monde entier, et cela de manière instantanée.Qu'ils soient en lien avec un évènement global ou en lien avec un évènement local, ces messages peuvent influencer une société et peuvent contenir des informations utiles pour la détection ou la prédiction de phénomènes du monde réel.Cependant, certains messages diffusés peuvent avoir un impact très négatif dans la vie réelle. Ces messages contenant une « infox » peuvent avoir des conséquences désastreuses.Pour éviter et anticiper ces situations dramatiques, suivre les rumeurs, éviter les mauvaises réputations, il est nécessaire d'étudier puis de modéliser la propagation de l'information.Or, la plupart des modèles de diffusion introduits reposent sur des hypothèses axiomatiques représentées par des modèles mathématiques. Par conséquent, ces modèles sont éloignés des comportements de diffusion des utilisateurs dans la mesure où ils n’intègrent pas les observations faites sur des cas concrets de diffusion. Dans nos travaux, nous étudions le phénomène de diffusion de l’information à deux échelles. À une échelle microscopique, nous avons observé les comportements de diffusion selon des traits de personnalité des utilisateurs en analysant les messages qu'ils publient en termes de sentiments et d'émotions. À une échelle macroscopique, nous avons analysé l'évolution du phénomène de diffusion en prenant en compte la dimension géographique des utilisateurs<br>Nowadays, online social media has transformed the way we create, share and access information. These platforms rely on gigantic networks that promote the free exchange of information between hundreds of millions of people around the world, and this instantly.Whether related to a global event or in connection with a local event, these messages may influence a society and may contain information useful for the detection or prediction of real-world phenomena.However, some broadcast messages can have a very negative impact in real life. These messages containing false information can have disastrous consequences.To avoid and anticipate these dramatic situations, follow rumors, avoid bad reputations, it is necessary to study and then model the propagation of information.However, most of the diffusion models introduced are based on axiomatic hypotheses represented by mathematical models. As a result, these models are far removed from the users' dissemination behaviors in that they do not incorporate observations made on concrete dissemination cases. In our work, we study the phenomenon of diffusion of information at two scales. On a microscopic scale, we observed diffusion behaviors based on the personality traits of users by analyzing the messages they post in terms of feelings and emotions. On a macroscopic scale, we analyzed the evolution of the diffusion phenomenon by taking into account the geographical dimension of the users
APA, Harvard, Vancouver, ISO, and other styles
9

Koulinsky, Audrey. "Convergence des inégalités de revenus individuels et diversité des systèmes nationaux de redistribution : une mise en cause du consensus transatlantique." Aix-Marseille 2, 2005. http://www.theses.fr/2005AIX24010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Sid-Ali, Ahmed. "Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/33730.

Full text
Abstract:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019<br>On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles.<br>This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
APA, Harvard, Vancouver, ISO, and other styles
11

Hébert-Dufresne, Laurent. "On the growth and structure of social systems following preferential attachment." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25331.

Full text
Abstract:
L’inégalité est une caractéristique notoire des systèmes sociaux. Dans cette thèse, nous nous attarderons à la distribution et à la structure de la répartition de leurs ressources et activités. Dans ce contexte, leurs extrêmes iniquités tendent à suivre une propriété universelle, l’indépendance d’échelle, qui se manifeste par l’absence d’échelle caractéristique. En physique, les organisations indépendantes d’échelle sont bien connues en théorie des transitions de phase dans laquelle on les observe à des points critiques précis. Ceci suggère que des mécanismes bien définis sont potentiellement responsables de l’indépendance d’échelle des systèmes sociaux. Cette analogie est donc au coeur de cette thèse, dont le but est d’aborder ce problème de nature multidisciplinaire avec les outils de la physique statistique. En premier lieu, nous montrons qu’un système dont la distribution de ressource croît vers l’indépendance d’échelle se trouve assujetti à deux contraintes temporelles particulières. La première est l’attachement préférentiel, impliquant que les riches s’enrichissent. La seconde est une forme générale de comportement d’échelle à délai entre la croissance de la population et celle de la ressource. Ces contraintes dictent un comportement si précis qu’une description instantanée d’une distribution est suffisante pour reconstruire son évolution temporelle et prédire ses états futurs. Nous validons notre approche au moyen de diverses sphères d’activités humaines dont les activités des utilisateurs d’une page web, des relations sexuelles dans une agence d’escorte, ainsi que la productivité d’artistes et de scientifiques. En second lieu, nous élargissons notre théorie pour considérer la structure résultante de ces activités. Nous appliquons ainsi nos travaux à la théorie des réseaux complexes pour décrire la structure des connexions propre aux systèmes sociaux. Nous proposons qu’une importante classe de systèmes complexes peut être modélisée par une construction hiérarchique de niveaux d’organisation suivant notre théorie d’attachement préférentiel. Nous montrons comment les réseaux complexes peuvent être interprétés comme une projection de ce modèle de laquelle émerge naturellement non seulement leur indépendance d’échelle, mais aussi leur modularité, leur structure hiérarchique, leurs caractéristiques fractales et leur navigabilité. Nos résultats suggèrent que les réseaux sociaux peuvent être relativement simples, et que leur complexité apparente est largement une réflexion de la structure hiérarchique complexe de notre monde.<br>Social systems are notoriously unfair. In this thesis, we focus on the distribution and structure of shared resources and activities. Through this lens, their extreme inequalities tend to roughly follow a universal pattern known as scale independence which manifests itself through the absence of a characteristic scale. In physical systems, scale-independent organizations are known to occur at critical points in phase transition theory. The position of this critical behaviour being very specific, it is reasonable to expect that the distribution of a social resource might also imply specific mechanisms. This analogy is the basis of this work, whose goal is to apply tools of statistical physics to varied social activities. As a first step, we show that a system whose resource distribution is growing towards scale independence is subject to two constraints. The first is the well-known preferential attachment principle, a mathematical principle roughly stating that the rich get richer. The second is a new general form of delayed temporal scaling between the population size and the amount of available resource. These constraints pave a precise evolution path, such that even an instantaneous snapshot of a distribution is enough to reconstruct its temporal evolution and predict its future states. We validate our approach on diverse spheres of human activities ranging from scientific and artistic productivity, to sexual relations and online traffic. We then broaden our framework to not only focus on resource distribution, but to also consider the resulting structure. We thus apply our framework to the theory of complex networks which describes the connectivity structure of social, technological or biological systems. In so doing, we propose that an important class of complex systems can be modelled as a construction of potentially infinitely many levels of organization all following the same universal growth principle known as preferential attachment. We show how real complex networks can be interpreted as a projection of our model, from which naturally emerge not only their scale independence, but also their clustering or modularity, their hierarchy, their fractality and their navigability. Our results suggest that social networks can be quite simple, and that the apparent complexity of their structure is largely a reflection of the complex hierarchical nature of our world.
APA, Harvard, Vancouver, ISO, and other styles
12

Ren, Haolin. "Visualizing media with interactive multiplex networks." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0036/document.

Full text
Abstract:
Les flux d’information suivent aujourd’hui des chemins complexes: la propagation des informations, impliquant éditeurs on-line, chaînes d’information en continu et réseaux sociaux, emprunte alors des chemins croisés, susceptibles d’agir sur le contenu et sa perception. Ce projet de thèse étudie l’adaptation des mesures de graphes classiques aux graphes multiplexes en relation avec le domaine étudié, propose de construire des visualisations à partir de plusieurs représentations graphiques des réseaux, et de les combiner (visualisations multi-vues synchronisées, représentations hybrides, etc.). L’accent est mis sur les modes d’interaction permettant de prendre en compte l’aspect multiplexe (multicouche) des réseaux. Ces représentations et manipulations interactives s’appuient aussi sur le calcul d’indicateurs propres aux réseaux multiplexes. Ce travail est basé sur deux jeux de données principaux: l’un est une archive de 12 ans de l’émission japonaise publique quotidienne NHK News 7, de 2001 à 2013. L’autre recense les participants aux émissions de télévision/radio françaises entre 2010 et 2015. Deux systèmes de visualisation s’appuyant sur une interface Web ont été développés pour analyser des réseaux multiplexes, que nous appelons «Visual Cloud» et «Laputa». Dans le Visual Cloud, nous définissons formellement une notion de similitude entre les concepts et les groupes de concepts que nous nommons possibilité de co-occurrence (CP). Conformément à cette définition, nous proposons un algorithme de classification hiérarchique. Nous regroupons les couches dans le réseau multiplexe de documents, et intégrons cette hiérarchie dans un nuage de mots interactif. Nous améliorons les algorithmes traditionnels de disposition de mise en forme de nuages de mots de sorte à préserver les contraintes sur la hiérarchie de concepts. Le système Laputa est destiné à l’analyse complexe de réseaux temporels denses et multidimensionnels. Pour ce faire, il associe un graphe à une segmentation. La segmentation par communauté, par attribut, ou encore par tranche temporelle, forme des vues de ce graphe. Afin d’associer ces vues avec le tout global, nous utilisons des diagrammes de Sankey pour révéler l’évolution des communautés (diagrammes que nous avons augmentés avec un zoom sémantique). Cette thèse nous permet ainsi de parcourir trois aspects (3V) des plus intéressants de la donnée et du BigData appliqués aux archives multimédia: Le Volume de nos données dans l’immensité des archives, nous atteignons des ordres de grandeurs qui ne sont pas praticables pour la visualisation et l’exploitation des liens. La Vélocité à cause de la nature temporelle de nos données (par définition). La Variété qui est un corollaire de la richesse des données multimédia et de tout ce que l’on peut souhaiter vouloir y investiguer. Ce que l’on peut retenir de cette thèse c’est que la traduction de ces trois défis a pris dans tous les cas une réponse sous la forme d’une analyse de réseaux multiplexes. Nous retrouvons toujours ces structures au coeur de notre travail, que ce soit de manière plus discrète dans les critères pour filtrer les arêtes par l’algorithme Simmelian backbone, que ce soit par la superposition de tranches temporelles, ou bien que ce soit beaucoup plus directement dans la combinaison d’indices sémantiques visuels et textuels pour laquelle nous extrayons les hiérarchies permettant notre visualisation<br>Nowadays, information follows complex paths: information propagation involving on-line editors, 24-hour news providers and social medias following entangled paths acting on information content and perception. This thesis studies the adaptation of classical graph measurements to multiplex graphs, to build visualizations from several graphical representations of the networks, and to combine them (synchronized multi-view visualizations, hybrid representations, etc.). Emphasis is placed on the modes of interaction allowing to take in hand the multiplex nature (multilayer) of the networks. These representations and interactive manipulations are also based on the calculation of indicators specific to multiplex networks. The work is based on two main datasets: one is a 12-year archive of the Japanese public daily broadcast NHK News 7, from 2001 to 2013. Another lists the participants in the French TV/radio shows between 2010 and 2015. Two visualization systems based on a Web interface have been developed for multiplex network analysis, which we call "Visual Cloud" and "Laputa". In the Visual Cloud, we formally define a notion of similarity between concepts and groups of concepts that we call co-occurrence possibility (CP). According to this definition, we propose a hierarchical classification algorithm. We aggregate the layers in a multiplex network of documents, and integrate that hierarchy into an interactive word cloud. Here we improve the traditional word cloud layout algorithms so as to preserve the constraints on the concept hierarchy. The Laputa system is intended for the complex analysis of dense and multidimensional temporal networks. To do this, it associates a graph with a segmentation. The segmentation by communities, by attributes, or by time slices, forms views of this graph. In order to associate these views with the global whole, we use Sankey diagrams to reveal the evolution of the communities (diagrams that we have increased with a semantic zoom). This thesis allows us to browse three aspects of the most interesting aspects of the data miming and BigData applied to multimedia archives: The Volume since our archives are immense and reach orders of magnitude that are usually not practicable for the visualization; Velocity, because of the temporal nature of our data (by definition). The Variety that is a corollary of the richness of multimedia data and of all that one may wish to want to investigate. What we can retain from this thesis is that we met each of these three challenges by taking an answer in the form of a multiplex network analysis. These structures are always at the heart of our work, whether in the criteria for filtering edges using the Simmelian backbone algorithm, or in the superposition of time slices in the complex networks, or much more directly in the combinations of visual and textual semantic indices for which we extract hierarchies allowing our visualization
APA, Harvard, Vancouver, ISO, and other styles
13

Salah, Brahim Abdelhamid. "Diffusion d'information et structure en communautés dans un réseau de blogs." Paris 6, 2011. http://www.theses.fr/2011PA066579.

Full text
Abstract:
On peut modéliser de nombreux objets issus du monde réel par des graphes. Ces objets sont issus de contextes très différents (ex. Réseaux informatiques, sociaux ou biologiques), cependant ils se ressemblent au sens de certaines propriétées statistiques. On les désigne sous le terme général de graphes de terrain (complex networks en anglais) ou grands graphes d'interaction. L'analyse des graphes de terrain est probablement le plus grand champ de recherche du domaine et l'étude des phénomènes de diffusion constitue un des axes importants dans la compréhension de ces objets. Beaucoupde précédentes études ont été menées sur la diffusion avec une approche théorique mais avec l'apparition de données issues du monde réel de plus en plus riches, une approche empirique de l'analyse de ces réseaux est apparue comme une nécessité. La diffusion peut être de différentes natures: diffusion d'information, d'idées ou d'opinion. Cette diffusion est vue dans la plupart des travaux comme le résultat de l'interaction entre les éléments du réseau (i. E. Les nœuds du graphe). En complément de cette vision, nous considérons dans cette thèse que la diffusion, en plus de se produire entre les nœuds, est aussi le résultat de l'interaction entre des groupes de nœuds, appelés communautés, qui ont des propriétés en commun. On dit que le réseau possède une structure en communautés. Cette approche ouvre de nouvelles perspectives pour la compréhension et la caractérisation des graphes de terrain. L'objectif de cette thèse est d'étudier les phénomènes de diffusion de manière empirique non seulement à l'échelle des nœud mais à différents niveaux de la structure en communautés. A l'aide d'une approche statistique, nous proposons un ensemble de méthodes et de métriques pour aborder la diffusion sous un nouvel angle et aller plus loin dans la caractérisation de ces phénomènes. Nous nous proposons d'étudier les liens de diffusion au sein d'un réseau de blogs francophones. Nous montrons en premier lieu l'impact des communautés sur la popularité des blogs et distinguons des classes de comportement. Cela nous conduit à investiguer les interactions entre les communautés. Pour ce faire, nous définissons deux mesures: la distance communautaire et l'Homophilie. En dernier lieu, nous étudions la diffusion de proche on proche dans le graphe, caractérisée par des cascades de diffusion. Nous montrons que notre approche permet de détecter et d'interpréter les différents comportements de diffusion et de faire le lien entre les propriétés topologiques, temporelles et communautaires.
APA, Harvard, Vancouver, ISO, and other styles
14

Huet, Sylvie. "Modèles individu-centrés de systèmes sociaux : micro-modèles hybrides inspirés des données simulant le développement rural ; dynamiques collectives de filtrage et / ou de rejet des messages." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00856248.

Full text
Abstract:
Cette thèse a pour objet la modélisation individu-centrée des systèmes sociaux. Une première partie orientée aide à la décision présente un modèle d'évolution des populations rurales fortement inspiré des données. Une seconde partie, plus théorique, étudie divers mécanismes permettant à un individu d'accepter ou de résister à une influence sociale. Nous proposons tout d'abord un modèle individu-centré de la dynamique des municipalités rurales européennes, implémenté pour le département du Cantal. Nous proposons un nouvel algorithme de génération des populations initiales ne nécessitant pas d'échantillon de population (approche classique). Nous concevons et paramétrons un modèle de la dynamique de l'individu face au marché du travail basé sur les données de la " European Labour Force Survey ". Il inclut des heuristiques originales de transition d'états tel qu'actifs, inactifs, chômeurs, ... prenant en compte l'âge, la profession et le secteur d'activité de l'individu. Nous déterminons les dynamiques non fondés sur des données individuelles en testant la capacité de dynamiques simples à produire des résultats proches des données agrégées disponibles. Est ainsi conçu un modèle de mobilité résidentielle, expliquant partiellement la migration et intégrant décision de déménager et choix d'une nouvelle résidence. La seconde partie de la thèse étudie les effets collectifs de différents mécanismes permettant aux individus de résister à ou d'accepter une influence sociale. Un premier mécanisme étudié est un filtre cognitif impliquant qu'un individu ne reçoit pas une information incongruente ou peu importante. Les individus " filtreurs " exhibent le biais de primauté car leur attitude n'est déterminée que par les premiers éléments reçus et se montrent négatifs alors que le message diffusé par un media est neutre. Le taux d'individus négatifs dans la population est accru ou diminuer par l'échange direct d'information entre les individus. Un second mécanisme est un rejet de la tentative d'influence qui mène l'individu à différencier davantage son attitude de celle de son interlocuteur. Il intervient lorsque l'individu éprouve un inconfort lié au fait qu'il est à la fois en accord et en désaccord avec son interlocuteur. Le couplage de ce rejet à un mécanisme d'attraction entre individus en accord entraîne un nombre moindre de groupes d'opinion différentes à l'échelle de la population (ie par rapport au nombre de groupes obtenus avec le seul mécanisme d'attraction).
APA, Harvard, Vancouver, ISO, and other styles
15

Dulac, Adrien. "Etude des modèles à composition mixée pour l'analyse de réseaux complexes." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM080/document.

Full text
Abstract:
Les données relationnelles sont omniprésentes dans la nature et leur accessibilité ne cesse d'augmenter depuis ces dernières années. Ces données, vues comme un tout, forment un réseau qui peut être représenté par une structure de données appelée graphe où chaque nœud du graphe est une entité et chaque arête représente une relation ou connexion entre ces entités. Les réseaux complexes en général, tels que le Web, les réseaux de communications ou les réseaux sociaux sont connus pour exhiber des propriétés structurelles communes qui émergent aux travers de leurs graphes. Dans cette thèse, nous mettons l'accent sur deux importantes propriétés appelées *homophilie* et *attachement préférentiel* qui se produisent dans un grand nombre de réseaux réels. Dans une première phase, nous étudions une classe de modèles de graphes aléatoires dans un contexte Bayésien non-paramétrique, appelé *modèle de composition mixée*, et nous nous concentrons à montrer si ces modèles satisfont ou non les propriétés mentionnées, après avoir proposé des définitions formelles pour ces dernières. Nous conduisons ensuite une évaluation empirique pour mettre à l'épreuve nos résultats sur des jeux de données de réseaux synthétiques et réels. Dans une seconde phase, nous proposons un nouveau modèle, qui généralise un précédent modèle à composition mixée stochastique, adapté pour les réseaux pondérés et nous développons un algorithme d'inférence efficace capable de s'adapter à des réseaux de grande échelle<br>Relational data are ubiquitous in the nature and their accessibility has not ceased to increase in recent years. Those data, see as a whole, form a network, which can be represented by a data structure called a graph, where each vertex of the graph is an entity and each edge a connection between pair of vertices. Complex networks in general, such as the Web, communication networks or social network, are known to exhibit common structural properties that emerge through their graphs. In this work we emphasize two important properties called *homophilly* and *preferential attachment* that arise on most of the real-world networks. We firstly study a class of powerful *random graph models* in a Bayesian nonparametric setting, called *mixed-membership model* and we focus on showing whether the models in this class comply with the mentioned properties, after giving formal definitions in a probabilistic context of the latter. Furthermore, we empirically evaluate our findings on synthetic and real-world network datasets. Secondly, we propose a new model, which extends the former Stochastic Mixed-Membership Model, for weighted networks and we develop an efficient inference algorithm able to scale to large-scale networks
APA, Harvard, Vancouver, ISO, and other styles
16

Saba, Stéphanie. "Marché et réseaux : l'influence des liens interindividuels sur l'efficacité des échanges." Thesis, Paris 2, 2016. http://www.theses.fr/2016PA020008/document.

Full text
Abstract:
La définition et la mesure de la confiance restent toujours une ambiguïté en économie, sociologie et philosophie. Les "trois papiers" de cette thèse comparent, tout en considérant le niveau de confiance deux mécanismes de vente: la vente de gré à gré et la vente aux enchères. Le marché de Boulogne-sur-Mer, caractérisé par la coexistence stable de deux systèmes de vente constitue le centre de notre analyse empirique. Ces trois papiers sont précédés par une introduction générale et une revue de la littérature. Le premier papier est dédié à la comparaison des deux structures en termes de robustesse et de "nestedness", en s’appuyant sur de outils de réseaux employés par les écologistes. Le deuxième papier analyse la création des liens de confiance du côté de l’acheteur à l’aide d’un modèle de durée. La taille des acheteurs a son rôle sur la confiance. Le troisième papier s’intéresse à l’effet de l’indice de confiance sur les "outcomes" des transactions. Des graphes bipartis et homogènes montrent une différence de structure. Nos résultats affirment que le marché de gré à gré est plus atteint par la confiance comme l’information est centralisée. Les agents se basent sur cette confiance comme alternative au risque. Cela n’est pas le cas des enchères où l’information est connue<br>How to define and measure trust is still an enigma in economics, philosophy and sociology. This "three papers" thesis compares two different mechanisms - egotiated(decentralised submarket) and auction (centralised submarket) - on the basis of trust. Through an empirical study, the level of trust is evaluated and its impact is analysed on the "Boulogne-sur-Mer" fish market characterised by a stable coexistence of these two mechanisms. The three papers are preceded by a general introduction and a literature review. Paper one aims at comparing the nestedness and the robustness of both submarkets. Social network tools of ecologists are applied in order to provide an answer. Paper two models trust creation on both structures from the buyer side using the survival analysis and considering the buyer size. Paper three studies the effect of a trust index on the outcomes of transactions. Bipartite and projected graphs reveal the difference between submarkets. This thesis shows that the negotiated market is marked by a higher level of trust as agents interact and are not fully informed about the market situation unlike the auction one where information is centralised. We believe that trust is a way out of risk when there is lack of information
APA, Harvard, Vancouver, ISO, and other styles
17

Al-Chama, Mhd Feras. "Modélisation des effets des réseaux IP sur la transmission des médias haptiques et l'adaptation du téléapprentissage haptique à l'état du réseau." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0005.

Full text
Abstract:
Latence, gigue, perte de paquets sont les problèmes du réseau qui influent sur la transmission haptique, et par conséquent sur le télé-transfert d’expertise haptique ou motrice (télémentorat). Comme application, nous avons utilisé le télémentorat dans un environnement virtuel de simulation chirurgicale. Le choix du simulateur a été fait à partir de l’étude de plusieurs projets dans le domaine chirurgical desquels nous nous sommes inspirés pour construire une Plateforme de simulation chirurgicale pour qu’elle soit une base de notre système de téléapprentissage haptique. Notre étude a été basée sur deux parties : étude de l’effet des différents paramètres du réseau sur le télémentorat haptique pour déterminer la zone de travail optimal pour ces paramètres. .<br>Latency, jitter, packet loss are some of the network characteristics which affect haptic transmission, and consequently affect motor or haptic skill tele-transfer (telementoring). As an application, we studied haptic telementoring in virtual surgical environment. The choice of simulator was made from our study of several projects in the surgical field from which we built a platform for surgical simulation, as a basis of our haptic e-learning system. Our study had two main objectives:To determine the optimal network parameters operational zones in haptic telementoring. To model the effect of network lag on the motor skill tele-transfer quality. This model was incorporated in our haptic e-learning platform making it adaptive to network status and ensuring a robust and stable e-learning environment
APA, Harvard, Vancouver, ISO, and other styles
18

Dezani, Chloé. "Photocatalyse hétérogène en réacteurs ouverts pour la gestion de la ressource solaire : expérimentations sur différents médias et modélisation." Thesis, Perpignan, 2020. http://www.theses.fr/2020PERP0018.

Full text
Abstract:
La présence des micropolluants dans l’environnement est reconnue comme un problème potentiel de santé publique qu’il convient de maitriser afin, d’une part de mettre en place une politique de circularité de l’eau, et d’autre part, de limiter leur dissémination et ainsi leurs effets sur les écosystèmes. Ces substances sont d’origine anthropique et sont pour la plupart bio-récalcitrantes donc partiellement ou non éliminées par les installations de traitement d’eaux usées qui reposent sur l’activité biologique. La photocatalyse hétérogène fait partie des procédés d’oxydation avancée développés spécifiquement pour le traitement des micropolluants. Ce procédé a la particularité de pouvoir utiliser l’énergie solaire comme source énergétique principale ce qui en fait un candidat d’intérêt dans une démarche de développement durable. Les caractéristiques de la ressource solaire, fluctuations/intermittence, impactent directement la capacité de traitement du procédé, et doivent être prises en compte dans sa gestion. Dans la littérature, cette prise en compte pour opérer le procédé porte exclusivement sur les réacteurs dits fermés. Le processus de traitement est alors interrompu la nuit dans les pilotes solaires étudiés. Lors du développement d’un procédé en mode continu, la gestion de l’intermittence s’impose afin de pouvoir assurer un traitement continu de l’effluent. Cette thèse vise à développer un modèle de représentation de la capacité de traitement d’un réacteur fonctionnant sur le principe de la photocatalyse hétérogène. Cette étape est indispensable pour le dimensionnement et pilotage de procédés solaires. Dans une deuxième partie, l’étude se focalise sur la faisabilité d’une technologie de gestion de l’intermittence basée sur un matériau composite adsorbant/photo-catalyseur. L’adsorbant permet de stocker les polluants lorsque la ressource est insuffisante et le photo-catalyseur vise à dégrader les polluants en phase liquide et en phase solide, ce qui revient à régénérer l’adsorbant lors des périodes d’ensoleillement. Ces deux études s’inscrivent dans l’objectif, sur le long terme, de permettre la mise en œuvre d’un procédé de photocatalyse hétérogène solaire en mode continu, capable d’opérer un traitement permanent malgré les fluctuations et l’intermittence solaires. Le premier objectif a consisté à développer un modèle de représentation du transfert radiatif dans les différents milieux hétérogènes réactifs étudiés afin de déterminer la puissance locale absorbée par ces derniers. Dans le cas de particules de photo-catalyseur en suspension, la littérature est relativement fournie, en comparaison des géométries plus complexes, pour lesquelles les études sont moins avancées. Les photo-catalyseurs testés, que sont le dioxyde de titane sous forme particulaire ou déposé sur une mousse alvéolaire macroporeuse inerte, ont ainsi nécessité de développer une approche spécifique. Le second objectif a consisté à déterminer la cinétique de photo-dégradation - dépendant principalement de la concentration en polluant d’étude et de la puissance locale absorbée - à partir d’expérimentations en réacteur fermé. Les vitesses locales des couples polluant, la caféine/photo-catalyseurs, sous forme particulaire ou supportée, ont été déterminées. Connaissant les modèles hydrodynamiques des réacteurs étudiés, un réacteur piston et un réacteur ouvert parfaitement agité, le modèle de représentation de la capacité de traitement, couplant l’ensemble des étapes énoncées (transfert radiatif, cinétique, convection), a été validé et appliqué à des expérimentations de photo-dégradation en réacteur ouvert soumis à des consignes dynamiques représentatives de l’ensoleillement réel. Le dernier objectif, dit exploratoire, a été de tester le matériau composite dans un photo-réacteur ouvert soumis à des cycles sans lumière/avec lumière. La capacité de ce dernier à opérer un traitement photo-catalytique et à s’auto-régénérer au cours des cycles a été montrée<br>The occurrence of micropollutants in water is recognized as a public health concern that needs to be addressed. The challenge is both to implement water reuse and to prevent micropollutants from being disseminated in the environment, and therefore to stop their detrimental effects. These so-called emerging contaminants are anthropogenic and most of them are non-biodegradable. Therefore, conventional biological treatments of wastewater treatment plants are not appropriate. Heterogeneous photocatalysis belongs to the advanced oxidation processes developed specifically for micropollutants’ removal. This process can be operated under solar light which makes it a relevant environmental-friendly option. Solar characteristics, such as light fluctuation and intermittency, have a direct impact on the process’s treatment capacity and need to be considered for its management. In the literature, photocatalytic reactors are mainly operated in a batch mode, which implies stopping treatment during the night. The development of continuous-mode reactors requires finding solutions to deal with light intermittency. This thesis aims, in a first part, to develop a model to predict the process’s treatment capacity of a continuous-mode reactor based on heterogeneous photocatalysis. This step is essential for the scaling and control of solar processes for micropollutants’ removal. The study also focuses, in a second part, on the reliability of a technology for intermittency management. This technology is based on a composite material made of an adsorbent and a photocatalyst. The adsorbent allows to store micropollutants when light is not enough, during the night or cloudy events. The photocatalyst enables the contaminants to be degraded, both in the liquid and solid phases, in order to operate the liquid treatment as well as regenerating the adsorbent. These two studies aim to bring knowledge to the development of continuous-mode solar processes, that can operate despite solar intermittency and light fluctuations. The first step to reach the previous purposes, is to develop a model to represent the radiation field inside the photoreactor for the two studied photocatalysts with the aim of calculating the local volumetric rate of photon absorption (LVRPA). In case of photocatalysts in suspension, literature about modelling radiative transfer is rich in comparison with supported photocatalysts. Therefore, the two tested media, titanium dioxide in suspension and titanium dioxide supported on an inert macroporous foam, require specific methodologies. The second step is to determine the kinetics model, which is a function of the pollutant concentration and the LVRPA, thanks to batch-mode experiments. Local kinetics of the different pairs “pollutant/photocatalysts” (caffeine/suspension or foam) are determined. Two reactors are studied: a plug-flow one and a perfectly well-mixed one. Knowing the models of their hydrodynamics and their kinetics, the combination of all of them is validated and then applied on photo-degradation experiments of caffeine under dynamic light operating conditions, representative of real solar light. The last purpose is to test the composite material in a continuous-mode photoreactor submitted to cycles alternating light and dark periods. The ability of the composite to degrade and regenerate is evidenced
APA, Harvard, Vancouver, ISO, and other styles
19

Dalud-Vincent, Monique. "Modèle prétopologique pour une méthodologie d'analyse de réseaux : concepts et algorithmes." Lyon 1, 1994. http://www.theses.fr/1994LYO10040.

Full text
Abstract:
Dans le cadre des problematiques portant sur les reseaux sociaux, on s'interesse plus particulierement aux problemes methodologiques que rencontre le sociologue lorsqu'il cherche, sur la base d'une conceptualisation mathematique de la notion de reseau (un reseau etant percu comme une famille de relations sur une population donnee), a operer une classification des sommets du reseau. On montre que les methodes utilisees jusque-la, qui sont pour la plupart des methodes americaines basees sur les notions d'equivalences structurale ou reguliere, amenent a construire des algorithmes trouvant leur justification en analyse des donnees, notamment par construction d'une distance qui reste de toute facon artificielle et discutable compte tenu de la nature des donnees. Nous proposons une methode qui conserve la nature discrete des donnees et qui, de plus, est basee sur de nouvelles hypotheses sociologiques. Ces dernieres (definition de contextes dans le reseau puis decomposition des contextes en peripheries selon un critere de vulnerabilite/non-vulnerabilite des positions) s'inspirent d'applications deja realisees dans ce domaine, dont une enquete mise en uvre par l'ined. L'outil trouve sa justification en pretopologie, domaine qui recouvre simultanement la theorie des graphes et la topologie. Nous avons pu ainsi demontrer un certain nombre de resultats formels et algorithmiques relatifs a la connexite en pretopologie (notamment dans le cas de pretopologies de type v). Du point de vue des applications, l'outil a permis de traiter plusieurs jeu de donnees relatifs a des enquetes de sociabilite. Les classifications obtenues semblent interessantes pour le sociologue dans le sens ou l'on fait apparaitre une correlation entre les caracteristiques socio-demographiques des individus et leur position dans le reseau (la position etant definie par notre methode)
APA, Harvard, Vancouver, ISO, and other styles
20

Benavides, Julio. "Dynamique des maladies dans les systèmes sociaux complexes : émergence des maladies infectieuses chez les primates." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20163/document.

Full text
Abstract:
Comprendre l'émergence et la propagation des maladies infectieuses chez les animaux sauvages est devenue une priorité en santé publique et en conservation. En combinant la collecte de données et le développement de modèles épidémiologiques, cette thèse s'est focalisée sur la compréhension de deux phénomènes clés: (i) étudier comment l'hétérogénéité au niveau des individus, des groupes, de la population et de l'environnement influence la propagation de parasites et (ii) quantifier la transmission de bactéries résistantes aux antibiotiques depuis l'homme vers les animaux sauvages dans trois aires protégées d'Afrique (Tsaobis NP- Namibie, Lopé NP-Gabon et Dzanga-Ndoki NP- République Centrafricaine). Les principaux résultats de ce travail montrent que : (1) De multiples facteurs incluant la température, la pluie, l'utilisation du territoire, le genre, l'âge et la condition physique influencent la richesse spécifique de parasites gastro-intestinaux chez le babouin chacma, (2) Les contacts entre animaux autour des points d'attractions de l'habitat peuvent influencer de manière importante la propagation spatio-temporelle d'une maladie, (3) La transmission d'entérobactéries résistantes semble avoir lieu depuis les humains ou le bétail vers les animaux sauvages dans des zones où le contact entre ces populations est élevé, (4) Le gradient de densité de gorilles produit par la chasse peut générer une augmentation de prévalence d'un parasite avec la distance au point d'introduction. Les conclusions de ce travail ouvrent de nouvelles possibilités pour l'étude des maladies émergentes chez les animaux sauvages<br>Understanding the emergence and spread of infectious disease in wild animal populations has become an important priority for both public health and animal conservation. Combining the collection of empirical data with the development of epidemiological models, this thesis focuses on understanding two key issues of wildlife epidemiology: (i) how heterogeneity at the individual, group, population and landscape level affects parasite spread (ii) investigating whether transmission of antibiotic resistant bacteria from humans to wildlife is occurring within three protected areas of Africa (Tsaobis NP-Namibia, Lope NP-Gabon and Dzanga-Ndoki NP-Central African Republic). The main findings of this work indicated that: (1) multiple-scale factors including temperature, rainfall, home range use, sex, age and body condition influence gastro-intestinal parasite richness among wild baboons; (2) animal contacts around ‘habitat hotspots' can substantially influence the spatio-temporal dynamics of a disease; (3) antibiotic resistant enterobacteria seem to be spreading from humans/livestock to wildlife when the territory overlap between these two populations is expected to be high; (4) gradients in gorilla density created by bushmeat hunting can reverse the expected pattern of decreasing parasite prevalence with distance to human-spillover. The conclusions of this work open new possibilities for studying the mechanisms explaining the spread of emerging infectious diseases among wild animals
APA, Harvard, Vancouver, ISO, and other styles
21

Faton, Elfried. "Three essays in labor economics and the economics of networks." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/36239.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Amblard, Frédéric. "Comprendre le fonctionnement de simulations sociales individus-centrées." Phd thesis, Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF21468.

Full text
Abstract:
Par l'approche individus-centrée le modélisateur fait face à une complexité du système réel qu'il cherche à comprendre : la relation entre comportements individuels et collectifs. Nous proposons donc une démarche expérimentale pour la compréhension de ces modèles. Nous exposons tout d'abord un cadre formel pour l'expression de modèles individus-centrés. Puis nous nous intéressons à la démarche expérimentale pour la compréhension des modèles en présentant différents points de vue sur le modèle que peut prendre le modélisateur puis un environnement dédié à la gestion des plans d'expérience sur des simulations. Nous présentons enfin une méthodologie de construction des modèles pour obtenir une compréhension incrémentale de leur fonctionnement. Dans une dernière partie, nous mettons en pratique cette approche en présentant des modèles de dynamiques d'opinions dont la compréhension est enrichie en étudiant des modèles très simples puis en complexifiant progressivement les modèles étudiés
APA, Harvard, Vancouver, ISO, and other styles
23

Knechtel, lessa Micheli. "Extended Generalized Blockmodeling." Thesis, Avignon, 2021. http://www.theses.fr/2021AVIG0281.

Full text
Abstract:
Le blockmodeling est un ensemble de techniques initialement conçues pour analyser les réseaux sociaux mais dont l’intérêt pratique devient plus grand, comme nous le verrons plus loin dans cette thèse pour les graphes terminologiques. L’undesobjectifsdublockmodelingestderéduireungrandréseaupotentiellement incohérent en une structure compréhensible plus petite qui peut être interprétée plus facilement. Il y a un grand intérêt à capturer la structure de cluster d’un réseau en termes d’équivalences, de blocs et de partitions. Jusqu’à présent, la plupart des méthodes de modélisationparblocsvisentàadapterlastructureduréseauàunseultypedemodèle de structure. La question de recherche est de savoir comment gérer les situations où un analyste a plusieurs types de relations pour un ensemble d’acteurs. Ainsi, nous proposons un modèle d’optimisation, que nous appelons le extended generalized blockmodeling. Le principal objectif de extended generalized blockmodeling est de trouver la taille de la partition et l’ensemble de modèles qui a la meilleure représentation de la structure du réseau. Le extended generalized blockmodeling élargit les possibilités du framework, permettant d’analyser les réseaux sans aucune connaissance préalable à leur sujet. Leextendedgeneralizedblockmodelingappartientàlaclassedesproblèmeshautementcombinatoires,laméthodeexacteneconvientquepourlespetitsréseaux, doncla deuxièmequestionestdesavoircommentrendrecetteapprocheviablepourlesréseaux moyens et grands. Par conséquent, nous proposons la première approche non exacte pour le extended generalized blockmodeling, basée sur l’algorithme VNS comme alternative pour les réseaux de taille moyenne. Même si les résultats trouvés par l’heuristique ne sont peut-êtrepaslameilleuredetouteslessolutionsauproblème,lesexpériencesmontrent qu’elle converge vers un résultat satisfaisant dans un temps qui n’est pas prohibitif. La troisième question, que nous abordons dans cette thèse, est le extended generalized blockmodeling, une approche appropriée dans le domaine de la bibliométrie et du traitement du langage naturel. Pour ce faire, nous analysons le réseau de termes concernant la recherche sur le terrorisme. Pour toutes ces questions, nous démontrons les résultats numériques, basés sur des benchmarks de jeux de données artificiels et réels. Ces résultats permettent d’explorer lesopportunitésd’applicationdelamodélisationdeblocgénéraliséeétendueainsique ses limites<br>Blockmodeling is a set of techniques initially designed to analyse social networks but whose practical interest becomes larger, as we will see further in this thesis for terminology graphs. One of the goals of blockmodeling is to reduce a large, potentially incoherent network to a smaller comprehensible structure that can be interpreted more readily. There is great interest in capturing the cluster structure of a network in terms of equivalences, blocks and partitions. Up to now, most blockmodeling methods are focused in fitting the network structure to only one type of structure pattern. However, there are a variety of social networking applications in which it is interesting to consider more than one type of pattern simultaneously, so that the structure of the network can take the form of several indicators for underlying relationships. The research question is, how to deal with the situations where an analyst has several relations types of relations for a set of actors. Thus, we propose an optimization model, which we call the extended generalized blockmodeling. The main objective of extended generalized blockmodeling is to find the partition size and the set of patterns that has the best representation of the network structure. The extended generalized blockmodeling expands the possibilities of the framework, making it possible to analyze networks without any prior knowledge about them. The extended generalized block modeling belongs to the class of highly combinatorial problems, the exact method is only suitable for small networks, so the second question is how to make this approach viable for medium and large networks. Therefore, we propose the first non-exact approach to generalized extended block modeling, based on the VNS algorithm as an alternative for medium-sized networks. Even though the results found by the heuristic may not be the best of all the solutions to the problem, the experiments show that it converges to a satisfactory result in a not prohibitively long time. The third question, which we address in this thesis, is the extended generalized blockmodeling a suitable approach in the field of bibliometrics and Natural Language processing. To do so, we analyse the network of terms concerning terrorism research. For all these questions, we demonstrate the numerical results, based on artificial and real datasets benchmarks. These results allow the exploration of the application opportunities of the extended generalized block modeling as well as it’s limitations
APA, Harvard, Vancouver, ISO, and other styles
24

Alilou, Youssef. "Impact sur le colmatage en régimes transitoire et permanent des écoulements d’air induits par le plissage des médias filtrants THE." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0047/document.

Full text
Abstract:
Les filtres plissés à très haute efficacité (THE) jouent un rôle essentiel dans le maintien du confinement des installations industrielles à risques, les réacteurs nucléaires par exemple. Ces filtres permettent le piégeage des aérosols, qui sont la principale source de contamination externe. Dans ce cadre, l’IRSN (Institut de Radioprotection et de Sûreté Nucléaire) conduit des études pour caractériser les performances des filtres THE. L’objectif de la présente thèse a été de développer un modèle prédictif décrivant l’évolution de la résistance aéraulique du filtre au cours de son colmatage. Le colmatage d’un filtre plissé THE est piloté, d’une part par les conditions aérauliques imposées dans les réseaux de ventilation, d’autre part par la nature du média et les propriétés des particules collectées par le filtre. Ainsi, les travaux réalisés ont été répartis sur deux volets. La première partie a été dédiée à l’étude de l’aéraulique du filtre suivant une approche double expérimentale et numérique. Un banc expérimental permettant de mesurer les champs de vitesse dans un pli de filtre plissé THE a été développé. Les mesures réalisées ont servi à la validation des codes de calcul utilisés (ANSYS CFX® et GeoDict®) et au développement d’un modèle de perte de charge initiale des filtres plissés vierges. Une validation du modèle à l’échelle de filtres complets avec des géométries différentes a ensuite été effectuée. La deuxième partie a porté sur l’étude du colmatage des filtres plissés THE suivant une approche expérimentale et numérique. Un banc expérimental a été développé pour la détermination des paramètres entrant en jeu dans les modèles de colmatage (porosité, taille de particules …), puis des simulations numériques à l’aide du logiciel GeoDict ont été réalisées pour caractériser la croissance du dépôt sur la média. La combinaison des résultats expérimentaux et numériques a conduit au développement d’un modèle décrivant l’évolution de la résistance aéraulique du filtre THE au cours de son colmatage avec des particules microniques<br>High Efficiency Particulate Air (HEPA) pleated filters are used to ensure the containment of airborne contamination within nuclear facilities. These filters are often the last barrier before a potential release of radioactive substances into the environment. Predicting their performances (pressure drop and efficiency) is a main thrust of research for IRSN which aims at avoiding any unexpected failure of those devices on French nuclear facilities. The clogging phenomenon is mainly influenced, on one side, by the flow conditions imposed in the ventilation network and, on the other side, by the media characteristics and the particles properties which are collected by the filter. Consequently, the work carried out has been divided into two parts. In the first part, we focused on the study of the airflow behavior within a HEPA pleated filter with an experimental and numerical approach. An experimental bench has been developed to measure the airflow field at the entrance channel of a HEPA filter pleat. Then, the experimental measurements have been used to validate GeoDict® and ANSYS CFX® simulations. The combination of the experimental and the numerical results have been used to develop a model to predict the evolution of the initial HEPA filter pressure drop. The work performed in the second part deals with the clogging of the filter. An experimental bench, dedicated to the characterization of the parameters that intervene in the clogging models such as the porosity, the pressure drop and the particles size, has been developed. Then, numerical simulations conducted with GeoDict® have been realized to describe the cake formation on the surface of a HEPA pleated filter. Finally, we developed a model to predict the evolution of HEPA pressure drop during clogging with micronic particles
APA, Harvard, Vancouver, ISO, and other styles
25

Bouanan, Youssef. "Contribution à une architecture de modélisation et de simulation à événements discrets : application à la propagation d'information dans les réseaux sociaux." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0166/document.

Full text
Abstract:
L’étude des phénomènes de la diffusion d’information à grand échelle est un domaine récent. La diffusion d’information est définie comme le processus de communication par lequel une idée ou une information se propage dans une population et qui peut impacter le comportement des individus. Les institutions, tout comme les entreprises, cherchent à comprendre et à prévoir l’impact de la propagation d’information sur les individus. Une approche de modélisation et simulation permet de mieux comprendre ce processus social et de répondre à ces questions. La modélisation et la simulation à base d’agents offre une approche puissante pour modéliser un tel processus social. Toutefois, les modèles actuels simplifient fortement les facteurs culturels et les informations représentées dans le modèle ainsi que les différents liens interconnectant les individus. Ces éléments sont centraux et déterminants pour le processus de propagation. Afin d'améliorer les modèles de propagation, nous explorons dans cette thèse une représentation de la population plus réaliste. Nous proposons une architecture de modélisation et simulation permettant de simuler les phénomènes de propagation au sein des réseaux sociaux multiplexes et dynamiques basée sur le formalisme DEVS<br>The study of information dissemination phenomena of large-scale is a new field. Diffusion of information is defined as the communication process by which an idea or information spreads within a social system and that can impact the behaviour of individuals. Institutions and firms search to understand and predict the impact of information propagation on individuals. Agent-based modelling is a powerful approach for studying such a collective process. However, existing models oversimplify adopters' cultural attributes, different type of link and information content, despite the evidence of their central role in diffusion process. In this thesis, we challenge the feasibility and utility of a more realistic representation of population. We use the DEVS formalism, extended by DS-DEVS and PDEVS in order to simulate the propagation phenomena within a multi-layer social network (MSN)
APA, Harvard, Vancouver, ISO, and other styles
26

Laguzet, Laetitia. "Modélisation mathématique et numérique des comportements sociaux en milieu incertain. Application à l'épidémiologie." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090058/document.

Full text
Abstract:
Cette thèse propose une étude mathématique des stratégies de vaccination.La partie I présente le cadre mathématique, notamment le modèle à compartiments Susceptible - Infected – Recovered.La partie II aborde les techniques mathématiques de type contrôle optimal employées afin de trouver une stratégie optimale de vaccination au niveau de la société. Ceci se fait en minimisant le coût de la société. Nous montrons que la fonction valeur associée peut avoir une régularité plus faible que celle attendue dans la littérature. Enfin, nous appliquons les résultats à la vaccination contre la coqueluche.La partie III présente un modèle où le coût est défini au niveau de l'individu. Nous reformulons le problème comme un équilibre de Nash et comparons le coût obtenu avec celui de la stratégie sociétale. Une application à la grippe A(H1N1) indique la présence de perceptions différentes liées à la vaccination.La partie IV propose une implémentation numérique directe des stratégies présentées<br>This thesis propose a mathematical analysis of the vaccination strategies.The first part introduces the mathematical framework, in particular the Susceptible – Infected – Recovered compartmental model.The second part introduces the optimal control tools used to find an optimal vaccination strategy from the societal point of view, which is a minimizer of the societal cost. We show that the associated value function can have a less regularity than what was assumed in the literature. These results are then applied to the vaccination against the whooping cough.The third part defines a model where the cost is defined at the level of the individual. We rephrase this problem as a Nash equilibrium and compare this results with the societal strategy. An application to the Influenza A(H1N1) 2009-10 indicates the presence of inhomogeneous perceptions concerning the vaccination risks.The fourth and last part proposes a direct numerical implementation of the different strategies
APA, Harvard, Vancouver, ISO, and other styles
27

Louati, Amine. "Une approche multi-agents pour la composition de services Web fondée sur la confiance et les réseaux sociaux." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090035/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux problèmes de découverte, de sélection et de composition de services. L'objectif est de satisfaire une requête complexe d'un demandeur de services. Pour ce faire, nous proposons une approche multi-agents fondée sur la confiance et les réseaux sociaux. Nous définissions un modèle de confiance en tant que concept compositionnel formé de quatre composantes: une composante sociale, une composante d'expertise, une composante de recommandation et une composante de coopération. La composante sociale juge s'il est intéressant de suivre un fournisseur avant d'utiliser ses services. La composante d'expertise estime si un service se comporte bien et comme prévu. La composante de recommandation vérifie si un agent est pertinent ou pas et si l'on peut compter sur ses recommandations. La composante de coopération permet aux agents de décider avec qui interagir dans une composition de services. Nous proposons un algorithme distribué pour la découverte de services utilisant la confiance entre les agents ainsi que les systèmes de références dans les réseaux sociaux. Nous développons également une nouvelle méthode s'appuyant sur un modèle probabiliste pour inférer la confiance entre les agents non adjacents tout en tenant compte des rôles des agents intermédiaires. Finalement, nous présentons un processus original de formation de coalitions qui est incrémental, dynamique et recouvrant pour une composition de services dans les réseaux sociaux. Les résultats expérimentaux montrent que nos approches multi-agents sont efficaces, plus performants que les approches similaires existantes et peuvent offrir des résultats plus dignes de confiance à faible coût de communications<br>This thesis deals with service discovery, selection and composition problems. The aim is to fulfill a complex requester query. To do that, we propose a multi-agent approach based on trust and social networks. We define a trust model as a compositional concept that includes social, expert, recommender and cooperation-based component. The social-based component judges whether or not the provider is worthwhile pursuing before using his services. The expert-based component estimates whether or not the service behaves well and as expected. The recommender-based component checks whether or not an agent is reliable and if we can rely on its recommendations. The cooperation-based component allows agents to decide with whom to interact in a service composition. We propose a distributed algorithm for service discovery using trust between agents and referral systems in social networks. We also develop a new method based on a probabilistic model to infer trust between non adjacent agents while taking into account roles of intermediate agents. Finally, we present an original coalition formation process which is incremental, dynamic and overlapping for service composition in social networks. %In particular, our coalition formation process engaging self-interested agents is incremental, dynamic and overlapping. Experimental results show that our multi-agents approaches are efficient, outperforms existing similar ones and can deliver more trustworthy results at low cost of communications
APA, Harvard, Vancouver, ISO, and other styles
28

François, Marie. "EAU ET DÉVELOPPEMENT EN ESPAGNE POLITIQUES ET DISCOURS Les exemples de l'Aragon et de la Région de Murcie." Phd thesis, Université de Caen, 2009. http://tel.archives-ouvertes.fr/tel-00459592.

Full text
Abstract:
Pour développer le pays et répondre aux demandes agricoles, urbaines, touristiques et industrielles, l'Espagne a mis en place une politique basée sur la construction et la gestion d'ouvrages hydrauliques (barrages-réservoirs, transferts d'eau entre bassins hydrographiques, etc.). Cette politique, qui a permis le développement économique de certaines régions agricoles ou touristiques, a généré des problèmes sociaux et environnementaux : expropriation de villages submergés par les retenues d'eau, dévastation d'écosystèmes, surexploitation des eaux souterraines ou encore dégradation qualitative des ressources hydriques. Appuyé par les lobbies agricoles, de la construction, de l'immobilier et du tourisme, le modèle de développement, qui vise à accroître rentabilité et profits est fondé sur une augmentation de l'offre en eau, quelles qu'en soient les conséquences sociales, économiques, territoriales, environnementales. Développement durable, gestion de la demande eau, économie d'eau, pénurie d'eau, sécheresses, etc. sont, en Espagne, des thèmes d'actualité. Les discours des politiques, des acteurs du secteur économique et les interventions des médias leur font une large place. Qu'en est-il dans la réalité ? La société espagnole se détourne-t-elle du modèle consumériste et de la rentabilité à tout prix ? Jusqu'à quel point le développement peut-il justifier l'exploitation, parfois la surexploitation, des ressources hydriques ? Afin de répondre à ces interrogations, ont été choisis deux espaces d'étude : l'Aragon et la Région de Murcie. Ces deux régions illustrent de façon extrême, parfois même caricaturale, les enjeux que suscitent la gestion et la relation à l'eau.
APA, Harvard, Vancouver, ISO, and other styles
29

Pelletier, Mathieu. "LA DÉCISION TERRITORIALE EN CONFLIT. Analyse spatiale de l'activité conflictuelle, Ville de Québec, 1989 à 2000." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26484/26484.pdf.

Full text
Abstract:
À l’heure où les villes poursuivent leur croissance et deviennent de vastes régions urbanisées, la question de la planification de ces « nouveaux » territoires est d’intérêt. Ces espaces en profonde mutation créent de nouveaux enjeux et défis pour la planification territoriale. À l’occasion, des conflits surgissent en raison de l’incompatibilité des positions respectives des acteurs au sujet d’enjeux mettant en cause des intérêts divergents. Dans ce contexte, le conflit autour du projet territorial ne fait plus l’exception. La thèse s’attache à mieux comprendre les rapports unissant les spécificités territoriales à trois dimensions de la dynamique de l'activité conflictuelle: la fréquence spatiale, la durée et l'intensité des conflits. Nos travaux se concentrent sur une démarche quantitative et ce, à travers une approche spatiale. La recherche s’appuie sur une base de données qui relate les conflits à l’échelle de la ville de Québec entre 1989 et 2000. Les 199 conflits recensés ont été relevés dans la presse régionale (le quotidien Le Soleil). Le cadre conceptuel proposé aborde le conflit à travers le prisme des processus décisionnels de nature territoriale. Nous associons à la décision territoriale conflictuelle trois espaces géographiques, soit les espaces de l’action, des conséquences et des acteurs. C’est par ces espaces et plus particulièrement à travers celui des acteurs que la représentation spatiale de l’activité conflictuelle est effectuée. Les analyses statistiques indiquent que (1) la propension des individus à se regrouper – au sein d’associations locales et d’organismes communautaires – et leur capacité à prendre la parole, tout comme (2) la nature de la composition sociale se révèlent être des composantes centrales dans l’émergence et le déroulement de la démarche contestataire. L’étude des effets de contexte locaux suggère que les conflits sont de plus longue durée bien qu’ils ne soient pas nécessairement plus intenses ou plus fréquents dans le secteur où (1) la capacité des individus à se regrouper et à prendre la parole est modérée et où (2) la population est à la fois la plus mobilisable et la mieux nantie à l’échelle régionale. Nous pensons qu’il s’agit là des conditions menant à une activité conflictuelle de longue durée, à savoir des individus disposant de temps et de ressources, mais peu outillés sur le plan des stratégies d’actions en moment de conflits.<br>At a time when population concentration in urban spaces is increasing and cities continue to grow into huge urbanised areas, issues related to management planning for these “ new ” territories is of interest. Such spaces which undergo deep mutations give rise to new stakes and challenges for territorial planning. Occasionally, due to lack of compatibility between the respective actors’ standpoints with respect to high stakes arising from divergent interests, conflicts emerge. Indeed, conflicts that originate from a territorial project are no longer the exception. This thesis strives to better understand the relationships that bind together territorial specificities and the dynamics of conflict activity in terms of its spatial frequency, duration and intensity. The current work uses a quantitative procedure that seeks to understand conflict dynamics by means of a spatial approach. The basis of this research is a database made up of conflicts which occurred in Quebec City over the period from 1989 to 2000. The 199 conflicts considered herein have been collected from the regional press (the newspaper daily Le Soleil). The conceptual framework proposed addresses the conflict through the prism of territorial decision-making processes. We also join in the territorial decision is geographic spaces: action space, consequences space and stakeholders’ space. It is through these spaces and, more particularly throught the stakeholders’ one that a spatial representation of conflict activity is made possible. Statistical analysis indicated that (1) the tendency of individuals to regroup around local associations and community organisations along with their ability to make their voices heard, as (2) the nature of the social composition seemed to be fundamental components both of the emergence and unravelling of the protesters’ approach. The study of the effects of local contexts suggests that conflicts are longer though not necessarily more intense or more frequent in the area where (1) the ability of individuals to come together and take the floor is moderate and (2) the population is both the most easily mobilizable and the better off at the regional level. We believe that these are the conditions that lead to a conflict activity with long duration, ie individuals with time and resources, but not well equipped in terms of action strategies in times of conflict activity.
APA, Harvard, Vancouver, ISO, and other styles
30

Domingues, Santos João Pedro. "Métabolisme socio-écologique des territoires d’élevage : une approche de comptabilité environnementale." Thesis, Paris, Institut agronomique, vétérinaire et forestier de France, 2017. http://www.theses.fr/2017IAVF0026/document.

Full text
Abstract:
Au cours du XXème siècle, l’élevage français a connu un formidable développement dont la poursuite se trouve actuellement fragilisé. L’effort de recherche sur la durabilité de l’élevage s’est focalisé sur la performance économique et environnementale, principalement au niveau de l’animal et de la ferme. Peu de travaux ont abordé les trois piliers de la durabilité à des échelles territoriales où les différentes filières animales se combinent. Une approche articulant l’élevage de ruminants et monogastriques à l’occupation du sol et à l’utilisation des ressources au niveau territorial fait actuellement défaut. Cette thèse développe une évaluation holistique de l’élevage dans les territoires métropolitains en mobilisant une batterie d’indicateurs abordant les contributions positives et négatives de l’élevage. Pour l’ensemble du territoire métropolitain, nous avons constitué trois bases de données à l’échelle départementale. La première base contient des indicateurs socioéconomiques, d’occupation du sol, et de production animale sur la période 1938-2010. La seconde base fournit pour 2010 des indicateurs de production animale et végétale. La troisième base fournit des indicateurs mesurant la contribution de l’élevage à la fourniture de services culturels, socioéconomiques et environnementaux. Avec la première base, nous avons modélisé les trajectoires d’intensification de l’élevage depuis 1938 et identifié les déterminants des dynamiques de changement de l’élevage. Avec la deuxième base, nous formalisé le métabolisme territorial de l’azote, duquel nous avons dérivés six indicateurs pour évaluer la durabilité de l’élevage. Avec la troisième base, nous avons modélisé le lien entre le niveau actuel de fourniture de services et les trajectoires d’intensification. Nos résultats révèlent une différentiation territoriale de l’intensification de l’élevage depuis 1938. Productivité et densité animale ont triplé dans les territoires de l’Ouest, et augmenté de 1.6 dans les territoires de l’Est et du Massif Central. Dans les territoires sans élevage, la surface fourragère principale a reculé de plus de la moitié, tandis que la taille des fermes a triplé et la productivité du travail a quadruplé. Le métabolisme territorial révèle un arbitrage entre autonomie en azote et productivité animale. Les impacts locaux (surplus azoté / ha) et globaux (émissions excrétion azoté / kg de produit) forment un arbitrage difficile à atténuer. L’analyse des contributions positives de l’élevage montre que les territoires ayant suivi une trajectoire herbagère fournissent des services sociaux, environnementaux et culturels; alors que les territoires hébergeant les élevages les plus productifs fournissent surtout des services socio-économiques (emplois). De par sa profondeur historique et sa couverture spatiale, cette thèse offre une analyse inédite de l’élevage et de ses performances dans les territoires. Elle apporte des connaissances pour identifier des leviers de durabilité pour l’élevage de demain<br>The development of the livestock sector in the past century undergone a strong intensification. The current heterogeneity of livestock areas in France may have arisen from a spatial differentiation of intensification process. Different degrees of disconnection between livestock and land have resulted in contrasted levels of performance and impacts across areas. To date, a lot of research effort has been directed at measuring environmental impacts and economic performance of livestock systems at the farm level. Insufficient attention has been paid to the three dimensions of sustainability and to trade-offs among them. Existing livestock heterogeneities across areas also deserve more research. An approach that enables connecting livestock to land and resources, at regional level, could bring novel insights on the role of livestock in use and transformation of resources. The goal of this PhD was to develop a holistic assessment of livestock areas using multimetric indicators encompassing positive and negative contributions. We compiled three databases at the department level: i) database 1 was related to socioeconomic, land use, and production characteristics of 88 French departments, within an extensive time frame (1938-2010); ii) database 2 included data on crop, fodder and livestock production for year 2010; iii) database 3 included measures of provision of cultural, environmental and social services for 60 departments. With the first database, we created a typology of intensification trajectories based on a multivariate approach. With the second database, we assessed the nitrogen metabolism of livestock areas, based on the material flows accounting (MFA) approach, from which we derived indicators of performance and impacts to study synergies and trade-offs. With the third database, we studied the influence of past intensification on the current provision of services by the livestock sector. A multivariate approach was used to assess how different rates of change in intensification variables determined contrasted levels of services. First, we showed that the intensification of the French livestock sector was spatially differentiated and based on four trajectories, ranging from extensive to intensive livestock areas, and from crop specialized to areas where livestock had a small share of national production. Livestock productivity and stocking rates had a 3 fold increase in intensive areas, whereas extensive areas had a 1.6 fold increase. Crop specialized areas lose more than half of their original fodder area, and tripled the average farm size and more than quadrupled their labor productivity. Non-dominated livestock areas lose 30% of initial livestock population, and half of their initial fodder area. Second, the study of synergies and trade-offs revealed that gains in efficiency and economies of scale, often compromised other dimensions, e.g. through increased environmental impacts. The spatial analysis of relationship between performance and impacts revealed two types of synergies linked to the type of impact, either land or product-based. Both of which were in trade-off. Third, we showed that the provision of services was spatially structured and based on three types of service bundles, determined by different rates of change in intensification variables. Changes towards grazing systems resulted in higher provision of environmental and cultural services, whereas changes towards intensive systems resulted in higher levels of social services; but this was achieved at the cost of environmental services. This PhD thesis furthered the understanding on the temporal trajectories of livestock sector across areas in France. This knowledge could help to improve livestock sustainability. Our work provided knowledge on the drivers that shaped current intensification patterns and the provision of cultural, environmental and social services. It could be used to examine options for desirable longterm changes of the livestock sector
APA, Harvard, Vancouver, ISO, and other styles
31

Rautureau, Séverine. "Simulations d’épizooties de fièvre aphteuse et aide à la décision : approches épidémiologique et économique." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T002/document.

Full text
Abstract:
L’épizootie de fièvre aphteuse de 2001 telle qu’elle s’est déroulée en Grande-Bretagne a montré les limites de certains des systèmes de surveillance, d’intervention, d’anticipation et d’aide à la décision actuellement en place. Parallèlement, l’assouplissement des modalités d’utilisation de la vaccination a enrichi la palette des outils utilisables par le gestionnaire de risque. Une réévaluation pour la France a semblé ainsi opportune. Pour cela, le projet de recherche s’est proposé tout d’abord d’étudier l’organisation des différentes filières d’animaux de rente en France. L’analyse du réseau d’élevages français par la méthode d’analyse des réseaux sociaux a permis de caractériser les relations entre établissements et d’estimer une vulnérabilité structurale constante face à la diffusion de maladies apportées essentiellement par le réseau d’échanges bovins.Dans une deuxième partie, la diffusion de la maladie dans ce réseau d’élevages a été étudiée en s’appuyant sur des simulations générées par un modèle spécifiquement construit. L’efficacité et les coûts de différentes stratégies de lutte envisageables (combinaisons d’abattage sanitaire, abattage préventif et vaccination) ont été ensuite comparés. Les résultats obtenus ont montré l’absence d’une stratégie unique optimale à la fois sur le plan épidémiologique et économique et la nécessité de s’adapter au contexte local. En effet, la nature de la stratégie optimale varie selon la région concernée et l’acteur considéré. Ces travaux ont permis de créer un outil de réflexion pour aider à la décision, mais également un outil d’entraînement et de formation collective pour se préparer à une telle gestion de crise<br>The 2001 Foot-and-mouth disease epizootic in the United Kingdom has illustrated limits in some established surveillance, control, anticipation and decision-making systems. At the same time, the relaxation of vaccination procedures has enhanced the set of usable tools by risk managers. A reassessment in France seemed needed.For this purpose, the research project firstly proposed to study the organization of the different livestock industries in France. The analysis of French holding network by using the method of social network analysis has led to characterize the relationships between holdings and to determine a constant structural vulnerability to diseases spread especially due to bovine trade network.Secondly, the disease spread in the holding network has been studied with simulations generated by a specifically built model. The cost-effectiveness of different control strategies (combining infected herd depopulation, pre-emptive culling and vaccination) were then compared. Results showed that no single epidemiological and economical optimal strategy existed and local context must be taken into account. Indeed, the cost-effective strategy changed according to the concerned area and the considered players.This research work allowed creating a thinking tool for decision-making but also a training tool for crisis management preparation
APA, Harvard, Vancouver, ISO, and other styles
32

Abdelsadek, Youcef. "Triangle packing for community detection : algorithms, visualizations and application to Twitter's network." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0310.

Full text
Abstract:
De nos jours, nous générons une quantité immensément grande de données juste en accomplissant nos simples tâches quotidiennes. L'analyse de ces données soulève des challenges ardus. Dans cette thèse, nous nous intéressons à deux aspects des données relationnelles. En premier lieu, nous considérons les données relationnelles dans lesquelles les relations sont pondérées. Un exemple concret serait le nombre commun de suiveurs entre deux utilisateurs de Twitter. Dans un deuxième temps, nous abordons le cas dynamique de ces données qui est inhérent à leur nature. Par exemple, le nombre de suiveurs communs pourrait changer au fil du temps. Dans cette thèse nous utilisons les graphes pour modéliser ces données qui sont à la fois complexes et évolutives. Les travaux de cette thèse s'articulent aussi autour de la détection de communautés pour les graphes pondérés et dynamiques. Pour un utilisateur expert, l'identification de ces communautés pourrait l'aider à comprendre la sémantique sous-jacente à la structure du graphe. Notre hypothèse repose sur l'utilisation des triangles comme ossature pour la détection de communautés. Cela nous a amenés à proposer plusieurs algorithmes : Séparation et évaluation, recherche gloutonne, heuristiques et algorithme génétique sont proposés. En se basant sur cet ensemble de triangles, nous proposons un algorithme de détection de communautés, appelé Tribase. L'idée conductrice de cet algorithme est de comparer les poids des communautés, permettant aux communautés dominantes d'acquérir plus de membres. Les résultats de l'étude comparative sur le benchmark LFR montrent que l'algorithme que nous proposons parvient à détecter les communautés dans les graphes dans lesquels une structure de communautés existe. De plus, l'applicabilité de notre algorithme a été testée sur des données réelles du projet ANR Info-RSN. Dans l'optique d'accompagner l'utilisateur expert dans son processus d'acquisition de l'information, une application visuelle et interactive a été implémentée. NLCOMS (Nœud-Lien et COMmunautéS) propose une panoplie de vues synchronisées pour la représentation de l'information. Par ailleurs, nous proposons dans cette thèse un algorithme de détection de communautés pour les graphes pondérés et dynamiques, appelé Dyci. Dyci permet de gérer les différents scénarios de mise à jour possibles de la structure du graphe. L'idée principale de Dyci est de guetter au cours du temps l'affaiblissement d'une communauté (en termes de poids) dans le but de reconsidérer localement sa place dans la structure, évitant ainsi une réindentification globale des communautés. Une étude comparative a été menée montrant que l'algorithme que nous proposons offre un bon compromis entre la solution obtenue et le temps de calcul. Finalement, l'intégration dans NLCOMS des visualisations adéquates pour la variante dynamique a été effectuée<br>Relational data in our society are on a constant increasing, rising arduous challenges. In this thesis, we consider two aspects of relational data. First, we are interested in relational data with weighted relationship. As a concrete example, relationships among Twitter's users could be weighted with regard to their shared number of followers. The second aspect is related to the dynamism which is inherent to data nature. As an instance, in the previous example the number of common followers between two Twitter's users can change over time. In order to handle these complex and dynamic relational data, we use the modelling strength of graphs. Another facet considered in this thesis deals with community identification on weighted and dynamic graphs. For an analyst, the community detection might be helpful to grasp the semantic behind the graph structure. Our assumption relies on the idea to use a set of disjoint pairwise triangles as a basis to detect the community structure. To select these triangles, several algorithms are proposed (i.e., branch-and-bound, greedy search, heuristics and genetic algorithm). Thereafter, we propose a community detection algorithm, called Tribase. In the latter, the weights of communities are compared allowing dominant communities to gain in size. Tribase is compared with the well-known LFR benchmark. The results show that Tribase identifies efficiently the communities while a community structure exists. Additionally, to asset Tribase on real-world data, we consider social networks data, especially Twitter's data, of the ANR-Info-RSN project. In order to support the analyst in its knowledge acquisition, we elaborate a visual interactive approach. To this end, an interactive application, called NLCOMS is introduced. NLCOMS uses multiple synchronous views for visualizing community structure and the related information. Furthermore, we propose an algorithm for the identification of communities over time, called Dyci. The latter takes advantage from the previously detected communities. Several changes' scenarios are considered like, node/edge addition, node/edge removing and edge weight update. The main idea of the proposed algorithm is to track whether a part of the weighted graph becomes weak over time, in order to merge it with the "dominant" neighbour community. In order to assess the quality of the returned community structure, we conduct a comparison with a genetic algorithm on real-world data of the ARN-Info-RSN project. The conducted comparison shows that Dyci algorithm provides a good trade-off between efficiency and consumed time. Finally, the dynamic changes which occur to the underlying graph structure can be visualized with NLCOMS which combines physical an axial time to fulfil this need
APA, Harvard, Vancouver, ISO, and other styles
33

Bizid, Imen. "Prominent microblog users prediction during crisis events : using phase-aware and temporal modeling of users behavior." Thesis, La Rochelle, 2016. http://www.theses.fr/2016LAROS026/document.

Full text
Abstract:
Durant les situations de crise, telles que les catastrophes, le besoin de recherche d’informations (RI) pertinentes partagées dans les microblogs en temps réel est inévitable. Cependant, le grand volume et la variété des flux d’informations partagées en temps réel dans de telles situations compliquent cette tâche. Contrairement aux approches existantes de RI basées sur l’analyse du contenu, nous proposons de nous attaquer à ce problème en nous basant sur les approches centrées utilisateurs tout en levant un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à la collection des données partagées par les utilisateurs à évaluer, 2) à la modélisation de leurs comportements, 3) à l’analyse des comportements, et 4) à la prédiction et le suivi des utilisateurs primordiaux en temps réel. Dans ce contexte, nous détaillons les approches proposées dans cette thèse afin de prédire les utilisateurs primordiaux qui sont susceptibles de partager les informations pertinentes et exclusives ciblées et de permettre aux intervenants d’urgence d’accéder aux informations requises quel que soit le format (i.e. texte, image, vidéo, lien hypertexte) et en temps réel. Ces approches sont centrées sur trois principaux aspects. Nous avons tout d’abord étudié l’efficacité de différentes catégories de mesures issues de la littérature et proposées dans cette thèse pour représenter le comportement des utilisateurs. En nous basant sur les mesures pertinentes résultant de cette étude, nous concevons des nouvelles caractéristiques permettant de mettre en évidence la qualité des informations partagées par les utilisateurs selon leurs comportements. Le deuxième aspect consiste à proposer une approche de modélisation du comportement de chaque utilisateur en nous basant sur les critères suivants : 1) la modélisation des utilisateurs selon l’évolution de l’évènement, 2) la modélisation de l’évolution des activités des utilisateurs au fil du temps à travers une représentation sensible au temps, 3) la sélection des caractéristiques les plus discriminantes pour chaque phase de l’évènement. En se basant sur cette approche de modélisation, nous entraînons différents modèles de prédiction qui apprennent à différencier les comportements des utilisateurs primordiaux de ceux qui ne le sont pas durant les situations de crise. Les algorithmes SVM et MOG-HMMs ont été utilisés durant la phase d’apprentissage. La pertinence et l’efficacité des modèles de prédiction appris ont été validées à l’aide des données collectées par notre système multi-agents MASIR durant deux inondations qui ont eu lieu en France et des vérités terrain appropriées à ces collections<br>During crisis events such as disasters, the need of real-time information retrieval (IR) from microblogs remains inevitable. However, the huge amount and the variety of the shared information in real time during such events over-complicate this task. Unlike existing IR approaches based on content analysis, we propose to tackle this problem by using user-centricIR approaches with solving the wide spectrum of methodological and technological barriers inherent to : 1) the collection of the evaluated users data, 2) the modeling of user behavior, 3) the analysis of user behavior, and 4) the prediction and tracking of prominent users in real time. In this context, we detail the different proposed approaches in this dissertation leading to the prediction of prominent users who are susceptible to share the targeted relevant and exclusive information on one hand and enabling emergency responders to have a real-time access to the required information in all formats (i.e. text, image, video, links) on the other hand. These approaches focus on three key aspects of prominent users identification. Firstly, we have studied the efficiency of state-of-the-art and new proposed raw features for characterizing user behavior during crisis events. Based on the selected features, we have designed several engineered features qualifying user activities by considering both their on-topic and off-topic shared information. Secondly, we have proposed a phase-aware user modeling approach taking into account the user behavior change according to the event evolution over time. This user modeling approach comprises the following new novel aspects (1) Modeling microblog users behavior evolution by considering the different event phases (2) Characterizing users activity over time through a temporal sequence representation (3) Time-series-based selection of the most discriminative features characterizing users at each event phase. Thirdly, based on this proposed user modeling approach, we train various prediction models to learn to differentiate between prominent and non-prominent users behavior during crisis event. The learning task has been performed using SVM and MoG-HMMs supervised machine learning algorithms. The efficiency and efficacy of these prediction models have been validated thanks to the data collections extracted by our multi-agents system MASIR during two flooding events who have occured in France and the different ground-truths related to these collections
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography