Academic literature on the topic 'Flux de données sémantiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Flux de données sémantiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Flux de données sémantiques"

1

Bugnot, Marie-Ange. "Traduction des discours sur l’islam dans la presse de France et d’Espagne." Meta 57, no. 4 (December 17, 2013): 977–96. http://dx.doi.org/10.7202/1021228ar.

Full text
Abstract:
De nos jours la presse écrite, ancrée dans les flux transnationaux d’information, véhicule une image de l’Autre intentionnelle. Chaque publication doit interpréter et calibrer les données qui lui parviennent conformément à un code déontologique et à une position idéologique, c’est-à-dire transposer et adapter. Dans le cas des reprises d’information entre deux pays limitrophes comme la France et l’Espagne, les différences qu’affiche une même nouvelle sont sensibles. Les constituants qui la définissent dans ce contexte géopolitique précis dépendent largement de l’importance que l’on a décidé d’accorder à la nouvelle, de conventions culturelles dont l’influence s’étend aux usages sémantiques en vigueur, au non-dit et au sous-entendu. Sa traduction relève de même du degré de négociation et d’adaptation/manipulation nécessaires dans la langue cible. Cette étude de la perception de l’Autre centrée sur le thème islamique, sujet de grande actualité dans la politique européenne, s’appuie sur un corpus de journaux/revues français et espagnols qui balaient l’année 2010.
APA, Harvard, Vancouver, ISO, and other styles
2

Feltgen, Quentin, Georgeta Cislaru, and Christophe Benzitoun. "Étude linguistique et statistique des unités de performance écrite : le cas de et." SHS Web of Conferences 138 (2022): 10001. http://dx.doi.org/10.1051/shsconf/202213810001.

Full text
Abstract:
Cet article aborde la question de la segmentation par des pauses du flux de production écrite enregistré en temps réel et de la motivation linguistique et statistique de l’emplacement des pauses. En effet, les pauses segmentant des séquences textuelles linguistiquement analysables, il est crucial de comprendre si des contraintes régulières en fixent les frontières. Nous avons choisi de nous pencher sur le cas de la conjonction et, en vertu de la diversité sémantique et morphosyntaxique des relations qu’elle sémiotise. Après avoir mis en perspective les résultats d’une analyse de corpus antérieure, nous procédons à une annotation manuelle des occurrences en départageant les emplois extra- et intraphrastiques de et dans un corpus de textes courts produits par des adultes (étudiants). Une méthode d’analyse statistique est ensuite appliquée aux données annotées pour tester les attentes statistiques en termes d’emplacement des pauses. Cette analyse permet de faire ressortir des différences de segmentation en fonction du type d’emploi de et.
APA, Harvard, Vancouver, ISO, and other styles
3

Havelange, Isabelle. "La Bibliographie de l’histoire de France des lendemains de la Seconde Guerre mondiale à nos jours : le passage progressif de la collection papier au numérique." La Gazette des archives 262, no. 2 (2021): 37–44. http://dx.doi.org/10.3406/gazar.2021.6044.

Full text
Abstract:
Le passage de La Bibliographie de l’histoire de France du papier vers le numérique montre l’intrication complexe de considérations institutionnelles, financières, techniques et humaines. L’informatisation, commencée au début des années 1990, ne concerne au départ que l’outil de production des bibliographes, débouchant toujours sur un volume imprimé. Dès le début des années 2000 est apparue la nécessité d’une visibilité en ligne de la collection, pensée parallèlement à la production imprimée. Plusieurs institutions ont d’abord été impliquées dans le projet. Leur expertise, sans avoir pu mener le projet à son terme, a permis le mûrissement du projet, finalement réalisé grâce à l’entrée en jeu de l’université PSL. L’abandon de la production papier en 2012 a été un moment décisif. Les données de la bibliographie, remodelées afin d’être interopérables et compatibles avec les outils numériques mondiaux, ont permis l’insertion de la bibliographie dans l’univers du web sémantique. La saisie courante se fait désormais en flux continu, visible sur l’interface de consultation publique maintenant ouverte au public. À moyenne échéance, le site de la BHF offrira l’entièreté de la collection ancienne, menant à son terme un important projet patrimonial impatiemment attendu par la communauté historienne. Le site de la BHF, héritier d’une longue tradition et désormais inscrit dans l’univers du web, continue à illustrer, dans le domaine de la recherche historique, l’essentielle nécessité de la démarche bibliographique.
APA, Harvard, Vancouver, ISO, and other styles
4

Fontenelle, Thierry. "Towards the Construction of a Collocational Database for Translation Students." Meta 39, no. 1 (September 30, 2002): 47–56. http://dx.doi.org/10.7202/002756ar.

Full text
Abstract:
Résumé Cet article présente une expérience effectuée au cours d'un projet d'élaboration d'une base de données bilingue (anglais-français) de collocations à l'Université de Liège. Cette base de données offrira aux utilisateurs plusieurs points d'accès ainsi que des informations lexico-sémantiques. On tentera de démontrer que ces particularités sont présentement absentes dans le domaine des dictionnaires de collocations et que cette base de données réussira à combler ce manque.
APA, Harvard, Vancouver, ISO, and other styles
5

Kett, Jürgen. "Allemagne : le puzzle des réseaux sémantiques de données." Réseaux de coopération et bibliothèques, no. 102 (July 1, 2021): 14–15. http://dx.doi.org/10.35562/arabesques.2642.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Colazzo, Dario, François Goasdoué, Ionna Manolescu, and Alexandra Roatis. "Analyse de données RDF. Lentilles pour graphes sémantiques." Ingénierie des systèmes d'information 19, no. 4 (August 28, 2014): 87–117. http://dx.doi.org/10.3166/isi.19.4.87-117.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bartikowski, Boris, Jean-Louis Chandon, and Heribert Gierl. "Calibration internationale des échelles sémantiques." Décisions Marketing N° 43-44, no. 3 (August 1, 2006): 207–19. http://dx.doi.org/10.3917/dm.043.0207.

Full text
Abstract:
La comparabilité des mesures d’attitude d’une culture et d’une langue à une autre pose problème. Comment s’assurer que les données collectées sont comparables afin d’écarter le risque de décisions erronées ? Cet article propose et illustre une méthode de développement et de calibration internationale des échelles sémantiques qui n’impose ni l’équivalence lexicale ni l’équivalence métrique. La méthode est utilisée pour calibrer 18 expressions verbales dans sept langues et neuf pays ou régions (Allemagne ; Belgique Flamande ; Belgique Wallonne ; États-Unis ; France ; Grèce ; Italie ; Québec ; Tunisie). L’utilisation des échelles calibrées permet de réduire le biais qu’introduit la culture des répondants dans les études internationales.
APA, Harvard, Vancouver, ISO, and other styles
8

Casali, Alain, Rosine Ciccheti, and Lofti Lakhal. "Extraction de sémantiques dans les bases de données multidimensionnelles." Ingénierie des systèmes d'information 9, no. 1 (February 24, 2004): 35–59. http://dx.doi.org/10.3166/isi.9.1.35-59.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

L'Homme, Marie-Claude. "Méthode d'accès informatisé aux combinaisons lexicales en langue technique." Meta 42, no. 1 (September 30, 2002): 15–23. http://dx.doi.org/10.7202/003508ar.

Full text
Abstract:
Résumé On propose une méthode de codage informatisé des combinaisons lexicales comportant un verbe et un nom. La description des noms se fait sur le modèle des fiches contenues dans les banques de terminologie (fiches monoréférentielles). Quant aux verbes, qui sont pour la plupart polysémiques, leurs distinctions sémantiques sont illustrées à l'aide d'un contexte nominal. L'accès aux combinaisons est réalisé à l'aide d'une interface entre les enregistrements décrivant les deux parties du discours. Le système puise, dans les fiches monoréférentielles, les éléments nominaux et établit un lien avec le contexte nominal qui illustre les changements sémantiques d'une forme verbale. Les liens entre les bases de données sont établis à l'aide d'une structure conceptuelle.
APA, Harvard, Vancouver, ISO, and other styles
10

Mbaiossum, Bery, Ladjel Bellastreche, Stéphanie Jean, and Mickael Baron. "Comparaison théorique et empirique de systèmes de bases de données sémantiques." Ingénierie des systèmes d'information 18, no. 3 (June 28, 2013): 39–63. http://dx.doi.org/10.3166/isi.18.3.39-63.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Flux de données sémantiques"

1

Chevalier, Jules. "Raisonnement incrémental sur des flux de données." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES008/document.

Full text
Abstract:
Nous proposons dans cette thèse une architecture pour le raisonnement incrémental sur des flux de triples. Afin de passer à l’échelle, elle est conçue sous la forme de modules indépendants, permettant l’exécution parallèle du raisonnement. Plusieurs instances d’une même règle peuvent être exécutées simultanément afin d’améliorer les performances. Nous avons également concentré nos efforts pour limiter la dispersion des doublons dans le système, problème récurrent du raisonnement. Pour cela, un triplestore partagé permet à chaque module de filtrer au plus tôt les doublons. La structure de notre architecture, organisée en modules indépendants par lesquels transitent les triples, lui permet de recevoir en entrée des flux de triples. Enfin, notre architecture est indépendante du fragment utilisé. Nous présentons trois modes d’inférence pour notre architecture. Le premier consiste à inférer l’ensemble des connaissances implicites le plus rapidement possible. Le second priorise l'inférence de certaines connaissances prédéterminées. Le troisième vise à maximiser la quantité de triples inférés par seconde. Nous avons implémenté l’architecture présentée à travers Slider, un raisonneur incrémental prenant nativement en charge les fragments ρdf et RDFS. Il peut être facilement étendu à des fragments plus complexes. Nos expérimentations ont montré une amélioration des performances de plus de 65% par rapport au raisonneur OWLIM-SE. Nous avons également mené des tests montrant que l’utilisation du raisonnement incrémental avec Slider apporte un avantage systématique aux performances par rapport au raisonnement par lots, quels que soient l’ontologie utilisée et le fragment appliqué
In this thesis, we propose an architecture for incremental reasoning on triple streams. To ensure scalability, it is composed of independent modules; thus allowing parallel reasoning. That is, several instances of a same rule can be simultaneously executed to enhance performance. We also focused our efforts to limit the duplicates spreading in the system, a recurrent issue for reasoning. To achieve this, we design a shared triplestore which allows each module to filter duplicates as soon as possible. The triples passes through the different independent modules of the architecture allows the reasoner to receive triple streams as input. Finally, our architecture is of agnostic nature regarding the fragment used for the inference. We also present three inference modes for our architecture: the first one infers all the implicit knowledge as fast as possible; the second mode should be used when the priority has to be defined for the inference of a specific type of knowledge; the third one proposes to maximize the amount of triples inferred per second. We implemented this architecture through Slider, an incremental reasoning natively supporting the fragments ρdf and RDFS: It can easily be extended to more complex fragments. Our experimentations show a 65% improvement over the reasoner OWLIM-SE. However, the recently published reasoner RDFox exhibits better performance, although this one does not provide prioritized inference. We also conducted experimentations showing that the use of incremental reasoning over batch-based reasoning offers systematically better performance for all the ontologies and fragments used
APA, Harvard, Vancouver, ISO, and other styles
2

Belghaouti, Fethi. "Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL003.

Full text
Abstract:
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes
Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
APA, Harvard, Vancouver, ISO, and other styles
3

Belghaouti, Fethi. "Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL003.

Full text
Abstract:
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes
Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
APA, Harvard, Vancouver, ISO, and other styles
4

Dia, Amadou Fall. "Filtrage sémantique et gestion distribuée de flux de données massives." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS495.

Full text
Abstract:
Notre utilisation quotidienne de l’Internet et des technologies connexes génère, de manière continue et à des vitesses rapides et variables, de grandes quantités de données hétérogènes issues des réseaux de capteurs, des logs de moteurs de recherches génériques ou spécialisés, des données de sites de contenu multimédia, des données de mesure de stations météorologiques, de la géolocalisation, des applications IoT (l’Internet des objets), etc. Traiter de telles données dans les bases de données conventionnelles (Systèmes de Gestion de Bases de Données Relationnelles) peut être très coûteux en ressources temporelles et mémoires. Pour répondre efficacement aux besoins et aider à la prise de décision, ces flots d’informations nécessitent des traitements en temps réel. Les Systèmes de Gestion de Flux de Données (SGFDs) posent et évaluent des requêtes sur les données récentes d’un flux dans des structures appelées fenêtre. Les données en entrée des SGFDs sont de différents formats bruts tels que CSV, XML, RSS, ou encore JSON. Ce verrou d’hétérogénéité émane de la nature des flux de données et doit être levé. Pour cela, plusieurs groupes de recherche ont bénéficié des avantages des technologies du web sémantique (RDF et SPARQL) en proposant des systèmes de traitement de flux de données RDF appelés RSPs. Cependant, la volumétrie des données, le débit d’entrée élevé, les requêtes concurrentes, le croisement des flux RDF à de larges volumes de données stockées et les calculs coûteux baissent considérablement les performances de ces systèmes. Il faut prévoir une nouvelle approche de réduction de la charge de traitement des flux de données RDF. Dans cette thèse, nous proposons plusieurs solutions pour réduire la charge de traitement de flux de données en mode centralisé. Une approche d’échantillonnage à la volée de flux de graphes RDF est proposée afin de réduire la charge de données et du traitement des flux tout en préservant les liens sémantiques. Cette approche est approfondie en adoptant une méthode de résumé orienté graphe pour extraire des graphes RDF les informations les plus pertinentes en utilisant des mesures de centralité issues de l’Analyse des Réseaux Sociaux. Nous adoptons également un format compressé des données RDF et proposons une approche d’interrogation de données RDF compressées sans phase de décompression. Pour assurer une gestion parallèle et distribuée des flux de données, le travail présenté propose deux solutions supplémentaires de réduction de la charge de traitement en mode distribué : un moteur de traitement parallèle et distribué de flux de graphes RDF et une approche de traitement optimisé des opérations de croisement entre données statiques et dynamiques sont présentés
Our daily use of the Internet and related technologies generates, at a rapid and variable speeds, large volumes of heterogeneous data issued from sensor networks, search engine logs, multimedia content sites, weather forecasting, geolocation, Internet of Things (IoT) applications, etc. Processing such data in conventional databases (Relational Database Management Systems) may be very expensive in terms of time and memory storage resources. To effectively respond to the needs of rapid decision-making, these streams require real-time processing. Data Stream Management Systems (SGFDs) evaluate queries on the recent data of a stream within structures called windows. The input data are different formats such as CSV, XML, RSS, or JSON. This heterogeneity lock comes from the nature of the data streams and must be resolved. For this, several research groups have benefited from the advantages of semantic web technologies (RDF and SPARQL) by proposing RDF data streams processing systems called RSPs. However, large volumes of RDF data, high input streams, concurrent queries, combination of RDF streams and large volumes of stored RDF data and expensive processing drastically reduce the performance of these systems. A new approach is required to considerably reduce the processing load of RDF data streams. In this thesis, we propose several complementary solutions to reduce the processing load in centralized environment. An on-the-fly RDF graphs streams sampling approach is proposed to reduce data and processing load while preserving semantic links. This approach is deepened by adopting a graph-oriented summary approach to extract the most relevant information from RDF graphs by using centrality measures issued from the Social Networks Analysis. We also adopt a compressed format of RDF data and propose an approach for querying compressed RDF data without decompression phase. To ensure parallel and distributed data streams management, the presented work also proposes two solutions for reducing the processing load in distributed environment. An engine and parallel processing approaches and distributed RDF graphs streams. Finally, an optimized processing approach for static and dynamic data combination operations is also integrated into a new distributed RDF graphs streams management system
APA, Harvard, Vancouver, ISO, and other styles
5

Belaid, Nabil. "Modélisation de services et de workflows sémantiques à base d'ontologies de services et d'indexations." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2011. https://tel.archives-ouvertes.fr/tel-00605153.

Full text
Abstract:
Les services et les workflows informatiques permettent le traitement ou l'échange d'informations. Toutefois, seules des informations utiles à leur gestion informatique (stockage, exécution, etc. ) sont spécifiées dans les langages de description syntaxique tels que WSDL, BPEL ou XPDL. En effet, ces descriptions ne permettent pas de lier explicitement les services et les workflows informatiques aux fonctions et aux processus implémentés. Pour remédier à ces limitations, nous proposons une approche basée sur la définition d'ontologies de services (conceptualisations partagées) et d'indexations sémantiques. Notre proposition s'appuie sur des bases de données à base ontologique pour stocker et indexer les différents services et workflows. La mise en oeuvre de notre approche consiste en un prototype logiciel permettant de stocker, de rechercher, de remplacer, de réutiliser les services et les workflows informatiques existant et d'en construire de nouveaux de manière incrémentale. Ces travaux sont validés en étant appliqués au domaine de la modélisation géologique
Services and workflows allow computer processing and information exchange. However, only information relevant to their computer management (storage, delivery, etc. ) is specified in the syntactic description languages such as WSDL, BPEL or XPDL. Indeed, these descriptions do not explicitly link the services and workflows to the implemented functions. To overcome these limitations, we propose an approach based on the definition of ontology of services (shared conceptualizations) and semantic indexations. Our proposal in ontology based databases to store and index the different services and workflows. The implementation of our approach is a prototype that enables to store, search, replace, reuse existing IT services and workflows and build new ones incrementally. This work is validated by being applied to the geological modeling field
APA, Harvard, Vancouver, ISO, and other styles
6

Ren, Xiangnan. "Traitement et raisonnement distribués des flux RDF." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1139/document.

Full text
Abstract:
Le traitement en temps réel des flux de données émanant des capteurs est devenu une tâche courante dans de nombreux scénarios industriels. Dans le contexte de l'Internet des objets (IoT), les données sont émises par des sources de flux hétérogènes, c'est-à-dire provenant de domaines et de modèles de données différents. Cela impose aux applications de l'IoT de gérer efficacement l'intégration de données à partir de ressources diverses. Le traitement des flux RDF est dès lors devenu un domaine de recherche important. Cette démarche basée sur des technologies du Web Sémantique supporte actuellement de nombreuses applications innovantes où les notions de temps réel et de raisonnement sont prépondérantes. La recherche présentée dans ce manuscrit s'attaque à ce type d'application. En particulier, elle a pour objectif de gérer efficacement les flux de données massifs entrants et à avoir des services avancés d’analyse de données, e.g., la détection d’anomalie. Cependant, un moteur de RDF Stream Processing (RSP) moderne doit prendre en compte les caractéristiques de volume et de vitesse rencontrées à l'ère du Big Data. Dans un projet industriel d'envergure, nous avons découvert qu'un moteur de traitement de flux disponible 24/7 est généralement confronté à un volume de données massives, avec des changements dynamiques de la structure des données et les caractéristiques de la charge du système. Pour résoudre ces problèmes, nous proposons Strider, un moteur de traitement de flux RDF distribué, hybride et adaptatif qui optimise le plan de requête logique selon l’état des flux de données. Strider a été conçu pour garantir d'importantes propriétés industrielles telles que l'évolutivité, la haute disponibilité, la tolérance aux pannes, le haut débit et une latence acceptable. Ces garanties sont obtenues en concevant l'architecture du moteur avec des composants actuellement incontournables du Big Data: Apache Spark et Apache Kafka. De plus, un nombre croissant de traitements exécutés sur des moteurs RSP nécessitent des mécanismes de raisonnement. Ils se traduisent généralement par un compromis entre le débit de données, la latence et le coût computationnel des inférences. Par conséquent, nous avons étendu Strider pour prendre en charge la capacité de raisonnement en temps réel avec un support d'expressivité d'ontologies en RDFS + (i.e., RDFS + owl:sameAs). Nous combinons Strider avec une approche de réécriture de requêtes pour SPARQL qui bénéficie d'un encodage intelligent pour les bases de connaissances. Le système est évalué selon différentes dimensions et sur plusieurs jeux de données, pour mettre en évidence ses performances. Enfin, nous avons exploré le raisonnement du flux RDF dans un contexte d'ontologies exprimés avec un fragment d'ASP (Answer Set Programming). La considération de cette problématique de recherche est principalement motivée par le fait que de plus en plus d'applications de streaming nécessitent des tâches de raisonnement plus expressives et complexes. Le défi principal consiste à gérer les dimensions de débit et de latence avec des méthologies efficaces. Les efforts récents dans ce domaine ne considèrent pas l'aspect de passage à l'échelle du système pour le raisonnement des flux. Ainsi, nous visons à explorer la capacité des systèmes distribuées modernes à traiter des requêtes d'inférence hautement expressive sur des flux de données volumineux. Nous considérons les requêtes exprimées dans un fragment positif de LARS (un cadre logique temporel basé sur Answer Set Programming) et proposons des solutions pour traiter ces requêtes, basées sur les deux principaux modèles d’exécution adoptés par les principaux systèmes distribuées: Bulk Synchronous Parallel (BSP) et Record-at-A-Time (RAT). Nous mettons en œuvre notre solution nommée BigSR et effectuons une série d’évaluations. Nos expériences montrent que BigSR atteint un débit élevé au-delà du million de triplets par seconde en utilisant un petit groupe de machines
Real-time processing of data streams emanating from sensors is becoming a common task in industrial scenarios. In an Internet of Things (IoT) context, data are emitted from heterogeneous stream sources, i.e., coming from different domains and data models. This requires that IoT applications efficiently handle data integration mechanisms. The processing of RDF data streams hence became an important research field. This trend enables a wide range of innovative applications where the real-time and reasoning aspects are pervasive. The key implementation goal of such application consists in efficiently handling massive incoming data streams and supporting advanced data analytics services like anomaly detection. However, a modern RSP engine has to address volume and velocity characteristics encountered in the Big Data era. In an on-going industrial project, we found out that a 24/7 available stream processing engine usually faces massive data volume, dynamically changing data structure and workload characteristics. These facts impact the engine's performance and reliability. To address these issues, we propose Strider, a hybrid adaptive distributed RDF Stream Processing engine that optimizes logical query plan according to the state of data streams. Strider has been designed to guarantee important industrial properties such as scalability, high availability, fault-tolerant, high throughput and acceptable latency. These guarantees are obtained by designing the engine's architecture with state-of-the-art Apache components such as Spark and Kafka. Moreover, an increasing number of processing jobs executed over RSP engines are requiring reasoning mechanisms. It usually comes at the cost of finding a trade-off between data throughput, latency and the computational cost of expressive inferences. Therefore, we extend Strider to support real-time RDFS+ (i.e., RDFS + owl:sameAs) reasoning capability. We combine Strider with a query rewriting approach for SPARQL that benefits from an intelligent encoding of knowledge base. The system is evaluated along different dimensions and over multiple datasets to emphasize its performance. Finally, we have stepped further to exploratory RDF stream reasoning with a fragment of Answer Set Programming. This part of our research work is mainly motivated by the fact that more and more streaming applications require more expressive and complex reasoning tasks. The main challenge is to cope with the large volume and high-velocity dimensions in a scalable and inference-enabled manner. Recent efforts in this area still missing the aspect of system scalability for stream reasoning. Thus, we aim to explore the ability of modern distributed computing frameworks to process highly expressive knowledge inference queries over Big Data streams. To do so, we consider queries expressed as a positive fragment of LARS (a temporal logic framework based on Answer Set Programming) and propose solutions to process such queries, based on the two main execution models adopted by major parallel and distributed execution frameworks: Bulk Synchronous Parallel (BSP) and Record-at-A-Time (RAT). We implement our solution named BigSR and conduct a series of evaluations. Our experiments show that BigSR achieves high throughput beyond million-triples per second using a rather small cluster of machines
APA, Harvard, Vancouver, ISO, and other styles
7

De, Oliveira Joffrey. "Gestion de graphes de connaissances dans l'informatique en périphérie : gestion de flux, autonomie et adaptabilité." Electronic Thesis or Diss., Université Gustave Eiffel, 2023. http://www.theses.fr/2023UEFL2069.

Full text
Abstract:
Les travaux de recherche menés dans le cadre de cette thèse de doctorat se situent à l'interface du Web sémantique, des bases de données et de l'informatique en périphérie (généralement dénotée Edge computing). En effet, notre objectif est de concevoir, développer et évaluer un système de gestion de bases de données (SGBD) basé sur le modèle de données Resource Description Framework (RDF) du W3C, qui doit être adapté aux terminaux que l'on trouve dans l'informatique périphérique. Les applications possibles d'un tel système sont nombreuses et couvrent un large éventail de secteurs tels que l'industrie, la finance et la médecine, pour n'en citer que quelques-uns. Pour preuve, le sujet de cette thèse a été défini avec l'équipe du laboratoire d'informatique et d'intelligence artificielle (CSAI) du ENGIE Lab CRIGEN. Ce dernier est le centre de recherche et de développement d'ENGIE dédié aux gaz verts (hydrogène, biogaz et gaz liquéfiés), aux nouveaux usages de l'énergie dans les villes et les bâtiments, à l'industrie et aux technologies émergentes (numérique et intelligence artificielle, drones et robots, nanotechnologies et capteurs). Le CSAI a financé cette thèse dans le cadre d'une collaboration de type CIFRE. Les fonctionnalités d'un système satisfaisant ces caractéristiques doivent permettre de détecter de manière pertinente et efficace des anomalies et des situations exceptionnelles depuis des mesures provenant de capteurs et/ou actuateurs. Dans un contexte industriel, cela peut correspondre à la détection de mesures, par exemple de pression ou de débit sur un réseau de distribution de gaz, trop élevées qui pourraient potentiellement compromettre des infrastructures ou même la sécurité des individus. Le mode opératoire de cette détection doit se faire au travers d'une approche conviviale pour permettre au plus grand nombre d'utilisateurs, y compris les non-programmeurs, de décrire les situations à risque. L'approche doit donc être déclarative, et non procédurale, et doit donc s'appuyer sur un langage de requêtes, par exemple SPARQL. Nous estimons que l'apport des technologies du Web sémantique peut être prépondérant dans un tel contexte. En effet, la capacité à inférer des conséquences implicites depuis des données et connaissances explicites constitue un moyen de créer de nouveaux services qui se distinguent par leur aptitude à s'ajuster aux circonstances rencontrées et à prendre des décisions de manière autonome. Cela peut se traduire par la génération de nouvelles requêtes dans certaines situations alarmantes ou bien en définissant un sous-graphe minimal de connaissances dont une instance de notre SGBD a besoin pour répondre à l'ensemble de ses requêtes. La conception d'un tel SGBD doit également prendre en compte les contraintes inhérentes de l'informatique en périphérie, c'est-à-dire les limites en terme de capacité de calcul, de stockage, de bande passante et parfois énergétique (lorsque le terminal est alimenté par un panneau solaire ou bien une batterie). Il convient donc de faire des choix architecturaux et technologiques satisfaisant ces limitations. Concernant la représentation des données et connaissances, notre choix de conception s'est porté sur les structures de données succinctes (SDS) qui offrent, entre autres, les avantages d'être très compactes et ne nécessitant pas de décompression lors du requêtage. De même, il a été nécessaire d'intégrer la gestion de flux de données au sein de notre SGBD, par exemple avec le support du fenêtrage dans des requêtes SPARQL continues, et des différents services supportés par notre système. Enfin, la détection d'anomalies étant un domaine où les connaissances peuvent évoluer, nous avons intégré le support des modifications au niveau des graphes de connaissances stockés sur les instances des clients de notre SGBD. Ce support se traduit par une extension de certaines structures SDS utilisées dans notre prototype
The research work carried out as part of this PhD thesis lies at the interface between the Semantic Web, databases and edge computing. Indeed, our objective is to design, develop and evaluate a database management system (DBMS) based on the W3C Resource Description Framework (RDF) data model, which must be adapted to the terminals found in Edge computing.The possible applications of such a system are numerous and cover a wide range of sectors such as industry, finance and medicine, to name but a few. As proof of this, the subject of this thesis was defined with the team from the Computer Science and Artificial Intelligence Laboratory (CSAI) at ENGIE Lab CRIGEN. The latter is ENGIE's research and development centre dedicated to green gases (hydrogen, biogas and liquefied gases), new uses of energy in cities and buildings, industry and emerging technologies (digital and artificial intelligence, drones and robots, nanotechnologies and sensors). CSAI financed this thesis as part of a CIFRE-type collaboration.The functionalities of a system satisfying these characteristics must enable anomalies and exceptional situations to be detected in a relevant and effective way from measurements taken by sensors and/or actuators. In an industrial context, this could mean detecting excessively high measurements, for example of pressure or flow rate in a gas distribution network, which could potentially compromise infrastructure or even the safety of individuals. This detection must be carried out using a user-friendly approach to enable as many users as possible, including non-programmers, to describe risk situations. The approach must therefore be declarative, not procedural, and must be based on a query language, such as SPARQL.We believe that Semantic Web technologies can make a major contribution in this context. Indeed, the ability to infer implicit consequences from explicit data and knowledge is a means of creating new services that are distinguished by their ability to adjust to the circumstances encountered and to make autonomous decisions. This can be achieved by generating new queries in certain alarming situations, or by defining a minimal sub-graph of knowledge that an instance of our DBMS needs in order to respond to all of its queries.The design of such a DBMS must also take into account the inherent constraints of Edge computing, i.e. the limits in terms of computing capacity, storage, bandwidth and sometimes energy (when the terminal is powered by a solar panel or a battery). Architectural and technological choices must therefore be made to meet these limitations. With regard to the representation of data and knowledge, our design choice fell on succinct data structures (SDS), which offer, among other advantages, the fact that they are very compact and do not require decompression during querying. Similarly, it was necessary to integrate data flow management within our DBMS, for example with support for windowing in continuous SPARQL queries, and for the various services supported by our system. Finally, as anomaly detection is an area where knowledge can evolve, we have integrated support for modifications to the knowledge graphs stored on the client instances of our DBMS. This support translates into an extension of certain SDS structures used in our prototype
APA, Harvard, Vancouver, ISO, and other styles
8

Giustozzi, Franco. "STEaMINg : semantic time evolving models for industry 4.0 Stream reasoning to improve decision-making in cognitive systems Smart condition monitoring for industry 4.0 manufacturing processes: an ontology-based approach." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMIR13.

Full text
Abstract:
Dans l'industrie 4.0, les machines des usines sont équipées de capteurs qui collectent des données pour une surveillance efficace de l'état des équipements. C’est une tâche difficile car elle nécessite l’intégration et le traitement de données hétérogènes provenant de différentes sources, avec des résolutions temporelles et des significations sous-jacentes différentes. Les ontologies apparaissent comme une méthode pertinente pour traiter l’intégration des données et pour représenter la connaissance de manière interprétable par les machines grâce à la construction de modèles sémantiques. De plus, la surveillance des processus industriels dépend du contexte dynamique de leur exécution. Dans ces circonstances, le modèle sémantique lui-même doit évoluer afin de représenter dans quelle(s) situation(s) se trouve(nt) la ou les ressources pendant l’exécution de ses tâches pour soutenir la prise de décision. Cette thèse étudie l’utilisation des méthodes de représentation des connaissances pour construire un modèle sémantique évolutif qui représente le domaine industriel, en mettant l’accent sur la modélisation du contexte pour fournir la notion de situation
In Industry 4.0, factory assets and machines are equipped with sensors that collect data for effective condition monitoring. This is a difficult task since it requires the integration and processing of heterogeneous data from different sources, with different temporal resolutions and underlying meanings. Ontologies have emerged as a pertinent method to deal with data integration and to represent manufacturing knowledge in a machine-interpretable way through the construction of semantic models. Moreover, the monitoring of industrial processes depends on the dynamic context of their execution. Under these circumstances, the semantic model must evolve in order to represent in which situation(s) a resource is in during the execution of its tasks to support decision making. This thesis studies the use of knowledge representation methods to build an evolving semantic model that represents the industrial domain, with an emphasis on context modeling to provide the notion of situation
APA, Harvard, Vancouver, ISO, and other styles
9

Ait, Oubelli Lynda. "Transformations sémantiques pour l'évolution des modèles de données." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0040.

Full text
Abstract:
Lors du développement d’un système complexe, les modèles de données sont la clé d’un processus d’ingénierie réussi : ils contiennent et organisent toutes les informations manipulées par les différentes fonctions impliquées dans la conception du système. Le fait que les modèles de données évoluent tout au long de la conception soulève des problèmes de maintenance des données déjà produites. Notre travail aborde la problématique de l’évolution des modèles de données dans un environnement d’ingénierie dirigée par les modèles (IDM). Nous nous concentrons sur la minimisation de l’impact de l’évolution du modèle de données sur le processus de développement du système dans le domaine spécifique de l’ingénierie spatiale. Dans l’industrie spatiale, l’ingénierie dirigée par les modèles (IDM) est un domaine clé pour modéliser les échanges de données avec les satellites. Lors de la préparation d’une mission spatiale, les modèles de données doivent être comparés d’une version à l’autre. Ainsi, en raison de la croissance des changements en terme de type et de nombre, il devient difficile de les suivre. De nouvelles méthodes et techniques pour comprendre et représenter les différences et les points communs entre les différentes versions du modèle sont indispensables. Des recherches récentes traitent le processus d’évolution entre les deux couches architecturales (M2 / M1) de l’IDM. Dans cette thèse, nous avons exploré l’utilisation des couches (M1 / M0) de la même architecture afin de définir un ensemble d’opérateurs complexes et leur composition qui encapsulent à la fois l’évolution du modèle de données et la migration des données. L’utilisation de ces opérateurs améliore la qualité des résultats lors de la migration des données, en assurant la conservation complète de l’information contenue dans les données. Dans la première partie de cette thèse, nous sommes concentrés sur la façon de gérer les différences structurelles au cours du processus d’évolution. L’approche proposée repose sur la détection des différences et la construction d’opérateurs d’évolution. Après, nous avons étudié les performances de l’approche à base des modèles (MBD) sur deux missions spatiales, nommées PHARAO et MICROSCOPE. Ensuite, nous avons présenté une approche observationnelle sémantique pour traiter l’évolution des modèles de données au niveau M1. L’intérêt principal de l’approche proposée est la transposition du problème d’accessibilité de l’information dans un modèle de données, en un problème de chemin dans un graphe orienté et étiqueté. L’approche s’est révélée capable de capturer toutes les évolutions d’un modèle de données dans une liste d’opérateurs logique au lieu d’une liste non exhaustive d’opérateurs d’évolution. Elle est générique car peu importe le type de modèle de données en entrée, si le modèle de données est interprété correctement en ldg puis en le projette sur chaque concept, nous obtenons un ensemble de lts, on peut vérifier la conservation de l’information
When developing a complex system, data models are the key to a successful engineering process because they contain and organize all the information manipulated by the different functions involved in system design. The fact that the data models evolve throughout the design raises problems of maintenance of the data already produced. Our work addresses the issue of evolving data models in a model-driven engineering environment (IDM). We focus on minimizing the impact of the evolution of the data model on the system development process in the specific area of space engineering. In the space industry, model-driven engineering (MDI) is a key area for modeling data exchange with satellites. When preparing a space mission, the associated data models are often updated and must be compared from one version to another. Thus, because of the growth of the changes, it becomes difficult to follow them. New methods and techniques to understand and represent the differences and commonalities between different versions of the model are essential. Recent research deals with the evolution process between the two architectural layers (M2 / M1) of the IDM. In this thesis, we have explored the use of the (M1 / M0) layers of the same architecture to define a set of complex operators and their composition that encapsulate both the evolution of the data model and the data migration. The use of these operators improves the quality of results when migrating data, ensuring the complete preservation of the information contained in the data. In the first part of this thesis, we focused on how to deal with structural differences during the evolution process. The proposed approach is based on the detection of differences and the construction of evolution operators. Then, we studied the performance of the model-based approach (MBD) on two space missions, named PHARAO and MICROSCOPE. Then, we presented a semantic observational approach to deal with the evolution of data models at M1 level. The main interest of the proposed approach is the transposition of the problem of accessibility of the information in a data model, into a problem of path in a labeled directed graph. The approach proved to be able to capture all the evolutions of a data model in a logical operator list instead of a non-exhaustive list of evolution operators. It is generic because, regardless of the type of input data model, if the data model is correctly interpreted to ldg and then project it onto a set of lts, we can check the conservation of the information
APA, Harvard, Vancouver, ISO, and other styles
10

Chiky, Raja. "Résumé de flux de données ditribués." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005137.

Full text
Abstract:
Ces dernières années, sont apparues de nombreuses applications, utilisant des données en nombre potentiellement illimité, provenant de façon continue de capteurs distribués afin d'alimenter un serveur central. Les données sont utilisées à des fins de surveillance, de supervision, de déclenchement d'alarmes en temps réel, ou plus généralement à la production de synthèses d'aide à la décision à partir de plusieurs flux. Le volume des données collectées est généralement trop grand pour être entièrement stocké. Les systèmes de gestion de flux de données (SGFD) permettent de gérer facilement, et de façon générique les flux de données : les données sont traitées au fil de l'eau sans les archiver. Toutefois, dans certaines applications, on ne souhaite pas perdre complètement l'ensemble des flux de données afin de pouvoir analyser les données du passé et du présent. Il faut donc prévoir un stockage de l'historique du flux. Nous considérons dans cette thèse, un environnement distribué décrit par une collection de plusieurs capteurs distants qui envoient des flux de données numériques et unidimensionnelles à un serveur central unique. Ce dernier a un espace de stockage limité mais doit calculer des agrégats, comme des sommes ou des moyennes, à partir des données de tout sous-ensemble de capteurs et sur un large horizon temporel. Deux approches sont étudiées pour construire l'historique des flux de données :(1) Echantillonnage spatial en ne considérant qu'un échantillon aléatoire des sources qu'on observe dans le temps ; (2) Echantillonnage temporel en considérant toutes les sources mais en échantillonnant les instants observés de chaque capteur. Nous proposons une méthode générique et optimisée de construction de résumés à partir de flux de données distribués : A partir des flux de données observés à une période de temps t -1, nous déterminons un modèle de collecte de données à appliquer aux capteurs de la période t. Le calcul des agrégats se base sur l'inférence tatistique dans le cas de l'échantillonnage spatial et sur l'interpolation dans le cas de l'échantillonnage temporel. A notre connaissance, il n'existe pas de méthodes d'interpolation qui estiment les erreurs à tout instant et qui prennent en compte le flux de données ou courbe à interpoler et son intégrale. Nous proposons donc deux approches : la première se base sur le passé des courbes pour l'interpolation (approche naive) ; et la seconde utilise à un processus stochastique pour modéliser l'évolution des courbes (approche stochastique).
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Flux de données sémantiques"

1

Sid-Ahmed, Abdelkader. Les flux d'échanges en Méditerranée: Données, fondements historiques et perspectives. [France]: Edisud, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

France. Secrétariat général. Direction de la documentation. Flux Transfrontière de Données: Les Problèmes Qu'ils Soulèvent : le Bilan de Leur Utilisation. S.l: s.n, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Benyekhlef, Karim. La protection de la vie privée dans les échanges internationaux d'informations. Montréal, Qué: Éditions Thémis, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Jörg, Becker, and Szecskö Tamás 1933-, eds. Europe speaks to Europe: International information flows between east and west Europe. Oxford: Published for KomTech by Pergamon, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Europe, Council of, ed. Additional Protocol to the Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data, regarding supervisory authorities and transborder data flows =: Protocole additionnel à la convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel, concernant les autorités de contrôle et les flux transfrontières de données. Strasbourg: Council of Europe, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Integration of services into workflow applications. Boca Raton: CRC Press/Taylor & Francis Group, 2015.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

B, Lam Richard, ed. Programming workflow applications with Domino. Lawrence, KS: R&D Books, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Vie privée sans frontières: Les flux transfrontières de renseignements personnels en provenance du Canada. Ottawa, Ont: Direction des communications et affaires publiques, Ministère de la justice du Canada, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Lignes directrices de l'OCDE sur la protection de la vie privée et les flux transfrontières de données de caractère personnel. Éditions OCDE, 2002. http://dx.doi.org/10.1787/9789264296398-fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Data Sharing: Recent Progress and Remaining Challenges. Nova Science Publishers, Incorporated, 2019.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Flux de données sémantiques"

1

Lafourcade, Mathieu, and Nathalie Lebrun. "Vers un réseau lexico-sémantique de grande taille obtenu par crowdsourcing." In Le Crowdsourcing, 75–94. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3913.

Full text
Abstract:
Le projet JeuxDeMots vise à construire une grande base de connaissances de sens commun (et de spécialité), en français, à l’aide de jeux (GWAPs – Games With A Purpose), d’approches contributives, mais également de mécanismes d’inférences. Une dizaine de jeux ont été conçus dans le cadre du projet, chacun permettant de collecter des informations spécifiques, ou de vérifier la qualité de données acquises via un autre jeu. Cet article s’attachera à décrire la nature des données que nous avons collectées et construites, depuis le lancement du projet durant l’été 2007. Nous décrirons en particulier les aspects suivants : la structure du réseau lexical et sémantique JeuxDeMots, certains types de relations (sémantiques, ontologiques, subjectives, rôles sémantiques, associations d’idées, etc.), les questions d’activation et d’inhibition, l’annotation de relations (méta-informations), les raffinements sémantiques (gestion de la polysémie), la création de termes agglomérés permettant la représentation de connaissances plus riches (relations à n-arguments).
APA, Harvard, Vancouver, ISO, and other styles
2

Pajou, Jean-Charles. "Flux de données entre éditeurs et bibliothèques : le format ONIX." In Vers de nouveaux catalogues, 115. Éditions du Cercle de la Librairie, 2016. http://dx.doi.org/10.3917/elec.berme.2016.01.0115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"Examen de la littérature consacrée aux flux transfrontières de données." In Rapport sur l'économie numérique, 53–68. United Nations, 2022. http://dx.doi.org/10.18356/9789210058261c008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

JARLAN, Lionel, Bertrand BONAN, Jean-Christophe CALVET, Patricia DE ROSNAY, Catherine OTTLÉ, and Philippe PEYLIN. "Assimilation de données de télédétection pour le suivi des surfaces continentales." In Inversion et assimilation de données de télédétection, 45–95. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9142.ch2.

Full text
Abstract:
Le suivi des flux et des réservoirs au centre des grands cycles continentaux est indispensable pour une bonne connaissance des ressources en eau, de la production agricole ainsi que pour la prévision du temps et du climat. L’utilisation d’observations pour « corriger » la trajectoire des modèles, incertains par nature, est indispensable. L’objectif de ce chapitre est de dresser un panorama des applications de l’assimilation de données spatiales au suivi des surfaces continentales.
APA, Harvard, Vancouver, ISO, and other styles
5

Sackur, Jérôme. "Chapitre 4. Quelles données subjectives pour l’étude du flux de conscience ?" In Les signatures neurobiologiques de la conscience, 85–106. EDP Sciences, 2021. http://dx.doi.org/10.1051/978-2-7598-2612-4.c007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

"État des lieux des politiques nationales relatives aux flux transfrontières de données." In Rapport sur l'économie numérique, 133–60. United Nations, 2022. http://dx.doi.org/10.18356/9789210058261c011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

"Approches régionales et internationales de la réglementation des flux transfrontières de données." In Rapport sur l'économie numérique, 161–91. United Nations, 2022. http://dx.doi.org/10.18356/9789210058261c012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

GUERAUD-PINET, Guylaine. "Analyser la musique dans les programmes de flux de la télévision française (1949-2016)." In Corpus audiovisuels, 41–54. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5699.

Full text
Abstract:
Cet article s’intéresse aux manières d’appréhender et d’analyser la musique dans des corpus d’émissions de télévision française. Fondé sur une recherche doctorale (Gueraud-Pinet, 2018) en sciences de l’information et de la communication, il présente les méthodes engagées afin de comprendre la construction de l’agencement « image-musique » dans les programmes de télévision dits de flux de 1949 à 2016. L’analyse des grilles de programmation offre ainsi des données sur la place occupée par les programmes composés de musiques tout en permettant d’échantillonner les corpus audiovisuels. Ces derniers sont analysés statistiquement et thématiquement afin de comprendre la construction du rapport « image-musique », mais aussi afin de comparer ces données dans un temps long. Enfin, pour pallier l’approche objective découlant de l’analyse de contenu, une analyse du parcours circulatoire des images musicalisées est présentée. Celle-ci permet d’envisager notre objet en prenant en considération les carences musicologiques du chercheur en communication. Elle mène surtout à entrevoir le caractère symbolique produit par la relation « image-son » à la télévision.
APA, Harvard, Vancouver, ISO, and other styles
9

ISOARD, Gilbert. "Algorithmes et biais cognitifs." In Algorithmes et Société, 89–100. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4556.

Full text
Abstract:
Les biais cognitifs, nombreux et aux causes diverses, sont des raccourcis de nos schémas de pensées et provoquent des associations mentales faussement logiques liées à nos perceptions et à un confort de fonctionnement cérébral simplifié. L'avènement de l'usage massif de données statistiques dans des cycles de traitements de type algorithmiques tout aussi volumineux, pose la question de leur fiabilité et de leurs usages en fin de cycle. De fait peu de gens sont capables de décoder leurs contenus et rendre intelligible les écueils sociétaux que cela peut engendrer. Les solutions sont multiformes et ne passeront pas par un principe de précaution au sein des compétitions de tous ordres, mais par l'information tout aussi proportionnelle, l'éducation des acteurs et la facilitation des pouvoirs publics aux meilleurs usages et aux bonnes pratiques, de l'école aux acteurs économiques et aux citoyens. Une société civile qui est de plus en plus orientée par les algorithmes, influant jusqu'à notre imaginaire, et nos pensées traduites en actes quotidiens doit aussi nous alerter sur les dérives potentielles, colorées et augmentées des biais cognitifs, en passant par une éducation et des usages critiques, vigilants, d'une société de l'information baignant dans des flux aux multiples influences.
APA, Harvard, Vancouver, ISO, and other styles
10

DIOUF, François Singue, Meissa Birima FALL, and Sow MOUHAMADOU. "Site touristique et évolution spatiotemporelle d’un milieu géographique. Exemple de la station balnéaire de Saly Portudal au Sénégal." In Revue Internationale des Sciences Économiques et Sociales (RISES) No. 4, 17–30. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.8164.

Full text
Abstract:
Le tourisme est, dans sa nature et ses formes, une activité qui inscrit ses conséquences dans une large palette de mutations. En ce qu’il nécessite des infrastructures, de l’espace et draine des flux démographiques importants, ses empreintes sur le milieu recomposent ce dernier. Au Sénégal, le tourisme balnéaire qui a connu une explosion à partir de 1977 avec la création de la station de Saly Portudal y a entraîné des mutations de l’espace et de la temporalité. Cette présente recherche tente de comprendre comment la station balnéaire de Saly Portudal a influencé l’évolution du site ? Notre démonstration s’appuie sur une méthodologie associant recherche documentaire et travaux de terrain qui ont permis d’aboutir à une collecte de données quantitatives et qualitatives. À la lumière des résultats de cette recherche on constate que Saly Portudal a évolué dans l’espace et dans le temps. À ce propos, le site est marqué par une extension continue et un ensemble infrastructurel digne d’une ville moderne. Dans le temps, la nuit, à priori, crainte dans la société sénégalaise est, aujourd’hui, prisée, chérie, grâce à toutes les opportunités qu’elle offre. Le Saly Portudal que nous connaissons aujourd’hui est donc façonné par le tourisme. Dès lors, on peut convenir avec l’exemple de Saly Portudal que le tourisme est producteur d’espace et, en ce sens, peut déterminer l’aménagement du territoire.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Flux de données sémantiques"

1

CARTIER, Adrien, and Arnaud HEQUETTE. "Evaluation des flux sédimentaires sur les plages macrotidales du Nord-Pas-de-Calais à partir de données hydrodynamiques et de piégeages in situ." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2010. http://dx.doi.org/10.5150/jngcgc.2010.023-c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Vérézubova, Ekatérina. "Le champ lexical de l’eau et son imaginaire dans les cultures française et russe (étude comparative)." In XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3792.

Full text
Abstract:
La présente recherche porte sur l’étude comparative des aspects socioculturels de l’emploi des mots liés au champ lexical de l’eau en français et en russe. Nous partons de la représentation de la langue-culture comme d’un continu permettant de relever les particularités de la vision du monde des sujets parlants à travers les connotations et les emplois des mots dans des contextes différents. Ce sont les aspects affectif, imagé, mais aussi l’aspect évocateur, ou « de milieu » que nous avons choisi comme points de repère dans notre recherche. Nous utilisons dans notre démarche les données de dictionnaires et procédons à l’analyse des proverbes, dictons, expressions imagées et des contes français et russes pour découvrir les particularités du monde imaginaire, des associations nationales dans les langues-cultures respectives (il s’agit de la convergence totale, partielle ou absence de convergence de l’image. Cette étude devrait être complétée par l’emploi terminologique des mots et expressions du champ lexical de l’eau qui sont, dans la langue française, très souvent formés par la voie métaphorique (vive-eau, morte-eau signifiant la marée montante ou descendante, eau morte et eau vive renvoyant à l’eau stagnante ou l’eau qui coule), alors que la langue russe préfère réserver l’image au langage de la littérature (eau vive et morte dans les contes russes). De plus, les mots appartenant au champ lexical de l’eau sont largement employés en français dans la sphère de finances (verser, versement, liquidités, flux financiers, etc.) et, moins largement, en russe (sous forme d’emprunts, calques le plus souvent). Ces investigations de termes « aquatiques » dans les deux langues permettront de relever les nuances de leur emploi et de leurs connotations dont la connaissance est d’une grande importance pour les traducteurs.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3792
APA, Harvard, Vancouver, ISO, and other styles
3

Baranes, M., and T. Fortin. "Planification et chirurgie guidée - Avis d’experts : Apports des nouvelles technologies en implantologie : de la planification à la réalisation de la prothèse provisoire immédiate." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601011.

Full text
Abstract:
Les dernières technologies informatiques ainsi que le développement des imprimantes 3D ouvrent des perspectives intéressantes en terme de diagnostic et de thérapeutique en implantologie (1). Le plan de traitement prothétique doit guider le choix du nombre et du positionnement des implants. Les logiciels de planification implantaire permettent de superposer les fichiers DICOM (Digital Imaging and Communications in Medicine) de limagerie tridimensionnelle issue du CBCT et les données numériques de surface issues d’empreintes optiques ou de la numérisation de modèles conventionnels (2). Les modélisations occlusales peuvent être elles aussi réalisées virtuellement en statique et dynamique via l’utilisation darticulateurs virtuels (3,4). Un guide chirurgical est alors imprimé permettant de positionner les implants selon la planification virtuelle. Dans certains cas, la restauration provisoire peut être prévue à l’avance et mise en place à lissue de lintervention (5,6). Bien quil soit établit que la chirurgie guidée soit plus précise que la chirurgie à main levée (7), son utilisation en pratique quotidienne a été ralentie en grande partie à cause du coût de fabrication élevé. Le développement récent dimprimantes 3D de bureau de haute précision (8,9) et la multiplicité des logiciels de planification implantaire ont permis le développement de la chirurgie guidée. Cependant, à chaque étape du flux numérique, des imprécisions peuvent se cumuler pouvant aboutir à des erreurs de positionnement ayant des conséquences potentiellement graves : proximité avec les racines adjacentes, perforation des racines, lésion nerveuse. La précision des guides chirurgicaux sté- réolithographiques dépend de nombreux paramètres : lempreinte, l’impression du guide, le matériau utilisé, la nature du support, lexpérience du praticien. Les empreintes optiques réalisées avec des scanners intra-oraux de plus en plus puissants présentent de nombreux avantages par rapport aux techniques conventionnelles en terme de rapidité, de précision et de reproductibilité. (10-14). Les guides peuvent être à appui osseux, muqueux, dentaire ou mixte. Une revue systématique de la littérature de Gallardo et coll. en 2017 (15) compare la précision des guides chirurgicaux en fonction du type de support. Cette revue conclut que les guides à appui osseux présentent le plus de déviation au niveau de langle, du point dentrée et de la localisation de lapex de l’implant par rapport aux guides à appuis dentaires. Les guides à appuis muqueux montrent moins de déviation par rapport aux guides à appuis osseux. Les auteurs nont pas trouvé de différence statistiquement significative entre les guides à appuis dentaires et muqueux. Selon L’étude de Cassetta publiée en 2017 (16), lexpérience du praticien influence la précision du positionnement des implants en chirurgie guidée. Un praticien novice en implantologie présente plus de déviation sur le positionnement des implants avec lutili- sation d’un guide chirurgical stéréolithographique quun praticien expérimentée. La chirurgie implantaire guidée reste un outil et nécessite une expérience chirurgicale. Le flux numérique en implantologie peut aujourdhui se réaliser de la prise d’empreintes d’étude à la fabrication de la restauration prothétique implantaire en passant par la conception et l’impression d’un guide chirurgi- cal. Ce flux est une aide précieuse en terme de communication avec le patient mais aussi avec le prothésiste, il permet daugmenter la reproductibilité des résultats et daboutir à une restauration prothétique esthétique et fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Flux de données sémantiques"

1

Warin, Thierry, Nathalie de Marcellis-Warin, Sarah Elimam, Molivann Panot, and Jéremy Schneider. La diplomatie à l’heure de la science des données : réflexions stratégiques et perspectives. CIRANO, June 2023. http://dx.doi.org/10.54932/jrbv7364.

Full text
Abstract:
Les révolutions numériques des dernières décennies ont transformé la façon dont les gouvernements et organisations internationales prennent leurs décisions en matière de politiques publiques. La science des données est devenue une des composantes essentielles de la diplomatie moderne, permettant aux gouvernements de prendre des décisions éclairées et de mieux comprendre les enjeux internationaux. Ce rapport explore le pivot vers la diplomatie des données aux États-Unis, au Japon, à Singapour, en Allemagne et en France et explicite la façon dont l’analyse de données utilisant des méthodes d’intelligence artificielle offre de nouveaux outils d’aide à la décision et représente un avantage significatif pour l’action diplomatique. La diplomatie des données peut aider à comprendre les tendances économiques, les flux de commerce, les investissements étrangers, les réglementations et les politiques commerciales, tout comme elle peut aider à comprendre les tendances et les défis environnementaux communs, les politiques et les pratiques de développement durable et d'identifier les domaines d'engagement et de coopération bilatérale. Autant de moyens pouvant améliorer la force de frappe diplomatique du Québec à l’étranger.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography