To see the other types of publications on this topic, follow the link: Contributions in semantics.

Dissertations / Theses on the topic 'Contributions in semantics'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Contributions in semantics.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cregan, Anne Computer Science &amp Engineering Faculty of Engineering UNSW. "Weaving the semantic web: Contributions and insights." Publisher:University of New South Wales. Computer Science & Engineering, 2008. http://handle.unsw.edu.au/1959.4/42605.

Full text
Abstract:
The semantic web aims to make the meaning of data on the web explicit and machine processable. Harking back to Leibniz in its vision, it imagines a world of interlinked information that computers `understand' and `know' how to process based on its meaning. Spearheaded by the World Wide Web Consortium, ontology languages OWL and RDF form the core of the current technical offerings. RDF has successfully enabled the construction of virtually unlimited webs of data, whilst OWL gives the ability to express complex relationships between RDF data triples. However, the formal semantics of these languages limit themselves to that aspect of meaning that can be captured by mechanical inference rules, leaving many open questions as to other aspects of meaning and how they might be made machine processable. The Semantic Web has faced a number of problems that are addressed by the included publications. Its germination within academia, and logical semantics has seen it struggle to become familiar, accessible and implementable for the general IT population, so an overview of semantic technologies is provided. Faced with competing `semantic' languages, such as the ISO's Topic Map standards, a method for building ISO-compliant Topic Maps in the OWL DL language has been provided, enabling them to take advantage of the more mature OWL language and tools. Supplementation with rules is needed to deal with many real-world scenarios and this is explored as a practical exercise. The available syntaxes for OWL have hindered domain experts in ontology building, so a natural language syntax for OWL designed for use by non-logicians is offered and compared with similar offerings. In recent years, proliferation of ontologies has resulted in far more than are needed in any given domain space, so a mechanism is proposed to facilitate the reuse of existing ontologies by giving contextual information and leveraging social factors to encourage wider adoption of common ontologies and achieve interoperability. Lastly, the question of meaning is addressed in relation to the need to define one's terms and to ground one's symbols by anchoring them effectively, ultimately providing the foundation for evolving a `Pragmatic Web' of action.
APA, Harvard, Vancouver, ISO, and other styles
2

Vasile, Beniamin. "Catégorisation cognitive et stéréotypie dans la production du langage chez les patients schizophrènes : contributions psycholinguistiques." Thesis, Toulouse 2, 2012. http://www.theses.fr/2012TOU20023.

Full text
Abstract:
Cette thèse se propose l'exploration de la production langagière chez les adultes schizophrènes à travers les processus de catégorisation cognitive et de lexicalisation. L'approche interdisciplinaire réunit la psychopathologie, la linguistique cognitive et des éléments de neuropsychologie dans le cadre d'un protocole expérimental accueilli et validé par les services spécialisés du CHU de Purpan, Toulouse. Structuré en trois volets, le protocole explore les niveaux lexical, phrastique et discursif du langage des patients schizophrènes par le moyen de tâches de dénomination, de fluence verbale et de narration dans le cadre d'entretiens à dominante directive. Les résultats corroborent les données de la littérature faisant état de déficits quantitatifs et qualitatifs chez les patients schizophrènes. La plurivalence du corpus indique par ailleurs l'importance des stéréotypes qui transparaissent dans des figements psycholinguistiques chez ces patients et qui nécessitent une prise en charge spécifique (remédiation cognitive, art-thérapie)
This PhD thesis presents the exploration of the linguistic production at the schizophrenia adults through the processes of cognitive categorization and lexicalization. The interdisciplinary approach gathers the psychopathology, the cognitive linguistics and elements of neuropsychology within the framework of an experimental protocol approved by the clinical services of Purpan CHU (teaching hospital) from Toulouse. Structured in three parts, the protocol investigates the lexical, phrasal and discursive levels in schizophrenia patients by means of naming tasks, verbal fluency and storytelling within the framework of clinical experiments. The results confirm the data of the specialized literature stating quantitative and qualitative deficits in schizophrenia patients. In addition, the rich content of the corpus indicates the importance of the stereotypes which show through in psycholinguistics fixed frames in these patients and which require a specified coverage(Cognitive remediation, art-therapy)
APA, Harvard, Vancouver, ISO, and other styles
3

Akin, Atif Ahmet. "An Examination Of Possible Contributions Of New Media Terms And Concepts To The Field Of Product Design." Master's thesis, METU, 2005. http://etd.lib.metu.edu.tr/upload/12606663/index.pdf.

Full text
Abstract:
New media offer new ways for communication and production. This study aims to explore possible outcomes of the review of the new media literature for a contribution to the field of product design. Examining new media in a descriptive manner, the study presents its basic principles and characteristics. Relevant parts of new media and product design literature are reviewed in order to locate possible connections and/or exchanges between major concepts used in these fields. The two focal points of the study are the transformations that have taken place in (1) userproduct communication and (2) design and production media, resulting from the emergence of new media technologies.
APA, Harvard, Vancouver, ISO, and other styles
4

Johnston, David. "J.L. Austin on truth and meaning." Thesis, McGill University, 1991. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=70292.

Full text
Abstract:
The thesis presents a development of J. L. Austin's analysis of truth and its accompanying analysis of sentence structure. This involves a discussion and refinement of Austin's notions of the demonstrative and descriptive conventions of language and of the demonstrative and descriptive devices of sentences. The main point of the thesis is that ordinary language must be treated as an historical phenomenon: one that has evolved its more complex features through a long series of variations upon a small number of rudimentary conventions and locutions. The utility of Austin's analysis is shown to lie in the description that it provides of the functions of these rudimentary conventions and locutions. The analysis is used to illuminate a number of problematic sentences and expressions of ordinary language, including identity sentences, definite descriptions, existential sentences, and conditionals.
APA, Harvard, Vancouver, ISO, and other styles
5

Didier, Keryan. "Contributions to the safe and efficient parallelisation of hard real-time systems." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS485.

Full text
Abstract:
L'implémentation de systèmes temps-réel implique de nombreuses étapes qui sont jusqu'aujourd'hui faites manuellement. La complexité de tels systèmes et celle des plateformes matérielles sur lesquelles ils s'exécutent rendent de plus en plus difficile d'assurer la correction de ces étapes de conception (en particulier dans de cadre d'exécutions sur plateformes multi-cœurs). Cela rend l'automatisation de tout le processus d'implémentation inévitable. Cette thèse propose une méthode de parallélisation automatique de systèmes temps-réel. La méthode rapproche les domaines du temps-réel et de la compilation en intégrant les étapes de parallélisation, d'ordonnancement, d'allocation mémoire et de génération de code autour d'une analyse et d'un modèle temporel précis qui s'appuient sur des hypothèses fortes sur la plateforme d'exécution et la forme du code généré. Cette thèse propose également un modèle d'implémentation pour du logiciel flot-de-données multithreadé. En utilisant la même base formelle que précédemment (les formalismes flot-de-données synchrones), un modèle représente une implémentation multithreadé dans un langage comme Lustre, étendu avec des annotations de mapping. Cette modélisation permet un raisonnement formel de toutes les décisions d'implémentation et nous proposons une approche vers la preuve de correction de leur fonctionnalité en rapport à leurs spécifications
The implementation of hard real-time systems involves a lot of steps that are traditionally manual. The growing complexity of such systems and hardware platforms on which they are executed makes increasingly difficult to ensure the correctness of those steps, in particular for the timing properties of the system on multi-core platform. This leads to the need for automation of the whole implementation process. In this thesis, we provide a method for automatic parallel implementation of real-time systems. The method bridge the gap between real-time systems implementation and compilation by integrating parallelization, scheduling, memory allocation, and code generation around a precise timing model and analysis that rely on strong hypothesis on the execution platform and the form of the generated code. The thesis also provides an implementation model for dataflow multithreaded software. Using the same formal ground as the first contribution, the dataflow synchronous formalisms, the model represents multithreaded implementations in a Lustre-like language extended with mapping annotations. This model allows formal reasoning on the correctness of all the mapping decisions used to build the implementation. We propose an approach toward the proof of correctness of the functionality of the implementation with respect to the functional specifications
APA, Harvard, Vancouver, ISO, and other styles
6

Mouelhi, Sebti. "Contributions à la vérification de la sûreté de l'assemblage et à l'adaptation de composants réutilisables." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-01015089.

Full text
Abstract:
Cette thèse a pour objectif de proposer une approche formelle basée sur les automates d'interface pour spécifier les contrats des composants réutilisables et vérifier leur interopérabilité fonctionnelle. Cette interopérabilité se traduit par la vérification des trois niveaux : signature, sémantique, et protocole. Le formalisme des automates d'interface est basé sur une approche " optimiste" qui prend en compte les contraintes de l'environnement. Cette approche considère que deux composants sont compatibles s'il existe un environnement convenable avec lequel ils peuvent interagir correctement. Dans un premier temps, nous proposons une approche préliminaire qui intègre la sémantique des paramètres des actions dans la vérification de la compatibilité et de la substitution des composants spécifiés par des automates d'interface. Dans un second temps, nous nous somme intéressés à adapter les composants réutilisables dont les contrats sont décrits par des automates d'interface enrichis par la sémantique des actions. En ce sens, nous avons proposé un algorithme qui permet de générer automatiquement la spécification d'un adaptateur de deux composants lorsque celui-ci existe. Dans un troisième temps, nous avons augmenté le pouvoir d'expression de notre approche proposée pour vérifier l'interopérabilité et les propriétés de sûreté des composants qui communiquent par des variables définies au niveau de leurs contrats d'interface. En particulier, nous étudions la préservation des invariants par composition et par raffinement.
APA, Harvard, Vancouver, ISO, and other styles
7

Jobbins, Amanda Caryn. "The contribution of semantics to automatic text processing." Thesis, Nottingham Trent University, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.302405.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kanterian, Edward. "Descriptive names : a contribution to the semantics of referring expressions." Thesis, University of Oxford, 2006. http://ora.ox.ac.uk/objects/uuid:885ec416-df87-4bf2-b3ab-4c2173f53804.

Full text
Abstract:
A theory of descriptive names is developed and defended against several objections. Descriptive names pose an interesting challenge to any theory of reference, since they possess both features of proper names and definite descriptions, i.e. of expressions which are often considered to be radically different. These features are referentiality and descriptive sense. The thesis takes as its point of departure Gareth Evans's theory of descriptive names, improves upon it and discusses several other authors and related theories along the way. Chapter I provides an brief introduction to the topic and an abstract of the main lines of argument. Chapter 2 argues that descriptive names possess both referential status and descriptive sense, and that these qualities constitute the two most basic elements of the notion of descriptive reference (which is contrasted with Russellian reference). It is demonstrated that not all names introduced by description are descriptive names, a claim which is given additional substance by a comparison between Evans's and Kripke's accounts of such names. Chapters 3 and 4 deal with two major challenges to the possibility of descriptive names. Chapter 3 explores the possibility of a truth-conditional theory of meaning for descriptive names, but it is shown that if we follow Evans's suggestion that the semantic value of a descriptive name is to be construed according to model theory - namely, as an entity distinct from the referent (a set) - such a theory will result in treating descriptive names as predicates, and thus eliminate then qua referring expressions. Similar accounts given by other authors are also examined and found to be problematic. I conclude by rejecting the model-theoretic notion of semantic value. Chapter 4 addresses a second challenge, posed by the fact that if a descriptive name has a descriptive sense, then given a Russellian analysis of definite descriptions, descriptive names must be quantifier phrases, and thus, again, non-referring expressions. It is argued that if this is true, then the use of negative free logic is unnecessary. Using the idea of rigidified descriptions, it is shown that Evans's arguments, based on modality and simplicity considerations, fail to save both the referentiality and descriptive sense of descriptive names while semantically dissociating them from descriptions. I show that descriptive names can be treated as shorthand for rigidified descriptions and thus semantically on a par with the latter, which, as I demonstrate, is still consistent with Evans's own (convincing) solution of the puzzle of the contingent a priori. Nevertheless, this still does not guarantee the referentiality of descriptive names. Chapter 5 presents in detail the argument that we can only save the referentiality and descriptive sense of descriptive names if we treat definite descriptions as referring expressions. Several negative arguments undermining the most influential defences of the Russellianism are given and three positive accounts of referring descriptions, Wettstein's, Sainbury's and Strawson's, are critically discussed, finally settling, with some proviso, for Strawson's. Finally, the principles of a 'Fregean' free logic for Strawsonian semantics are sketched, and I suggest ways in which a truth theory could be expressed by means of these principles. Chapter 6 summarises the achievements, sketches possible research concerning descriptive names and concludes that the analysis of descriptive names is useful in at least three ways: it provides us with means to, first, solve problems that arise from the introduction of artificial expressions such as descriptive names (e.g. the problem of the contingent a priori), second, to better understand our natural language and its relation to formal theories of meaning, and, last but not least, to give a strong rationale for a referential treatment of definite descriptions. Chapter 7 includes the bibliography and Chapter 8 a list of axioms and formulas.
APA, Harvard, Vancouver, ISO, and other styles
9

Bartlett, Kirsten E. "Processing SMS shortcuts : the contribution of phonology, orthography and semantics." Thesis, Sheffield Hallam University, 2012. http://shura.shu.ac.uk/19324/.

Full text
Abstract:
This thesis explores the question of whether unusual and visually irregular stimuli, such as SMS shortcuts (e.g., txt; text, l8r, later) are processed in the same way as familiar words. Early computational models such as the Dual Route Cascaded (DRC) Model (Coltheart, Rastle, Perry, Langdon & Ziegler, 2001) and the Interactive Activation (IA) model (McClelland & Rumelhart, 1981) implemented a slot based letter coding system that assumed letter positions in a word had to be accurate for word recognition to occur. However, more recent research has demonstrated that subsets of the consonants in a word (e.g., blcn-BALCON) are able to access the lexicon, suggesting that the system may be fairly flexible (Dunabeitia & Carreiras, 2011; Peressotti & Grainger, 1999). Further research with familiar abbreviations (e.g., BBC; British Broadcasting Company) suggests that these items are added to the mental lexicon implying that familiarity allows the lexical processor to accommodate visually irregular stimuli (Brysbaert, Speybroeck & Vanderelst, 2009). This finding may be expected to extend to similarly unusual items such as txt (text) or I8r (later). However, SMS shortcuts are unlike abbreviations because they are alternative spellings of existing words and may not require new lexical entries in order to be processed. As such single word shortcuts, as opposed to initialisms that represent whole phrases (e.g., /o/; laugh out loud, tbh; to be honest), share characteristics with second language cognates (e.g. the English-Spanish cognates cat and gato) that are also alternative representations of words that already exist in a lexicon. The evidence presented in this thesis supports the suggestion that visually unusual stimuli will be accommodated by the lexical processor if they are familiar and it is likely that they are added to the mental lexicon. In addition the patterns of data exhibited by SMS shortcuts are not dissimilar to those found with second language cognates. This thesis also presents a comprehensive database of SMS shortcuts that provides an indication of the frequency with which these items are currently used by a UK undergraduate population.
APA, Harvard, Vancouver, ISO, and other styles
10

Gao, Boyang. "Contributions to music semantic analysis and its acceleration techniques." Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0044/document.

Full text
Abstract:
La production et la diffusion de musique numérisée ont explosé ces dernières années. Une telle quantité de données à traiter nécessite des méthodes efficaces et rapides pour l’analyse et la recherche automatique de musique. Cette thèse s’attache donc à proposer des contributions pour l’analyse sémantique de la musique, et en particulier pour la reconnaissance du genre musical et de l’émotion induite (ressentie par l’auditoire), à l’aide de descripteurs de bas-niveau sémantique mais également de niveau intermédiaire. En effet, le genre musical et l’émotion comptent parmi les concepts sémantiques les plus naturels perçus par les auditoires. Afin d’accéder aux propriétés sémantiques à partir des descripteurs bas-niveau, des modélisations basées sur des algorithmes de types K-means et GMM utilisant des BoW et Gaussian super vectors ont été envisagées pour générer des dictionnaires. Compte-tenu de la très importante quantité de données à traiter, l’efficacité temporelle ainsi que la précision de la reconnaissance sont des points critiques pour la modélisation des descripteurs de bas-niveau. Ainsi, notre première contribution concerne l’accélération des méthodes K-means, GMM et UMB-MAP, non seulement sur des machines indépendantes, mais également sur des clusters de machines. Afin d’atteindre une vitesse d’exécution la plus importante possible sur une machine unique, nous avons montré que les procédures d’apprentissage des dictionnaires peuvent être réécrites sous forme matricielle pouvant être accélérée efficacement grâce à des infrastructures de calcul parallèle hautement performantes telle que les multi-core CPU ou GPU. En particulier, en s’appuyant sur GPU et un paramétrage adapté, nous avons obtenu une accélération de facteur deux par rapport à une implémentation single thread. Concernant le problème lié au fait que les données ne peuvent pas être stockées dans la mémoire d’une seul ordinateur, nous avons montré que les procédures d’apprentissage des K-means et GMM pouvaient être divisées par un schéma Map-Reduce pouvant être exécuté sur des clusters Hadoop et Spark. En utilisant notre format matriciel sur ce type de clusters, une accélération de 5 à 10 fois a pu être obtenue par rapport aux librairies d’accélération de l’état de l’art. En complément des descripteurs audio bas-niveau, des descripteurs de niveau sémantique intermédiaire tels que l’harmonie de la musique sont également très importants puisqu’ils intègrent des informations d’un niveau d’abstraction supérieur à celles obtenues à partir de la simple forme d’onde. Ainsi, notre seconde contribution consiste en la modélisation de l’information liée aux notes détectées au sein du signal musical, en utilisant des connaissances sur les propriétés de la musique. Cette contribution s’appuie sur deux niveaux de connaissance musicale : le son des notes des instruments ainsi que les statistiques de co-occurrence et de transitions entre notes. Pour le premier niveau, un dictionnaire musical constitué de notes d’instruments a été élaboré à partir du synthétiseur Midi de Logic Pro 9. Basé sur ce dictionnaire, nous avons proposé un algorithme « Positive Constraint Matching Pursuit » (PCMP) pour réaliser la décomposition de la musique. Pour le second niveau, nous avons proposé une décomposition parcimonieuse intégrant les informations de statistiques d’occurrence des notes ainsi que les probabilités de co-occurrence pour guider la sélection des atomes du dictionnaire musical et pour construire un graphe à candidats multiples pour proposer des choix alternatifs lors des sélections successives. Pour la recherche du chemin global optimal de succession des notes, les probabilités de transitions entre notes ont également été incorporées. […]
Digitalized music production exploded in the past decade. Huge amount of data drives the development of effective and efficient methods for automatic music analysis and retrieval. This thesis focuses on performing semantic analysis of music, in particular mood and genre classification, with low level and mid level features since the mood and genre are among the most natural semantic concepts expressed by music perceivable by audiences. In order to delve semantics from low level features, feature modeling techniques like K-means and GMM based BoW and Gaussian super vector have to be applied. In this big data era, the time and accuracy efficiency becomes a main issue in the low level feature modeling. Our first contribution thus focuses on accelerating k-means, GMM and UBM-MAP frameworks, involving the acceleration on single machine and on cluster of workstations. To achieve the maximum speed on single machine, we show that dictionary learning procedures can elegantly be rewritten in matrix format that can be accelerated efficiently by high performance parallel computational infrastructures like multi-core CPU, GPU. In particular with GPU support and careful tuning, we have achieved two magnitudes speed up compared with single thread implementation. Regarding data set which cannot fit into the memory of individual computer, we show that the k-means and GMM training procedures can be divided into map-reduce pattern which can be executed on Hadoop and Spark cluster. Our matrix format version executes 5 to 10 times faster on Hadoop and Spark clusters than the state-of-the-art libraries. Beside signal level features, mid-level features like harmony of music, the most natural semantic given by the composer, are also important since it contains higher level of abstraction of meaning beyond physical oscillation. Our second contribution thus focuses on recovering note information from music signal with musical knowledge. This contribution relies on two levels of musical knowledge: instrument note sound and note co-occurrence/transition statistics. In the instrument note sound level, a note dictionary is firstly built i from Logic Pro 9. With the musical dictionary in hand, we propose a positive constraint matching pursuit (PCMP) algorithm to perform the decomposition. In the inter-note level, we propose a two stage sparse decomposition approach integrated with note statistical information. In frame level decomposition stage, note co-occurrence probabilities are embedded to guide atom selection and to build sparse multiple candidate graph providing backup choices for later selections. In the global optimal path searching stage, note transition probabilities are incorporated. Experiments on multiple data sets show that our proposed approaches outperform the state-of-the-art in terms of accuracy and recall for note recovery and music mood/genre classification
APA, Harvard, Vancouver, ISO, and other styles
11

Yao, Norikazu. "Auditory localisation : contributions of sound location and semantic spatial cues." Thesis, Queensland University of Technology, 2007. https://eprints.qut.edu.au/16504/1/Norikazu_Yao_Thesis.pdf.

Full text
Abstract:
In open skill sports and other tasks, decision-making can be as important as physical performance. Whereas many studies have investigated visual perception there is little research on auditory perception as one aspect of decision making. Auditory localisation studies have almost exclusively focussed on underlying processes, such as interaural time difference and interaural level difference. It is not known, however, whether semantic spatial information contained in the sound is actually used, and whether it assists pure auditory localisation. The aim of this study was to investigate the effect on auditory localisation of spatial semantic information. In Experiment One, this was explored by measuring whole body orientation to the words "Left", "Right", "Back", "Front" and "Yes", as well as a tone, each presented from left right, front and back locations. Experiment Two explored the effect of the four spatial semantic words presented either from their matching locations, or from a position rotated 20 degrees anticlockwise. In both experiments there were two conditions, with subjects required to face the position indicated by the sound location, or the meaning of the word. Movements of the head were recorded in three dimensions with a Polhemus Fastrak system, and were analysed with a custom program. Ten young adult volunteers participated in each experiment. Reaction time, movement time, initial rotation direction, rotation direction at peak velocity, and the accuracy of the final position were the dependent measures. The results confirmed previous reports of confusions between front and back locations, that is, errors about the interaural axis. Unlike previous studies, many more back-to-front than front-toback errors was made. The experiments provided some evidence for a spatial Stroop interference effect, that is, an effect on performance of conflicting information provided by the irrelevant dimension of the stimulus, but only for reaction time and initial movement direction, and only in the Word condition. The results are interpreted using a model of the processes needed to respond to the stimulus and produce an orienting movement. They suggest that there is an asymmetric interference effect in which auditory localisation can interfere with localisation based on semantic content of words, but not the reverse. In addition, final accuracy was unaffected by any interference, suggesting that these effects are restricted to the initial stages of response selection.
APA, Harvard, Vancouver, ISO, and other styles
12

Yao, Norikazu. "Auditory localisation : contributions of sound location and semantic spatial cues." Queensland University of Technology, 2007. http://eprints.qut.edu.au/16504/.

Full text
Abstract:
In open skill sports and other tasks, decision-making can be as important as physical performance. Whereas many studies have investigated visual perception there is little research on auditory perception as one aspect of decision making. Auditory localisation studies have almost exclusively focussed on underlying processes, such as interaural time difference and interaural level difference. It is not known, however, whether semantic spatial information contained in the sound is actually used, and whether it assists pure auditory localisation. The aim of this study was to investigate the effect on auditory localisation of spatial semantic information. In Experiment One, this was explored by measuring whole body orientation to the words "Left", "Right", "Back", "Front" and "Yes", as well as a tone, each presented from left right, front and back locations. Experiment Two explored the effect of the four spatial semantic words presented either from their matching locations, or from a position rotated 20 degrees anticlockwise. In both experiments there were two conditions, with subjects required to face the position indicated by the sound location, or the meaning of the word. Movements of the head were recorded in three dimensions with a Polhemus Fastrak system, and were analysed with a custom program. Ten young adult volunteers participated in each experiment. Reaction time, movement time, initial rotation direction, rotation direction at peak velocity, and the accuracy of the final position were the dependent measures. The results confirmed previous reports of confusions between front and back locations, that is, errors about the interaural axis. Unlike previous studies, many more back-to-front than front-toback errors was made. The experiments provided some evidence for a spatial Stroop interference effect, that is, an effect on performance of conflicting information provided by the irrelevant dimension of the stimulus, but only for reaction time and initial movement direction, and only in the Word condition. The results are interpreted using a model of the processes needed to respond to the stimulus and produce an orienting movement. They suggest that there is an asymmetric interference effect in which auditory localisation can interfere with localisation based on semantic content of words, but not the reverse. In addition, final accuracy was unaffected by any interference, suggesting that these effects are restricted to the initial stages of response selection.
APA, Harvard, Vancouver, ISO, and other styles
13

Cooper, Elisa. "Pronouncing printed words : investigating a semantic contribution to adult word reading." Thesis, University of East London, 2013. http://roar.uel.ac.uk/3042/.

Full text
Abstract:
When considering print-to-sound word reading, orthography and phonology are obviously involved. However, another system, that of semantic memory, might also be involved in orthography-to-phonology computation. Whether this occurs is debated in the literature both in the interpretation of behavioural results (e.g., Monaghan & Ellis, 2002; Strain et al., 1995) and in the implementation of semantic memory within computational models of word reading (Coltheart et al., 2001; Plaut et al., 1996). The central aim of this thesis was to investigate whether there is a semantic contribution to orthography-to-phonology computation in healthy adult word reading. Experiments 1-4 used a semantic priming design in which a picture prime was followed either two trials later (Experiments 1, 3, and 4) or one trial later (Experiment 2) by a word target, and this investigated priming of various word types. Regression investigations explored whether semantic features and imageability were unique significant predictors of ELexicon single word reading reaction times while statistically controlling for age-of-acquisition. The two ERP experiments (Experiments 5 and 6) investigated the neurocorrelates of imageability and semantic features and whether there are semantic effects early in the time-course of low frequency word reading. Experiments 1, 2, 4, 5, and 6 and the regression investigations show evidence of a semantic contribution to low frequency regular and low frequency exception word reading. There is also some suggestion of a semantic contribution to high frequency word reading (Experiment 2 and Regression analyses). From the results of the three lines of investigation, it is concluded that semantic information is involved in healthy adult word reading, and these results are best accommodated by the connectionist triangle model of word reading. These investigations also provide information concerning various word types and factors that contribute to “easy” and “difficult” words, semantic memory models and their accounts of priming, and the measures, age-of-acquisition, imageability, and semantic features.
APA, Harvard, Vancouver, ISO, and other styles
14

WINTER, CHRISTINE. "Contribution a l'etude des dictionnaires bilingues francais-anglais. Quelques problemes semantico-syntaxiques." Université Marc Bloch (Strasbourg) (1971-2008), 1989. http://www.theses.fr/1989STR20018.

Full text
Abstract:
Cette etude des dictionnaires bilingues francais-anglais anglais-francais se limite a l'observation de deux ouvrages de taille moyenne: le robert et collins (editions 1978 et 1987) et le harrap's shorter. (edition 1982). Deux aspects principaux de l'equivalence seront evoques: l'equivalence semique et l'equivalence fonctionnelle. Une analyse contrastive prealable permettra d'evaluer certains articles dans les deux dictionnaires. D'abord, l'etude syntaxique des relations prises en charge par avec et with revele que les dictionnaires enumerent des sens contextuels mais ne montrent pas clairement les differences fonctionnelles entre les deux prepositions. Ensuite, l'etude des champs lexicaux de la perception olfactive montrera que les correspondances semantiques entre verbes francais et anglais sont le plus souvent partielles: le dictionnaire pose des equivalences sans specifier les limites respectives (semantiques, fonctionnelles ou stylistiques) des termes source et cible. Par ailleurs, lorsque plusieurs equivalents sont proposes, ils ne sont pas toujours clairement differencies. L'observation d'articles specifiques permet d'entrevoir des problemes plus generaux, lies aux choix et aux techniques lexicographiques. Les questions soulevees par des evaluations ponctuelles peuvent alors etre regroupees et donner lieu a des suggestions ou a des orientations de reflexion
This study on french-english english-french bilingual dictionaries is primarily concerned with two medium-sized works: the collins and robert and the harrap's shorter. Two main aspects of equivalence will be discussed, namely semantic and functional equivalence. A contrastive analysis will be a prerequisite to the evaluation of some articles appearing in the two dictionaries. First of all, a syntactic analysis of the elements related by english with and french avec will show that the dictionaries list contextual meanings rather than indicate the functional differences existing between the two prepositions. Then, a semantic study concerned with french and english lexical fields will reveal that only partial equivalence can be stated between most pairs of verbs related to olfactory perception. In spite of this, the mentioned dictionaries do not specify the limits of the equivalence, whether semantic, functional or stylistic. Moreover, several equivalents often appear side by side without being discriminated. The observation of specific articles leads to more general questions concerned with lexicographic choices and lexicographical techniques. Problems raised through selective examination and evaluation can finally be gathered, classified and reworded into general suggestions and directions for further research
APA, Harvard, Vancouver, ISO, and other styles
15

Kocagoncu, Ece. "Dynamic speech networks in the brain : dual contribution of incrementality and constraints in access to semantics." Thesis, University of Cambridge, 2017. https://www.repository.cam.ac.uk/handle/1810/270309.

Full text
Abstract:
This thesis explores the spatiotemporal network dynamics underlying natural speech comprehension, as measured by electro-magnetoencephalography (E/MEG). I focus on the transient effects of incrementality and constraints in speech on access to lexical semantics. Through three E/MEG experiments I address two core issues in systems neuroscience of language: 1) What are the network dynamics underpinning cognitive computations that take place when we map sounds to rich semantic representations? 2) How do the prior semantic and syntactic contextual constraints facilitate this mapping? Experiment 1 investigated the cognitive processes and relevant networks that come online prior to a word’s recognition point (e.g. “f” for butterfly) as we access meaning through speech in isolation. The results revealed that 300 ms before the word is recognised, the speech incrementally activated matching phonological and semantic representations resulting in transient competition. This competition recruited LIFG, and modality specific regions (LSMG, LSTG for the phonological; LAG and MTG for the semantic domain). Immediately after the word’s recognition point the semantic representation of the target concept was boosted, and rapidly accessed recruiting bilateral MTG and AG. Experiment 2 explored the cortical networks underpinning contextual semantic processing in speech. Participant listened to two-word spoken phrases where the semantic constraint provided by the modifier was manipulated. To separate out cognitive networks that are modulated by semantic constraint from task positive networks I performed a temporal independent component analysis. Among 14 networks extracted, only the activity of bilateral AG was modulated by semantic constraint between -400 to -300 ms before the noun’s recognition point. Experiment 3 addressed the influence of sentential syntactic constraint on anticipation and activation of upcoming syntactic frames in speech. Participants listened to sentences with local syntactic ambiguities. The analysis of the connectivity dynamics in the left frontotemporal syntax network showed that the processing of sentences that contained the less anticipated syntactic structure showed early increased feedforward information flow in 0-100 ms, followed by increased recurrent connectivity between LIFG and LpMTG from the 200-500 ms from the verb onset. Altogether the three experiments reveal novel insights into transient cognitive networks recruited incrementally over time both in the absence of and with context, as the speech unfolds, and how the activation of these networks are modulated by contextual syntactic and semantic constraints. Further I provide neural evidence that contextual constraints serve to facilitate speech comprehension, and how the speech networks recover from failed anticipations.
APA, Harvard, Vancouver, ISO, and other styles
16

Hunt, Frances Jane. "A semantic contribution to verbal short-term memory : a test of operational definitions of 'semantic similarity' and input versus output processes." Thesis, University of Greenwich, 2007. http://gala.gre.ac.uk/6192/.

Full text
Abstract:
Baddeley and Hitch (1974; Baddeley, 1986, 2000) propose that coding in verbal short-term memory is phonological and that semantic codes are employed in long-term memory. Semantic coding in short-term memory has been investigated to a far lesser degree than phonological codes and the findings have been inconsistent. Some theorists propose that semantic coding is possible (e.g. Nairne, 1990) while other suggest that semantic factors act during recall (e.g. Saint-Aubin & Poirer, 1999a). The following body of work investigates whether semantic coding is possible in short-term memory and examines what constitutes ‘semantic similarity’. Chapter 2 reports two visually presented serial recall experiments comparing semantically similar and dissimilar lists. This revealed that context greatly influences the recall of homophones. Chapter 3 illustrated that category members and synonyms enhanced item recall. However, categories had little impact on order retention, whereas synonyms had a detrimental effect. Chapter 4 employed a matching-span task which is purported to differentiate between input and output processes. It was found that synonyms had a detrimental effect on recall, indicative of the effect being related to input processes. Chapter 5 employed mixed lists using backward and forward recall. It was found that the important factor was that the semantically similar items should be encountered first in order to maximise their impact. This supported the contention of the importance of input factors. Chapter 6 compared phonologically and semantically similar items using an open and a closed word pool. It was found that semantic and phonological similarity has comparable effects when an open word pool and free recall scoring method are employed. Overall, the results were consistent with the idea that phonological and semantic codes can be employed in short-term recall.
APA, Harvard, Vancouver, ISO, and other styles
17

Klooster, Nathaniel Bloem. "The hippocampus and semantic memory beyond acquisition: a lesion study of hippocampal contributions to the maintenance, updating, and use of remote semantic memory." Diss., University of Iowa, 2016. https://ir.uiowa.edu/etd/3122.

Full text
Abstract:
Semantic memory includes vocabulary and word meanings, conceptual information, and general facts about the world (Tulving, 1972). According to the standard view of semantic memory in cognitive neuroscience, the hippocampus is necessary to first acquire new semantic information (Gabrieli, Cohen, & Corkin, 1988), but these representations are then consolidated in the neocortex and become independent of the hippocampus with time (McClelland, McNaughton, & O'Reilly, 1995). Remote semantic memory is considered independent of the hippocampus, and the hippocampus is not thought to play a critical role in the processing and use of such representations. The current work challenges the notion that previously acquired semantic knowledge, and its use during communication, is independent of the hippocampus. A group of patients with bilateral hippocampal damage and severe impairments in declarative memory were tested. Intact naming and word-definition matching performance in amnesia, has led to the notion that remote semantic memory is intact in patients with hippocampal amnesia. Motivated by perspectives of word learning as a protracted process where additional features and senses of a word are added over time, and by recent discoveries about the time course of hippocampal contributions to on-line relational processing, reconsolidation, and the flexible integration of information, we revisit the notion that remote semantic memory is intact in amnesia. Using measures of semantic richness and vocabulary depth from psycholinguistics and first and second language-learning studies, we examined how much information is associated with previously acquired, highly familiar words in hippocampal amnesic patients. Relative to healthy demographically matched comparison participants and a group of brain-damaged comparison participants, the patients with hippocampal amnesia performed significantly worse on both productive and receptive measures of vocabulary depth and semantic richness. In the healthy brain, semantic memory appears to get richer and deeper with time. Healthy participants of all ages were tested on these measures and strong correlations are seen with age as older healthy adults displayed richer semantic knowledge than the younger adults. The patient data provides a mechanism: hippocampal relational binding supports the deepening and enrichment of knowledge over time. These findings suggest that remote semantic memory is impoverished in patients with hippocampal amnesia and that the hippocampus supports the maintenance and updating of semantic memory beyond its initial acquisition. The use of lexical and semantic knowledge during discourse was also examined. Amnesic patients displayed significantly lower levels of lexical diversity in the speech they produced, and showed a strong trend toward producing language with reduced levels of semantic detail suggesting that patients cannot use their semantic representations as richly during communication. These results add to a growing body of work detailing a role for the hippocampus in language processing more generally. By documenting a role for the hippocampus in maintaining, updating, and using semantic knowledge, this work informs theories of semantic memory and it's neural bases, advances knowledge of the role of the hippocampus in supporting human behavior, and brings more sensitive measures to the neuroscientific study of semantic memory.
APA, Harvard, Vancouver, ISO, and other styles
18

Jefferies, Elizabeth Alice. "Evidence for lexical and semantic contributions to phonological coherence in verbal short-term memory." Thesis, University of Bristol, 2003. http://hdl.handle.net/1983/943b98f5-1970-415a-ad56-c7fed3627a01.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Delia, Luigi. "La verità filosofica nel pensiero di Descartes : studio storico, critico e semantico." Dijon, 2007. http://www.theses.fr/2007DIJOL025.

Full text
Abstract:
La question de la vérité, c’est-à-dire de sa recherche et des expériences requises pour s’en emparer; de sa possibilité et de son origine; de ses caractères et des choix qui portent sur elle; de sa force contraignante et de sa formation intellectuelle; de sa cohérence et de sa correspondance; de son univocité et de sa diverse modulation discursive; de l’usage, enfin, qu’il convient qu’on en fasse en vue du progrès de la science et du perfectionnement moral de l’homme, n’est pas une question locale, mais traverse comme une idée directrice l’ensemble du projet (cohérent, et en même temps, pluriel) de la philosophie cartésienne. Notre thèse s’est fixé un triple objectif: reconstruire le contexte intellectuel dans lequel se forme l’idée cartésienne de vérité; mener une enquête plus intrinsèque à l’œuvre de Descartes, visant à réfléchir sur les principaux problèmes interprétatifs liés à cette notion; accomplir une étude lexicale consacrée au registre négatif de la vérité
The question of truth, that is of its research and of the proper experiences that allow to grasp it (the necessity of the method); of its possibility and of its origin; of its characteristics and of the choices that imply it; of its constraining force and of its intellectual formation; of its coherence and of its correspondence; of its univocallity and of its diverse discursive modulation (distinction of the three primitive notions); of the use, last, that we must rightly make of it in light of science’s progress and of human moral development, is not a localised question but indeed transpires through all the Cartesian philosophy project. The defended thesis was fixed around a triple objective: to reconstruct the intellectual context within which is shaped the Cartesian idea of truth; to conduct an enquiry within Descartes’ work, aiming to think over the main interpretative problems linked to this notion; to conduct a lexical study dedicated to the negative register about truth
APA, Harvard, Vancouver, ISO, and other styles
20

Perlin, Hugo Alberto. "A contribution to semantic description of images and videos: an application of soft biometrics." Universidade Tecnológica Federal do Paraná, 2015. http://repositorio.utfpr.edu.br/jspui/handle/1/1808.

Full text
Abstract:
Fundação Araucária
Os seres humanos possuem uma alta capacidade de extrair informações de dados visuais, adquiridos por meio da visão. Através de um processo de aprendizado, que se inicia ao nascer e continua ao longo da vida, a interpretação de imagens passa a ser feita de maneira quase instintiva. Em um relance, uma pessoa consegue facilmente descrever com certa precisão os componentes principais que compõem uma determinada cena. De maneira geral, isto é feito extraindo-se características de baixo nível, como arestas, texturas e formas, e associando-as com significados de alto nível. Ou seja, realiza-se uma descrição semântica desta cena. Um exemplo disto é a capacidade de reconhecer outras pessoas e descrever suas características físicas e comportamentais. A área de visão computacional tem como principal objetivo desenvolver métodos capazes de realizar interpretação visual com desempenho similar aos humanos. Estes métodos englobam conhecimento de aprendizado de máquina e processamento de imagens. Esta tese tem como objetivo propor métodos de visão computacional que permitam a extração de informações de alto nível na forma de biometrias leves. Estas biometrias representam características inerentes ao corpo e ao comportamento humano. Porém, não permitem a identificação unívoca de uma pessoa. Para tanto, este problema foi abordado de duas formas, aprendizado não-supervisionado e supervisionado. A primeira busca agrupar as imagens através de um processo de aprendizado automático de extração de características, empregando técnicas de convoluções, computação evolucionária e clusterização. Nesta abordagem as imagens utilizadas contém faces e pessoas. A segunda abordagem emprega redes neurais convolucionais, que possuem a capacidade de operar sobre imagens cruas, aprendendo tanto o processo de extração de características quanto a classificação. Aqui as imagens são classificadas de acordo com gênero e roupas, divididas em parte superior e inferior do corpo humano. A primeira abordagem, quando testada com diferentes bancos de imagens, obteve uma acurácia de aproximadamente 80% para faces e não-faces e 70% para pessoas e não-pessoas. A segunda, testada utilizando imagens e vídeos, obteve uma acurácia de cerca de 70% para gênero, 80% para roupas da parte superior e 90% para a parte inferior. Os resultados destes estudos de casos, mostram que os métodos propostos são promissores, permitindo a realização de anotação automática de informações de alto nível. Isto abre possibilidades para o desenvolvimento de aplicações em diversas áreas, como busca de imagens e vídeos baseada em conteúdo e segurança por vídeo, reduzindo o esforço humano nas tarefas de anotação manual e monitoramento.
Humans have a high ability to extract visual data information acquired by sight. Trought a learning process, which starts at birth and continues throughout life, image interpretation becomes almost instinctively. At a glance, one can easily describe a scene with reasonable precision, naming its main components. Usually, this is done by extracting low-level features such as edges, shapes and textures, and associanting them to high level meanings. In this way, a semantic description of the scene is done. An example of this, is the human capacity to recognize and describe other people physical and behavioral characteristics, or biometrics. Soft-biometrics also represents inherent characteristics of human body and behaviour, but do not allow unique person identification. Computer vision area aims to develop methods capable of performing visual interpretation with performance similar to humans. This thesis aims to propose computer vison methods which allows high level information extraction from images in the form of soft biometrics. This problem is approached in two ways, unsupervised and supervised learning methods. The first seeks to group images via an automatic feature extraction learning , using both convolution techniques, evolutionary computing and clustering. In this approach employed images contains faces and people. Second approach employs convolutional neural networks, which have the ability to operate on raw images, learning both feature extraction and classification processes. Here, images are classified according to gender and clothes, divided into upper and lower parts of human body. First approach, when tested with different image datasets obtained an accuracy of approximately 80% for faces and non-faces and 70% for people and non-person. The second tested using images and videos, obtained an accuracy of about 70% for gender, 80% to the upper clothes and 90% to lower clothes. The results of these case studies, show that proposed methods are promising, allowing the realization of automatic high level information image annotation. This opens possibilities for development of applications in diverse areas such as content-based image and video search and automatica video survaillance, reducing human effort in the task of manual annotation and monitoring.
APA, Harvard, Vancouver, ISO, and other styles
21

Lebboss, Georges. "Contribution à l’analyse sémantique des textes arabes." Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080046/document.

Full text
Abstract:
La langue arabe est pauvre en ressources sémantiques électroniques. Il y a bien la ressource Arabic WordNet, mais il est pauvre en mots et en relations. Cette thèse porte sur l’enrichissement d’Arabic WordNet par des synsets (un synset est un ensemble de mots synonymes) à partir d’un corpus général de grande taille. Ce type de corpus n’existe pas en arabe, il a donc fallu le construire, avant de lui faire subir un certain nombre de prétraitements.Nous avons élaboré, Gilles Bernard et moi-même, une méthode de vectorisation des mots, GraPaVec, qui puisse servir ici. J’ai donc construit un système incluant un module Add2Corpus, des prétraitements, une vectorisation des mots à l’aide de patterns fréquentiels générés automatiquement, qui aboutit à une matrice de données avec en ligne les mots et en colonne les patterns, chaque composante représente la fréquence du mot dans le pattern.Les vecteurs de mots sont soumis au modèle neuronal Self Organizing Map SOM ; la classification produite par SOM construit des synsets. Pour validation, il a fallu créer un corpus de référence (il n’en existe pas en arabe pour ce domaine) à partir d’Arabic WordNet, puis comparer la méthode GraPaVec avec Word2Vec et Glove. Le résultat montre que GraPaVec donne pour ce problème les meilleurs résultats avec une F-mesure supérieure de 25 % aux deux autres. Les classes produites seront utilisées pour créer de nouveaux synsets intégrés à Arabic WordNet
The Arabic language is poor in electronic semantic resources. Among those resources there is Arabic WordNet which is also poor in words and relationships.This thesis focuses on enriching Arabic WordNet by synsets (a synset is a set of synonymous words) taken from a large general corpus. This type of corpus does not exist in Arabic, so we had to build it, before subjecting it to a number of pretreatments.We developed, Gilles Bernard and myself, a method of word vectorization called GraPaVec which can be used here. I built a system which includes a module Add2Corpus, pretreatments, word vectorization using automatically generated frequency patterns, which yields a data matrix whose rows are the words and columns the patterns, each component representing the frequency of a word in a pattern.The word vectors are fed to the neural model Self Organizing Map (SOM) ;the classification produced constructs synsets. In order to validate the method, we had to create a gold standard corpus (there are none in Arabic for this area) from Arabic WordNet, and then compare the GraPaVec method with Word2Vec and Glove ones. The result shows that GraPaVec gives for this problem the best results with a F-measure 25 % higher than the others. The generated classes will be used to create new synsets to be included in Arabic WordNet
APA, Harvard, Vancouver, ISO, and other styles
22

Vukovic, Nikola. "Individual differences and experience as factors shaping sensorimotor contributions to semantic processing : insights from behaviour and neurophysiology." Thesis, University of Cambridge, 2015. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.708869.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Pilgrim, Lesley Karen. "The functional and neural organisation of semantic knowledge : the contribution of right and left cerebral hemispheres." Thesis, University of Cambridge, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.619680.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Hermena, Ehab W. "The contribution of phonological access towards syntactic and semantic sentence processing : eye movement evidence from Arabic." Thesis, University of Southampton, 2012. https://eprints.soton.ac.uk/359647/.

Full text
Abstract:
The relevance and importance of phonological access and of teaching phonology has sparked numerous professional and academic debates. The views of educators and academics have recently returned to emphasising the importance of phonology, but current directions in teaching practice and academic investigation offer limited understanding of the role of phonology in natural reading. Basically, as evident in current models of reading development, phonology remains thought of as a developmental milestone. What is lacking is a detailed understanding of how phonology is used in skilled natural reading and how phonological access interacts with other cognitive processes in text reading. In the first chapter I discuss how systematic investigations using Semitic languages (e.g. Arabic) can allow us to address this gap in our knowledge. Furthermore, I argue, with extensive evidence, that research which utilises eye-tracking methodology provides the most comprehensive way to exploring the cognitive processes of natural reading, including potential interactions of phonological and syntactic and semantic processing. In the second chapter I present an empirical investigation in which I tracked the eyes of native readers of Arabic during natural reading. Through presenting participants with well-designed and ecologically-verified stimuli, our research team uncovered evidence that skilled readers use phonology strategically when processing syntax and semantics. The findings of our investigation has clear educational implications which transcend the particular language used in the investigation (i.e. Arabic). This investigation makes a significant contribution towards developing a comprehensive understanding of human language-processing universals by including evidence obtained from non-Roman alphabetical language.
APA, Harvard, Vancouver, ISO, and other styles
25

Chabeb, Yassin. "Contributions à la description et la découverte de services web sémantiques." Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00843597.

Full text
Abstract:
Les travaux de recherche menés autour de la description de services Web utilisent de plus en plus des modèles sémantiques pour fournir une représentation interprétable automatiquement. Toutefois, nous avons décelé des lacunes dans les approches sémantiques actuelles qui engendrent ambiguïté et non pertinence au niveau de l'appariement et de la découverte de services Web. Pour remédier à ces lacunes nous proposons des contributions à la description et à la découverte de services Web sémantiques. En ce qui concerne la description de services, nous avons défini un langage basé sur une recommandation W3C. En plus d'une annotation métier sémantique des éléments d'un service, notre principale contribution à la description sémantique consiste à spécifier la nature de ces annotations en utilisant une ontologie technique que nous avons définie. Cette ontologie met en relation plusieurs concepts sémantiques de services Web que nous avons identifiés dans des approches existantes et intègrera d'autres concepts qu'on définira ultérieurement sans pour autant modifier notre langage de description ou nos techniques d'appariement associées. Nous avons également défini un algorithme d'appariement entre une requête de service et les descriptions des services publiés. Cet algorithme se base sur un appariement entre éléments d'une requête et un service publié et trois techniques d'agrégation des résultats d'appariements élémentaires. L'algorithme tire avantage de la description sémantique que nous avons définie. Il a été mis en œuvre dans un annuaire de services Web sémantiques et a été également comparé aux algorithmes de référence. Les expérimentations montrent clairement l'efficacité de notre approche en termes de temps de réponse et de précision
APA, Harvard, Vancouver, ISO, and other styles
26

Aertsen, H. "Play in Middle English : a contribution to word field theory /." Amsterdam : Free University Press, 1987. http://bibpurl.oclc.org/web/33043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Sabatier, Paul. "Contribution au développement d'interfaces en langage naturel." Paris 7, 1987. http://www.theses.fr/1987PA077081.

Full text
Abstract:
Etude du problème de la compréhension du langage naturel dans le cadre du développement d'interfaces pour la consultation de bases de connaissances. L'intérêt, les limites, les fonctions et les architectures des interfaces sont exposes. Les connaissances lexicales, syntaxiques et sémantiques mises en œuvre pour la compréhension sont spécifiées et étudiées sur les aspects linguistiques et leurs modes de représentation. Quatre réalisations d'interfaces en langage naturel illustrant les approches retenues sont présentées dans différents domaines et accompagnées de programmes commentes écrits en prolog
APA, Harvard, Vancouver, ISO, and other styles
28

Znaidi, Eya. "Contribution à l'analyse et l'évaluation des requêtes expertes : cas du domaine médical." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30054/document.

Full text
Abstract:
La recherche d'information nécessite la mise en place de stratégies qui consistent à (1) cerner le besoin d'information ; (2) formuler le besoin d'information ; (3) repérer les sources pertinentes ; (4) identifier les outils à exploiter en fonction de ces sources ; (5) interroger les outils ; et (6) évaluer la qualité des résultats. Ce domaine n'a cessé d'évoluer pour présenter des techniques et des approches permettant de sélectionner à partir d'un corpus de documents l'information pertinente capable de satisfaire le besoin exprimé par l'utilisateur. De plus, dans le contexte applicatif du domaine de la RI biomédicale, les sources d'information hétérogènes sont en constante évolution, aussi bien du point de vue de la structure que du contenu. De même, les besoins en information peuvent être exprimés par des utilisateurs qui se caractérisent par différents profils, à savoir : les experts médicaux comme les praticiens, les cliniciens et les professionnels de santé, les utilisateurs néophytes (sans aucune expertise ou connaissance du domaine) comme les patients et leurs familles, etc. Plusieurs défis sont liés à la tâche de la RI biomédicale, à savoir : (1) la variation et la diversité du besoin en information, (2) différents types de connaissances médicales, (3) différences de compé- tences linguistiques entre experts et néophytes, (4) la quantité importante de la littérature médicale ; et (5) la nature de la tâche de RI médicale. Cela implique une difficulté d'accéder à l'information pertinente spécifique au contexte de la recherche, spécialement pour les experts du domaine qui les aideraient dans leur prise de décision médicale. Nos travaux de thèse s'inscrivent dans le domaine de la RI biomédicale et traitent les défis de la formulation du besoin en information experte et l'identification des sources pertinentes pour mieux répondre aux besoins cliniques. Concernant le volet de la formulation et l'analyse de requêtes expertes, nous proposons des analyses exploratoires sur des attributs de requêtes, que nous avons définis, formalisés et calculés, à savoir : (1) deux attributs de longueur en nombre de termes et en nombre de concepts, (2) deux facettes de spécificité terme-document et hiérarchique, (3) clarté de la requête basée sur la pertinence et celle basée sur le sujet de la requête. Nous avons proposé des études et analyses statistiques sur des collections issues de différentes campagnes d'évaluation médicales CLEF et TREC, afin de prendre en compte les différentes tâches de RI. Après les analyses descriptives, nous avons étudié d'une part, les corrélations par paires d'attributs de requêtes et les analyses de corrélation multidimensionnelle. Nous avons étudié l'impact de ces corrélations sur les performances de recherche d'autre part. Nous avons pu ainsi comparer et caractériser les différentes requêtes selon la tâche médicale d'une manière plus généralisable. Concernant le volet lié à l'accès à l'information, nous proposons des techniques d'appariement et d'expansion sémantiques de requêtes dans le cadre de la RI basée sur les preuves cliniques
The research topic of this document deals with a particular setting of medical information retrieval (IR), referred to as expert based information retrieval. We were interested in information needs expressed by medical domain experts like praticians, physicians, etc. It is well known in information retrieval (IR) area that expressing queries that accurately reflect the information needs is a difficult task either in general domains or specialized ones and even for expert users. Thus, the identification of the users' intention hidden behind queries that they submit to a search engine is a challenging issue. Moreover, the increasing amount of health information available from various sources such as government agencies, non-profit and for-profit organizations, internet portals etc. presents oppor- tunities and issues to improve health care information delivery for medical professionals, patients and general public. One critical issue is the understanding of users search strategies and tactics for bridging the gap between their intention and the delivered information. In this thesis, we focus, more particularly, on two main aspects of medical information needs dealing with the expertise which consist of two parts, namely : - Understanding the users intents behind the queries is critically important to gain a better insight of how to select relevant results. While many studies investigated how users in general carry out exploratory health searches in digital environments, a few focused on how are the queries formulated, specifically by domain expert users. We address more specifically domain expert health search through the analysis of query attributes namely length, specificity and clarity using appropriate proposed measures built according to different sources of evidence. In this respect, we undertake an in-depth statistical analysis of queries issued from IR evalua- tion compaigns namely Text REtrieval Conference (TREC) and Conference and Labs of the Evaluation Forum (CLEF) devoted for different medical tasks within controlled evaluation settings. - We address the issue of answering PICO (Population, Intervention, Comparison and Outcome) clinical queries formulated within the Evidence Based Medicine framework. The contributions of this part include (1) a new algorithm for query elicitation based on the semantic mapping of each facet of the query to a reference terminology, and (2) a new document ranking model based on a prioritized aggregation operator. we tackle the issue related to the retrieval of the best evidence that fits with a PICO question, which is an underexplored research area. We propose a new document ranking algorithm that relies on semantic based query expansion leveraged by each question facet. The expansion is moreover bounded by the local search context to better discard irrelevant documents. The experimental evaluation carried out on the CLIREC dataset shows the benefit of our approaches
APA, Harvard, Vancouver, ISO, and other styles
29

Vu, Viet-Hoang. "Contribution to abductive reasoning with concepts in description logics : an application to ontology-based semantic matchmaking for tourism information systems." Nice, 2011. http://www.theses.fr/2011NICE4090.

Full text
Abstract:
Aujourd’hui, le tourisme devient un secteur économique important. Afin de supporter le développement du marché électronique du tourisme, nous adoptons une méthode de Matchmaking Sémantique basée sur l’ontologie récemment proposée dans la littérature pour traiter le problème de l’hétérogénéité du domaine. L’idée est d’utiliser les Logiques de Descriptions (LDs) pour représenter la sémantique des demandes et des offres disponibles en référence à une ontologie et d’employer des services d’inférence automatique pour classer et proposer les meilleures solutions. De cette manière, la méthode facilite les processus de découverte et de négociation sur le marché. En outre, elle peut aussi être utilisée pour aider à la création des correspondances sémantiques, un processus important qui assure l’interopérabilité entre des systèmes d’information touristique hétérogènes. Pour réaliser le matchmaking une nouvelle méthode d’inférence, Concept Abduction, a été développée pour la LD ALN. Parce que la représentation des ontologies du tourisme nécessite en général plus d’expressivité, le premier objectif de cette thèse est d’étendre cette méthode d’inférence pour la LD plus expressive SHIQ. D’ailleurs, il est reconnu que le tourisme est tellement hétérogène qu’une seule ontologie ne peut couvrir entièrement le domaine. Pour ce but, de multiples ontologies distribuées et modulaires doivent être utilisées. Cela conduit au deuxième objectif de la thèse : développer Concept Abduction pour SHIQP, une extension de SHIQ pour les ontologies modulaires distribuées. Enfin, nous proposons une architecture pour réaliser un Sémantique Match maker pour les systèmes d’information touristique distribués
Today, travel and tourism is a sector that plays a more and more important role in the modern economy. To support the development of an electronic marketplace for tourism, we adopt an ontology-based Semantic Matchmaking method proposed so far in the literature to deal with the heterogeneity of the domain. The idea is to use Description Logics (DLs) to represent the semantics of demands and supplies available on the marketplace with reference to an ontology and then employ automated reasoning services to classify and the propose the best potential matches. Using Semantic Matchmaking thereby facilitates the discovery and negotiation process in the marketplace. Besides, the method can also be used to assist in the ontology mapping, an important process for providing the semantic interoperability between heterogeneous tourism systems. To realize the matchmaking process, a new non-standard inference, Concept Abduction, is developed for a quite inexpressive DL ALN. Because the representation of ontologies in the tourism domain requires generally more expressivity, we have to extend this inference method to a more expressive DL SHIQ and that is the first main objective of this thesis. Furthermore, it was acknowledged that travel and tourism is so highly heterogeneous that no one single global ontology can cover the whole domain. Instead, distributed and modular ontologies have to be used. That leads to the second objective of this thesis : developing Concept Abduction for the Package-based DL SHIQP, an expression of SHIQ for distributed and modular ontologies. Finally, we propose an architecture to realize a Semantic Matchmaker for distributed tourism information systems
APA, Harvard, Vancouver, ISO, and other styles
30

Sahli, Nabil. "Contribution au problème de la sécurité sémantique des systèmes : approche basée sur l'ingénierie dirigée par les modèles." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0699.

Full text
Abstract:
Les infrastructures industrielles critiques seront dotées de plusieurs équipements embarqués intelligents. Elles exploitent des systèmes complexes, embarqués, intelligents et sémantiques pour leurs fonctionnements, en local et à distance, dans un contexte de développement, de villes intelligentes et du web des objets. Elles emploient, de plus en plus de systèmes «contrôle/commande», pour la surveillance des plateformes industrielles critiques, en temps réel. Les infrastructures critiques seront de plus en plus communicantes dans le cadre des échanges des alarmes et la mise en place de marchés euro-méditerranéens de l’électricité et davantage plus vulnérables. La cybernétique des plateformes critiques se développe, de jour en jour, essentiellement avec l’usage de systèmes complexes embarqués intelligents sémantiques, des services web, des ontologies,..etc. Ils sont tous embarqués sur les instruments intelligents, composant les systèmes sémantiques. Des réseaux de télécommunication intelligents, filaire et sans fil, dit hybrides, se développent. Ils représentent un grand challenge, pour la sécurité des systèmes communicants futurs. Dans un contexte de développement du web, des objets et des villes intelligentes, nos travaux de recherche visent à renforcer les bases de la sécurité et de la cybernétique sémantique, pour les systèmes communicants. Dans notre solution globale, en matière de sécurité sémantique, des infrastructures critiques, nous avons proposé plusieurs sous-solutions, tels que des méta-modèles et des modèles, ainsi qu’une stratégie de sécurité de bout en bout, avec un fonctionnement sur un réseau Cloud global, hybride et sécurisé
Critical, modern, current, and even future industrial infrastructures will be equipped with several intelligent embedded equipment. They exploit complex, embedded, intelligent and semantic systems for their operations, locally and remotely, in a context of development, smart cities and the web of things. They are using more and more SCADA and DCS control systems to monitor critical industrial platforms in real time. Critical infrastructures will be more and more communicating in the framework of the exchanges of allarmes and the establishment of Euro-Mediterranean markets of the életcricité and also more and more vulnerable, to classic and even semantic attacks, to viruses, to Trojan horses. The cybernetics of critical platforms is growing, day by day, mainly with the use of complex embedded intelligent semantic systems, web services, ontologies, and format files (XML, OWL, RDF, etc.). They are all embedded in intelligent instruments, making up semantic SCADA systems. Intelligent telecommunication networks, wired and wireless, called hybrids, are developing. They represent a great challenge for the security of future communicating systems. In a context of development of the web of things and smart cities, our research aims to strengthen the bases of security and semantic cybernetics, for communicating systems. In our global solution for semantic security, critical infrastructures, we have proposed several sub-solutions, such as metamodels and models, as well as an end-to-end security strategy, with operation on a global cloud network, hybrid and secure
APA, Harvard, Vancouver, ISO, and other styles
31

Song, Fuqi. "Contribution à l'interopérabilité des entreprises par alignement d'ontologies." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00909637.

Full text
Abstract:
Cette thèse propose l'utilisation de l'alignement d'ontologies pour contribuer à l'interopérabilité d'une fédération d'entreprises en se basant sur l'interopérabilité des données au niveau sémantique. Une approche d'alignement basée sur des modèles d'ontologie utilisant les mots noyaux est proposée en réponse aux problèmes et aux défis existants, visant ainsi à améliorer la capacité d'adaptation et la précision dans la mise en correspondance de concepts. De plus une étape d'agrégation des " matchers " analytique, qui permet de combiner automatiquement plusieurs adaptateurs et d'améliorer les résultats combinés, vient compléter l'approche. Un système prototype a été mis en œuvre à l'issue des travaux conceptuels pour la validation de l'approche proposée. Les expériences démontrent que l'approche proposée a obtenu des résultats prometteurs et a atteint les objectifs escomptés sur la définition de proximité des concepts. L'approche d'alignement d'ontologies proposée et le système de prototype mis en œuvre ont enfin été appliqués à une architecture dirigée par les ontologies et axée sur l'interrogation des données de plusieurs bases de données relationnelles.
APA, Harvard, Vancouver, ISO, and other styles
32

Chada, Daniel de Magalhães. "Are you experienced? Contributions towards experience recognition, cognition, and decision making." reponame:Repositório Institucional do FGV, 2016. http://hdl.handle.net/10438/17786.

Full text
Abstract:
Submitted by Daniel Chada (danielc2112@gmail.com) on 2017-01-10T13:25:02Z No. of bitstreams: 1 chada.phd.2017.01.09.pdf: 5177057 bytes, checksum: a6174d9f2ba0b373776e750def2a23aa (MD5)
Approved for entry into archive by ÁUREA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2017-01-12T14:03:51Z (GMT) No. of bitstreams: 1 chada.phd.2017.01.09.pdf: 5177057 bytes, checksum: a6174d9f2ba0b373776e750def2a23aa (MD5)
Made available in DSpace on 2017-01-23T11:48:10Z (GMT). No. of bitstreams: 1 chada.phd.2017.01.09.pdf: 5177057 bytes, checksum: a6174d9f2ba0b373776e750def2a23aa (MD5) Previous issue date: 2016-12-08
Este trabalho consiste em três contribuições independentes do âmbito da modelagem cognitiva ao campo de management science. O primeiro aborda Experience Recognition, uma teoria inicialmente introduzida por Linhares e Freitas [91]. Aqui ela é estendida e delineada, além de se discutir suas contribuições para a ciência cognitiva e management science. A segunda contribuição introduz a framework cognitiva chamada Rotational Sparse Distributed Memory, e fornece uma aplicação-exemplo de suas características como substrato para um fortemente relevante campo da management science: redes semânticas. A contribuição final aplica Rotational Sparse Distributed Memory para a modelagem de motifs de rede, flexibilidade dinâmica e organização hierárquica, três resultados de forte impacto na literatura recente de neurociência. A relevância de uma abordagem baseada na modelagem neurocientífica para a decision science é discutida.
This work is comprised of three independent contributions from the realm of cognitive modeling to management science. The first addresses Experience Recognition, a theory first introduced by Linhares and Freitas [91]. Here it is extended and better defined, and also its contribution to cognitive science and management science are discussed. The second contribution introduces a cognitive framework called Rotational Sparse Distributed Memory, and provides a sample application of its characteristics as a substrate for a highly relevant subject in management science: semantic networks. The final contribution applies Rotational Sparse Distributed Memory to modeling network motifs, dynamic flexibility and hierarchical organization, all highly impactful results in recent neuroscience literature. The relevance of a neuroscientific modeling approach towards a cognitive view of decision science are discussed.
APA, Harvard, Vancouver, ISO, and other styles
33

Breux, Yohan. "Du capteur à la sémantique : contribution à la modélisation d'environnement pour la robotique autonome en interaction avec l'humain." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS059/document.

Full text
Abstract:
La robotique autonome est employée avec succès dans des environnements industriels contrôlés, où les instructions suivent des plans d’action prédéterminés.La robotique domestique est le challenge des années à venir et comporte un certain nombre de nouvelles difficultés : il faut passer de l'hypothèse d'un monde fermé borné à un monde ouvert. Un robot ne peut plus compter seulement sur ses données capteurs brutes qui ne font qu'indiquer la présence ou l'absence d'objets. Il lui faut aussi comprendre les relations implicites entre les objets de son environnement ainsi que le sens des tâches qu'on lui assigne. Il devra également pouvoir interagir avec des humains et donc partager leur conceptualisation à travers le langage. En effet, chaque langue est une représentation abstraite et compacte du monde qui relie entre eux une multitude de concepts concrets et purement abstraits. Malheureusement, les observations réelles sont plus complexes que nos représentations sémantiques simplifiées. Elles peuvent donc rentrer en contradiction, prix à payer d'une représentation finie d'un monde "infini". Pour répondre à ces difficultés, nous proposons dans cette thèse une architecture globale combinant différentes modalités de représentation d'environnement. Elle permet d'interpréter une représentation physique en la rattachant aux concepts abstraits exprimés en langage naturel. Le système est à double entrée : les données capteurs vont alimenter la modalité de perception tandis que les données textuelles et les interactions avec l'humain seront reliées à la modalité sémantique. La nouveauté de notre approche se situe dans l'introduction d'une modalité intermédiaire basée sur la notion d'instance (réalisation physique de concepts sémantiques). Cela permet notamment de connecter indirectement et sans contradiction les données perceptuelles aux connaissances en langage naturel.Nous présentons dans ce cadre une méthode originale de création d'ontologie orientée vers la description d'objets physiques. Du côté de la perception, nous analysons certaines propriétés des descripteurs image génériques extraits de couches intermédiaires de réseaux de neurones convolués. En particulier, nous montrons leur adéquation à la représentation d'instances ainsi que leur usage dans l'estimation de transformation de similarité. Nous proposons aussi une méthode de rattachement d'instance à une ontologie, alternative aux méthodes de classification classique dans l'hypothèse d'un monde ouvert. Enfin nous illustrons le fonctionnement global de notre modèle par la description de nos processus de gestion de requête utilisateur
Autonomous robotics is successfully used in controled industrial environments where instructions follow predetermined implementation plans.Domestic robotics is the challenge of years to come and involve several new problematics : we have to move from a closed bounded world to an open one. A robot can no longer only rely on its raw sensor data as they merely show the absence or presence of things. It should also understand why objects are in its environment as well as the meaning of its tasks. Besides, it has to interact with human beings and therefore has to share their conceptualization through natural language. Indeed, each language is in its own an abstract and compact representation of the world which links up variety of concrete and abstract concepts. However, real observations are more complex than our simplified semantical representation. Thus they can come into conflict : this is the price for a finite representation of an "infinite" world.To address those challenges, we propose in this thesis a global architecture bringing together different modalities of environment representation. It allows to relate a physical representation to abstract concepts expressed in natural language. The inputs of our system are two-fold : sensor data feed the perception modality whereas textual information and human interaction are linked to the semantic modality. The novelty of our approach is in the introduction of an intermediate modality based on instances (physical realization of semantic concepts). Among other things, it allows to connect indirectly and without contradiction perceptual data to knowledge in natural langage.We propose in this context an original method to automatically generate an ontology for the description of physical objects. On the perception side, we investigate some properties of image descriptor extracted from intermediate layers of convolutional neural networks. In particular, we show their relevance for instance representation as well as their use for estimation of similarity transformation. We also propose a method to relate instances to our object-oriented ontology which, in the assumption of an open world, can be seen as an alternative to classical classification methods. Finally, the global flow of our system is illustrated through the description of user request management processes
APA, Harvard, Vancouver, ISO, and other styles
34

Din, F. "Modern exegeses' contribution toward understanding the concept of tā‘ah and observance : a semantic and theological enquiry into Tafsīr-al-Manār and Tafsīr al-Azhar." Thesis, University of Edinburgh, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.649556.

Full text
Abstract:
This thesis analyses a religious concept in Islam, the concept of tā‘ah or obedience and its observance. This study emphasises the contribution of modern exegeses, namely Tafsīr-al-Manār, a very well known and one of the pioneers of modern exegeses, written by Muhammad ‘Abduh and Muhammad Rashīd Ridā, and Tafsīr al-Azhar, a very well known Indonesian modern exegesis, written by Hamka. The views of these exegeses or tafāsīr are also compared with the traditional view. This thesis explores the issue of the observance of tā‘ah or obedience which forms a certain kind of relationship between Man and God, Man and God’s Messenger, and Man and Man (including man and wife). This study shows that tā‘ah to God is absolute. Tā‘ah to God’s Messenger is also absolute in so far as his command is in the realm of religion. Tā‘ah between Man and Man on the other hand, is conditional. The issue of tā‘ah between Man and Man concerns a relationship between those who have power and those without, and also between those who command and those who execute the command. This relationship is susceptible to misunderstanding and abuse. Therefore, this thesis proposes that the important question of what is the scope of tā‘ah should be answered. To answer this question, this thesis discuses in chapter 1 the problems that occur as a result of the improper observance of tā‘ah, Tafsīr-al-Manār as an example of the contribution of the Muslim Modernists in finding solutions to this issue and the implication that results from the new interpretation. Chapter 2 introduces another important Muslim Modernist figure in Indonesia, Hamka, his thought, and his tafsīr, Tafsīr al-Azhar which is one of the author’s vehicle of disseminating Islamic Modernists ideas in the Malay speaking world. Chapter 3 discusses tā‘ah or obedience to God and His Messenger and their reasons which establishes the foundation of to whom or what tā‘ah is to be rendered.
APA, Harvard, Vancouver, ISO, and other styles
35

Sakka, Mohamed Amin. "Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0023/document.

Full text
Abstract:
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d’échange, de partage et de stockage de l’information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d’accès ainsi qu’une efficacité d’organisation et de recherche de l’information. Malgré ses avantages, l’information numérique a l’inconvénient d’être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l’information et pour vérifier si elle répond à un ensemble d’exigences métier, techniques et légales. Aujourd’hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L’objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l’information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l’exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l’hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d’interprétation minimal et commun pour n’importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l’interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d’abord une architecture logique de PMS indépendante des choix technologiques d’implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d’un PMS. Par la suite, et afin de préserver l’autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l’ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l’archivage de documents à valeur probante. Ensuite, l’aspect passage à l’ échelle de notre architecture a été testé par l’implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l’interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
Provenance is a key metadata for assessing electronic documents trustworthiness. It allows to prove the quality and the reliability of its content. With the maturation of service oriented technologies and Cloud computing, more and more data is exchanged electronically and dematerialization becomes one of the key concepts to cost reduction and efficiency improvement. Although most of the applications exchanging and processing documents on the Web or in the Cloud become provenance aware and provide heterogeneous, decentralized and not interoperable provenance data, most of Provenance Management Systems (PMSs) are either dedicated to a specific application (workflow, database, ...) or a specific data type. Those systems were not conceived to support provenance over distributed and heterogeneous sources. This implies that end-users are faced with different provenance models and different query languages. For these reasons, modeling, collecting and querying provenance across heterogeneous distributed sources is considered today as a challenging task. This is also the case for designing scalable PMSs providing these features. In the fist part of our thesis, we focus on provenance modelling. We present a new provenance modelling approach based on semantic Web technologies. Our approach allows to import provenance data from heterogeneous sources, to enrich it semantically to obtain high level representation of provenance. It provides syntactic interoperability between those sources based on a minimal domain model (MDM), supports the construction of rich domain models what allows high level representations of provenance while keeping the semantic interoperability. Our modelling approch supports also semantic correlation between different provenance sources and allows the use of a high level semantic query language. In the second part of our thesis, we focus on the design, implementation and scalability issues of provenance management systems. Based on our modelling approach, we propose a centralized logical architecture for PMSs. Then, we present a mediator based architecture for PMSs aiming to preserve provenance sources distribution. Within this architecture, the mediator has a global vision on all provenance sources and possesses query processing and distribution capabilities. The validation of our modelling approach was performed in a document archival context within Novapost, a company offering SaaS services for documents archiving. Also, we propose a non-functional validation aiming to test the scalability of our architecture. This validation is based on two implementation of our PMS : he first uses an RDF triple store (Sesame) and the second a NoSQL DBMS coupled with the map-reduce parallel model (CouchDB). The tests we performed show the limits of Sesame in storing and querying large amounts of provenance data. However, the PMS based on CouchDB showed a good performance and a linear scalability
APA, Harvard, Vancouver, ISO, and other styles
36

Liczner, Aleksandra. "Une contribution à l'amélioration des ressources terminographiques : étude terminologique fondée sur un corpus de textes de spécialité du domaine du droit de l'internet." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2089/document.

Full text
Abstract:
Le présent travail se donne comme objectif de proposer une méthode de description complète des unités terminologiques du domaine du droit de l’Internet. Il s’agit d’un modèle hybride permettant de refléter à la fois la dimension linguistique et conceptuelle des termes et plus précisément, les relations lexico-sémantiques et les liens conceptuels que ces derniers entretiennent avec d’autres unités terminologiques et lexicales appartenant au vocabulaire du domaine et ceci par le biais de leur comportement dans l’univers discursif. Le projet, que nous avons baptisé DITerm, s’inscrit donc dans une démarche résolument descriptive dont l’ambition est de rendre compte des usages observés dans la langue de spécialité donnée. Le modèle en question est créé à partir d’un corpus de textes juridiques d’environ 5 000 000 mots et doit servir de base à la conception d’un dictionnaire spécialisé d’encodage destiné aux traducteurs dont la langue de travail est le français. Le terme, tel qu’il est envisagé dans le cadre de cette étude, constitue une unité à dimensions multiples qui doit être considérée sous différents angles. Sa description est donc basée sur l’analyse de ses relations lexicales, conceptuelles et contextuelles et s’inspire largement des modèles lexicographiques. Le projet DITerm a pour arrière-plan théorique la Lexicologie Explicative et Combinatoire, composante lexicologique de la théorie Sens-Texte (Mel’čuk et al. 1995) ainsi que la théorie des cadres et ses différentes applications (Minsky, Fillmore, Martin). La méthodologie adoptée dans ce projet s’inscrit dans le cadre de la linguistique de corpus (Sinclair). Le modèle DITerm propose de décrire chaque terme comme le centre d’une constellation autour de laquelle gravitent de nombreux termes coordonnés formant ce que Cornu (2002) appelle des familles opérationnelles. Pour modéliser les relations que partage le terme vedette avec les unités qui ont tendance à apparaître dans son univers contextuel, nous avons recours à des formules explicites fondées sur un métalangage compréhensible pour tous. Ce formalisme, basé sur la paraphrase, correspond en partie à la vulgarisation des fonctions lexicales. Il présente par ailleurs l’avantage de pouvoir s’adapter à la représentation des liens d’ordre conceptuel. Deplus, la description est enrichie par la mise en place d’un modèle d’annotation des contextes au moyen des cadres sémantiques à la FrameNet permettant de mettre en évidence les liens indirects entretenus par les termes
The aim of this work is to propose a holistic description of terminological units in the field of Internet law, based on a hybrid model that reflectis both the linguistic and the conceptual dimension of terms. To be more precise, this model aims to point out the lexical-semantic relationships and conceptual links that those terms maintain with other terminological and lexical units belonging to the Internet law vocabulary, by studying their behavior in the discursive universe. The project (which we call DITerm) is part of a descriptive approach whose ambition is to explain observed usage in the specialized language at hand. The model was created using acorpus made up of legal texts which totals about 5 000,000 words. The model will be used as the basis for the conception of a specialized encoding dictionary. This dictionary is intended for translators with French language as their working language. The term, as it is viewed in this study, is a multi-dimensional unity which should be considered from many angles. Its description is hence based on the analysis of its lexical, conceptual and contextual relationships which is widely inspired by lexicographical models. Thetheoretical background of the DITerm project is Explanatory and Combinatorial Lexicology, the lexicological component of Meaning-Text Theory (Mel’čuk et al. 1995). We also draw inspiration from the frame theory and its different applications (Minsky’s Frame System Theory,Fillmore’s Frame Semantics). The methodology adopted in this project fits into the framework of corpus linguistics (Sinclair).The DITerm model proposes to describe each term as the center of a constellation around which several coordinated terms gravitate, creating what Cornu (2002) calls operational families. In order to model the relationships the term shares with the units which tend to appear in its contextual universe, we rely on several explicit formulas based on a broadly comprehensible metalanguage. This formalism, which is based on paraphrase, correlates partly with the popularization of the lexical functions. On the other hand, it has the advantage of adapting to the representation of conceptual links. In addition, the description is enriched by the implementation of an annotation model of the contexts in which the terms occur, which makes it possible to account for indirect links that are maintained by terms. This annotation model is an application of the FrameNet methodology
APA, Harvard, Vancouver, ISO, and other styles
37

Almeida, Lajes Maria Alcina. "Contribution a l'etude de la communication ecrite chez l'enfant - elements pour une analyse semantico-pragmatique de textes d'ecoliers portugais (cm1 et cm2) : les actes de langage." Toulouse 2, 1989. http://www.theses.fr/1989TOU20022.

Full text
Abstract:
On propose une contribution a l'etude de la langue ecrite de l'enfant a l'age de la scolarite elementaire, en tenant compte que les difficultes d'apprentissage chez les enfants de certains milieux sociaux seraient dues, en grande partie, aux differences de langage. Les analysis rendent compte de l'articulation entre une description des usages du langage (informer, saluer, promettre. . . ) et l'idee de synonymie illocutoire. Le depouillement du corpus de 240 textes composes par les ecoliers portugais (obtenu a partir d'un echantillon de 1200) a ete realise au moyen d'un nombre considerable de grilles construites, selon la taxonomie de searle (1972,1982) et d'aston (1977) ainsi que des descriptions de linguistes ou philosophes du langage (anscombre, berrendonner, ducrot, kerbrat-orecchioni. . . ). Les donnees sont triees selon les variables age, sexe, type d'enseignement et milieu social. Les resultats ont permis de reperer les tendances communes et les variations differentielles dans la gestion de la communication des enfants de lisbonne
A contribution to the study of the written language of primary school age children is proposed here, with the assumption that the learning disabilities evidenced by children belonging to certain social groups may be due, to a great extent, to language differences. The analysis that has been carried out shows the relevance of the concept of illocutionary synonymy with respect to the description of language usage (information, greating, promise. . . ). The corpus of 240 written compositions (selected from a sample of 1200) has been analysed by means of a large number of grids, we have designed according to the taxonomy of illocutionary acts of searle (1972, 1982) and aston (1977) as well as to the theoretical framework of anscombre, berrendonner, ducrot, kerbrat-orecchioni. . . ). The data have been analysed as a function of the following variables : age, sex, private public school and social status. The main finding of this study are the establishement of the tendencies of the written communication of urban children (lisbon) and the identification of the most significant differences between the sub-groups we have observed
APA, Harvard, Vancouver, ISO, and other styles
38

Fortineau, Virginie. "Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produit." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-01064598.

Full text
Abstract:
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale.
APA, Harvard, Vancouver, ISO, and other styles
39

Petit, Jean. "Contribution à la modélisation d'une conscience culturelle artificielle émique par les ontologies." Thesis, Reims, 2017. http://www.theses.fr/2017REIMS039/document.

Full text
Abstract:
Depuis l'expansion du web, de nombreuses applications cherchent à répondre aux besoins d'utilisateurs ou de machines aux origines culturelles variées. De ce contexte de diversité culturelle émerge de nombreux conflits liés à des conceptions du monde différentes. Proposer des services adaptés requiert l'intégration au sein du système d'une forme de conscience culturelle. Une conscience culturelle artificielle est composée de représentations et de médiations culturelles formelles offrant au système les moyens pour interpréter les cultures représentées et déterminer leurs différences. Jusqu'à présent les représentations utilisées dans le développement des systèmes culturellement conscients sont issues de modèles universels ou ``étiques''. Ces modèles grossiers, bien qu'ils soient adaptés, limitent la compréhension possible des cultures représentées. Par conséquent ils constituent un goulot d'étranglement dans le développement des systèmes culturellement conscients.Cette thèse explore le développement d'une conscience culturelle artificielle plus fine sur la base de modèles culturels spécifiques à chaque culture dits ``émiques''. J'étudie la construction, la formalisation et la médiation des représentations culturelles émiques. Mes contributions principales sont la conception et la validation, d'une part, d'un nouveau processus ethnographique semi-automatique de construction de modèles émiques via la fouille de textes et, d'autre part, d'une conscience culturelle artificielle émique fondée sur l'alignement d'ontologies culturelles issues de ces modèles
With the growing web, a number of applications seek to meet the needs of users or machines having diverse cultural backgrounds. From this context of cultural diversity arises conflicts linked to different world conceptions. Offering adaptated services requires the integration of a form of cultural awareness in the system. An artificial cultural awareness is composed of formal cultural representations and mediations providing the system with the means to interpret the represented cultures and to determine their differences. So far the representations used for the development of culturally-aware systems come from universal or ``etic'' models. Those coarse-grained models, even though they are adapted, limit the possible understanding of the represented cultures. As a consequence they constitute a bottleneck for the development of culturally-aware systems.This thesis investigates the development of a finer-grained artificial cultural awareness based on cultural models specific to each culture called ``emic''. I study the construction, the formalisation and the mediation of these emic cultural representations. My main contributions are the design and validation of, in one hand, a new semi-automatic ethnographic process for building emic models through text-mining, in another hand, an emic artificial cultural awareness based on the mapping of cultural ontologies coming from those models
APA, Harvard, Vancouver, ISO, and other styles
40

Drame, Khadim. "Contribution à la construction d’ontologies et à la recherche d’information : application au domaine médical." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0444/document.

Full text
Abstract:
Ce travail vise à permettre un accès efficace à des informations pertinentes malgré le volume croissant des données disponibles au format électronique. Pour cela, nous avons étudié l’apport d’une ontologie au sein d’un système de recherche d'information (RI).Nous avons tout d’abord décrit une méthodologie de construction d’ontologies. Ainsi, nous avons proposé une méthode mixte combinant des techniques de traitement automatique des langues pour extraire des connaissances à partir de textes et la réutilisation de ressources sémantiques existantes pour l’étape de conceptualisation. Nous avons par ailleurs développé une méthode d’alignement de termes français-anglais pour l’enrichissement terminologique de l’ontologie. L’application de notre méthodologie a permis de créer une ontologie bilingue de la maladie d’Alzheimer.Ensuite, nous avons élaboré des algorithmes pour supporter la RI sémantique guidée par une ontologie. Les concepts issus d’une ontologie ont été utilisés pour décrire automatiquement les documents mais aussi pour reformuler les requêtes. Nous nous sommes intéressés à : 1) l’identification de concepts représentatifs dans des corpus, 2) leur désambiguïsation, 3), leur pondération selon le modèle vectoriel, adapté aux concepts et 4) l’expansion de requêtes. Ces propositions ont permis de mettre en œuvre un portail de RI sémantique dédié à la maladie d’Alzheimer. Par ailleurs, le contenu des documents à indexer n’étant pas toujours accessible dans leur ensemble, nous avons exploité des informations incomplètes pour déterminer les concepts pertinents permettant malgré tout de décrire les documents. Pour cela, nous avons proposé deux méthodes de classification de documents issus d’un large corpus, l’une basée sur l’algorithme des k plus proches voisins et l’autre sur l’analyse sémantique explicite. Ces méthodes ont été évaluées sur de larges collections de documents biomédicaux fournies lors d’un challenge international
This work aims at providing efficient access to relevant information among the increasing volume of digital data. Towards this end, we studied the benefit from using ontology to support an information retrieval (IR) system.We first described a methodology for constructing ontologies. Thus, we proposed a mixed method which combines natural language processing techniques for extracting knowledge from text and the reuse of existing semantic resources for the conceptualization step. We have also developed a method for aligning terms in English and French in order to enrich terminologically the resulting ontology. The application of our methodology resulted in a bilingual ontology dedicated to Alzheimer’s disease.We then proposed algorithms for supporting ontology-based semantic IR. Thus, we used concepts from ontology for describing documents automatically and for query reformulation. We were particularly interested in: 1) the extraction of concepts from texts, 2) the disambiguation of terms, 3) the vectorial weighting schema adapted to concepts and 4) query expansion. These algorithms have been used to implement a semantic portal about Alzheimer’s disease. Further, because the content of documents are not always fully available, we exploited incomplete information for identifying the concepts, which are relevant for indexing the whole content of documents. Toward this end, we have proposed two classification methods: the first is based on the k nearest neighbors’ algorithm and the second on the explicit semantic analysis. The two methods have been evaluated on large standard collections of biomedical documents within an international challenge
APA, Harvard, Vancouver, ISO, and other styles
41

Nastov, Blazo. "Contribution à une méthode outillée pour la conception de langages de modélisation métier interopérables, analysables et prouvables pour l'Ingénierie Système basée sur des Modèles." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT272/document.

Full text
Abstract:
L'Ingénierie des Systèmes (IS) est une approche pluridisciplinaire et collaborative pour mener à bâtir et structurer la conception puis la réalisation et le développement de systèmes complexes. L’IS repose à la fois sur une approche processus et sur la mise en oeuvre de modèles de systèmes s'appuyant de fait dans un contexte basé ou dirigé par des modèles. On parle alors d’Ingénierie Système Basée sur des Modèles (ISBM ou Model based Systems Engineering MBSE). L’ISBM introduit des concepts, méthodes et techniques pour construire et gérer des modèles. Elle a pour objectif l’atteinte et l’amélioration de leur qualité afin de procurer aux parties prenantes un degré de confiance jugé suffisant pour aider la prise des décisions de conception, d'amélioration et de réalisation. Ces décisions conditionnent le fonctionnement, la sûreté, la sécurité, les coûts, et plus généralement tout un ensemble de propriétés attendues à la fois du modèle comme du système modélisé, tout au long de la phase aval de l’ingénierie et de développement, jusqu’à la réalisation et au déploiement du système. La qualité des modèles est obtenue au travers des processus de Vérification et Validation (V&V). Les objectifs sont alors d’assurer que les modèles soient cohérents, bien formés, bien construits et représentés correctement. En effet, aux yeux des parties prenantes, les modèles doivent être fiables, fidèles et pertinents au regard des besoins des concepteurs, représentant aussi précisément que possible le point de vue du système en cours de conception. Des langages de modélisation dit « métier » (Domain Specific Modelling Languages ou DSML) sont spécifiquement créés pour pouvoir fournir des représentations i.e. des modèles dans les différents points de vue sur le système. Un DSML est basé sur une syntaxe et sur une sémantique. La sémantique de ces langages est en général fournie par des approches externes (vérificateurs de modèles). Ces dernières sont, à notre sens, une limitation clé pour le déploiement des stratégies de V&V dans le contexte de l’ISBM. En réponse à cette limitation, la contribution conceptuelle de cette thèse est présentée sous la forme d’un nouveau langage de métamodélisation, nommé xviCore (noyau exécutable, vérifiable et interopérable). xviCore fournit les concepts et les principes pour définir puis vérifier et valdier la syntaxe et la sémantique en phase de construction de tels DSML en combinant trois métalangages : un métalangage orienté objet pour la conception de la partie syntaxique, un métalangage pour la conception du comportement et un métalangage pour la conception de propriétés formelles. La contribution méthodologique de ces travaux permet ensuite le déploiement d’une stratégie de V&V «directe» en lieu et place des traditionnelles approches externes. Elle est basée sur la simulation et la preuve formelle de propriétés. Le mécanisme de simulation permet d’observer le comportement des modèles de systèmes au travers de leur exécution, tandis que le mécanisme de preuve permet de spécifier et ensuite de vérifier des propriétés formelles. La contribution technique se compose d’un ensemble des plugins Eclipse qui implémentent le métalangage xviCore, le mécanisme de simulation et le mécanisme de la preuve formelle
Systems Engineering (SE) is an interdisciplinary and collaborative approach for successful design and management of large scale complex systems. Among other principles, SE promotes and mandates a model-based (or model-driven) approach for all stages of system design processes, denoted Model-Based Systems Engineering (MBSE). This implies concepts, techniques and tools for creating and managing various systems models for the purpose of stakeholders, and for reaching and improving the quality of models helping then stakeholders during decision-making processes, to make decisions faster and efficiently with enough confidence. Indeed, these decisions impact all along the downstream phases of system engineering and development until the realization and deployment of the real system, its functioning, safety, security, induced costs and so on. In this work, a particular attention is given to model verification and validation (V&V). The goals are to assure prior to decision-making processes, first, that models are coherent, well-formed and correctly build and represented, and second, that they are trustworthy and relevant, representing as accurately as possible the viewpoints of a system under design as expected by stakeholders.Such models provide stakeholders with confidence and trust, aiding them in making, but also in arguing decisions. Models are created by using modeling languages that are specifically tailored for a given viewpoint of a system, denoted Domain Specific Modeling Languages (DSMLs).The basic principles on which a DSML is based are its syntax and its semantics, but current DSMLs have been more studied from the syntactical point than from the semantical one that is often neglected or, when needed, provided by means of translating the DSML into third party formalisms. This is the key limitation preventing the deployment of a successful V&V strategy in MBSE context. To overcome this shortcoming, this thesis proposes first a conceptual contribution consisting of a new metamodeling language, called eXecutable, Verifiable and Interoperable Core (xviCore), allowing stakeholders to build DSMLs (called xviDSMLs), that along with their syntax also integrates semantics. Our solution combines, three meta-languages, an object-oriented metamodeling language for the specification of the syntactical part with a formal behavioral modeling language and a property modeling language for the semantical part. The methodological contribution of this work allows the deployment of successful V&V strategies allowing for direct (without transformation) model verification by simulation and properties proof. We propose a mechanism to simulate the expected behavior of a SoI through model execution based on the blackboard-based communication model, and a mechanism for specification and verification of formal properties. The technical contribution consists of an Eclipse-EMF deployable plug-in that implements the metamodeling language xviCore and the mechanisms for simulation and formal property verification
APA, Harvard, Vancouver, ISO, and other styles
42

Xu, Da. "Contribution to the elaboration of a decision support system based on modular ontologies for ecological labelling." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19449/1/XU_Da.pdf.

Full text
Abstract:
With the rising concern of sustainability and environmental performance, eco-labeled products and services are becoming more and more popular. In addition to the financial costs, the long and complex process of eco-labeling sometimes demotivates manufacturers and service providers to be certificated. In this research work, we propose a decision support process and implement a decision support platform aiming at further improvement and acceleration of the eco-labeling process in order to democratize a broader application and certification of eco-labels. The decision support platform is based on a comprehensive knowledge base composed of various domain ontologies that are constructed according to official eco-label criteria documentation. Traditional knowledge base in relational data model is low interoperable, lack of inference support and difficult to be reused. In our research, the knowledge base composed of interconnected ontologies modules covers various products and services, and allows reasoning and semantic querying. A domain-centric modularization scheme about EU Eco-label laundry detergent product criteria is introduced as an application case. This modularization scheme separates the entity knowledge and rule knowledge so that the ontology modules can be reused easily in other domains. We explore a reasoning methodology based on inference with SWRL (Semantic Web Rule Language) rules which allows decision making with explanation. Through standard RDF (Resource Description Framework) and OWL (Web Ontology Language) ontology query interface, the assets of the decision support platform will stimulate domain knowledge sharing and can be applied into other application. In order to foster the reuse of ontology modules, we also proposed a usercentric approach for federate contextual ontologies (mapping and integration). This approach will create an ontology federation by a contextual configuration that avoid the “OWL:imports” disadvantages. Instead of putting mapping or new semantics in ontology modules, our approach will conserve the extra contextual information separately without impacting original ontologies or without importing all ontologies’ concepts. By introducing this contextualization, it becomes easier to support more expressive semantics in term of ontology integration itself, then it will also facilitate application agents to access and reuse ontologies. To realize this approach, we elaborate a new plug-in for the Protégé ontology editor.
APA, Harvard, Vancouver, ISO, and other styles
43

Chakroun, Chedlia. "Contribution à la définition d'une méthode de conception de bases de données à base ontologique." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00904117.

Full text
Abstract:
Récemment, les ontologies ont été largement adoptées par différentes entreprises dans divers domaines. Elles sontdevenues des composantes centrales dans bon nombre d'applications. Ces modèles conceptualisent l'univers du discours auxmoyens de concepts primitifs et parfois redondants (calculés à partir de concepts primitifs). Au début, la relation entreontologies et base de données a été faiblement couplée. Avec l'explosion des données sémantiques, des solutions depersistance assurant une haute performance des applications ont été proposées. En conséquence, un nouveau type de base dedonnées, appelée base de données à base ontologique (BDBO) a vu le jour. Plusieurs types de BDBO ont été proposés, ilsutilisent différents SGBD. Chaque BDBO possède sa propre architecture et ses modèles de stockage dédiés à la persistancedes ontologies et de ses instances. A ce stade, la relation entre les bases de données et les ontologies devient fortementcouplée. En conséquence, plusieurs études de recherche ont été proposées sur la phase de conception physique des BDBO.Les phases conceptuelle et logique n'ont été que partiellement traitées. Afin de garantir un succès similaire au celui connupar les bases de données relationnelles, les BDBO doivent être accompagnées par des méthodologies de conception et desoutils traitant les différentes étapes du cycle de vie d'une base de données. Une telle méthodologie devrait identifier laredondance intégrée dans l'ontologie. Nos travaux proposent une méthodologie de conception dédiée aux bases de données àbase ontologique incluant les principales phases du cycle de vie du développement d'une base de données : conceptuel,logique, physique ainsi que la phase de déploiement. La phase de conception logique est réalisée grâce à l'incorporation desdépendances entre les concepts ontologiques. Ces dépendances sont semblables au principe des dépendances fonctionnellesdéfinies pour les bases de données relationnelles. En raison de la diversité des architectures des BDBO et la variété desmodèles de stockage utilisés pour stocker et gérer les données ontologiques, nous proposons une approche de déploiement àla carte. Pour valider notre proposition, une implémentation de notre approche dans un environnement de BDBO sousOntoDB est proposée. Enfin, dans le but d'accompagner l'utilisateur pendant le processus de conception, un outil d'aide à laconception des bases de données à partir d'une ontologie conceptuelle est présenté
APA, Harvard, Vancouver, ISO, and other styles
44

Eich, Markus [Verfasser], Frank [Akademischer Betreuer] Kirchner, and Bernd [Akademischer Betreuer] Krieg-Brückner. "Marine Vessel Inspection as a Novel Field for Service Robotics: A Contribution to Systems, Control Methods and Semantic Perception Algorithms / Markus Eich. Gutachter: Frank Kirchner ; Bernd Krieg-Brückner. Betreuer: Frank Kirchner." Bremen : Staats- und Universitätsbibliothek Bremen, 2013. http://d-nb.info/1072078546/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Szejka, Anderson Luis. "Contribution to interoperable products design and manufacturing information : application to plastic injection products manufacturing." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0159/document.

Full text
Abstract:
La compétitivité toujours plus importante et la mondialisation ont mis l'industrie manufacturière au défi de rationaliser les différentes façons de mettre sur le marché de nouveaux produits dans un délai court, avec des prix compétitifs tout en assurant des niveaux de qualité élevés. Le PDP moderne exige simultanément la collaboration de plusieurs groupes de travail qui assurent la création et l’échange d’information avec des points de vue multiples dans et à travers les frontières institutionnelles. Dans ce contexte, des problèmes d’interopérabilité sémantique ont été identifiés en raison de l'hétérogénéité des informations liées à des points de vue différents et leurs relations pour le développement de produits. Le travail présenté dans ce mémoire propose un cadre conceptuel d’interopération pour la conception et la fabrication de produits. Ce cadre est basé sur un ensemble d’ontologies clés, de base d’ingénierie et sur des approches de cartographie sémantique. Le cadre soutient les mécanismes qui permettent la conciliation sémantique en termes de partage, conversion et traduction, tout en améliorant la capacité de partage des connaissances entre les domaines hétérogènes qui doivent interopérer. La recherche a particulièrement porté sur la conception et la fabrication de produits tournants en plastique et explore les points particuliers de la malléabilité - la conception et la fabrication de moules. Un système expérimental a été proposé à l’aide de l'outil Protégé pour modéliser des ontologies de base et d’une plateforme Java intégrée à Jena pour développer l'interface avec l'utilisateur. Le concept et la mise en œuvre de cette recherche ont été testés par des expériences en utilisant des produits tournants en plastiques. Les résultats ont montré que l'information et ses relations rigoureusement définies peuvent assurer l'efficacité de la conception et la fabrication du produit dans un processus de développement de produits moderne et collaboratif
Global competitiveness has challenged manufacturing industry to rationalise different ways of bringing to the market new products in a short lead-time with competitive prices while ensuring higher quality levels. Modern PDP has required simultaneously collaborations of multiple groups, producing and exchanging information from multi-perspectives within and across institutional boundaries. However, it has been identified semantic interoperability issues in view of the information heterogeneity from multiple perspectives and their relationships across product development. This research proposes a conceptual framework of an Interoperable Product Design and Manufacturing based on a set of core ontological foundations and semantic mapping approaches. This framework has been particularly instantiated for the design and manufacturing of plastic injection moulded rotational products and has explored the particular viewpoints of moldability, mould design and manufacturing. The research approach explored particular information structures to support Design and Manufacture application. Subsequently, the relationships between these information structures have been investigated and the semantics reconciliation has been designed through mechanisms to convert, share and translate information from the multi-perspectives. An experimental system has been performed using the Protégé tool to model the core ontologies and the Java platform integrated with the Jena to develop the interface with the user. The conceptual framework proposed in this research has been tested through experiments using rotational plastic products. Therefore, this research has shown that information rigorously-defined and their well-defined relationships can ensure the effectiveness of product design and manufacturing in a modern and collaborative PDP
APA, Harvard, Vancouver, ISO, and other styles
46

Lecoeur, Guillaume. "De la gestion des maux au "travail des mots" : contribution à une sociologie historique d'un répertoire sémantique des maux du travail (XVIIème siècle à nos jours)." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1184/document.

Full text
Abstract:
Depuis quelques années, et après que la catégorie de « souffrance » a occupé l’espace public français, de nouveaux mots occupent le devant de la scène pour décrire et souvent dénoncer les maux du travail. « Fatigue » « Stress », « burn out » ou encore « Risques psycho-sociaux » sont autant de nouvelles catégories aujourd’hui mobilisées pour nommer les maux des travailleurs. Alors que le débat sur les maux du travail revient régulièrement dans l’espace public, la question de l’origine de ce nouveau répertoire utilisé pour nommer les maux du travail interroge. Ces mots reflètent-ils réellement les conditions sociales des travailleurs? A quels enjeux discursifs et épistémologiques leurs usages peuvent-ils renvoyer ? Pour répondre à ces questions, cette thèse propose une analyse généalogique des répertoires sémantiques des maux du travail, en portant intérêt aux trajectoires sociales de ceux qui les ont promus. En identifiant les causes historique et épistémique possibles de ce répertoire, cette thèse apporte des outils méthodologique et théorique pour stabiliser et harmoniser notre pensée commune du travail. Elle contribue aussi, de cette manière, à éclairer les conditions d’émergence de la sociologie du travail en particulier, et celle des sciences des hommes et des femmes au travail de façon plus générale
In recent years, following a period during which suffering occupied a predominant space as a category shaping French public debate, new words have begun to move to the fore when it comes to denouncing workplace ills. Fatigue, stress, burn out, and phsycho-social risks are examples of new categories used today to name worker-experienced harm. While public debate over worker suffering is regularly revisited, the question of the origin of this new repertoire of concepts is problematic. Do these words really reflect the social conditions in which people work? What is at stake discursively and epistemologically when these concepts are used ? To answer these questions, this thesis endeavors to analyze the genealogy of the semantic repertoire of workplace suffering, by bringing particular focus upon the social trajectories of the people who promoted some of its different constituent concepts. By identifying some of the different possible historical and epistemological causes of this repertoire, this thesis offers new methodological and theoretical tools to stabilize and harmonize our commun thinking about work. In this way, it also helps shed light upon the conditions under which a peculiarly sociological approach to work, along with a more general social-science approach, have been able to emerge
APA, Harvard, Vancouver, ISO, and other styles
47

Battal, Merlet Lâle. "Contribution à l’étude de la mémoire épisodique dans la schizophrénie : investigations comportementales et électrophysiologiques de l‘effet du traitement du contenu sémantique des stimuli sur la mobilisation des processus de familiarité et de récupération contextuelle chez des personnes atteintes de schizophrénie." Thesis, Paris 8, 2019. http://www.theses.fr/2019PA080021.

Full text
Abstract:
L’altération de la mémoire épisodique exerce un impact négatif sur le fonctionnement cognitif et social des personnes atteintes de schizophrénie. Cette altération concerne les processus de récupération contextuelle et de familiarité. L’objectif principal de cette thèse était de tester la possibilité de mobiliser ces processus par le traitement du contenu sémantique des stimuli à apprendre, afin d’améliorer la performance épisodique des personnes souffrant de schizophrénie. Le second objectif était de vérifier si des différences dans les stratégies d’encodage entre les patients et les individus sains pouvaient expliquer le pattern de perturbation de la mémoire épisodique chez les patients. À l’aide de trois études utilisant un matériel verbal ou iconographique et des mesures comportementales et électrophysiologiques, réalisées sur un total de 66 patients et de 45 volontaires sains, nous avons montré que, contrairement à la récupération contextuelle, le processus de familiarité est mobilisable chez les personnes atteintes de schizophrénie, permettant de normaliser leur performance. Les patients ont présenté des difficultés de mise en place spontanée de stratégies adaptées au contexte de la tâche mnésique pendant l’encodage de l’information. Ces anomalies s’accompagnaient d’une absence d’indices électrophysiologiques de récupération contextuelle pendant le test. Ce travail désigne la familiarité comme une cible privilégiée des programmes de remédiation cognitive. De même, il indique que le déficit de mobilisation de la récupération contextuelle pourrait être un marqueur cognitif pour la détection précoce des traits cognitifs de susceptibilité à la pathologie schizophrénique
Episodic memory deficit in schizophrenia has a negative impact on patients’ cognitive and social functioning. This deficit is related to the impairment of both familiarity and recollection processes. The main goal of this thesis was to test the possibility of mobilizing these processes by the strategic use of the semantic content of stimuli in schizophrenia patients. The second aim was to understand if the differences encountered in encoding strategies between patients and controls could explain the mobilization pattern of episodic memory processes in patients. Three studies using verbal or pictorial stimuli, and behavioral and electrophysiological measures were carried out with 66 schizophrenia patients and 45 healthy individuals. We have demonstrated that, contrary to recollection, familiarity is increased by the strategic use of the semantic content of to be learned stimuli, which allowed to improve, and even normalize patients’ performance. The lack of mobilization in the recollection process might be explained by the differences in semantic encoding strategies used by patients in comparison to healthy participants. Patients with schizophrenia had difficulties with auto-initiating context appropriate strategies during encoding. To conclude, this work designates familiarity as a privileged target for cognitive remediation programs. Furthermore, it indicates that the mobilization deficit in the recollection seems to be a stable cognitive trait and could potentially become a neurocognitive marker, contributing to early detection in individuals at high risk of developing schizophrenia
APA, Harvard, Vancouver, ISO, and other styles
48

Hsueh, Chia-Hung. "Le bâtiment de la langue française selon Louis Meigret." Thesis, Université de Paris (2019-....), 2019. https://theses.md.univ-paris-diderot.fr/HSUEH_Chia-Hung_1_complete_20191108.pdf.

Full text
Abstract:
La thèse présente les apports de L. Meigret (1550 – ca 1558) dans l’histoire des théories linguistiques, tant au niveau de sa vision générale, que de ses analyses phonologiques, morphologiques et syntaxiques. Elle s’appuie sur l’approche thématico-quantitative, en portant sur les motifs récurrents sous la plume du grammairien, tel que portrait, bâtiment, superfluité, usurpation, gouvernement, détermination, démonstration, résolution, etc. Avant deux parties principales, le chapitre I examine les connotations de bâtiment, qui révèlent l’influence de l’imagerie perspective dans la grammatisation du français. En traitant des « problème de lettres », la première partie propose de considérer Meigret comme un grammairien-typographe, son alphabet comme une ingénierie linguistique, et sa quête d’une écriture phonographique comme l’aboutissement d’un nouveau paradigme grammatologique à la Renaissance. Sous le nom d’« études de syntaxe », la seconde partie s’attache à révéler sa qualité de syntacticien, dans ses descriptions dépendancielles des phénomènes langagiers à tout niveau, dans ses recherches pragma-sémantiques et pronominales notamment autour de l’article, et dans ses innovations dans les procédés métalinguistiques, comme des termes localisateurs et la technique de résolution
The thesis presents the contributions of L. Meigret (1550 - ca 1558) in the history of linguistic theories, both in terms of his general vision, as well as concerning his phonological, morphological and syntactical analyzes. It relies on the thematico-quantitative approach, in focusing on recurring themes under the pen of the grammarian, such as portrait (portraiture), bâtiment (building), superfluité (superfluity), usurpation, gouvernement (government), détermination, démonstration, résolution, and so on. Before two main parts, Chapter I examines the connotations of bâtiment, which reveal the influence of the perspective in painting during the grammatisation of French. In dealing with problème de lettres (problem of letters), the first part proposes to consider Meigret as a grammairien-typographe (grammarian-typographer), his alphabet as a linguistic engineering, and his quest for a phonographic writing as the culmination of a new grammatological paradigm at the Renaissance. Under the name of études de syntaxe (studies of syntax), the second part sets out to reveal its quality as a syntactician, in his dependent descriptions of language phenomena at all levels, in his pragma-semantic and pronominal researches, especially around the article, and in its innovations in metalinguistic tools, such as termes localisateurs (terms of locating) and la technique de résolution (the technique of resolution)
APA, Harvard, Vancouver, ISO, and other styles
49

Desaunay, Pierre. "Etudes comportementale et électrophysiologique de la mémoire dans les troubles du spectre de l'autisme Memory in autism spectrum disorders : a meta-analysis of experimental studies Prospective memory in adolescents with autism : a preliminary study of the impact memory load Impact of semantic relatedness on associative memory : an ERP study Exploring the ERP time-cours of associative recognition in autism Autisme et connectivité cérébrale : contribution des études de neuroimagerie à la compréhension des signes cliniques." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC051.

Full text
Abstract:
La mémoire est une fonction cognitive majeure, support de nos souvenirs personnels, et permettant les apprentissages et les résultats académiques. Son étude dans les troubles du spectre de l’autisme (TSA) est principalement comportementales et peu imagerique, avec une hétérogénéité de résultats et certain domaines peu explorés. Dans cette perspective, nous présentons dans cette thèse les résultats d’une méta-analyse de la mémoire dans les TSA, des résultats comportementaux en mémoire prospective event-based, et des données préliminaires en électroencéphalographie (EEG). Les résultats de la méta-analyse suggèrent des difficultés globales en mémoire dans les TSA, mais des performances d’autant meilleures que les tâches mnésiques ont un chevauchement important avec le système de mémoire sémantique : mémoire épisodique, matériel verbal, récupération avec support (rappel indicé, reconnaissance). Nous identifions des difficultés en mémoire prospective event-based, et des stratégies de compensation de nature verbale. L’étude des potentiels évoqués de la tâche en EEG suggère des difficultés en mémoire associative visuel pouvant résulter d’une diminution de l’intégration précoce des informations perceptuelles visuelles et sémantiques. Ces résultats suggèrent des difficultés mnésiques dans certains domaines, pouvant s’intégrer au modèle de la sous-connectivité dans les TSA. La mise en évidence de compétences mnésiques préservées est un élément important, pouvant s’associer, sur le plan cognitif, à un chevauchement plus important avec le système de mémoire sémantique, et sur le plan physiologique, à des réseaux de connectivité préservée
Memory is a main cognitive function, supporting our personal memories and enabling learning and academic results. Its study in autism spectrum disorder (ASD) is mainly behavioral, with heterogeneous results or underexplored domains. In this perspective, we present in this thesis the results of a meta-analysis of memory in ASD, behavioral results on event-based prospective memory, and preliminary results in electroencephalography (EEG). Results of the meta-analysis suggest overall difficulties in memory in ASD, but higher performance when greater overlap between the memory tasks and the semantic memory system, i.e. episodic memory, verbal material, supported retrieval (cued recall, recognition). We identify difficulties in event-based prospective memory, and verbal compensatory strategies. Study of Event Related Potentials in the EEG task suggests difficulties in visual associative memory that may result from a diminution in the early integration of perceptual visual and semantic information. Together, these results suggest some memory difficulties that may result from under-connectivity in ASD. By contrast, preserved memory domains are important, and may be associated on the cognitive level, with a greater overlap of the memory tasks with the semantic memory system, and on the physiological level, with networks of preserved connectivity
APA, Harvard, Vancouver, ISO, and other styles
50

Grundy, Peter C. "D Z Phillips and the Wittgensteinian grammar of 'God is love'." Phd thesis, 2008. http://hdl.handle.net/1885/150525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography