To see the other types of publications on this topic, follow the link: Sémantique des cadres.

Dissertations / Theses on the topic 'Sémantique des cadres'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 39 dissertations / theses for your research on the topic 'Sémantique des cadres.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Michalon, Olivier. "Modèles statistiques pour la prédiction de cadres sémantiques." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0221/document.

Full text
Abstract:
En traitement automatique de la langue, les différentes étapes d'analyse usuelles ont tour à tour amélioré la façon dont le langage peut être modélisé par les machines. Une étape d'analyse encore mal maîtrisée correspond à l'analyse sémantique. Ce type d'analyse permettrait de nombreuses avancées, telles que de meilleures interactions homme-machine ou des traductions plus fiables. Il existe plusieurs structures de représentation du sens telles que PropBank, les AMR et FrameNet. FrameNet correspond à la représentation en cadres sémantiques dont la théorie a été décrite par Charles Fillmore. Dans cette théorie, chaque situation prototypique et les différents éléments y intervenant sont représentés de telle sorte que deux situations similaires soient représentées par le même objet, appelé cadre sémantique. Le projet FrameNet est une application de cette théorie, dans laquelle plusieurs centaines de situations prototypiques sont définies. Le travail que nous décrirons ici s'inscrit dans la continuité des travaux déjà élaborés pour prédire automatiquement des cadres sémantiques. Nous présenterons quatre systèmes de prédiction, chacun ayant permis de valider une hypothèse sur les propriétés nécessaires à une prédiction efficace. Nous verrons également que notre analyse peut être améliorée en fournissant aux modèles de prédiction des informations raffinées au préalable, avec d'un côté une analyse syntaxique dont les liens profonds sont explicités et de l'autre des représentations vectorielles du vocabulaire apprises au préalable
In natural language processing, each analysis step has improved the way in which language can be modeled by machines. Another step of analysis still poorly mastered resides in semantic parsing. This type of analysis can provide information which would allow for many advances, such as better human-machine interactions or more reliable translations. There exist several types of meaning representation structures, such as PropBank, AMR and FrameNet. FrameNet corresponds to the frame semantic framework whose theory has been described by Charles Fillmore (1971). In this theory, each prototypical situation and each different elements involved are represented in such a way that two similar situations are represented by the same object, called a semantic frame. The work that we will describe here follows the work already developed for machine prediction of frame semantic representations. We will present four prediction systems, and each one of them allowed to validate another hypothesis on the necessary properties for effective prediction. We will show that semantic parsing can also be improved by providing prediction models with refined information as input of the system, with firstly a syntactic analysis where deep links are made explicit and secondly vectorial representations of the vocabulary learned beforehand
APA, Harvard, Vancouver, ISO, and other styles
2

Djemaa, Marianne. "Stratégie domaine par domaine pour la création d'un FrameNet du français : annotations en corpus de cadres et rôles sémantiques." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC007/document.

Full text
Abstract:
Dans cette thèse, nous décrivons la création du French FrameNet (FFN), une ressource de type FrameNet pour le français créée à partir du FrameNet de l’anglais (Baker et al., 1998) et de deux corpus arborés : le French Treebank (Abeillé et al., 2003) et le Sequoia Treebank (Candito et Seddah, 2012). La ressource séminale, le FrameNet de l’anglais, constitue un modèle d’annotation sémantique de situations prototypiques et de leurs participants. Elle propose à la fois :a) un ensemble structuré de situations prototypiques, appelées cadres, associées à des caractérisations sémantiques des participants impliqués (les rôles);b) un lexique de déclencheurs, les lexèmes évoquant ces cadres;c) un ensemble d’annotations en cadres pour l’anglais. Pour créer le FFN, nous avons suivi une approche «par domaine notionnel» : nous avons défini quatre «domaines» centrés chacun autour d’une notion (cause, communication langagière, position cognitive ou transaction commerciale), que nous avons travaillé à couvrir exhaustivement à la fois pour la définition des cadres sémantiques, la définition du lexique, et l’annotation en corpus. Cette stratégie permet de garantir une plus grande cohérence dans la structuration en cadres sémantiques, tout en abordant la polysémie au sein d’un domaine et entre les domaines. De plus, nous avons annoté les cadres de nos domaines sur du texte continu, sans sélection d’occurrences : nous préservons ainsi la distribution des caractéristiques lexicales et syntaxiques de l’évocation des cadres dans notre corpus. à l’heure actuelle, le FFN comporte 105 cadres et 873 déclencheurs distincts, qui donnent lieu à 1109 paires déclencheur-cadre distinctes, c’est-à-dire 1109 sens. Le corpus annoté compte au total 16167 annotations de cadres de nos domaines et de leurs rôles. La thèse commence par resituer le modèle FrameNet dans un contexte théorique plus large. Nous justifions ensuite le choix de nous appuyer sur cette ressource et motivons notre méthodologie en domaines notionnels. Nous explicitons pour le FFN certaines notions définies pour le FrameNet de l’anglais que nous avons jugées trop floues pour être appliquées de manière cohérente. Nous introduisons en particulier des critères plus directement syntaxiques pour la définition du périmètre lexical d’un cadre, ainsi que pour la distinction entre rôles noyaux et non-noyaux.Nous décrivons ensuite la création du FFN : d’abord, la délimitation de la structure de cadres utilisée pour le FFN, et la création de leur lexique. Nous présentons alors de manière approfondie le domaine notionnel des positions cognitives, qui englobe les cadres portant sur le degré de certitude d’un être doué de conscience sur une proposition. Puis, nous présentons notre méthodologie d’annotation du corpus en cadres et en rôles. à cette occasion, nous passons en revue certains phénomènes linguistiques qu’il nous a fallu traiter pour obtenir une annotation cohérente ; c’est par exemple le cas des constructions à attribut de l’objet.Enfin, nous présentons des données quantitatives sur le FFN tel qu’il est à ce jour et sur son évaluation. Nous terminons sur des perspectives de travaux d’amélioration et d’exploitation de la ressource créée
This thesis describes the creation of the French FrameNet (FFN), a French language FrameNet type resource made using both the Berkeley FrameNet (Baker et al., 1998) and two morphosyntactic treebanks: the French Treebank (Abeillé et al., 2003) and the Sequoia Treebank (Candito et Seddah, 2012). The Berkeley FrameNet allows for semantic annotation of prototypical situations and their participants. It consists of:a) a structured set of prototypical situations, called frames. These frames incorporate semantic characterizations of the situations’ participants (Frame Elements, or FEs);b) a lexicon of lexical units (LUs) which can evoke those frames;c) a set of English language frame annotations. In order to create the FFN, we designed a “domain by domain” methodology: we defined four “domains”, each centered on a specific notion (cause, verbal communication, cognitive stance, or commercial transaction). We then sought to obtain full frame and lexical coverage for these domains, and annotated the first 100 corpus occurrences of each LU in our domains. This strategy guarantees a greater consistency in terms of frame structuring than other approaches and is conducive to work on both intra-domain and inter-domains frame polysemy. Our annotating frames on continuous text without selecting particular LU occurrences preserves the natural distribution of lexical and syntactic characteristics of frame-evoking elements in our corpus. At the present time, the FFNincludes 105 distinct frames and 873 distinct LUs, which combine into 1,109 LU-frame pairs (i.e. 1,109 senses). 16,167 frame occurrences, as well as their FEs, have been annotated in our corpus. In this thesis, I first situate the FrameNet model in a larger theoretical background. I then justify our using the Berkeley FrameNet as our resource base and explain why we used a domain-by- domain methodology. I next try to clarify some specific BFN notions that we found too vague to be coherently used to make the FFN. Specifically, I introduce more directly syntactic criteria both for defining a frame’s lexical perimeter and for differentiating core FEs from non-core ones.Then, I describe the FFN creation itself first by delimitating a structure of frames that will be used in the resource and by creating a lexicon for these frames. I then introduce in detail the Cognitive Stances notional domain, which includes frames having to do with a cognizer’s degree of certainty about some particular content. Next, I describe our methodology for annotating a corpus with frames and FEs, and analyze our treatment of several specific linguistic phenomena that required additional consideration (such as object complement constructions).Finally, I give quantified information about the current status of the FFN and its evaluation. I conclude with some perspectives on improving and exploiting the FFN
APA, Harvard, Vancouver, ISO, and other styles
3

Maëso, Gardeil Florence. "Comptes rendus de perception dans le contexte des N fenêtre(s) et porte(s). Approche sémantique et pragmatique." Thesis, Paris 3, 2014. http://www.theses.fr/2014PA030097.

Full text
Abstract:
Cette thèse a pour objectif d’expliquer pourquoi l’insertion de comptes-rendus de perception ou CRP dans un fragment narratif, lorsqu’elle entraîne une rupture dans la progression thématique de ce fragment, ne compromet pas sa compréhension.Les études narratologiques (Hamon, Adam et Petitjean) définissent les textes descriptifs comme des séquences qui se caractérisent par des marqueurs d’introduction et de clôture corrélés. Les études sur l’accès cognitif à l’information (Vogeleer) montrent, par ailleurs, que les CRP décrivent une situation accessible dans la situation spatio-temporelle d’un sujet. Ce sont des énoncés thétiques qui se caractérisent par leur absence de thème (Furukawa). A l’écrit, le contexte gauche d’un CRP peut compenser son absence de thème en décrivant une situation qui permet d’inférer le lieu cible de perception (Emma s’approcha de la fenêtre) d’un sujet introduit en amont. Les énoncés de ce type sont ainsi apparentés au DIL.La classification d’un corpus de CRP intégrant les noms fenêtre(s) et porte(s), nous a conduit à distinguer six types de CRP parmi lesquels les séquences de compte rendu de perception indirect libre ou CRPIL sont les plus fréquentes. Dans ces séquences, lorsque le premier CRP de l’extrait n’a aucun lien avec son contexte gauche, il décrit une situation perçue accessible dans la situation spatio-temporelle du sujet qui la perçoit, qui est donc inédite jusqu’à son introduction dans le monde fictif. La coïncidence spatio-temporelle entre le sujet et cette situation peut être dénotée dans certains extraits par un SP spatial ou temporel antéposé dans le premier CRP de la séquence et potentiellement cadratif (Charolles). Ce SP signale le point de vue du sujet introduit en amont, dénote le lieu cible ou la localisation temporelle de la situation décrite dans le CRP et permet d’interpréter tous les CRP de la séquence. Dans les extraits ne mentionnant pas de SP, le lieu cible et le temps de la situation perçue sont inférés dès l’introduction du premier CRP, cette inférence validant tous les CRP de la séquence. La rupture topicale suscitée par l’introduction des CRP signale, dans tous les cas, l’émergence du point de vue d’un personnage introduit en amont
The aim of this thesis is to explain why the inclusion of perceptual reports (PRs) in a literary narrative does not interfere with the comprehension of such narratives, despite when breaking their thematic progression.Narratological studies (Hamon, Adam and Petitjean) define descriptive texts as sequences characterised by correlated introductory and closing markers. Furthermore, research on evidentiality (Vogeleer) shows that PR describe a situation that is accessible in the space/time situation of a subject. PRs are thetics statements characterised by a lack of topic (Furukawa). In the written form, the left context of the PR may make up for the lack of topic by describing a situation that may be used to infer the place targeted by the perception (Emma s’approcha de la fenêtre) of a subject introduced earlier. Statements of this type are thus similar to represented speech and thought or RST.The classification of a corpus of PRs incorporating the nouns fenêtre(s) and porte(s), leads us to distinguish six PRs types among which represented perceptual reports (RPRs), are most frequent. In these sequences, when the first PR of the excerpt has no link to its left context, it describes a perceived situation accessible in the spatial/temporal situation of the subject that perceives it, which is therefore unknown until introduced into the fictitious world. The spatial and temporal coincidence of the subject and this situation may be noted in certain excerpts by a spatial or temporal prepositional phrase (PP) that is placed earlier in the first PR of the sequence and that is potentially framing (Charolles). This PP signals the point of view of the subject introduced earlier, denotes the target location or temporal location of the situation described in the PR and makes it possible to interpret all the PRs in the sequence. In the excerpts that do not mention a PP, the target location and time of the perceived situation are inferred once the first PR is introduced, with this inference validating all perceptual reports in the sequence. The topical break caused by the introduction of PRs signals, in all cases, the emergence of the point of view of a character introduced earlier
APA, Harvard, Vancouver, ISO, and other styles
4

Aptekman, Jeanne. "De la logique à la linguistique : une étude du sens de si." Paris, EHESS, 2006. http://www.theses.fr/2006EHES0123.

Full text
Abstract:
Les conditionnels forment une part importante du questionnement de la logique sur elle-même. A travers de nombreuses réflexions sur le conditionnel matériel, la logique cherche à penser l’implication logique telle qu’elle nous apparaît intuitivement, comme un enchaînement nécessaire entre un antécédent et un conséquent. Mais ce questionnement s’est accompagné sur un questionnement sur la possibilité de traiter les conditionnels ordinaires à 1’aide du conditionnel matériel de la logique, ou des réformes qui en ont été proposées. Or, les conditionnels, que nous étudierons ici sous leur forme paradigmatique de phrases en SI, se distinguent radicalement de ce conditionnel matériel. Nous avons donc voulu sortir l’analyse des phrases en SI de cette tradition philosophico-logique pour analyser le sens de SI dans une perspective clairement sémantique. Il s’en dégage une réelle unité, qui au travers d’une grande polysémie, permet d’envisager de façon unifiée des usages souvent traités séparément. Cette analyse permet également de revenir sur le débat en psychologie du raisonnement sur les connecteurs logiques
Conditionals hold an important place in logical questioning about itself. In analysing the numerous theories about material conditional. Logic attempts‘ to grasp the logical implication as it appears intuitively to us,. Wich is a necessary entailment between an antecedent and a consequent. But a the same time arise the question of the possibility of offering a treatment for ordinary conditional using the material conditional of logic or the reforms that have been proposed for it. However, the conditionals which we will/ approach here in their paradigmatic forms of SI-clauses, do not always expressed a logical entailment and these are two different questions. That is the reason why we wanted to leave aside the philosophico-logical tradition to propose an analysis of the meaning of SI in a clearly semantic prospective. Within a large polysemy, a significant unity comas out of this approach which allows us to take a fresh look at the debate in psychology of reasoning about logical connectives
APA, Harvard, Vancouver, ISO, and other styles
5

Stan, Johann. "Un cadre de développement sémantique pour la recherche sociale." Phd thesis, Université Jean Monnet - Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00708781.

Full text
Abstract:
Cette thèse présente un système permettant d'extraire les interactions partagées dans les réseaux sociaux et de construire un profil dynamique d'expertise pour chaque membre dudit réseau social. La difficulté principale dans cette partie est l'analyse de ces interactions, souvent très courtes et avec peu de structure grammaticale et linguistique. L'approche que nous avons mis en place propose de relier les termes importants de ces messages à des concepts dans une base de connaissance sémantique, type Linked Data. Cette connexion permet en effet d'enrichir le champ sémantique des messages en exploitant le voisinage sémantique du concept dans la base de connaissances. Notre première contribution dans ce contexte est un algorithme qui permet d'effectuer cette liaison avec une précision plus augmentée par rapport à l'état de l'art, en considérant le profil de l'utilisateur ainsi que les messages partagés dans la communauté dont il est membre comme source supplémentaire de contexte. La deuxième étape de l'analyse consiste à effectuer l'expansion sémantique du concept en exploitant les liens dans la base de connaissance. Notre algorithme utilise une heuristique basant sur le calcul de similarité entre les descriptions des concepts pour ne garder que ceux les plus pertinents par rapport au profil de l'utilisateur. Les deux algorithmes mentionnés précédemment permettent d'avoir un ensemble de concepts qui illustrent les centres d'expertise de l'utilisateur. Afin de mesurer le degré d'expertise de l'utilisateur qui s'applique sur chaque concept dans son profil, nous appliquons la méthode-standard vectoriel et associons à chaque concept une mesure composée de trois éléments : (i) le tf-idf, (ii) le sentiment moyen que l'utilisateur exprime par rapport au dit concept et (iii) l'entropie moyen des messages partagés contenant ledit concept. L'ensemble des trois mesures combinées permet d'avoir un poids unique associé à chaque concept du profil. Ce modèle de profil vectoriel permet de trouver les " top-k " profils les plus pertinents par rapport à une requête. Afin de propager ces poids sur les concepts dans l'expansion sémantique, nous avons appliqué un algorithme de type propagation sous contrainte (Constrained Spreading Activation), spécialement adapté à la structure d'un graphe sémantique. L'application réalisée pour prouver l'efficacité de notre approche, ainsi que d'illustrer la stratégie de recommandation est un système disponible en ligne, nommé " The Tagging Beak " (http://www.tbeak.com). Nous avons en effet développé une stratégie de recommandation type Q&A (question - réponse), où les utilisateurs peuvent poser des questions en langage naturel et le système recommande des personnes à contacter ou à qui se connecter pour être notifié de nouveaux messages pertinents par rapport au sujet de la question.
APA, Harvard, Vancouver, ISO, and other styles
6

Dahm, Johannes. "Semantische Frames zur empirischen Erfassung sozialer Repräsentationen : ein diskurslinguistischer Ansatz zur Untersuchung der Wahrnehmung der Straßburger Neustadt durch die lokale Bevölkerung." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAC025/document.

Full text
Abstract:
Dans notre thèse, nous analysons les représentations sociales de la Neustadt, l’ancien quartier impérial de Strasbourg, par la population locale. Depuis 2010, le "quartier allemand" fait l’objet d’une médiatisation croissante, déclenchée par la candidature de la Communauté urbaine de Strasbourg, qui prévoit le classement de la Neustadt au patrimoine mondial de l’Unesco. La valorisation portée à cet espace urbain ne semble, en revanche, pas converger avec les représentations des habitants de Strasbourg. Nous proposons une approche interdisciplinaire et discursive pour analyser les représentations sociales de la Neustadt à partir de questionnaires et d’entretiens. Nous exploitons le potentiel de deux dispositifs psychosociaux – la "théorie du noyau central" et de l’hypothèse de la "zone muette" – dans le cadre d’une analyse linguistique de discours qui est d’orientation sémantico-cognitive. Des méthodes lexicométriques et des cadres sémantiques (en tant que catégories cognitives d’analyse) sont appliquées afin d’analyser le contenu, la structure, la distribution, la dynamique et les interconnexions des représentations sociales dans le discours
In our thesis, we analyse the social representations of the Neustadt, former German imperial district in Strasbourg, by the local population. Since 2010, the "German district" is an object of increasing media coverage, provoked by the candidature of the city of Strasbourg, which aims at the inscription of the Neustadt on the UNESCO’s World Heritage List. The valorisation of this urban space, however, seems to disagree with the perception of the Neustadt by the inhabitants of the city. We propose an interdisciplinary and discursive approach to the analysis of the social representations of the Neustadt on the basis of questionnaires and interviews. We use and exploit the potential of two psychosocial concepts – the "theory of the central core" and the "hypothesis of the silent zone" – in the context of a linguistic discourse analysis and a cognitive semantics approach. We apply lexicometric methods and semantic frames (as cognitive categories for analysis) in order to analyse the content, the structure, the distribution, the dynamics and the interconnections of social representations inside the discourse
In der Dissertation untersuchen wir die sozialen Repräsentationen und die Wahrnehmung der Neustadt, des ehemaligen kaiserlichen Viertels in Straßburg, durch die lokale Bevölkerung. Seit 2010 wird das ‚deutsche Viertel‘ in der lokalen Presse zunehmend thematisiert, was auf die Bewerbung der Stadt Straßburg zurückzuführen ist, mit der die Einschreibung der Neustadt auf die Liste des UNESCO-Weltkulturerbes angestrebt wird. Die aktuelle Wertschätzung der Neustadt scheint allerdings nicht mit der Wahrnehmung durch die Bewohner Straßburgs übereinzustimmen. Wir entwickeln einen interdisziplinären, diskursanalytischen Ansatz und untersuchen die sozialen Repräsentationen der Neustadt anhand von Fragebögen und Interviews. Dabei werden zwei sozialpsychologische Konzepte – die ‚Theorie des zentralen Kerns‘ und die ‚Hypothese der zone muette‘ – in einen kognitiv inspirierten, diskurslinguistischen Ansatz eingebettet. Lexikometrische Verfahren und semantische Frames (kognitive Analysekategorien) werden eingesetzt, um Inhalt, Struktur, Distribution, Dynamik und die Vernetzung sozialer Repräsentationen im Diskurs zu erforschen
APA, Harvard, Vancouver, ISO, and other styles
7

Morisset, Charles. "Sémantique des systèmes de contrôle d'accès : définition d'un cadre sémantique pour la spécification, l'implantation et la comparaison de modèles de contrôle d'accès." Paris 6, 2007. http://www.theses.fr/2007PA066244.

Full text
Abstract:
Un des aspects de la sécurité en informatique concerne le contrôle des accès aux données d'un systèm. Nous utilisons les méthodes formelles pour aborder le contrôle d'accès avec pour objectif à long terme le développement d'une bibliothèque certifiée de politiques de sécurité. Tout d'abord, il s'agit de formaliser les politiques considérées afin d'identifier les hypothèses implicites et d'expliciter le système à modéliser. Ensuite, il s'agit de mécaniser cette formalisation. Nous présentons un exemple d'implantation d'un modèle de contrôle d'accès au sein de l'atelier Focal, nous permettant de concevoir un moniteur de référence appliquant la politique de Bell et LaPadula au sein d'un SGBD. Enfin, pour permettre une réutilisation plus facile des développements formels obtenus, nous introduisons un cadre sémantique abstrait permettant de spécifier, d'implanter et de comparer des modèles de contrôle d'accès. Ce cadre caractérise des propriétés de simulation entre implantations permettant d'exprimer qu'un modèle est plus restrictif qu'un autre
APA, Harvard, Vancouver, ISO, and other styles
8

Benayoun, Jean-Michel. "L' opération [Ø + N] dans le cadre d'une étude sémantique et syntaxique." Paris 3, 2001. http://www.theses.fr/2001PA030145.

Full text
Abstract:
Rendre compte de l'opération [Ø + N] en français et en anglais impose de s'interroger dans un premier temps sur la validité de la matérialisation d'un élément phonologiquement et graphiquement nul. Il faut, pour cela, considérer les valeurs de N et en étudier les modifications sémantiques et énonciatives sous l'influence de [Ø]. Il convient ensuite d'analyser ce qui nous autorise à considérer que [Ø + N] est une opération linguistique dont le fonctionnement et les effets de sens nous permettent de penser que ce monde de saisie de N relève d'un choix conscient de l'énonciateur. C'est cette opération de sélection, elle-même, qui s'effectue au sein d'un système paradigmatique pertinent. .
To account for the [Ø + N] operation, as attested in French and English corpora, implies the prior analysis of the manifestation of [Ø], a phonologically empty sign. This in turn implies examining the value of [N] and their semantic variation when influenced by the presence of [Ø]. This study will resort to appropriate paradigms to find indications of the speaker's enunciative choice. [Ø] is never the outcome of "linguistic chance". [Ø + N] acquires meaning and sense from speech and discourse. [Ø] therefore takes its values from the text itself. It cannot be seen as a "crystallised" marker, the operation of which is always defined and determined. .
APA, Harvard, Vancouver, ISO, and other styles
9

Mery, Bruno. "Modélisation de la Sémantique Lexicale dans le cadre de la théorie des types." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00627432.

Full text
Abstract:
Le présent manuscrit constitue la partie écrite du travail de thèse réalisé par Bruno Mery sous la direction de Christian Bassac et Christian Retoré entre 2006 et 2011, portant sur le sujet "Modélisation de la sémantique lexicale dans la théorie des types". Il s'agit d'une thèse d'informatique s'inscrivant dans le domaine du traitement automatique des langues, et visant à apporter un cadre formel pour la prise en compte, lors de l'analyse sémantique de la phrase, d'informations apportées par chacun des mots. Après avoir situé le sujet, cette thèse examine les nombreux travaux l'ayant précédée et s'inscrit dans la tradition du lexique génératif. Elle présente des exemples de phénomènes à traiter, et donne une proposition de système de calcul fondée sur la logique du second ordre. Elle examine ensuite la validité de cette proposition par rapport aux exemples et aux autres approches déjà formalisées, et relate une implémentation de ce système. Enfin, elle propose une brève discussion des sujets restant en suspens.
APA, Harvard, Vancouver, ISO, and other styles
10

Millet, Christophe. "Construction et utilisation de la sémantique dans le cadre de l'annotation automatique d'images." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003602.

Full text
Abstract:
L'annotation automatique d'images est un domaine du traitement d'images permettant d'associer automatiquement des mots-clés ou du texte à des images à partir de leur contenu afin de pouvoir ensuite rechercher des images par requête textuelle. L'annotation automatique d'images cherche à combler les lacunes des deux autres approches actuelles permettant la recherche d'images à partir de requête textuelle. La première consiste à annoter manuellement les images, ce qui n'est plus envisageable avec le nombre croissant d'images numériques, d'autant que différentes personnes annotent les images différemment. La seconde approche, adoptée par les moteurs de recherche d'images sur le web, est d'utiliser les mots de la page web contenant l'image comme annotation de cette image, avec l'inconvénient de ne pas prendre du tout en compte le contenu de l'image. Quelques systèmes d'annotation automatique d'images commencent à émerger, avec certaines limites : le nombre d'objets reconnus reste de l'ordre de 10 à 100, alors que les humains sont capables de reconnaître de l'ordre de 10000 objets ; les mots-clés générés comme annotation pour une image sont parfois en contradiction entre eux, par exemple "éléphant" et "ours polaire" peuvent être détectés dans une même image ; la base de données pour l'apprentissage des objets est construite manuellement. Les travaux effectués au cours de cette thèse visent à proposer des solutions à ces problèmes, d'une part en introduisant de la connaissance dans l'annotation automatique d'images, d'autre part en proposant un système complètement automatique, où notamment la base d'images pour l'apprentissage est construite automatiquement à partir des images du Web. Cette thèse est constituée de trois parties : La première partie concerne la catégorisation d'une image en fonction de son type (photo, carte, peinture, clipart) puis pour les photographies, on s'intéresse à savoir quel est le contexte de la scène photographiée : est-ce une photographie d'intérieur ou d'extérieur, une photographie prise de nuit ou de jour, une photographie de nature ou de ville ? Y a-t-il des visages dans la photo ? Y a-t-il du ciel, de l'herbe, de l'eau, de la neige, une route,
APA, Harvard, Vancouver, ISO, and other styles
11

Widlöcher, Antoine. "Analyse macro-sémantique des structures rhétoriques du discours : cadre théorique et modèle opératoire." Caen, 2008. http://www.theses.fr/2008CAEN2042.

Full text
Abstract:
Dans le domaine du Traitement Automatique des Langues (TAL), notre étude porte sur l'analyse des structures rhétoriques du discours, c'est-à-dire des stéréotypes organisationnels qui participent au cheminement argumentatif des textes. Nous visons la constitution d'un cadre théorique et opérationnel général, permettant la modélisation et l'exploration computationnelle d'une variété significative de telles structures. Nous proposons notamment d'articuler leur analyse autour des trois catégories élémentaires que sont unités, relations et schémas, et envisageons différentes propriétés récurrentes des structures et des mécanismes indiciaires sous-jacents: variabilité du grain, flexibilité, non-linéarité et non-séquentialité potentielles, interactions local/global. . . Afin de procéder à la description formelle des phénomènes linguistiques étudiés et à l'opérationalisation de leur analyse sur corpus, nous proposons le formalisme CDML (Contraint-based Discourse Modeling Language), qui permet de modéliser des structures discursives par l'expression de contraintes sur des objets textuels de différentes natures (morphologique, syntaxique, sémantique. . . ), à différents niveaux de grain. Un analyseur permet de projeter ces contraintes sur corpus pour identifier les structures décrites. Deux études de cas ont par ailleurs été entreprises, sur deux types de structures significativement différentes, qui illustrent nos principes d'analyses, notre modèle formel et notre méthode d'opérationalisation. La première porte sur l'hypothèse de l'encadrement du discours de M. Charolles, et la seconde explore les relations de contraste à différentes échelles, entre des objets linguistiques variés
In the general field of Natural Language Processing (NLP), this work concerns the analysis of the rhetorical structure of discourse, which consists in the argumentative organization of texts through various stereotypes. Our main goal was to define a theoretical and computational framework allowing formal modeling and automatic exploration of various discursive structures involved in this textual organization. We notably propose to describe those structures using the three elementary categories of units, relations and schemas, and outline recurrent properties of discursive patterns and clues which signal their presence: variable granularity, fuzziness, possible non-linearity and non-sequentiality, local/global interactions. . . In order to give a formal description of the studied linguistic phenomena and to make their computational analysis possible, in a corpus-based approach, we propose the CDML formalism (Contraint-based Discourse Modeling Language). It allows to design formal models of discursive patterns by means of constraints expressed on textual objects whose nature (morphologic, syntactic, semantic. . . ) and whose granularity level may vary. A CDML parser has been implemented and may be used to apply such a formal description to a corpus and automatically detect textual structures satisfying the given constraints. In addition, we present two case studies dedicated to significantly different discursive patterns and illustrating our analysis principles, formal model and computational approach. The first one concerns Charolles' discourse framing theory. The second considers contrastive relations between various kind of textual objects, at different granularity levels
APA, Harvard, Vancouver, ISO, and other styles
12

Ceausu-Dragos, Valentina. "Définition d'un cadre sémantique pour la catégorisation de données textuelles : application à l'accidentologie." Paris 5, 2007. http://www.theses.fr/2007PA05S001.

Full text
Abstract:
L'exploitation des connaissances propres à un domaine nécessite des techniques pour l'extraction, la modélisation et la formalisation de ces connaissances. Les travaux présentés dans cette thèse portent sur le développement de techniques relatives à la gestion de ressources sémantiques et à leur utilisation comme support à la mise en oeuvre d'une application. Les techniques proposées ainsi que leur application définissent un cadre sémantique pour la catégorisation de données textuelles. Sur le plan théorique, ce cadre sémantique permet : (I) l'extraction et la validation des connaissances à partir de textes; (II) la modélisation des connaissances contenues dans les textes sous la formae de ressources sémantiques ; (III) la mise en correspondance entre une ressource ainsi créee et un corpus du domaine; (IV) la mise en correspondance entre plusieurs ressources sémantiques modélisant un même domaine. Sur le plan applicatif, ce cadre propose un mécanisme de réaisonnement qui fait appel à ces techniques poour exploiter des connaissances en accidentologie. Il deveint ainsi possible de mettre en oeuvre une solution à un problème concret qui concerne l'exploitation automaitque des scénarios type d'accidents de la route
Knowledge engineering requires the application of techniques for knowledge extraction, modeling and formalization. The work presented concerns the definition of a semantic portal for text categorization. This portal relies on several techniques developed for semantic resources engineering. From a theorical point of view, this semantic portal allows ; (I) knowledge extraction from text ; (II) semantic resources construction ; (III) finding correspondances between semantic resources and textual corpora ; (IV) aligning semantic resources. The core of this portal is a knowledge system allowing text categorization in accidentology. This system implements a reasoning mechanism supported by domain knowledge and it offers a solution for the automatic exploitation of accident scenarios
APA, Harvard, Vancouver, ISO, and other styles
13

Djenouhat, Manel Amel. "Un cadre sémantique formel pour la description, sélection et composition des services web." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1137/document.

Full text
Abstract:
Le but de cette thèse est de dégager un cadre sémantique formel approprié supportant l'interopérabilité dedifférents formalismes déjà utilisés pour décrire et déployer un service Web. En d’autres termes, nouscontribuons au développement d’un formalisme mathématique rigoureux permettant de décrire un service Webcomplexe susceptible de changer pendant l’exécution et de coordonner avec les autres services de façonadaptative. Pour atteindre cet objectif, les étapes de description, de sélection et de composition ont constitué lestrois majeures problématiques étudiées dans cette thèse.Pour ce faire, nous avons proposé dans un premier temps, à travers l’utilisation du cadre sémantique formel K lelangage K-WSDL; un langage de description de services Web doté d’une sémantique opérationnelle en terme derègles de réécriture qui peut être exécutable et analysable sous Maude. Nous avons introduit, dans un secondtemps, l’approche WS-Sim basée sur la théorie des catégories qui évalue l’équivalence comportementale entreservices en représentant chaque service par une catégorie et en établissant des liens formels (foncteur) entre elles.Enfin, nous avons présenté le modèle RMop-ECATNet (Refined Meta Open ECATNet ) : un modèle dédié à laspécification formelle de la composition des services Web et fruit du raffinement du modèle Mop-ECATNetproposé par [LB14]. Nous avons étendu et enrichi ce dernier aux trois niveaux : structurel, comportemental etimplémentation
The aim of this thesis is to provide a suitable formal semantic framework that supports interoperability ofdifferent formalisms already used to describe and deploy a Web service. In other words, we contribute to thedevelopment of a rigorous mathematical formalism to describe a complex Web service that may change duringexecution and coordinate with other services adaptively. To achieve this goal, the steps of description, selectionand composition constitute the three major issues studied in this thesis.We proposed so, initially, through the use of the K semantic framework the K-WSDL : a Web servicesdescription language endowed with an operational semantics in terms of rewriting rules which can be executedand analyzed in Maude. We introduced, in a second step, WS-Sim, a new approach based on the category theorywhich evaluates the behavioral equivalence between services by representing each service by a category and byestablishing formal links (functor) between them. Finally, we present RMop-ECATNet (Refined Meta OpenECATNet): a formal model for the specification of services composition. product of the refinement of the Mop-ECATNets model, introduced initially by [LB14]. We extended and enriched this model at three distinct levels:at the structural, behavioural level and implementation levels
APA, Harvard, Vancouver, ISO, and other styles
14

Maurel, François. "Un cadre quantitatif pour la Ludique." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00152476.

Full text
Abstract:
La ludique, introduite par Jean-Yves Girard, est un modèle de la logique linéaire sans exponentielles. En vue de la modélisation des exponentielles, cette thèse propose deux extensions successives de la ludique. La première extension étend la ludique en un modèle probabiliste original conservant la plupart des théorèmes du modèle initial. La seconde extension reprend ce modèle probabiliste et utilise des pointeurs, introduits dans les jeux de Hyland et Ong, ce qui permet de considérer les répétitions et donc de modéliser les exponentielles.

Un résultat de complétude est montré pour la ludique probabiliste vis-à-vis de la ludique et de la logique MALL2. La ludique exponentielle proposée vérifie les théorèmes principaux de la ludique : les théorèmes analytiques. En particulier, ce modèle montre une interprétation de la logique linéaire avec des répétitions gardant une topologie séparée. De plus, les coefficients introduits apporte à la ludique une "plus grande séparation" que dans le modèle d'origine.
APA, Harvard, Vancouver, ISO, and other styles
15

Louis, François. "Étude sémantique et lexico-combinatoire de lexèmes du champ sémantique de la santé en breton vannetais dans le cadre de la théorie linguistique Sens-Texte." Thesis, Rennes 2, 2015. http://www.theses.fr/2015REN20038/document.

Full text
Abstract:
La thèse propose un début d’étude du champ sémantique de la santé en breton vannetais. Cette étude est basée sur un corpus de breton littéraire vannetais et un corpus de breton oral recueilli auprès de locuteurs traditionnels de la région de Pontivy. Le travail de description de lexies de ce champ sémantique est fait dans le cadre de la théorie linguistique Sens-Texte. Dans un premier temps sont données des explications sur le modèle linguistique proposé par la théorie Sens-Texte et sur la branche lexicologique de cette théorie, la Lexicologie Explicative et Combinatoire. La combinatoire lexicale et syntaxique des noms dénotant des troubles physiologiques, y compris ceux dénotant des maladies, est ensuite décrite. Cette description suppose un travail de lexémisation – c’est-à-dire de distinction des différentes acceptions d’un mot polysémique – de quelques vocables dont certaines acceptions sont des lexèmes de base de ce champ sémantique : les vocables DROUG ‘mal’, KLEÑVED ‘maladie’, KLAÑV ‘malade’, KLEÑVEDET lit. ‘maladié’ = ‘qui a une maladie’, YAC’H ‘en bonne santé’, YEC’HED ‘santé’ et AESAAT ‘guérir’. Il est proposé une description la plus complète possible de ces lexèmes. Il s’agit de la toute première tentative d’application au breton d’une méthodologie d’élaboration dictionnairique claire et cohérente, au fort pouvoir descriptif. En outre, ce travail de thèse débouche sur un corpus de breton oral d’environ un demi-million de mots, outil précieux pour les chercheurs sur la langue bretonne
The thesis offers a first-start study of the semantic field of health in the vannetais variety of Breton, based both on a corpus of literary Breton from the Vannes region and a corpus of oral Breton collected from traditional speakers in the Pontivy area. Lexicographic description of lexical units from that semantic field is embedded in the Meaning-Text linguistic theory. An overview of the theory, in particular it’s lexicological branch, the Explanatory and Combinatorial Lexicology is given, followed by a detailed description of the lexical and syntactic co-occurrence of nouns denoting physiological disorders, illnesses and diseases. Such a description has required lexemization of vocables (= discrimination of different word-senses of polysemous words) to which belong basic lexemes of this semantic field: DROUG ‘≈ physiological disorder’, KLEÑVED ‘disease’, KLAÑV ‘ill / sick’, KLEÑVEDET lit. ‘made.ill’ = ‘having an illness’, YAC’H ‘healthy’, YEC’HED ‘health’ and AESAAT ‘to cure / heal’. These lexemes have been given a detailed lexicographic description. The thesis represents the very first attempt at applying a clear, coherent and descriptively powerful lexicographic methodology to Breton data. In addition, it makes available to the scientific community a corpus of oral Breton of about a half million words
APA, Harvard, Vancouver, ISO, and other styles
16

Mounè, Philippe. "Contribution à l'étude de la sémantique des verbes d'action dans le cadre d'une approche orientée objet." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30080.

Full text
Abstract:
Cette these propose un modele de representation des verbes d'action base sur une approche orientee objet. Apres avoir presente differentes approches de representation des actions en linguistique, representation des connaissances et informatique, nous decrivons notre modele des verbes d'action qui se presente sous la forme d'une taxinomie syntaxico-semantique. Les classes de plus haut niveau de la taxinomie sont des classes syntaxiques, alors que les autres classes sont des classes semantiques. Les verbes d'action du domaine d'application sont representes par des objets generiques rattaches aux classes terminales de la taxinomie. Les formes verbales attestees dans les textes relatifs au domaine d'application, sont representees par les instances de ces objets generiques. Enfin, a partir de ces instances, on peut extraire de nouvelles connaissances a l'aide de mecanismes d'inference qui concernent le but et les roles semantiques des entites decrivant le scenario des actions que ces instances representent
APA, Harvard, Vancouver, ISO, and other styles
17

Ignatieva, Chaillou Maria. "Le phénomène d'axiologisation discursive de la signification lexicale : le cas de harmonisation dans le cadre de l'Union Européenne." Nantes, 2011. http://www.theses.fr/2011NANT3028.

Full text
Abstract:
La présente recherche se penche sur l'étude de l'axiologique en linguistique. En adoptant la perspective de la Sémantique des Possibles Argumentatifs (SPA) sur les modalités, nous présentons l'axiologique comme ayant un statut à la fois linguistique et discursif et nous l'abordons en relation avec le concept de cinétisme sémantique. Nous montrons que l'axiologique, entendu comme « rupture de l'indifférence », renferme cinq zones modales qui se caractérisent par une polarité positive ou négative. Dans la perspective de la SPA, la théorie de l'axiologique est présentée à travers l'étude : 1) des valeurs axiologiques au sein de la théorie des modalités ; 2) de l'inscription du potentiel axiologique dans la signification (aux niveaux du noyau, des stéréotypes ou des possibles argumentatifs) ; 3) des échelles d'évaluation du taux d'axiologisation ; 4) des mécanismes d'axiologisation et du cinétisme de la signification. Appliqué à l'analyse du discours du quotidien Le Monde, le phénomène d'axiologisation discursive est décrit comme le processus de déconstruction-reconstruction du potentiel axiologique par des mécanismes discursifs mobilisés lors de la réalisation de l'entité linguistique choisie, à savoir harmonisation européenne des formations, dans le discours. Les résultats de l'analyse menée nous ont permis de constater que la re(dé)construction des valeurs axiologiques inscrites dans la signification dépendait : a) des différentes localisations du processus d'harmonisation des formations : en Union Européenne, en France ou en Allemagne ; et b) de la zone axiologique activée et/ou insérée dans et par le discours
This research seeks to study the axiological modality in linguistics. Through the use of the Semantics of Argumentative Probabilities, axiology is presented as having both a linguistic and discursive status and it will be treated in relation with the concept of semantic kinesis. This research will show that the axiological, understood as "the rupture of indifference", contains five modal zones that are characterized by a positive or negative polarity. In the perspective of the Semantics of Argumentative Probabilities the theory of axiology is presented through the study of : 1) the axiological values in the theory of modalities ; 2) the axiological potential embedded in meaning (in the core sense, stereotypes or the argumentative probabilities) ; 3) the degree of axiologisation ; 4) the mechanisms of axiologisation and the semantic kinesis. Applied to the discourse analysis of the daily newspaper Le Monde, the phenomenon of discursive axiologisation is described as a process of deconstruction-reconstruction of the axiological potential of the discursive mechanisms mobilized in the chosen element of study harmonisation européenne des formations. The results of this study show that the re(de)construction of axiological values in meaning depend on : a) where the harmonization of education is taking place : in the European Union, in France or in Germany ; and b) the axiological zone activated and/or inserted in or by the discourse
APA, Harvard, Vancouver, ISO, and other styles
18

Vittek, Marian. "Elan : un cadre logique pour le prototypage de langages de programmation avec contraintes." Nancy 1, 1994. http://www.theses.fr/1994NAN10372.

Full text
Abstract:
La thèse décrit l'étude et l'implantation du langage ELAN qui permet de spécifier, sur une base uniforme de systèmes de calcul, différents langages de programmation logique et différents résolveurs de contraintes. ELAN est basé sur l'idée que la sémantique opérationnelle de langages de programmation logique dans le sens général du terme et la résolution de contraintes peuvent être décrites d'une façon uniforme en donnant la syntaxe des formules, l'ensemble des axiomes et l'ensemble des règles de déduction. Les deux processus peuvent être vus comme l'instance du meme schéma d'application des règles de réécriture (de déduction) sur des formules, suivant une stratégie permettant l'obtention d'une forme spéciale. La logique de réécriture, introduite par Jose Meseguer, peut être ainsi utilisée pour coder différentes logiques intéressantes. Afin de pouvoir spécifier des procédures de résolution, la thèse présente une notion de stratégie, obtenant ainsi des systèmes de calcul. Un système de calcul est alors défini par une signature décrivant la syntaxe, un ensemble de règles de réécriture définissant le mécanisme de déduction et une stratégie qui guide l'application des règles. La thèse décrit également l'implantation d'ELAN et quelques exemples de procédures de résolution réalises avec cette implantation, en particulier la sld-resolution, la surréduction, la surréduction basique, la surréduction paresseuse et l'unification syntaxique et commutative
APA, Harvard, Vancouver, ISO, and other styles
19

Ben, Khelil Cherifa. "Construction semi-automatique d'une grammaire d'arbres adjoints pour l'analyse syntaxico-sémantique de l'arabe." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE2013.

Full text
Abstract:
Cette thèse traite de la description formelle et du développement d’une grammaire électronique de la langue arabe. Ce travail est un prérequis à la création d’outils de traitement automatique de l’arabe.Cette langue présente de nombreux défis pour un traitement automatique. En effet l’ordre de mots en arabe est relativement libre, la morphologie y est riche et les diacritiques sont omis dans les textes écrits. Bien que plusieurs travaux de recherche aient abordé certaines de ces problématiques, les ressources électroniques utiles pour le traitement de l’arabe demeurent relativement rares ou encore peu disponibles. Dans ce travail de thèse, nous nous sommes intéressés à la représentation de la syntaxe (ordre des mots) et du sens de l’arabe standard moderne. Comme système formel de représentation de la langue, nous avons choisi le formalisme des grammaires d’arbres adjoints (Tree Adjoining Grammar). Nous avons ainsi proposé une grammaire d’arbres adjoints électronique de l’arabe nommée « ArabTAG V2.0 ». Cette ressource réutilise en partie la modélisation préexistante dans la grammaire définie manuellement «ArabTAG » et l’intègre à une représentation abstraite appelée méta-grammaire. L’expert linguiste peut ainsi décrire la syntaxe et sémantique de la langue avec des outils d’abstraction facilitant la maintenance et l’extension de la grammaire. La grammaire ainsi décrite compte 1074 règles syntaxiques (non lexicalisées) et 27 cadres sémantiques (relations prédicatives). Cette ressource a été évaluée en analysant un corpus issu d’extraits d’un manuel scolaire d’apprentissage de l’arabe
This thesis deals with the formal description and development of an electronic grammar of Arabic language. This work is a prerequisite for the creation of automatic Arabic processing tools. This language presents many challenges for automatic processing. Indeed the order of words in Arabic is relatively free,the morphology is rich and the diacritics are omitted in written texts. Although several research studies have addressed some of these issues, electronic resources useful for the processing of Arabic remain relatively rare or not widely available. In this thesis work, we are interested in the representation of syntax (word order) and the meaning of modern standard Arabic. As a formal system of language representation, we chose the formalism of Tree Adjoining Grammar. Thus we proposed an electronic adjoint tree grammar of Arabic named"ArabTAGV2.0". This resource partially reuses the pre-existing modeling in the manually defined grammar "ArabTAG" and integrates it into an abstract representation called meta-grammar. The linguistic expert canthus describe the syntax and semantics of the language with abstraction tools facilitating the maintenance and extension of the grammar. The new described grammar has 1074 syntactical rules (not lexicalized) and27 semantic frameworks (predicative relations). This resource was evaluated by analyzing a corpus from excerpts of an Arabic textbook
APA, Harvard, Vancouver, ISO, and other styles
20

Atzeni, Thierry. "Organisation et évocation des connaissances sémantiques des concepts des domaines du vivant et du non vivant dans le cadre d'une approche épisodique de la mémoire." Chambéry, 2004. http://www.theses.fr/2004CHAML034.

Full text
Abstract:
La question de l'organisation et de l'évocation des connaissances sémantiques est encore largement débattue actuellement. En nous basant sur les théories non abstractives de la mémoire (Hintzman, 1984), nous défendons l'idée que l'organisation et l'évocation des connaissances sémantiques des catégories du vivant et du non vivant, sont dépendantes d'un système de mémoire unitaire, ce dernier obéissant aux principes de fonctionnement des modèles épisodiques de la mémoire. En premier lieu, nous abordons la question de connaissances qui définissent les concepts des catégories du vivant et du non vivant (nous avons choisi les catégories des animaux et des objets). En utilisant une tâche de génération de propriétés (étude 3), nous montrons que les concepts du vivant – i. E. Les animaux – sont définis par une proportion plus importante de propriétés visuelles que non visuelles, ce qui n'est pas le cas pour les concepts du non vivant – i. E. Objets (Farah & McClelland, 1991). En second lieu, après avoir déterminé la composition des épisodes d'apprentissage des animaux et des objets, nous avons abordé la question de l'évocation des connaissances visuelles et non visuelles de ces concepts. Les conceptions non abstractives supposent que les connaissances évoquées sont différentes selon l'indice présenté en entrée. En manipulant le format de présentation (image ou mot) et le type de propriété à évoquer (visuelle et non visuelle) pour les animaux et les objets, nous montrons que l'évocation des propriétés non visuelles des animaux requiert un processus de réinjection (Hintzman, 1986). Enfin, dans une dernière étude, nous revenons sur la composition des épisodes d'apprentissage des animaux et des objets, en démontrant que certaines propriétés non visuelles – i. E. Représentant une utilité pour l'homme – sont, au même titre que les propriétés visuelles, des composantes primordiales des épisodes d'apprentissage des animaux.
APA, Harvard, Vancouver, ISO, and other styles
21

Liczner, Aleksandra. "Une contribution à l'amélioration des ressources terminographiques : étude terminologique fondée sur un corpus de textes de spécialité du domaine du droit de l'internet." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2089/document.

Full text
Abstract:
Le présent travail se donne comme objectif de proposer une méthode de description complète des unités terminologiques du domaine du droit de l’Internet. Il s’agit d’un modèle hybride permettant de refléter à la fois la dimension linguistique et conceptuelle des termes et plus précisément, les relations lexico-sémantiques et les liens conceptuels que ces derniers entretiennent avec d’autres unités terminologiques et lexicales appartenant au vocabulaire du domaine et ceci par le biais de leur comportement dans l’univers discursif. Le projet, que nous avons baptisé DITerm, s’inscrit donc dans une démarche résolument descriptive dont l’ambition est de rendre compte des usages observés dans la langue de spécialité donnée. Le modèle en question est créé à partir d’un corpus de textes juridiques d’environ 5 000 000 mots et doit servir de base à la conception d’un dictionnaire spécialisé d’encodage destiné aux traducteurs dont la langue de travail est le français. Le terme, tel qu’il est envisagé dans le cadre de cette étude, constitue une unité à dimensions multiples qui doit être considérée sous différents angles. Sa description est donc basée sur l’analyse de ses relations lexicales, conceptuelles et contextuelles et s’inspire largement des modèles lexicographiques. Le projet DITerm a pour arrière-plan théorique la Lexicologie Explicative et Combinatoire, composante lexicologique de la théorie Sens-Texte (Mel’čuk et al. 1995) ainsi que la théorie des cadres et ses différentes applications (Minsky, Fillmore, Martin). La méthodologie adoptée dans ce projet s’inscrit dans le cadre de la linguistique de corpus (Sinclair). Le modèle DITerm propose de décrire chaque terme comme le centre d’une constellation autour de laquelle gravitent de nombreux termes coordonnés formant ce que Cornu (2002) appelle des familles opérationnelles. Pour modéliser les relations que partage le terme vedette avec les unités qui ont tendance à apparaître dans son univers contextuel, nous avons recours à des formules explicites fondées sur un métalangage compréhensible pour tous. Ce formalisme, basé sur la paraphrase, correspond en partie à la vulgarisation des fonctions lexicales. Il présente par ailleurs l’avantage de pouvoir s’adapter à la représentation des liens d’ordre conceptuel. Deplus, la description est enrichie par la mise en place d’un modèle d’annotation des contextes au moyen des cadres sémantiques à la FrameNet permettant de mettre en évidence les liens indirects entretenus par les termes
The aim of this work is to propose a holistic description of terminological units in the field of Internet law, based on a hybrid model that reflectis both the linguistic and the conceptual dimension of terms. To be more precise, this model aims to point out the lexical-semantic relationships and conceptual links that those terms maintain with other terminological and lexical units belonging to the Internet law vocabulary, by studying their behavior in the discursive universe. The project (which we call DITerm) is part of a descriptive approach whose ambition is to explain observed usage in the specialized language at hand. The model was created using acorpus made up of legal texts which totals about 5 000,000 words. The model will be used as the basis for the conception of a specialized encoding dictionary. This dictionary is intended for translators with French language as their working language. The term, as it is viewed in this study, is a multi-dimensional unity which should be considered from many angles. Its description is hence based on the analysis of its lexical, conceptual and contextual relationships which is widely inspired by lexicographical models. Thetheoretical background of the DITerm project is Explanatory and Combinatorial Lexicology, the lexicological component of Meaning-Text Theory (Mel’čuk et al. 1995). We also draw inspiration from the frame theory and its different applications (Minsky’s Frame System Theory,Fillmore’s Frame Semantics). The methodology adopted in this project fits into the framework of corpus linguistics (Sinclair).The DITerm model proposes to describe each term as the center of a constellation around which several coordinated terms gravitate, creating what Cornu (2002) calls operational families. In order to model the relationships the term shares with the units which tend to appear in its contextual universe, we rely on several explicit formulas based on a broadly comprehensible metalanguage. This formalism, which is based on paraphrase, correlates partly with the popularization of the lexical functions. On the other hand, it has the advantage of adapting to the representation of conceptual links. In addition, the description is enriched by the implementation of an annotation model of the contexts in which the terms occur, which makes it possible to account for indirect links that are maintained by terms. This annotation model is an application of the FrameNet methodology
APA, Harvard, Vancouver, ISO, and other styles
22

Billami, Mokhtar Boumedyen. "Désambiguïsation sémantique dans le cadre de la simplification lexicale : contributions à un système d'aide à la lecture pour des enfants dyslexiques et faibles lecteurs." Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0354.

Full text
Abstract:
Ces dernières années, un nombre important de technologies ont été créées pour venir en aide aux personnes ayant des difficultés pour lire des textes écrits. Les systèmes proposés intègrent des technologies de la parole (lecture à « voix haute ») ou des aides visuelles (paramétrage et/ou mise en couleur des polices ou augmentation de l’espace entre lettres et lignes). Cependant, il est essentiel de proposer aussi des transformations sur le contenu afin d’avoir des substituts de mots plus simples et plus fréquents. Le but de cette thèse est de contribuer à un système d’aide à la lecture permettant de proposer automatiquement une version simplifiée d’un texte donné tout en gardant le même sens des mots.Le travail présenté adresse le problème de l’ambiguïté sémantique (très courant en traitement automatique des langues) et vise à proposer des solutions pour la désambiguïsation sémantique à l’aide de méthodes non supervisées et à base de connaissances provenant de ressources lexico-sémantiques. Dans un premier temps, nous proposons un état de l’art sur les méthodes de désambiguïsation sémantique et les mesures de similarité sémantique (essentielles pour la désambiguïsation sémantique). Par la suite, nous comparons divers algorithmes de désambiguïsation sémantique afin d’en tirer le meilleur. Enfin, nous présentons nos contributions pour la création d’une ressource lexicale pour le français proposant des synonymes désambiguïsés et gradués en fonction de leur niveau de difficulté de lecture et compréhension. Nous montrons que cette ressource est utile et peut être intégrée dans un module de simplification lexicale de textes
In recent years, a large number of technologies have been created to help people who have difficulty when reading written texts. The proposed systems integrate speech technologies (reading aloud) or visual aids (setting and/or coloring of fonts or increasing the space between letters and lines). However, it is essential to also propose transformations on the texts’ content in order to have simpler and more frequent substitutes. The purpose of this thesis is to contribute to develop a reading aid system that automatically provides a simplified version of a given text while keeping the same meaning of words.The presented work addresses the problem of semantic ambiguity (quite common in natural language processing) and aims to propose solutions for Word Sense Disambiguation (WSD) by using unsupervised and knowledge-based approaches from lexico-semantic resources. First, we propose a state of the art of the WSD approaches and semantic similarity measures which are crucial for this process. Thereafter, we compare various algorithms of WSD in order to get the best of them. Finally, we present our contributions for creating a lexical resource for French that proposes disambiguated and graduated synonyms according to their level of difficulty to be read and understood. We show that our resource is useful and can be integrated in a lexical simplification of texts module
APA, Harvard, Vancouver, ISO, and other styles
23

Esculier, Christian. "Introduction à la tolérance sémantique : la prise en compte des exceptions dans le cadre du couplage des bases de données et des bases de connaissances." Phd thesis, Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00333100.

Full text
Abstract:
L'approche proposée traduit l'imperfection potentielle des règles en transposant, dans le domaine informatique, le concept de tolérance, classique en ingénierie. Elle s'articule autour d'un prédicat de tolérance qui permet de décider si une instance non conforme est une exception ou une erreur et d'un comportement exceptionnel du système qui assure l'intégration de l'exception et sa gestion ultérieure
APA, Harvard, Vancouver, ISO, and other styles
24

Chardonnens, Anne. "La gestion des données d'autorité archivistiques dans le cadre du Web de données." Doctoral thesis, Universite Libre de Bruxelles, 2020. https://dipot.ulb.ac.be/dspace/bitstream/2013/315804/5/Contrat.pdf.

Full text
Abstract:
Dans un contexte archivistique en transition, marqué par l'évolution des normes internationales de description archivistique et le passage vers une logique de graphes d'entités, cette thèse se concentre plus spécifiquement sur la gestion des données d'autorité relatives à des personnes physiques. Elle vise à explorer comment le secteur des archives peut bénéficier du développement du Web de données pour favoriser une gestion soutenable de ses données d'autorité :de leur création à leur mise à disposition, en passant par leur maintenance et leur interconnexion avec d'autres ressources.La première partie de la thèse est dédiée à un état de l'art englobant tant les récentes évolutions des normes internationales de description archivistique que le développement de l'écosystème Wikibase. La seconde partie vise à analyser les possibilités et les limites d'une approche faisant appel au logiciel libre Wikibase. Cette seconde partie s'appuie sur une étude empirique menée dans le contexte du Centre d'Études et de Documentation Guerre et Sociétés Contemporaines (CegeSoma). Elle permet de tester les perspectives dont disposent des institutions possédant des ressources limitées et n'ayant pas encore adopté la logique du Web de données. Par le biais de jeux de données relatifs à des personnes liées à la Seconde Guerre mondiale, elle dissèque les différentes étapes conduisant à leur publication sous forme de données ouvertes et liées. L'expérience menée en seconde partie de thèse montre comment une base de connaissance mue par un logiciel tel que Wikibase rationalise la création de données d'autorité structurées multilingues. Des exemples illustrent la façon dont ces entités peuvent ensuite être réutilisées et enrichies à l'aide de données externes dans le cadre d'interfaces destinées au grand public. Tout en soulignant les limites propres à l'utilisation de Wikibase, cette thèse met en lumière ses possibilités, en particulier dans le cadre de la maintenance des données. Grâce à son caractère empirique et aux recommandations qu'elle formule, cette recherche contribue ainsi aux efforts et réflexions menés dans le cadre de la transition des métadonnées archivistiques.
The subject of this thesis is the management of authority records for persons. The research was conducted in an archival context in transition, which was marked by the evolution of international standards of archival description and a shift towards the application of knowledge graphs. The aim of this thesis is to explore how the archival sector can benefit from the developments concerning Linked Data in order to ensure the sustainable management of authority records. Attention is not only devoted to the creation of the records and how they are made available but also to their maintenance and their interlinking with other resources.The first part of this thesis addresses the state of the art of the developments concerning the international standards of archival description as well as those regarding the Wikibase ecosystem. The second part presents an analysis of the possibilities and limits associated with an approach in which the free software Wikibase is used. The analysis is based on an empirical study carried out with data of the Study and Documentation Centre War and Contemporary Society (CegeSoma). It explores the options that are available to institutions that have limited resources and that have not yet implemented Linked Data. Datasets that contain information of people linked to the Second World War were used to examine the different stages involved in the publication of data as Linked Open Data.The experiment carried out in the second part of the thesis shows how a knowledge base driven by software such as Wikibase streamlines the creation of multilingual structured authority data. Examples illustrate how these entities can then be reused and enriched by using external data in interfaces aimed at the general public. This thesis highlights the possibilities of Wikibase, particularly in the context of data maintenance, without ignoring the limitations associated with its use. Due to its empirical nature and the formulated recommendations, this thesis contributes to the efforts and reflections carried out within the framework of the transition of archival metadata.
Doctorat en Information et communication
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
25

Naoui, Mohamed. "Efficacité des manuels scolaires dans l’acquisition et la maitrise de la lecture sémantique en arabe langue étrangère : diagnostic et orientations pédagogiques avec la réalisation de corpus." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0324/document.

Full text
Abstract:
Si nous prenons littéralement la définition : "lire, c’est comprendre", la compréhension devient la seule mesure significative à considérer lorsque nous évaluons la lecture d’un texte.En effet, des élèves arabisants en fin de lycée ne maîtrisent pas la lecture sémantique. Aux différents examens oraux, nous relevons qu’ils déchiffrent un texte sans qu’ils soient vraiment capables de le présenter, l’expliquer et l’analyser. Ils n’en comprennent pas vraiment le sens. Ils passent souvent leur temps à parler du texte à un niveau superficiel sans pouvoir nuancer leurs explications. En fin de compte, ils restent au stade de liseurs débutants, au niveau du déchiffrage ! Ces difficultés se présentent également aux épreuves écrites, donc en lecture et en compréhension écrite, et concernent à la fois des élèves et des étudiants dialectophones et non arabe- dialectophones.Pourtant, il est clairement précisé par les recommandations du CECRL (Cadre européen commun de référence pour les langues) qui constitue une « approche totalement nouvelle qui a pour but de repenser les objectifs et les méthodes d’enseignement des langues et, surtout, il fournit une base commune pour la conception de programmes.» En effet, le CECRL considère que l’enseignement/apprentissage d’une langue doit se faire à l’aide de supports ou de manuels rédigés, non pas, comme c’est encore malheureusement trop souvent le cas, pour la langue arabe, au hasard de l’inspiration normative, orthographique et grammaticale, mais en tenant compte non seulement du milieu culturel et social, mais aussi de la langue elle-même sous son évolution et sa réalité diglossiques. Dans le Chapitre 6 du CECRL, l’exigence est portée sur la méthodologie et se résume globalement par deux interrogations : « Comment s’acquiert ou s’apprend une nouvelle langue ? Que pouvons-nous faire pour faciliter ce processus d’apprentissage ou d’acquisition ? » C’est ainsi que auteurs de manuels ont commencé à rédiger depuis 2005 des ouvrages spécifiques, en prétendant dans leurs préambules que leurs productions sont conformes aux recommandations du CECR et en classant leurs méthodes, recueils ou mallettes, etc. par niveaux communs de référence A1, A2, etc. Ces manuels continuent malheureusement à concevoir l’acquisition de la lecture comme une opération de déchiffrage et de décodage. Ils sont présentés selon une progression linguistique et grammaticale sans tenir compte du fait que plusieurs élèves à qui on a affaire non-seulement appartiennent à des groupes sociaux et culturels hétérogènes, mais que beaucoup d’entre eux arrivent au cours d’arabe en parlant un dialecte arabe, avec ses multiples variétés régionales.Pour d’autres manuels, il est certain que les efforts sont respectables. A cet égard, des auteurs prennent en compte les différentes variétés dialectales en intégrant quelques références dialectales afin de rassurer les élèves dialectophones des « passerelles » existantes et possibles entre les différents registres de l’arabe et de permettre aux apprenants non-dialectophones d’utiliser socialement des expressions compréhensibles et employables immédiatement afin de les sensibiliser aux problèmes diglossiques de l’arabe.Il est vrai que les instructions officielles recommandent aux enseignants d’arabe d’accorder une place importante aux variétés dialectales et à la communication mais malheureusement beaucoup de manuels ne tiennent pas compte de ces richesses ; car ils s’inscrivent pour la plupart dans une démarche normative.On est aujourd’hui convaincu qu’on n’enseigne pas la langue arabe à des élèves français (d’origine arabe ou pas) de la même façon et avec les mêmes objectifs qu’à des élèves arabes : Marocains, Libanais ou Egyptiens.Cependant, nous admettons que nos orientations sont subjectives. Ce choix est lié à notre propre expérience professionnelle et à la lecture de multiples apports théoriques
If we take the following definition literally: « Reading is understanding », Reading Comprehension thus, becomes the sole significant measure to take into account when we evaluate the capacity to read a text.Indeed, the students who learn Arabic are unable to master semantic reading at the end of their Lycée (High school) cycle. When we consider the results of their oral exams, we note that they decipher a text without really being able to introduce, explain and analyse it. They do not really understand its meaning. They often spend their time talking about it at a superficial level, without being able to nuance their explanations. In the end, they remain no more than novice readers who can only decipher! These difficulties can also be noted with their written exams, therefore affecting the oral and comprehension of the students who can speak the dialect as well as those who cannot.Yet, The Common European Framework of Reference for Languages (CEFRL) clearly recommends a totally fresh approach whose aim is to rethink the objectives and the teaching methods of foreign languages, and most of all, it sets a common basis for the conceptions of curricula. Indeed, the CEFRL considers that the teaching/learning of a foreign language must be done through media or textbooks that take into account not only the social and cultural background, but also the language itself in its evolution and in its diglossic reality, unlike what is unfortunately still too often the case in Arabic language textbooks, which are randomly devised according to a normative, orthographic and grammatical inspiration. In chapter 6 of the CEFRL, the requirement is on methodology and can be epitomized in two questions: “How can we acquire and learn a new foreign language? What can be done to facilitate the learning and acquisition process?”That is how, from 2005 onwards, how some language textbooks designers started to devise methods, books, toolboxes, which in their introduction parts claim that they are productions that comply with the recommendations of the CEFRL, and labelled them A1, A2. These language textbooks unfortunately keep considering the acquisition of the reading skills as a deciphering or decoding operation. They are presented according to a linguistic and grammatical progression without taking into account the fact that a number of our students not only belong to heterogeneous social and cultural backgrounds, and that many come to the Arabic class already speaking an Arabic dialect, with its multiple regional varieties.As for other course books, honourable efforts can indeed be observed. Some designers take into account the different dialectal varieties by integrating some dialectal references so as to reassure the students who speak a dialect about the existing and possible bridges between the different language levels and registers of Arabic, and to enable the learners who do not speak a dialect to use expressions that will be socially understandable and ready to be used in order to make them aware of the diglossic problems of Arabic.It is true that “Official Instructions” recommend that Arabic teachers should leave an important place to dialectal varieties and to communication, but unfortunately, a lot of course books simply ignore all that wealth, for they are guided by an all normative approach.We are convinced today that French students (of Arabic origin or not) are not taught the Arabic language the same way and with the same objectives, Arabic students from Morocco, Lebanon or Egypt are
APA, Harvard, Vancouver, ISO, and other styles
26

Pauchet, Alexandre. "Modélisation cognitive d'interactions humainesdans un cadre de planification multi-agents." Phd thesis, Université Paris-Nord - Paris XIII, 2006. http://tel.archives-ouvertes.fr/tel-00125259.

Full text
Abstract:
Cette thèse vise à améliorer la conception des systèmes multi-agents, par l'étude et la modélisation des capacités humaines de planification et d'interaction. Elle s'appuie sur une expérimentation psychologique durant laquelle des sujets humains avaient à résoudre un problème de planification en connaissances incomplètes.

Les protocoles collectés au cours de cette expérimentation ont été analysés du point de vue de la planification et du point de vue des interactions. Ainsi, un modèle de la planification humaine et un modèle de l'interaction humaine ont pu être conçus.

Ces deux modèles sont intégrés de façon homogène à une nouvelle architecture d'agent appelée BDIGGY. Parmi les modèles d'agents existants, le modèle BDI (Belief, Desire, Intention) offre un cadre intéressant pour la conception d'agents délibératifs capables de planifier et
d'interagir selon leurs états mentaux. Ainsi, l'architecture BDIGGY est née d'une fusion entre le système IGGY (un système pré-existant de planification humaine) et une architecture BDI étendue à la résolution coopérative de problèmes.

Le modèle de l'interaction humaine introduit dans BDIGGY est sur deux niveaux :
1. il s'appuie sur la théorie des actes de langage pour modéliser les énoncés, à l'aide d'un ensemble de performatives (comme c'est le cas dans les ACL classiques) appliquées à des états mentaux ;
2. il utilise un modèle du discours, représenté par des automates temporisés, pour décrire la dynamique des conversations humaines, en remplacement des protocoles de communication jugés trop rigides.

Les niveaux de l'énoncé et du discours sont liés par une sémantique des performatives. Cette sémantique décrit les pré-conditions et les post-conditions portant sur les états mentaux des agents, à la réception et à l'envoi de messages.

Dans BDIGGY, l'interaction, la planification et les connaissances s'entrelacent grâce auxconcepts BDI.
L'architecture BDIGGY est validée en comparant au cours d'un test "à la Turing", les protocoles expérimentaux provenant de l'expérimentation psychologique et les protocoles générés par des agents BDIGGY, durant une simulation de la résolution du problème.
APA, Harvard, Vancouver, ISO, and other styles
27

Defresne, Michèle. "L' expression de la faible quantité en latin : parvum, paulum, pauci, dans le cadre de la théorie de l'argumentation dans la langue d'O. Ducrot." Paris 4, 2000. http://www.theses.fr/2000PA040055.

Full text
Abstract:
La description que nous proposons des quantificateurs latins parum, paulum / io, pauci, relève d'une sémantique argumentative. Nous avons en effet adopté un certain nombre d'hypothèses internes propres à la théorie de l'ADL d' 0. Ducrot, J. C. Anscombre et M. Carel : les notions d'opérateurs argumentatifs, de topoi; de modificateurs déréalisant, et d'argumentation interne et externe constitutives du signifié des mots, syntagme, proposition, et énonce. Parum, qui a toujours le sens de « peu » est le prototype même de l'inverseur. Il inverse les argumentations interne et externe en donc (normatives) et en pourtant (transgressive) constitutives du signifie des mots, des syntagmes auquel il s'applique. Dans ces enchainements a donc c, a pourtant c, l'antécédent et le conséquent sont interdépendants : le passage de a à c ne repose pas sur une inférence. Paulum et pauci, qui peuvent être utilisés en fonction d'atténuateur ou d'inverseur, contribuent à valider l'hypothèse qu'ils sont des occurrences d'un même morphème abstrait qui prend tantôt la valeur de « peu », tantôt celle d' « un peu » dans certaines conditions discursives. Ces modificateurs peuvent avoir un effet distinct au plan de la phrase, et au plan de l'énoncé. La mise en application de ces différentes hypothèses internes permet une description unifiante de ces opérateurs/qui ne se veut pas explicative. Son intérêt consiste essentiellement à mettre en relation un certain nombre de phénomènes linguistiques, comme le veut l'allégeance de cette théorie au structuralisme saussurien.
APA, Harvard, Vancouver, ISO, and other styles
28

Delmas, Rémi. "Un cadre formel pour la modélisation et la vérification compositionnelles et hétérogènes des systèmes avioniques modulaires intégrés." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2004. http://www.theses.fr/2004ESAE0011.

Full text
Abstract:
Ces travaux présentent un cadre formel orienté composant, dédié à la spécification hétérogène des systèmes avioniques modulaires intégrés, permettant de fédérer des analyses formelles issues de vues orientées métier différentes (fonctionnelle, performances temps réel). Le cadre est exprimé dans les formalismes des théories des catégories et des institutions. Le calcul de composition des composants définissant l'architecture d'ion système, ainsi que la collection des différents modèles formels hétérogènes utilisés pour l'analyse des propriétés du système y sont représentés de manière homogène. Les contraintes de cohérence structurelle et sémantique entre ces modèles apparaissent explicitement dans le cadre. Ceci facilite la vérification compositionnelle de propriétés complexes du système, grâce à l'utilisation du paradigme de raisonnement compositionnel hétérogène. L'approche est illustrée par les résultats obtenus sur une étude de cas réaliste, traitant d'un sous-système de gestion de gouvernes d'un avion civil.
APA, Harvard, Vancouver, ISO, and other styles
29

Guérin, Clément. "Proposition d'un cadre pour l'analyse automatique, l'interprétation et la recherche interactive d'images de bande dessinée." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS024/document.

Full text
Abstract:
Le paysage numérique de la culture française et mondiale subit de grands bouleversements depuis une quinzaine d’années avec des mutations historiques des médias, de leur format traditionnel au format numérique, tirant avantageusement parti des nouveaux moyens de communication et des dispositifs mobiles aujourd’hui popularisés. Aux côtés de formes culturelles ayant achevé, ou étant en passe d’achever, leur transition vers le numérique, la bande dessinée tâtonne encore pour trouver sa place dans l’espace du tout dématérialisé. En parallèle de l’émergence de jeunes auteurs créant spécifiquement pour ces nouveaux supports de lecture que sont ordinateurs, tablettes et smartphones, plusieurs acteurs du monde socio-économique s’intéressent à la valorisation du patrimoine existant. Les efforts se concentrent autant sur une démarche d’adaptation des œuvres aux nouveaux paradigmes de lecture que sur celle d’une indexation de leur contenu facilitant la recherche d’informations dans des bases d’albums numérisés ou dans des collections d’œuvres rares. La problématique est double, il s’agit premièrement d’être en mesure d’identifier la structure d’une planche de bande dessinée en se basant sur des extractions de primitives, issues d’une analyse d’image, validées et corrigées grâce à l’action conjointe de deux ontologies, la première manipulant les extractions d’images bas-niveau, la deuxième modélisant les règles de composition classiques de la bande dessinée franco-belge. Dans un second temps l’accent est mis sur l’enrichissement sémantique des éléments identifiés comme composants individuels d’une planche en s’appuyant sur les relations spatiales qu’ils entretiennent les uns avec les autres ainsi que sur leurs caractéristiques physiques intrinsèques. Ces annotations peuvent porter sur des éléments seuls (place d’une case dans la séquence de lecture) ou sur des liens entre éléments (texte prononcé par un personnage)
Since the beginning of the twenty-first century, the cultural industry, both in France and worldwide, has been through a massive and historical mutation. They have had to adapt to the emerging digital technology represented by the Internet and the new handheld devices such as smartphones and tablets. Although some industries successfully transfered a piece of their activity to the digital market and are about to find a sound business model, the comic books industry keeps looking for the right solution and has not yet produce anything as convincing as the music or movie offers. While many new young authors and writers use their creativity to produce specifically digital designed pieces of art, some other minds are focused on the preservation and the development of the already existing heritage. So far, efforts have been concentrated on the transfer from printed to digital support, with a special attention given to their specific features and how they can be used to create new reading conventions. There has also been some concerns about the content indexing, which is a hard task regarding the large amount of data created since the very beginning of the comics history. From a scientific point of view, there are several issues related to these goals. First, it implies to be able to identify the underlying structure of a comic books page. This comes through the extraction of the page's components, their validation and their correction based on the representation and reasoning capacities of two ontologies. The first one focus on the representation of the image analysis concepts and the second one represents the comic books domain knowledge. Secondly, a special attention is given to the semantic enhancement of the extracted elements, based on their spatial relations to each others and on their own characteristics. These annotations can be related to elements only (e.g. the position of a panel in the reading sequence), or to the bound between several elements (e.g. the text pronounced by a character)
APA, Harvard, Vancouver, ISO, and other styles
30

Sene, Abib. "Sémiotique de l'espace et sémantique du discours littéraire dans les oeuvres de Ngugi wa Thiong'o, George Lamming et William Boyd." Thesis, Tours, 2014. http://www.theses.fr/2014TOUR2030/document.

Full text
Abstract:
Les sociétés africaines, caribéennes, et anglaises présentent, quoique partageant, d’une manière formelle, des caractéristiques, des profils divers en raisons des spécificités des milieux physiques dans lesquels elles se déploient. Ainsi, il a été important, dans ce travail, d’établir un lien nombrileux entre l’espace et le discours. En effet, l’analyse sémiotique de l’espace littéraire dans les oeuvres de Ngugi wa Thiong’o, George Lamming et William Boyd a conduit à une conclusion qui prend valeur d’importance dans des événements et des réalités politico-sociales. Etudiée sous un angle sémiotique, la nomenclature de ces réalités fait sens dans des contextes et cotextes communicationnels à travers lesquels se lisent des aspects pragmatiques. Les toits langagiers et les contenus énonciatifs laissent observer des logiques positionnelles et transformationnelles, lesquelles épousent fondamentalement des aspects de la continuité et de la discontinuité. Et cela fait du message textuel un récit anthropologique relaté dans un univers interactionnel qui forme un tout de signification
African, Caribbean, and English societies, in spite of the fact that they share common features, remain different in their profile on the grounds of the particularities of the physical spaces that witness their expressions and the specific goals they target within historical, cultural, political and economic data that form out their social stratification. In this way, it becomes important, as a main idea of this work, to put on surface the intrinsic link between space and discourse. A semiotic analysis of literary space in Ngugi wa Thiong’o’s, George Lamming’s and William Boyd’s works has led to a concluding argument which highlights social and political realities. Read through a semiotic stand, the nomenclature of these events and realities root their meaning in communicating scenarios which portray pragmatic aspects. Levels of language and nature of messages help to observe some logic of positions and transformations that imply continuity and discontinuity dimensions. What affects to the literary message an anthropological account narrated into a framework of interactions that articulate a totalizing significance
APA, Harvard, Vancouver, ISO, and other styles
31

Golden, Boris. "A unified formalism for complex systems architecture." Palaiseau, Ecole polytechnique, 2013. http://pastel.archives-ouvertes.fr/docs/00/82/71/07/PDF/phd.pdf.

Full text
Abstract:
Les systèmes industriels complexes sont des objets artificiels conçus par l'Homme, et constitués d'un grand nombre de composants hétérogènes (e. G. Matériels, logiciels ou organisationnels) collaborant pour accomplir une mission globale. Dans cette thèse, nous nous intéressons à la modélisation du comportement fonctionnel de tels systèmes, ainsi qu'à leur intégration. Nous modéliserons donc les systèmes réels par le biais d'une approche de boîte noire fonctionnelle avec un état interne, dont la structure et le comportement fonctionnel peuvent être obtenus par l'intégration récursive de composants élémentaires hétérogènes
Complex industrial systems are typically artificial objects designed by men, involving a huge number of heterogeneous components (e. G. Hardware, software, or human organizations) working together to perform a mission. In this thesis, we are interested in modeling the functional behavior of such systems, and their integration. We will model real systems as functional black boxes (with an internal state), whose structure and behaviors can be described by the recursive integration of heterogeneous smaller subsystems. Our purpose is to give a unified and minimalist semantics for heterogeneous integrated systems and their integration
APA, Harvard, Vancouver, ISO, and other styles
32

Buzon, Laurent. "Contribution à la structuration des échanges de connaissances dans le cadre de relations de collaboration dans les chaînes logistiques." Phd thesis, Université Lumière - Lyon II, 2006. http://tel.archives-ouvertes.fr/tel-00147393.

Full text
Abstract:
La notion Chaîne Logistique Globale fait l'objet d'une attention accrue de la part des entreprises depuis l'arrivée du phénomène de globalisation et de l'organisation de la production en " Juste à temps ". Ces deux phénomènes ont renforcé de manière significative les contraintes qui s'imposent sur la chaîne de production et ont obligé les logisticiens à répercuter ces contraintes sur leurs fournisseurs. A cela s'ajoute aujourd'hui de nouveaux types de contraintes, concernant la flexibilité, la gestion des flux synchrones et la traçabilité de la production pour satisfaire un marché de plus en plus volatile et exigeant. Dans ce contexte, la gestion des connaissances joue un rôle important en permettant de mieux appréhender la complexité, l'incertitude et les différentes dynamiques auxquelles l'organisation doit faire face. Les connaissances sont à la source des décisions car elles permettent de comprendre les différents éléments d'un problème à résoudre. Si on considère cette définition de la connaissance, l'échange de connaissances peut participer à l'amélioration de la maîtrise et de l'efficacité de la Chaîne logistique. Nous avons proposé, une démarche de mise en œuvre de l'échange de connaissances entre les partenaires de la chaîne logistique au niveau des relations et des projets entre acteurs. Cette démarche a fait l'objet d'un cas d'étude des relations d'un fabricant de mobilier Design avec ses fournisseurs, ses sous-traitants et ses clients. De plus, une proposition d'instrumentation informatique support basé sur les technologies du web sémantique a été proposée.
APA, Harvard, Vancouver, ISO, and other styles
33

Grosjean, Julien. "Modélisation, réalisation et évaluation d'un portail multi-terminologique multi-discipline, multi-lingue (3M) dans le cadre de la Plateforme d'Indexation Régionale (PlaIR)." Rouen, 2014. http://www.theses.fr/2014ROUES028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Golden, Boris. "Un formalisme unifié pour l'architecture des systèmes complexes." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00827107.

Full text
Abstract:
Les systèmes industriels complexes sont des objets artificiels conçus par l'Homme, et constitués d'un grand nombre de composants hétérogènes (e.g. matériels, logiciels ou organisationnels) collaborant pour accomplir une mission globale. Dans cette thèse, nous nous intéressons à la modélisation du comportement fonctionnel de tels systèmes, ainsi qu'à leur intégration. Nous modéliserons donc les systèmes réels par le biais d'une approche de boîte noire fonctionnelle avec un état interne, dont la structure et le comportement fonctionnel peuvent être obtenus par l'intégration récursive de composants élémentaires hétérogènes.
APA, Harvard, Vancouver, ISO, and other styles
35

Hachicha, Maroua. "Un modèle de prise de décision basé sur la performace des procesus métiers collaboratifs." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2028.

Full text
Abstract:
Cette thèse se focalise sur l’amélioration de l’évaluation de performance des processus métiers collaboratifs. Il s’agit de poursuivre l’évolution de la collaboration entre l’entreprise et ses partenaires. Trois niveaux d’abstraction ont été d’abord identifiés : Métier, fonctionnel et applicatif. Ensuite, nous avons développé une approche descendante allant du niveau métier au niveau applicatif. Dans le niveau métier, des différents d’indicateurs clés de performance ont été proposés à travers la méthodeECOGRAI. Dans le niveau applicatif, nous avons proposé un référentiel d’analyse contenant des indicateurs techniques fonctionnels tels que la durée, l’input, l’output, et non-fonctionnels notamment la maturité, le risque, l’interopérabilité à partir des traces d’exécution. Nous avons proposé ainsi un modèle ontologique en vue de capitaliser et enrichir la sémantique de la performance de ces processus. Nous avons proposé un modèle ascendant pour l’agrégation des indicateurs technique au niveaumétier. Le principal objectif de cette agrégation est la corrélation entre le comportement de l’application métier agrégé à partir de l’exécution et l’évolution des indicateurs métiers. Un autre modèle de gestion des événements métiers a été également proposé pour consolider le processus d’apprentissage de notre approche. Par ailleurs, pour assurer la convergence de la performance, nous avons combiné entre la gestion des traces et la gestion des évènements métiers. Cette combinaison permet d’accompagner l’évolution des processus métiers collaboratifs pendant leur exécution. L’accompagnement évoqué avant favorise l’obtention d’un diagnostic sur la performance pour servir à la prise de décision. Cette dernière est liée étroitement à la détection des alertes et particulièrement à l’anticipation des déviations de la performance le plus rapidement possible. Pour valider lacontribution scientifique de cette thèse, une étude de cas a été réalisée sur un processus de création de devis dans le cadre du projet européen FITMAN
This thesis focuses on improving the performance evaluation of collaborative business processes. It is about pursuing the evolution of the collaboration between the company and its partners. In the beginning, three abstraction levels were identified: Business, functional and application. Then, we developed a top-down approach from the business level to the application level. In the business level, different key performance indicators have been proposed through the ECOGRAI method. In the application level, we proposed an analytical repository containing functional technical indicators such as duration, input, output, and non-functional, including maturity, risk, and interoperability based on execution traces. We have thus proposed an ontological model in order to capitalize and enrich the semantics of the performance of these processes. We proposed a bottom-up model for the aggregation of technical indicators at the business level. The main objective of this aggregation is the correlation between the behavior of the aggregated business application from the execution and the evolution of the business indicators. Another business event management model was also proposed to consolidate the learning process of our approach. Moreover, to ensure the convergence of performance, we have combined traces management and business event management. This combination allows to accompany the evolution of the collaborative business processes during their execution. The aforementionedaccompaniment favors the obtaining of a diagnosis on performance to be used for decision-making. The latter is closely linked to the detection of alerts and particularly to the anticipation of deviations in performance as quickly as possible. To validate the scientific contribution of this thesis, a case study was carried out on a process of creation of quote within the framework of the European project FITMAN
APA, Harvard, Vancouver, ISO, and other styles
36

Bernier-Colborne, Gabriel. "Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement." Thèse, 2016. http://hdl.handle.net/1866/18474.

Full text
Abstract:
L’analyse des relations lexicales est une des étapes principales du travail terminologique. Cette tâche, qui consiste à établir des liens entre des termes dont les sens sont reliés, peut être facilitée par des méthodes computationnelles, notamment les techniques de la sémantique distributionnelle. En estimant la similarité sémantique des mots à partir d’un corpus, ces techniques peuvent faciliter l’analyse des relations lexicales. La qualité des résultats offerts par les méthodes distributionnelles dépend, entre autres, des nombreuses décisions qui doivent être prises lors de leur mise en œuvre, notamment le choix et le paramétrage du modèle. Ces décisions dépendent, à leur tour, de divers facteurs liés à l’objectif visé, tels que la nature des relations lexicales que l’on souhaite détecter; celles-ci peuvent comprendre des relations paradigmatiques classiques telles que la (quasi-)synonymie (p. ex. conserver -> préserver), mais aussi d’autres relations telles que la dérivation syntaxique (p. ex. conserver -> conservation). Cette thèse vise à développer un cadre méthodologique basé sur la sémantique distributionnelle pour l’analyse des relations lexicales à partir de corpus spécialisés. À cette fin, nous vérifions comment le choix, le paramétrage et l’interrogation d’un modèle distributionnel doivent tenir compte de divers facteurs liés au projet terminologique envisagé : le cadre descriptif adopté, les relations ciblées, la partie du discours des termes à décrire et la langue traitée (en l’occurrence, le français ou l’anglais). Nous montrons que deux des relations les mieux détectées par l’approche distributionnelle sont la (quasi-)synonymie et la dérivation syntaxique, mais que les modèles qui captent le mieux ces deux types de relations sont très différents. Ainsi, les relations ciblées ont une influence importante sur la façon dont on doit paramétrer le modèle pour obtenir les meilleurs résultats possibles. Un autre facteur à considérer est la partie du discours des termes à décrire. Nos résultats indiquent notamment que les relations entre verbes sont moins bien modélisées par cette approche que celles entre adjectifs ou entre noms. Le cadre descriptif adopté pour un projet terminologique est également un facteur important à considérer lors de l’application de l’approche distributionnelle. Dans ce travail, nous comparons deux cadres descriptifs, l’un étant basé sur la sémantique lexicale et l’autre, sur la sémantique des cadres. Nos résultats indiquent que les méthodes distributionnelles détectent les termes qui évoquent le même cadre sémantique moins bien que certaines relations lexicales telles que la synonymie. Nous montrons que cet écart est attribuable au fait que les termes qui évoquent des cadres sémantiques comprennent une proportion importante de verbes et aux différences importantes entre les modèles qui produisent les meilleurs résultats pour la dérivation syntaxique et les relations paradigmatiques classiques telles que la synonymie. En somme, nous évaluons deux modèles distributionnels différents, analysons systématiquement l’influence de leurs paramètres et vérifions comment cette influence varie en fonction de divers aspects du projet terminologique. Nous montrons de nombreux exemples de voisinages distributionnels, que nous explorons au moyen de graphes, et discutons les sources d’erreurs. Ce travail fournit ainsi des balises importantes pour l’application de méthodes distributionnelles dans le cadre du travail terminologique.
Identifying semantic relations is one of the main tasks involved in terminology work. This task, which aims to establish links between terms whose meanings are related, can be assisted by computational methods, including those based on distributional semantics. These methods estimate the semantic similarity of words based on corpus data, which can help terminologists identify semantic relations. The quality of the results produced by distributional methods depends on several decisions that must be made when applying them, such as choosing a model and selecting its parameters. In turn, these decisions depend on various factors related to the target application, such as the types of semantic relations one wishes to identify. These can include typical paradigmatic relations such as (near-)synonymy (e.g. preserve -> protect), but also other relations such as syntactic derivation (e.g. preserve -> preservation). This dissertation aims to further the development of a methodological framework based on distributional semantics for the identification of semantic relations using specialized corpora. To this end, we investigate how various aspects of terminology work must be accounted for when selecting a distributional semantic model and its parameters, as well as those of the method used to query the model. These aspects include the descriptive framework, the target relations, the part of speech of the terms being described, and the language (in this case, French or English). Our results show that two of the relations that distributional semantic models capture most accurately are (near-)synonymy and syntactic derivation. However, the models that produce the best results for these two relations are very different. Thus, the target relations are an important factor to consider when choosing a model and tuning it to obtain the most accurate results. Another factor that should be considered is the part of speech of the terms that are being worked on. Among other things, our results suggest that relations between verbs are not captured as accurately as those between nouns or adjectives by distributional semantic models. The descriptive framework used for a given project is also an important factor to consider. In this work, we compare two descriptive frameworks, one based on lexical semantics and another based on frame semantics. Our results show that terms that evoke the same semantic frame are not captured as accurately as certain semantic relations, such as synonymy. We show that this is due to (at least) two reasons: a high percentage of frame-evoking terms are verbs, and the models that capture syntactic derivation most accurately are very different than those that work best for typical paradigmatic relations such as synonymy. In summary, we evaluate two different distributional semantic models, we analyze the influence of their parameters, and we investigate how this influence varies with respect to various aspects of terminology work. We show many examples of distributional neighbourhoods, which we explore using graphs, and discuss sources of noise. This dissertation thus provides important guidelines for the use of distributional semantic models for terminology work.
APA, Harvard, Vancouver, ISO, and other styles
37

Jridi, Jamel Eddine. "L'ingénierie des documents d'affaires dans le cadre du web sémantique." Thèse, 2014. http://hdl.handle.net/1866/11934.

Full text
Abstract:
Dans cette thèse, nous présentons les problèmes d’échange de documents d'affaires et proposons une méthode pour y remédier. Nous proposons une méthodologie pour adapter les standards d’affaires basés sur XML aux technologies du Web sémantique en utilisant la transformation des documents définis en DTD ou XML Schema vers une représentation ontologique en OWL 2. Ensuite, nous proposons une approche basée sur l'analyse formelle de concept pour regrouper les classes de l'ontologie partageant une certaine sémantique dans le but d'améliorer la qualité, la lisibilité et la représentation de l'ontologie. Enfin, nous proposons l’alignement d'ontologies pour déterminer les liens sémantiques entre les ontologies d'affaires hétérogènes générés par le processus de transformation pour aider les entreprises à communiquer fructueusement.
In this thesis, we present the problems of business document exchanges. We propose a methodology to adapt the XML-based business standards for the Semantic Web technologies by mapping documents defined on DTD or XML Schema to an ontological representation in OWL 2. Next, we propose an approach based on formal concept analysis techniques to regroup the ontology classes sharing some semantics to improve the quality, readability and the representation of the ontology. Finally, we propose ontology alignment to determine the semantic links between heterogeneous business ontologies generated by the transformation process to help entreprises to communicate fruitfully.
APA, Harvard, Vancouver, ISO, and other styles
38

Ghazzawi, Nizar. "Du terme prédicatif au cadre sémantique : méthodologie de compilation d'une ressource terminologique pour les termes arabes de l'informatique." Thèse, 2016. http://hdl.handle.net/1866/16028.

Full text
Abstract:
La description des termes dans les ressources terminologiques traditionnelles se limite à certaines informations, comme le terme (principalement nominal), sa définition et son équivalent dans une langue étrangère. Cette description donne rarement d’autres informations qui peuvent être très utiles pour l’utilisateur, surtout s’il consulte les ressources dans le but d’approfondir ses connaissances dans un domaine de spécialité, maitriser la rédaction professionnelle ou trouver des contextes où le terme recherché est réalisé. Les informations pouvant être utiles dans ce sens comprennent la description de la structure actancielle des termes, des contextes provenant de sources authentiques et l’inclusion d’autres parties du discours comme les verbes. Les verbes et les noms déverbaux, ou les unités terminologiques prédicatives (UTP), souvent ignorés par la terminologie classique, revêtent une grande importance lorsqu’il s’agit d’exprimer une action, un processus ou un évènement. Or, la description de ces unités nécessite un modèle de description terminologique qui rend compte de leurs particularités. Un certain nombre de terminologues (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) ont d’ailleurs proposé des modèles de description basés sur différents cadres théoriques. Notre recherche consiste à proposer une méthodologie de description terminologique des UTP de la langue arabe, notamment l’arabe standard moderne (ASM), selon la théorie de la Sémantique des cadres (Frame Semantics) de Fillmore (1976, 1977, 1982, 1985) et son application, le projet FrameNet (Ruppenhofer et al. 2010). Le domaine de spécialité qui nous intéresse est l’informatique. Dans notre recherche, nous nous appuyons sur un corpus recueilli du web et nous nous inspirons d’une ressource terminologique existante, le DiCoInfo (L’Homme 2008), pour compiler notre propre ressource. Nos objectifs se résument comme suit. Premièrement, nous souhaitons jeter les premières bases d’une version en ASM de cette ressource. Cette version a ses propres particularités : 1) nous visons des unités bien spécifiques, à savoir les UTP verbales et déverbales; 2) la méthodologie développée pour la compilation du DiCoInfo original devra être adaptée pour prendre en compte une langue sémitique. Par la suite, nous souhaitons créer une version en cadres de cette ressource, où nous regroupons les UTP dans des cadres sémantiques, en nous inspirant du modèle de FrameNet. À cette ressource, nous ajoutons les UTP anglaises et françaises, puisque cette partie du travail a une portée multilingue. La méthodologie consiste à extraire automatiquement les unités terminologiques verbales et nominales (UTV et UTN), comme Ham~ala (حمل) (télécharger) et taHmiyl (تحميل) (téléchargement). Pour ce faire, nous avons adapté un extracteur automatique existant, TermoStat (Drouin 2004). Ensuite, à l’aide des critères de validation terminologique (L’Homme 2004), nous validons le statut terminologique d’une partie des candidats. Après la validation, nous procédons à la création de fiches terminologiques, à l’aide d’un éditeur XML, pour chaque UTV et UTN retenue. Ces fiches comprennent certains éléments comme la structure actancielle des UTP et jusqu’à vingt contextes annotés. La dernière étape consiste à créer des cadres sémantiques à partir des UTP de l’ASM. Nous associons également des UTP anglaises et françaises en fonction des cadres créés. Cette association a mené à la création d’une ressource terminologique appelée « DiCoInfo : A Framed Version ». Dans cette ressource, les UTP qui partagent les mêmes propriétés sémantiques et structures actancielles sont regroupées dans des cadres sémantiques. Par exemple, le cadre sémantique Product_development regroupe des UTP comme Taw~ara (طور) (développer), to develop et développer. À la suite de ces étapes, nous avons obtenu un total de 106 UTP ASM compilées dans la version en ASM du DiCoInfo et 57 cadres sémantiques associés à ces unités dans la version en cadres du DiCoInfo. Notre recherche montre que l’ASM peut être décrite avec la méthodologie que nous avons mise au point.
The description of terms in traditional terminological resources is limited to certain details, such as the term (which is usually a noun), its definition, and its equivalent. This description seldom takes into account other details, which can be of high importance for the users, especially if they consult resources to enhance their knowledge of the domain, to improve professional writing, or to find contexts where the term is realized. The information that might be useful includes the description of the actantial structure of the terms, contexts from authentic resources and the inclusion of other parts of speech such as verbs. Verbs and deverbal nouns, or predicative terminological units (PTUs), which are often ignored by traditional terminology, are of great importance especially for expressing actions, processes or events. But the description of these units requires a model of terminological description that takes into account their special features. Some terminologists (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) proposed description models based on different theoretical frameworks. Our research consists of proposing a methodology of terminological description of PTUs of the Arabic language, in particular Modern Standard Arabic (MSA), according to the theory of Frame Semantics of Fillmore (1976, 1977, 1982, 1985) and its application, the FrameNet project (Ruppenhofer et al. 2010). The specialized domain in which we are interested is computing. In our research, we compiled a corpus that we collected from online material and we based our method on an existing online terminological resource called the DiCoInfo (L’Homme 2008) in our pursuit to compile our own. Our objectives are the following. First, we will lay the foundations of an MSA version of the aforementioned resource. This version has its own features: 1) we target specific units, namely verbal and deverbal PTUs; 2) the developed methodology for the compilation of the original DiCoInfo should be adapted to take into account a Semitic language. Afterwards, we will create a framed version of this resource. In this version, we organize the PTUs in semantic frames according to the model of FrameNet. Since this frame version has a multilingual dimension, we add English and French PTUs to the resource. Our methodology consists of automatically extracting the verbal and nominal terminological units (VTUs and NTUs) such as Ham~ala (حمل) (download). To do this, we integrated the MSA to an existing automatic extractor, TermoStat (Drouin 2004). Then, with the help of terminological validation criteria, we validate the terminological status of the candidates. After the validation, we create terminological files with an XML editor for each VTU and NTU. These files contain elements, such as the actantial structure of the PTUs and up to 20 annotated contexts. The last step consists of creating semantic frames from the MSA PTUs. We also associate English and French PTUs to the created frames. This association resulted in the creation of a second terminological resource called “DiCoInfo: A Framed Version”. In this resource, the PTUs that share the same semantic features and actantial structures are organized in semantic frames. For example, the semantic frame Product_development groups PTUs such as Taw~ara (طور) (develop), to develop and développer. As a result of our methodology, we obtained a total of 106 PTUs in MSA compiled in the MSA version of DiCoInfo and 57 semantic frames associated to these units in the framed version. Our research shows that the MSA can be described using the methodology that we set up.
APA, Harvard, Vancouver, ISO, and other styles
39

Berrut, Catherine. "Indexation des données multimedia, utilisation dans le cadre d'un système de recherche d'informations." Phd thesis, 1997. http://tel.archives-ouvertes.fr/tel-00004920.

Full text
Abstract:
Dans le cadre d'un système de recherche d'informations, le processus d'indexation a trop souvent été considéré comme une boîte noire relativement externe au système, statique et rigide, et fournissant en sortie des listes de mots-clés. Notre point de vue est tout autre. En effet, nous pensons que d'une part l'indexation d'un document n'est pas universelle, mais dépendante de la perception de chacun, et que d'autre part l'expression de l'indexation et sa pleine utilisation sont parmi les éléments essentiels que doivent posséder les systèmes. Pour montrer ceci, nous avons développé nos travaux selon deux axes principaux : puissance et adaptation de l'expression. La puissance de l'expression nous montre le besoin d'indexer autrement dès lors que l'on aborde les nouveaux besoins en recherche d'informations, l'adaptation permet au système de disposer dynamiquement de plusieurs compréhensions des documents. De façon plus générale, notre point de vue est de montrer que la nature et la variabilité du langage d'indexation, et le processus d'indexation sont des paramètres à part entière pour les systèmes. L'association étroite entre l'indexation et l'interrogation constitue la condition pour une amélioration des systèmes et pour leur adaptation à des utilisateurs et des recherches variés.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography