Academic literature on the topic 'Interrogation de résumés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Interrogation de résumés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Interrogation de résumés"

1

Maury, Nicole. "Questions totales en français du Québec : le statut acoustique des morphèmes -tu et -ti." Revue québécoise de linguistique 19, no. 2 (May 6, 2009): 111–34. http://dx.doi.org/10.7202/602679ar.

Full text
Abstract:
Résumé À partir de quatre entrevues familières entre Québécoises et Québécois, on évoque les moyens interrogatifs utilisés dans les questions totales directes à syntaxe complète. Les résultats d’une étude acoustique sont résumés du point de vue segmental et suprasegmental. Les spectrogrammes de huit séquences comportant le morphème -tu, qu’il soit pronom inversé ou particule, sont présentés et commentés par référence aux sons qui suivent le morphème, aux données accentuelles et intonatives. On explore les mécanismes qui peuvent intervenir à différents niveaux (linguistique, situationnel, conversationnel) pour déterminer le choix des moyens interrogatifs et, dans le cas de -tu et -ti, leur actualisation.
APA, Harvard, Vancouver, ISO, and other styles
2

Firenze, Antonino. "résumé: Le corps et l’ontologie interrogative." Chiasmi International 6 (2005): 205. http://dx.doi.org/10.5840/chiasmi2005693.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ronconi, Elena. "résumé: De la philosophie comme ontologie interrogative." Chiasmi International 5 (2003): 292. http://dx.doi.org/10.5840/chiasmi2003541.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Picard, Marc. "Aspects synchroniques et diachroniques du tu interrogatif en québécois." Revue québécoise de linguistique 21, no. 2 (June 1, 2009): 65–74. http://dx.doi.org/10.7202/602737ar.

Full text
Abstract:
Résumé Les clitiques et les affixes, comme on l’a souvent observé, proviennent d’anciens morphèmes lexicaux. En français, une particule interrogative s’est développée d’une façon tout à fait inusitée, c’est-à-dire à partir de la fusion de la consonne finale d’un verbe avec le pronom de la troisième personne du singulier, et cet élément s’est propagé graduellement aux autres personnes sous l’effet de divers processus phonologiques, syntaxiques et analogiques. Bien que ce ti soit devenu obsolète en français hexagonal, son substitut tu est toujours très vivant en français canadien, la construction sujet + verbe + tu s’avérant la façon la plus usuelle de formuler des interrogations fermées dans ce dialecte. En dépit de tout ce qu’on sait sur l’histoire de ce morphème, cependant, on n’en est pas encore arrivé à en déterminer le statut grammatical précis. Or les critères que l’on a proposés depuis quelques années pour distinguer entre les clitiques et les affixes semblent indiquer que ce morphème est effectivement un suffixe.
APA, Harvard, Vancouver, ISO, and other styles
5

Valois, Daniel. "Négation, interrogation et accord spécificateur-tête." Revue québécoise de linguistique 25, no. 2 (May 1, 2009): 99–120. http://dx.doi.org/10.7202/603139ar.

Full text
Abstract:
RÉSUMÉ Dans cet article, je propose, dans un premier temps, des explications concernant certaines asymétries entre constructions négatives et constructions interrogatives qui paraissent problématiques pour les différentes analyses qui préconiseraient le déplacement des quantificateurs négatifs en Forme Logique, réaffermissant ainsi la proposition de plusieurs chercheurs à l’effet qu’il existe un parallèle étroit entre constructions interrogatives et constructions négatives. Ceci m’amènera, dans un deuxième temps, à traiter des phrases négatives à interprétation écho. Nous verrons que ces constructions ont des propriétés syntaxiques et distributionnelles semblables à celles des questions écho, parmi lesquelles on compte la propriété de pouvoir contenir le quantificateur dans des positions qui sont généralement réfractaires au déplacement.
APA, Harvard, Vancouver, ISO, and other styles
6

ENRIQUEZ, Eugène. "Interrogation ou paranoïa : enjeu de l’intervention psychosociologique." Sociologie et sociétés 9, no. 2 (September 30, 2002): 79–104. http://dx.doi.org/10.7202/001231ar.

Full text
Abstract:
Résumé L'auteur situe d'abord l'évolution des théories et des méthodes de l'intervention psychosociologique dans le contexte de la société occidentale et de la société de crise. Il compare ensuite les nouveaux groupes de formation (analyse transactionnelle, bio-énergie, etc.) à sa propre conception de l'intervention. Cette comparaison s'établit à partir de la conception du changement qui caractérise chacune de ces deux approches : celle des " nouveaux groupes " et celle de la " psychosociologie du change-menl comme élaboration". À partir des principales hypothèses freudiennes, il définit ensuite ce qui est. a ses yeux, l'intervention sur les individus, les groupes ou les institutions.
APA, Harvard, Vancouver, ISO, and other styles
7

JUTEAU, Danielle. "Essai — Multiples francophonies minoritaires : multiples citoyennetés." Sociologie et sociétés 26, no. 1 (September 30, 2002): 33–45. http://dx.doi.org/10.7202/001374ar.

Full text
Abstract:
Résumé Cet article se veut une réflexion sur les francophonies minoritaires en Amérique, tout particulièrement sur celles qui vivent au Canada. On y trouvera une interrogation sur les termes d'abord, puis une discussion autour des questions que suscite leur existence, dans le contexte des débats actuels sur les minorités et les droits de la citoyenneté.
APA, Harvard, Vancouver, ISO, and other styles
8

Ziviani, Maria Cristina Elia. "Aurora de sangue." Cadernos de Linguística e Teoria da Literatura 11, no. 22-24 (December 30, 2016): 148. http://dx.doi.org/10.17851/0101-3548.11.22-24.148-161.

Full text
Abstract:
Resumo: Interrogação sobre o aspecto revolucionário do teatro de Jean Giraudoux, em especial na peça Electre, através do estudo do significante "luz" e do valor simbólico da "aurora" na obra desse autor. Résumé: Interrogation sur l'aspect révolutionnaire du théâtre de Jean Giraudoux, surtout dans sa pièce Electre, par le biais de l'étude du signifiant "lumière" et de la valeur symbolique dans l'aurore de cet auteur.
APA, Harvard, Vancouver, ISO, and other styles
9

Delavigne, Valérie. "Approche socioterminologique des discours du nucléaire." Meta 40, no. 2 (September 30, 2002): 308–19. http://dx.doi.org/10.7202/002506ar.

Full text
Abstract:
Résumé Une enquête de type socioterminologique, menée auprès du public et de spécialistes du nucléaire, montre que le vocabulaire de l'atome est générateur d'incertitudes et entaché d'inquiétudes sous-jacentes, et ce, malgré les efforts des responsables pour « mieux » communiquer. On peut cependant se demander si les discours trop lénifiants des dirigeants apportent de réelles réponses aux interrogations du public.
APA, Harvard, Vancouver, ISO, and other styles
10

Simon, Sherry. "Frontières de la mémoire : la Partition de l’Inde dans The Shadow Lines d’Amitav Ghosh." Études françaises 34, no. 1 (March 15, 2006): 29–43. http://dx.doi.org/10.7202/036090ar.

Full text
Abstract:
Résumé Les événements de la Partition de l'Inde en 1947 ont inspiré un vaste corpus d'oeuvres littéraires. Parmi ces nombreuses productions écrites tantôt en langue régionale, tantôt en langue anglaise, The Shadow Lines d'Amitav Ghosh (1988) occupe une place singulière. Il s'agit d'une réflexion à la fois lyrique et tragique sur l'identité indienne dans son rapport à toutes les frontières qui la constituent, d'une interrogation puissante sur la violence, l'histoire et la mémoire.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Interrogation de résumés"

1

Gabsi, Nesrine. "Extension et interrogation de résumés de flux de données." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00613122.

Full text
Abstract:
Au cours de ces dernières années, un nouvel environnement s'est développé dans lequel les données doivent être collectées et traitées instantanément dès leur arrivée. La gestion de cette volumétrie nécessite la mise en place d'un nouveau modèle et de nouvelles techniques de traitements de l'information. Il s'agit du traitement des flux de données. Ces derniers ont la particularité d'être continus, évolutifs, volumineux et ne peuvent être stockés, dans leur intégralité, en tant que données persistantes. Plusieurs travaux de recherche se sont intéressés à cette problématique ce qui a engendré l'apparition des systèmes de gestion de flux de données (SGFD). Ces systèmes permettent d'exprimer des requêtes continues qui s'évaluent au fur et à mesure sur un flux ou sur des fenêtres (sous ensembles finis du flux). Toutefois, dans certaines applications, de nouveaux besoins peuvent apparaître après le passage des données. Dans ce cas, le système ne peut répondre aux requêtes posées car toutes les données n'appelant aucun traitement sont définitivement perdues. Il est ainsi nécessaire de conserver un résumé du flux de données. De nombreux algorithmes de résumé ont été développés. Le choix d'une méthode de résumé particulière dépend de la nature des données à traiter et de la problématique à résoudre. Dans ce manuscrit, nous nous intéressons en premier lieu à l'élaboration d'un résumé généraliste permettant de créer un compromis entre la vitesse de construction du résumé et la qualité du résumé conservé. Nous présentons une nouvelle approche de résumé qui se veut performance face à des requêtes portant sur des données du passé lointain. Nous nous focalisons par la suite sur l'exploitation et l'accès aux évènements du flux conservés dans ces résumés. Notre objectif consiste à intégrer les structures de résumés généralistes dans l'architecture des SGFD existantes de façon à étendre le champ de requêtes possibles. A cet effet, l'évaluation des requêtes qui font appel aux données du passé lointain d'un flux (i.e. données expirées de la mémoire du SGFD) serait possible au même titre que les requêtes posées sur le passé proche d'un flux de données. Nous présentons deux approches permettant d'atteindre cet objectif. Ces approches se différencient par le rôle que détient le module de résumé lors de l'évaluation d'une requêtes.
APA, Harvard, Vancouver, ISO, and other styles
2

Zneika, Mussab. "Interrogation du web sémantique à l'aide de résumés de graphes de données." Thesis, Cergy-Pontoise, 2019. http://www.theses.fr/2019CERG1010.

Full text
Abstract:
La quantité de données RDF disponibles augmente rapidement à la fois en taille et en complexité, les Bases de Connaissances (Knowledge Bases – KBs) contenant des millions, voire des milliards de triplets étant aujourd’hui courantes. Plus de 1000 sources de données sont publiées au sein du nuage de Données Ouvertes et Liées (Linked Open Data – LOD), qui contient plus de 62 milliards de triplets, formant des graphes de données RDF complexes et de grande taille. L’explosion de la taille, de la complexité et du nombre de KBs et l’émergence des sources LOD ont rendu difficile l’interrogation, l’exploration, la visualisation et la compréhension des données de ces KBs, à la fois pour les utilisateurs humains et pour les programmes. Pour traiter ce problème, nous proposons une méthode pour résumer de grandes KBs RDF, basée sur la représentation du graphe RDF en utilisant les (meilleurs) top-k motifs approximatifs de graphe RDF. La méthode, appelée SemSum+, extrait l’information utile des KBs RDF et produit une description d’ensemble succincte de ces KBs. Elle extrait un type de schéma RDF ayant divers avantages par rapport aux schémas RDF classiques, qui peuvent être respectés seulement partiellement par les données de la KB. A chaque motif approximatif extrait est associé le nombre d’instances qu’il représente ; ainsi, lors de l’interrogation du graphe RDF résumé, on peut facilement déterminer si l’information nécessaire est présente et en quantité significative pour être incluse dans le résultat d’une requête fédérée. Notre méthode ne demande pas le schéma initial de la KB et marche aussi bien sans information de schéma du tout, ce qui correspond aux KBs modernes, construites soit ad-hoc, soit par fusion de fragments en provenance d’autres KBs. Elle fonctionne aussi bien sur des graphes RDF homogènes (ayant la même structure) ou hétérogènes (ayant des structures différentes, pouvant être le résultat de données décrites par des schémas/ontologies différentes).A cause de la taille et de la complexité des graphes RDF, les méthodes qui calculent le résumé en chargeant tout le graphe en mémoire ne passent pas à l’échelle. Pour éviter ce problème, nous proposons une approche générale parallèle, utilisable par n’importe quel algorithme approximatif de fouille de motifs. Elle nous permet de disposer d’une version parallèle de notre méthode, qui passe à l’échelle et permet de calculer le résumé de n’importe quel graphe RDF, quelle que soit sa taille.Ce travail nous a conduit à la problématique de mesure de la qualité des résumés produits. Comme il existe dans la littérature divers algorithmes pour résumer des graphes RDF, il est nécessaire de comprendre lequel est plus approprié pour une tâche spécifique ou pour une KB RDF spécifique. Il n’existe pas dans la littérature de critères d’évaluation établis ou des évaluations empiriques extensives, il est donc nécessaire de disposer d’une méthode pour comparer et évaluer la qualité des résumés produits. Dans cette thèse, nous définissons une approche complète d’évaluation de la qualité des résumés de graphes RDF, pour répondre à ce manque dans l’état de l’art. Cette approche permet une compréhension plus profonde et plus complète de la qualité des différents résumés et facilite leur comparaison. Elle est indépendante de la façon dont l’algorithme produisant le résumé RDF fonctionne et ne fait pas de suppositions concernant le type ou la structure des entrées ou des résultats. Nous proposons un ensemble de métriques qui aident à comprendre non seulement si le résumé est valide, mais aussi comment il se compare à d’autre résumés par rapport aux caractéristiques de qualité spécifiées. Notre approche est capable (ce qui a été validé expérimentalement) de mettre en évidence des différences très fines entre résumés et de produire des métriques capables de mesurer cette différence. Elle a été utilisée pour produire une évaluation expérimentale approfondie et comparative de notre méthode
The amount of RDF data available increases fast both in size and complexity, making available RDF Knowledge Bases (KBs) with millions or even billions of triples something usual, e.g. more than 1000 datasets are now published as part of the Linked Open Data (LOD) cloud, which contains more than 62 billion RDF triples, forming big and complex RDF data graphs. This explosion of size, complexity and number of available RDF Knowledge Bases (KBs) and the emergence of Linked Datasets made querying, exploring, visualizing, and understanding the data in these KBs difficult both from a human (when trying to visualize) and a machine (when trying to query or compute) perspective. To tackle this problem, we propose a method of summarizing a large RDF KBs based on representing the RDF graph using the (best) top-k approximate RDF graph patterns. The method is named SemSum+ and extracts the meaningful/descriptive information from RDF Knowledge Bases and produces a succinct overview of these RDF KBs. It extracts from the RDF graph, an RDF schema that describes the actual contents of the KB, something that has various advantages even compared to an existing schema, which might be partially used by the data in the KB. While computing the approximate RDF graph patterns, we also add information on the number of instances each of the patterns represents. So, when we query the RDF summary graph, we can easily identify whether the necessary information is present and if it is present in significant numbers whether to be included in a federated query result. The method we propose does not require the presence of the initial schema of the KB and works equally well when there is no schema information at all (something realistic with modern KBs that are constructed either ad-hoc or by merging fragments of other existing KBs). Additionally, the proposed method works equally well with homogeneous (having the same structure) and heterogeneous (having different structure, possibly the result of data described under different schemas/ontologies) RDF graphs.Given that RDF graphs can be large and complex, methods that need to compute the summary by fitting the whole graph in the memory of a (however large) machine will not scale. In order to overcome this problem, we proposed, as part of this thesis, a parallel framework that allows us to have a scalable parallel version of our proposed method. This will allow us to compute the summaries of any RDF graph regardless of size. Actually, we generalized this framework so as to be usable by any approximate pattern mining algorithm that needs parallelization.But working on this problem, introduced us to the issue of measuring the quality of the produced summaries. Given that in the literature exist various algorithms that can be used to summarize RDF graphs, we need to understand which one is better suited for a specific task or a specific RDF KB. In the literature, there is a lack of widely accepted evaluation criteria or an extensive empirical evaluation. This leads to the necessity of a method to compare and evaluate the quality of the produced summaries. So, in this thesis, we provide a comprehensive Quality Framework for RDF Graph Summarization to cover the gap that exists in the literature. This framework allows a better, deeper and more complete understanding of the quality of the different summaries and facilitates their comparison. It is independent of the way RDF summarization algorithms work and makes no assumptions on the type or structure neither of the input nor of the final results. We provide a set of metrics that help us understand not only if this is a valid summary but also how a summary compares to another in terms of the specified quality characteristic(s). The framework has the ability, which was experimentally validated, to capture subtle differences among summaries and produce metrics that depict that and was used to provide an extensive experimental evaluation and comparison of our method
APA, Harvard, Vancouver, ISO, and other styles
3

Voglozin, W. Amenel. "Le résumé linguistique de données structurées comme support pour l'interrogation." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481049.

Full text
Abstract:
Le travail présenté dans cette thèse traite de l'utilisation des résumés de données dans l'in- terrogation. Dans le contexte des résumés linguistiques du modèle SaintEtiQ sur lequel se focalise cette thèse, un résumé est une description du contenu d'une table relationnelle. Grâce à la définition de variables linguistiques, il est possible d'utiliser des termes du langage pour caractériser les données structurées de la table. En outre, l'organisation des résumés en hié- rarchie offre divers niveaux de granularité. Nous nous intéressons à fournir une application concrète aux résumés déjà construits. D'une part, nous étudions les possibilités d'utilisation des résumés dans une interrogation à but descriptif. L'objectif est de décrire entièrement des données dont certaines caractéristiques sont connues. Nous proposons une démarche de re- cherche de concepts et une instanciation de cette démarche. Ensuite, une étude des systèmes d'interrogation flexible, dont certains ont, ainsi que SaintEtiQ, la théorie des sous-ensembles flous comme base, nous permet d'enrichir la démarche proposée par des fonctionnalités plus avancées. D'autre part, nous avons intégré les résumés linguistiques de SaintEtiQ au SGBD PostgreSQL. L'objectif est d'aider le SGBD à identifier des enregistrements. Nous présen- tons un état de l'art des techniques d'indexation, ainsi que le détail de l'implémentation des résumés en tant que méthode d'accès dans PostgreSQL.
APA, Harvard, Vancouver, ISO, and other styles
4

Gabsi, Nesrine. "Extension et interrogation de résumé de flux de données." Paris, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00613122.

Full text
Abstract:
Au cours de ces dernières années, un nouvel environnement s'est développé dans lequel les données doivent être collectées et traitées instantanément dès leur arrivée. La gestion de cette volumétrie nécessite la mise en place d'un nouveau modèle et de nouvelles techniques de traitements de l'information. Il s'agit du traitement des flux de données. Ces derniers ont la particularité d'être continus, évolutifs, volumineux et ne peuvent être stockés, dans leur intégralité, en tant que données persistantes. Plusieurs travaux de recherche se sont intéressés à cette problématique ce qui a engendré l'apparition des systèmes de gestion de flux de données (SGFD). Ces systèmes permettent d'exprimer des requêtes continues qui s'évaluent au fur et à mesure sur un flux ou sur des fenêtres (sous ensembles finis du flux). Toutefois, dans certaines applications, de nouveaux besoins peuvent apparaître après le passage des données. Dans ce cas, le système ne peut répondre aux requêtes posées car toutes les données n'appelant aucun traitement sont définitivement perdues. Il est ainsi nécessaire de conserver un résumé du flux de données. De nombreux algorithmes de résumé ont été développés. Le choix d'une méthode de résumé particulière dépend de la nature des données à traiter et de la problématique à résoudre. Dans ce manuscrit, nous nous intéressons en premier lieu à l'élaboration d'un résumé généraliste permettant de créer un compromis entre la vitesse de construction du résumé et la qualité du résumé conservé. Nous présentons une nouvelle approche de résumé qui se veut performance face à des requêtes portant sur des données du passé lointain. Nous nous focalisons par la suite sur l'exploitation et l'accès aux évènements du flux conservés dans ces résumés. Notre objectif consiste à intégrer les structures de résumés généralistes dans l'architecture des SGFD existantes de façon à étendre le champ de requêtes possibles. A cet effet, l'évaluation des requêtes qui font appel aux données du passé lointain d'un flux (i. E. Données expirées de la mémoire du SGFD) serait possible au même titre que les requêtes posées sur le passé proche d'un flux de données. Nous présentons deux approches permettant d'atteindre cet objectif. Ces approches se différencient par le rôle que détient le module de résumé lors de l'évaluation d'une requêtes
In the last few years, a new environment, in which data have to be collected and processed instantly when arriving, has emerged. To handle the large volume of data associated with this environment, new data processing model and techniques have to be set up ; they are referred as data stream management. Data streams are usually continuous, voluminous, and cannot be registered integrally as persistent data. Many research works have handled this issue. Therefore, new systems called DSMS (Data Stream Management Systems) appeared. The DSMS evaluates continuous queries on a stream or a window (finite subset of streams). These queries have to be specified before the stream's arrival. Nevertheless, in case of some applications, some data could be required after their expiration from the DSMS in-memory. In this case, the system cannot treat the queries as such data are definitely lost. To handle this issue, it is essential to keep a ummary of data stream. Many summaries algorithms have been developed. The selection of a summarizing method depends on the kind of data and the associated issue. In this thesis, we are first interested with the elaboration of a generic summary structure while coming to a compromise between the summary elaboration time and the quality of the summary. We introduce a new summary approach which is more efficient for querying very old data. Then, we focus on the uerying methods for these summaries. Our objective is to integrate the structure of generic summaries in the architecture of the existing DSMS. By this way, we extend the range of the possible queries. Thus, the processing of the queries on old stream data (expired data) becomes possible as well as queries on new stream data. To this end, we introduced two approaches. The difference between them is the role played by summary module when the query is evaluated
APA, Harvard, Vancouver, ISO, and other styles
5

Hernandez, Nicolas. "Description et détection automatique de structures de texte." Paris 11, 2004. http://www.theses.fr/2004PA112329.

Full text
Abstract:
Les systèmes de recherche d'information ne sont pas adaptés pour une navigation intra-documentaire (résumé dynamique). Or celle-ci est souvent nécessaire pour évaluer la pertinence d'un document. Notre travail se situe dans une perspective de web sémantique. Notre objectif est d'enrichir les documents pour fournir aux systèmes, voire directement à l'utilisateur, des informations de description et d'organisation du contenu des documents. Les informations de nature descriptive concernent d'une part l'identification des expressions thématiques du discours, et d'autre part l'identification du type d'information sémantique ou rhétorique contenu dans une phrase donnée (par exemple la présentation du but de l'auteur, l'énonciation d'une définition, l'exposition d'un résultat, etc. ). L'identification des thèmes implémente deux approches distinctes l'une fondée sur la résolution d'anaphores, la seconde sur la construction de chaînes lexicales. En ce qui concerne l'identification des types d'information des phrases, nous proposons une méthode d'acquisition automatique de marques méta-discursives. L'objectif de détection de l'organisation du discours est envisagé selon deux approches. La première consiste à une analyse globale descendante du texte, en combinant une segmentation par cohésion lexicale, et un repérage de marques linguistiques de type introducteur de cadres (e. G. "En ce qui concerne X, En Corée, D'abord etc. "). La seconde approche vise une détection plus fine de l'organisation du discours en identifiant les relations de dépendance informationnelle entre les phrases (subordination et coordination)
Information Retrieval Systems are not well adapted for text browsing and visualization (dynamic summarization). But this one is always necessary for the user to evaluate the Information Retrieval (IR) systems are not well adapted for text browsing and visualization (dynamic summarization). But this is always necessary for users to evaluate the relevance of a document. Our work follows a Web Semantic perspective. We aim at annotating documents with abstract information about content description and discourse organization in order to create more abilities for IR systems. Descriptive information concerns both topic identification and semantic and rhetorical classification of text extracts (With information such as "Our aim is. . . ", "This paper deals with. . . "). We implement a system to identify topical linguistic expressions based on a robust anaphora system and lexical chains building. We also propose a method in order to automatically acquire meta-discursive material. We perform the detection of the text structure thanks to two complementary approaches. The first one offers a top-down analysis based on the segmentation provided by lexical cohesion and by linguistic markers such as frame introducers. The second one is concerned by local text organization by the detection of informational relations (coordination and subordination) between subsequent sentences
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography