Academic literature on the topic 'Génération automatique des données cinétiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Génération automatique des données cinétiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Génération automatique des données cinétiques"

1

Contant, Chantal. "Génération automatique de rapports boursiers français et anglais." Revue québécoise de linguistique 17, no. 1 (2009): 197–221. http://dx.doi.org/10.7202/602620ar.

Full text
Abstract:
Résumé Depuis peu de temps, il est possible, dans un sous-langage technique bien délimité, de créer des systèmes automatiques capables de générer, à partir d’une représentation sémantique, des textes linguistiquement bien formés. Un tel système existe pour le sous-langage boursier. En effet, à partir des données de la Bourse de New York, ce logiciel produit de façon automatique des résumés boursiers en anglais et en français. Le présent article présente le système anglais et français de génération automatique de texte et décrit brièvement les particularités du sous-langage boursier.
APA, Harvard, Vancouver, ISO, and other styles
2

Hlal, Yahya. "Outils linguistiques et système terminologique multilingue." Meta 42, no. 2 (2002): 321–27. http://dx.doi.org/10.7202/003073ar.

Full text
Abstract:
Résumé Cet article présente un système de TAL basé sur l'emploi d'une base de données terminologique multilingue (arabe, français, anglais) et d'outils linguistiques permettant l'aide à la néologie, l'exploitation de textes et de corpus pour l'extraction de termes ainsi que la génération automatique d'éléments morphologiques utiles pour l'exploitation et l'édition de dictionnaires. Le système offre une série de fonctions dont l'aide à la traduction.
APA, Harvard, Vancouver, ISO, and other styles
3

Beaudoin, Laurent, and Loïca Avanthey. "Stratégies pour adapter une chaîne de reconstruction 3D au milieu sous-marin : des idées à la pratique." Revue Française de Photogrammétrie et de Télédétection, no. 217-218 (September 21, 2018): 51–61. http://dx.doi.org/10.52638/rfpt.2018.416.

Full text
Abstract:
Pour de nombreuses applications (environnementales, archéologiques, industrielles ou de défense et sécurité par exemple), disposer d'un modèle 3D très haute résolution de zones locales peut être important. Dans cet article, nous nous intéressons à l'obtention de nuages de points 3D dense par reconstruction. Mais les conditions d'acquisition propres au milieu sous-marin (milieu dynamique et hostile, visibilité réduite, localisation et communication sans fil complexes, etc.) rendent la tâche ardue. La plupart des travaux présents dans la littérature s'appuient sur l'expérience issue du monde aérien. Les contributions que nous présentons dans cet article portent sur l'appariement de couples d'images simultanées ou successives : détection automatique des zones d'information fiable en modifiant le détecteur de Harris, génération de germes d'appariement fiabilisée par un filtrage statistique sur le flot local, densification de l'appariement par propagation de l'information autour des germes avec exclusion automatique des zones sans information. Les résultats obtenus sur une base de données diversifiée issue de plusieurs campagnes terrain et la qualité des apports sont ensuite discutés.
APA, Harvard, Vancouver, ISO, and other styles
4

Boukind, Abdallah, and Habiba Abou-Hafs. "Contribution de l'Intelligence Artificielle à la Performance des Projets de Recherche Scientifique." European Scientific Journal, ESJ 20, no. 34 (2024): 190. https://doi.org/10.19044/esj.2024.v20n34p190.

Full text
Abstract:
L’avancement des connaissances et les progrès dans divers domaines dépendent de la recherche scientifique. L'évolution rapide de l’intelligence artificielle (IA) offre de nouvelles perspectives pour améliorer l’efficacité et les résultats de ces efforts scientifiques. L'IA, notamment l’apprentissage automatique et la manipulation du langage naturel, a le pouvoir de transformer le processus de recherche scientifique. Elle permet d'analyser efficacement de vastes ensembles de données, révélant des modèles complexes qui sont difficiles à détecter manuellement. L'IA stimule également les avancées scientifiques en formulant des hypothèses de recherche. De plus, elle libère les chercheurs en automatisant les tâches répétitives, ce qui leur permet de se concentrer sur les aspects créatifs de leur travail. Cependant, l'intégration de l'IA dans la recherche scientifique soulève des questions et des obstacles importants. La crédibilité des résultats obtenus grâce à l'IA peut être remise en question, et comprendre les choix effectués par les systèmes d'IA peut être complexe pour les chercheurs. Il est donc essentiel de comprendre l'effet de l'IA sur la performance des projets de recherche scientifique, afin de maximiser les avantages tout en atténuant les risques. Notre étude vise à étudier l’effet de l'IA sur la recherche scientifique en utilisant une approche qualitative. Nous avons mené des entretiens approfondis avec des doctorants chercheurs dans le domaine des sciences de gestion. L'analyse des données a été réalisée à l'aide d'une méthode d'analyse de contenu incluant des fréquences de mots, des matrices à condensés pour l'analyse thématique et un croisement matriciel des nœuds avec les sources. En suivant une méthodologie rigoureuse et systématique, nous cherchons à obtenir un aperçu complet des perspectives des chercheurs et à générer des connaissances sur le rôle de l’intégration de l'IA dans la recherche scientifique. Les résultats de notre étude montrent que l'intégration de l'IA dans la recherche scientifique améliore l'efficacité et favorise la découverte de nouvelles significations. Plus précisément, elle présente plusieurs avantages notables : une efficacité accrue grâce à l'automatisation des tâches répétitives ; une découverte de nouvelles significations, optimisée par l'analyse de structures de données avancées ; et une amélioration des performances, se manifestant par un impact positif sur la génération d'hypothèses et la conception d'expériences. Ces résultats corroborent les avantages soulignés dans la littérature existante, tout en mettant en lumière des enjeux éthiques et réglementaires importants. The advancement of knowledge and progress in various fields depend on scientific research. The rapid evolution of artificial intelligence (AI) offers new opportunities to improve the efficiency and results of these scientific efforts. AI, including machine learning and natural language manipulation, has the power to transform the scientific research process. It allows for the efficient analysis of large data sets, revealing complex patterns that are difficult to detect manually. AI also drives scientific advances by formulating research hypotheses. In addition, it frees up researchers by automating repetitive tasks, allowing them to focus on the creative aspects of their work. However, the integration of AI into scientific research raises significant questions and obstacles. The credibility of the results obtained through AI can be questioned, and understanding the choices made by AI systems can be complex for researchers. It is therefore essential to understand the effect of AI on the performance of scientific research projects, in order to maximize benefits while mitigating risks. Our study aims to investigate the effect of AI on scientific research using a qualitative approach. We will conduct in-depth interviews with doctoral students who are researchers in the field of management sciences. Data analysis was performed using a content analysis method, including word frequencies, condensed matrices for thematic analysis, and matrix cross-referencing of nodes with sources. By following a rigorous and systematic methodology, we seek to gain a comprehensive overview of researchers' perspectives and generate knowledge about the role of integrating AI into scientific research. The results of our study show that the integration of AI into scientific research improves efficiency and promotes the discovery of new meanings. Specifically, it has several notable advantages: increased efficiency through automation of repetitive tasks; the discovery of new meanings, powered by the analysis of advanced data structures; and improved performance, manifested in a positive impact on hypothesis generation and experiment design. These results corroborate the benefits highlighted in the existing literature while highlighting important ethical and regulatory issues.
APA, Harvard, Vancouver, ISO, and other styles
5

Balicco, Laurence, Salaheddine Ben-Ali, Claude Ponton, and Stéphanie Pouchot. "Apports de la generation automatique de textes en langue naturelle a la recherche d'information." Proceedings of the Annual Conference of CAIS / Actes du congrès annuel de l'ACSI, October 12, 2013. http://dx.doi.org/10.29173/cais6.

Full text
Abstract:
L’expérience acquise dans notre équipe en recherche d’information et en génération automatique de textes (production de textes par un système informatique à partir d’un contenu formel) nous a montré que la relation de l’utilisateur avec le système de recherche d’information n’était pas naturelle, l’utilisateur devant généralement s’adapter au système. Pour simplifier cette interaction personne-système, nous avons étudié les apports d’un système de génération automatique à un système de recherche d’information. Le processus de recherche d’information se compose de trois phases :• formulation de la requête par l’utilisateur,• traitement de la requête par le système,• affichage des résultats.En quoi et comment un système de génération automatique rend-il l’utilisation d’un système de recherche d’information plus efficace et facilite-t-il son appréhension ? Ceci fait l’objet de cette publication. Quand la formulation de la requête est inadéquate, on peut en générer automatiquement différentes reformulations en fonction des caractéristiques du système de recherche d’information. Il est également possible d’engendrer une explication sur la méthode employée et le type de données traitées par le système afin que l’utilisateur puisse comprendre le processus de recherche et adapter sa requête. Si une trop grande quantité d’informations est délivrée, il est nécessaire de structurer, d’organiser la présentation des résultats voire, selon l’application, de produire un résumé des réponses. Le générateur intervient donc au niveau de l’interface personne-machine et communique avec le système et l’utilisateur. Nos travaux sur la structuration et la mise en forme des textes produits, sur la génération de textes explicatifs et la reformulation de requêtes ont servi de point de départ à ce travail dont l’objectif final est la mise en oeuvre d’une application réelle.
APA, Harvard, Vancouver, ISO, and other styles
6

Proust, Maëlle, Olivier Donzé, Kenzo Picenni, and Anne Barrioz. "Génération automatique de maquettes de paysages grâce à l’open data." Expériences du paysage et pratiques numériques 30 (2024). http://dx.doi.org/10.4000/120t3.

Full text
Abstract:
La profusion actuelle de données géographiques, en particulier en open data, est une formidable opportunité pour tous les acteurs de l’aménagement du territoire. Toutefois, leur utilisation peut être rendue difficile en raison de leur abondance, de l’hétérogénéité des sites de téléchargement et de la diversité des formats. De plus, la représentation 3D du territoire est particulièrement chronophage et nécessite des compétences relativement pointues. Ces tâches répétitives sont particulièrement adaptées pour être automatisées par programmation. C’est précisément ce que le groupe de recherche appliquée Modélisation informatique du paysage (MIP) de la Haute école du paysage, d’ingénierie et d’architecture de Genève (HEPIA) a développé. Il a acquis des compétences pointues et a créé des outils en open source (plugins) pour faciliter la génération automatique de maquettes numériques 3D du territoire. Dans le cadre d’un travail de mémoire en master en développement territorial, orientation Architecture du paysage, Maëlle Proust a expérimenté l’application de ces outils numériques au domaine de recherche appliquée au sol. Partant du constat de l’absence de représentation du sol dans la planification urbaine, une partie de ce travail a porté sur la manière de rendre perceptibles les paysages vivants invisibles.
APA, Harvard, Vancouver, ISO, and other styles
7

Mesri, Mokhtaria, Ali Cheknane, Amel Bey Boumezrag, and Mourad Reguigue. "Classification des nuages d’eau sur les images Météosat." Journal of Renewable Energies 13, no. 2 (2023). http://dx.doi.org/10.54966/jreen.v13i2.202.

Full text
Abstract:
Une méthode de classification automatique des nuages a été expérimentée sur les données Météosat, ancienne génération dans les canaux visible et infrarouge, couvrant la zone: (+47°Nord et +19°Sud, +16°Est et -16°Ouest) correspondant au Nord de l’Algérie et ce pendant le mois d’Avril 1997. Elle utilise quatre paramètres, deux spectraux (visible et infrarouge) et deux spatiaux (variance locale visible et variance locale infrarouge). Cette technique permet d’optimiser considérablement le temps de calcul et de gagner de façon non négligeable en espace mémoire de stockage. Les résultats obtenus sont globalement satisfaisants.
APA, Harvard, Vancouver, ISO, and other styles
8

Larue, Louis. "Numéro 127 - septembre 2016." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14403.

Full text
Abstract:
De nombreuses monnaies parallèles circulent depuis toujours à côté de la monnaie officielle. Aujourd’hui, une nouvelle génération de monnaie est en train de naître des nouvelles technologies : les crypto-monnaies, dont l’exemple le plus connu est le bitcoin. Ces monnaies n’existent que sous forme de code informatique, sans équivalent papier ou métallique. Leur particularité est d’être créées et gérées de manière décentralisée. Bien qu’elles constituent une avancée technologique remarquable, elles soulèvent de nombreux défis tant éthiques qu’économiques, que ce numéro de Regards économiques essaie d’éclairer.
 Le bitcoin est aujourd’hui la crypto-monnaie la plus populaire. Son fonctionnement est totalement indépendant des banques et des États, et garantit l’anonymat des utilisateurs. Sa sécurité repose sur une innovation cruciale : un système de paiement entièrement décentralisé. Plus besoin de banques commerciales ou de banques centrales pour gérer le système de paiement et s’assurer de la sécurité des transactions. L’ensemble des paiements en bitcoin est archivé dans un registre public (le «distributed ledger»), conçu pour être infalsifiable (ou presque). Ce registre permet d’éviter un problème inhérent à toute monnaie électronique sans forme matérielle : la possibilité de dépenser plusieurs fois un même bitcoin pour plusieurs transactions. Puisqu’aucune autorité ne possède un pouvoir de contrôle sur le bitcoin et ne peut surveiller les transactions, ce registre virtuel garantit un traçage de chaque bitcoin et évite qu’il ne soit dépensé plusieurs fois par un même utilisateur.
 Cette innovation a été essentielle pour le succès et la sécurité du bitcoin. Elle intéresse d’ailleurs de nombreux acteurs, comme les banques commerciales. Géréer de manière automatique et décentralisée le système de paiement permet en effet d’épargner d’importantes sommes d’argent. Cependant, le bitcoin n’est pas sans connaître quelques difficultés.
 Au regard de l’efficacité économique, le bitcoin est encore loin de constituer une monnaie de confiance. De nombreuses fraudes et quelques faillites retentissantes ont émoussé l’enthousiasme initial qu’il suscitait. Par ailleurs, la conception même du bitcoin interdit qu’un État ou qu’une banque centrale puisse intervenir, une impossibilité qui, en cas de crise, peut se révéler problématique.
 Le bitcoin soulève également problème au regard de la justice sociale. Tous les utilisateurs ne sont pas égaux, notamment en termes technologiques. Par ailleurs, bien que la protection de la vie privée et des données personnelles de chaque utilisateur soit légitime, l’anonymat des utilisateurs de bitcoins constitue un nouvel instrument pour le blanchiment d’argent qui complique le travail des autorités fiscales.
 Ce numéro de Regards économiques entend éclairer le fonctionnement des crypto-monnaies, en prenant l’exemple du bitcoin. Il apporte également quelques réflexions sur les enjeux économiques et éthiques de cette nouvelle forme de monnaie. En conclusion, il insiste sur les enseignements principaux et les pistes éventuelles que tracent ces nouvelles monnaies.
APA, Harvard, Vancouver, ISO, and other styles
9

Larue, Louis. "Numéro 127 - septembre 2016." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2016.09.02.

Full text
Abstract:
De nombreuses monnaies parallèles circulent depuis toujours à côté de la monnaie officielle. Aujourd’hui, une nouvelle génération de monnaie est en train de naître des nouvelles technologies : les crypto-monnaies, dont l’exemple le plus connu est le bitcoin. Ces monnaies n’existent que sous forme de code informatique, sans équivalent papier ou métallique. Leur particularité est d’être créées et gérées de manière décentralisée. Bien qu’elles constituent une avancée technologique remarquable, elles soulèvent de nombreux défis tant éthiques qu’économiques, que ce numéro de Regards économiques essaie d’éclairer.
 Le bitcoin est aujourd’hui la crypto-monnaie la plus populaire. Son fonctionnement est totalement indépendant des banques et des États, et garantit l’anonymat des utilisateurs. Sa sécurité repose sur une innovation cruciale : un système de paiement entièrement décentralisé. Plus besoin de banques commerciales ou de banques centrales pour gérer le système de paiement et s’assurer de la sécurité des transactions. L’ensemble des paiements en bitcoin est archivé dans un registre public (le «distributed ledger»), conçu pour être infalsifiable (ou presque). Ce registre permet d’éviter un problème inhérent à toute monnaie électronique sans forme matérielle : la possibilité de dépenser plusieurs fois un même bitcoin pour plusieurs transactions. Puisqu’aucune autorité ne possède un pouvoir de contrôle sur le bitcoin et ne peut surveiller les transactions, ce registre virtuel garantit un traçage de chaque bitcoin et évite qu’il ne soit dépensé plusieurs fois par un même utilisateur.
 Cette innovation a été essentielle pour le succès et la sécurité du bitcoin. Elle intéresse d’ailleurs de nombreux acteurs, comme les banques commerciales. Géréer de manière automatique et décentralisée le système de paiement permet en effet d’épargner d’importantes sommes d’argent. Cependant, le bitcoin n’est pas sans connaître quelques difficultés.
 Au regard de l’efficacité économique, le bitcoin est encore loin de constituer une monnaie de confiance. De nombreuses fraudes et quelques faillites retentissantes ont émoussé l’enthousiasme initial qu’il suscitait. Par ailleurs, la conception même du bitcoin interdit qu’un État ou qu’une banque centrale puisse intervenir, une impossibilité qui, en cas de crise, peut se révéler problématique.
 Le bitcoin soulève également problème au regard de la justice sociale. Tous les utilisateurs ne sont pas égaux, notamment en termes technologiques. Par ailleurs, bien que la protection de la vie privée et des données personnelles de chaque utilisateur soit légitime, l’anonymat des utilisateurs de bitcoins constitue un nouvel instrument pour le blanchiment d’argent qui complique le travail des autorités fiscales.
 Ce numéro de Regards économiques entend éclairer le fonctionnement des crypto-monnaies, en prenant l’exemple du bitcoin. Il apporte également quelques réflexions sur les enjeux économiques et éthiques de cette nouvelle forme de monnaie. En conclusion, il insiste sur les enseignements principaux et les pistes éventuelles que tracent ces nouvelles monnaies.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Génération automatique des données cinétiques"

1

Citrangolo, Destro Fabiola. "Development of an automated approach for kinetic data calculation : the method of tabulated transition states models." Electronic Thesis or Diss., Université de Lorraine, 2024. https://docnum.univ-lorraine.fr/ulprive/DDOC_T_2024_0189_CITRANGOLO_DESTRO.pdf.

Full text
Abstract:
Les biocarburants sont une alternative pour réduire les émissions de gaz à effet de serre. Ils ont une composition différente des carburants fossiles, ce qui peut modifier leurs caractéristiques de combustion (ou de pyrolyse), ainsi que leur résistance à l’autoxydation en phase liquide. Les modèles cinétiques détaillés constituent un outil important pour comprendre et prédire la combustion de ces carburants. Leur précision dépend en grande partie de la fiabilité des données cinétiques affectées aux différentes réactions. Dans cette thèse, une nouvelle approche basée sur les modèles tabulés d’état de transition (TMTS) est développée pour estimer les constantes de vitesse en s’appuyant sur des calculs de structures électroniques, couplés aux théories cinétiques (théorie de l’état de transition conventionnelle et variationelle, équation maîtresse). L’approche TMTS consiste à identifier précisément la zone réactionnelle de l’état de transition avec les substituants clés, puis à générer ces structures afin de pouvoir réaliser les calculs de constantes de vitesse. Cette approche a été testée pour l’isomérisation des radicaux alkyles. Les résultats ont montré un impact notable des ramifications de la chaîne sur les coefficients de vitesse, de sorte qu’un tableau de modè les tabulés d’état de transition contenant 51 modèles avec les paramètres cinétiques correspondants, a été proposé pour couvrir les réactions d’isomérisation à 3 et 4 centres. Pour le traitement des isomérisations à 5 centres, un total de 72 modèles a dû être construit, mettant en jeu un grand nombre de diastéréoisomères pour les réactifs et de configurations cycliques pour les TS. Un code en Python, capable de construire et de filtrer toutes les combinaisons y compris les configurations multiples de réactifs et d’états de transition, a été créé. Ce code prépare toutes les entrées du calcul ab initio et traite les sorties pour le code de calcul des constantes de vitesse, en incorporant la détermination de la symétrie ainsi que les différentes voies de réactions pour les structures ramifiées impliquant plusieurs configurations de réactifs et de TS. Les tables de TMTS ont été automatiquement créées pour les réactions d’isomérisations à 6 centres. Les réactions de β-scission des radicaux alkyles, qui représentent une source importante de formation de produits primaires insaturés (alcènes), ont aussi été prises en compte dans ce travail. Le code a été adapté à cette famille de réactions et des tables de TMTS ont également été proposées pour les β-scissions des liaisons C-C et C-H, avec un total de 45 modèles. Les métathèses sur les alcanes, par des radicaux hydrogène et alkyles, ont également été traitées par le code, avec un total de 20 modèles de réaction proposés. Finalement, les réactions de recombinaisons de radicaux alkyles ont également été étudiées mais ont nécessité un traitement variationnel pour évaluer les constantes de vitesse. Pour cette famille de réactions, les constantes de vitesse ont été obtenues en fonction de la température et de la pression pour différentes tailles de chaînes alkyles. Les résultats ont permis de constater qu’une règle simple appelée "règle de la moyenne géométrique" (GMR) était utilisable pour étendre les constantes cinétiques dépendant de la pression à des systèmes moléculaires de grande taille. Cette règle a donc été prise en compte pour finaliser la table des TMTS pour cette famille de réactions. A l’issue de la thèse, les familles de réactions couvertes par les tableaux TMTS englobent la grande majorité des réactions de pyrolyse des alcanes et leur implémentation dans les mécanismes cinétiquesdoit permettre d’améliorer la précision des modèles, notamment pour les alcanes linéaires et ramifiés<br>Bio-sourced fuels are a potential alternative to reduce emissions of greenhouse gases. These fuels present a composition different than the usual fossil fuels, which impacts their combustion and pyrolysis characteristics, as well as their resistance to liquid phase oxidation processes. Detailed kinetic models are an important tool for understanding and predicting the combustion of such fuels. The accuracy of these models mainly depends on the reliability of the kinetic data available for the reactions. In this thesis, a new theoretical approach named "the tabulated models of transition state" (TMTS), to estimate rate constants for reaction mechanisms, is developed. The rate coefficients were obtained based on theoretical methods, via ab initio calculations, coupled with kinetic rate theories (Transition State Theory, Variational TST, and Master Equation). The TMTS approach consists in identifying the key aspects of the reaction moiety that are important when defining the rate constants, and then creating models of reactions covering all the identified aspects. This approach was first tested for the isomerization of alkyl radicals, a reaction family that changes the radical positions in alkyl chains and impacts the final products distribution. The results indicated an important effect of alkyl chain branches on the final rate coefficients, so a table of transition state models with the corresponding parameters was proposed to cover 1,3 and 1,4-H-shift isomerization reactions, representing a total of 51 models of transition states. For the treatment of branching cases of 1,5-H-shift reactions, a total of 72 models had to be built, representing a myriad of reactant diastereoisomers and cyclic transition state configurations. A code in Python capable of building and filtering all the necessary combinations of models, including multiple reactant and TS configurations, was created. This code prepared all the electronic structure calculation inputs and treated the outputs for kinetic calculation code, incorporating features for symmetry determination, as well as classification of reaction pathways for branched structures with multiple configurations of reactant and TS. The results obtained from the code were compared to the ones produced by hand and the code was found to overcome the human results, as it avoided symmetries and optical isomers errors, and the TMTS tables were automatically created to the 1,5-H-shift reactions. The β-scission of alkyl radicals represent another important class of reactions, as they lead to the formation of unsaturated primary products (alkenes), so the same approach was applied for this reaction family, and tables containing the models of transition state were also proposed for C-C and C-H bond scissions, resulting in a total of 45 reaction models. The H-abstraction reactions by hydrogen atom and alkyl radicals were also treated by the code, representinga total of 20 reaction models. Finally, the alkyl recombinations were also investigated, a reaction family with loose TS that required a refined variational treatment. For this reaction family, rate constants were obtained theoretically in function of temperature and pressure for different alkyl chain sizes. From the results, a simple rule called "the geometric mean rule" (GMR) was useful for expanding pressure-dependent rate coefficients from small to large systems. Therefore, this rule was combined with the results calculated theoretically to propose tabulated values for the kinetic data of alkyl recombination reactions. The reaction families covered by the TMTS tables include the majority of the alkane pyrolysis process and their implementation on reaction mechanisms should improve the accuracy of branched and linear alkane models
APA, Harvard, Vancouver, ISO, and other styles
2

Thiéblin, Elodie. "Génération automatique d'alignements complexes d'ontologies." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30135.

Full text
Abstract:
Le web de données liées (LOD) est composé de nombreux entrepôts de données. Ces données sont décrites par différents vocabulaires (ou ontologies). Chaque ontologie a une terminologie et une modélisation propre ce qui les rend hétérogènes. Pour lier et rendre les données du web de données liées interopérables, les alignements d'ontologies établissent des correspondances entre les entités desdites ontologies. Il existe de nombreux systèmes d'alignement qui génèrent des correspondances simples, i.e., ils lient une entité à une autre entité. Toutefois, pour surmonter l'hétérogénéité des ontologies, des correspondances plus expressives sont parfois nécessaires. Trouver ce genre de correspondances est un travail fastidieux qu'il convient d'automatiser. Dans le cadre de cette thèse, une approche d'alignement complexe basée sur des besoins utilisateurs et des instances communes est proposée. Le domaine des alignements complexes est relativement récent et peu de travaux adressent la problématique de leur évaluation. Pour pallier ce manque, un système d'évaluation automatique basé sur de la comparaison d'instances est proposé. Ce système est complété par un jeu de données artificiel sur le domaine des conférences<br>The Linked Open Data (LOD) cloud is composed of data repositories. The data in the repositories are described by vocabularies also called ontologies. Each ontology has its own terminology and model. This leads to heterogeneity between them. To make the ontologies and the data they describe interoperable, ontology alignments establish correspondences, or links between their entities. There are many ontology matching systems which generate simple alignments, i.e., they link an entity to another. However, to overcome the ontology heterogeneity, more expressive correspondences are sometimes needed. Finding this kind of correspondence is a fastidious task that can be automated. In this thesis, an automatic complex matching approach based on a user's knowledge needs and common instances is proposed. The complex alignment field is still growing and little work address the evaluation of such alignments. To palliate this lack, we propose an automatic complex alignment evaluation system. This system is based on instances. A famous alignment evaluation dataset has been extended for this evaluation
APA, Harvard, Vancouver, ISO, and other styles
3

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau." Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Soukane, Assia. "Génération automatique des requêtes de médiation dans un environnement hétérogène." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0038.

Full text
Abstract:
Les systèmes de médiation sont aujourd'hui largement développes et connus. Cependant, leur mise en œuvre pose un certain nombre de problèmes, en particulier la définition de requêtes de médiation en présence d'un grand nombre de sources de données, et d'un volume important de méta-données les décrivant. Ce problème est d'autant plus crucial lorsque les sources sont hétérogènes. Face a cette problématique, nous proposons dans cette thèse pour le contexte relationnel, une approche de génération automatique de requêtes de médiation. A partir de sources de données distribuées et hétérogènes, notre algorithme produit un ensemble potentiel de requêtes de médiation. Nous avons développé un outil qui permet de générer automatiquement des requêtes de médiation dans un environnement hétérogène. Notre objectif principal étant de fournir à l'utilisateur un outil adapte aux petits et grands systèmes, nous avons réalise une série de tests d'évaluation des performances pour mesurer son passage a l'échelle. Ces tests montrent la faisabilité de notre approche<br>Nowadays, mediation systems are widely used. However, their implementation raises several problems, especially, the definition of queries when there is a high number of sources, and a great amount of meta data. Furthermore, the problem is particularly important when sources are heterogeneous. We propose in this thesis an approach to automatically generate the mediation queries, in a relational context. Our algorithm produce candidate set of queries since heterogeneous and distributed sources. We develop a tool to automatically generate mediation queries in the heterogeneous context. Our principal goal is to provide an appropriate tool for different sizes of systems; we achieve tests series to perform scalability
APA, Harvard, Vancouver, ISO, and other styles
5

Benalia, Akram Djellal. "HELPDraw : un environnement visuel pour la génération automatique de programmes à parallélisme de données." Lille 1, 1995. http://www.theses.fr/1995LIL10095.

Full text
Abstract:
Le parallélisme de données consiste à appliquer simultanément le même traitement sur un ensemble de données homogènes. De part la conservation d'un unique flux d'instructions, il est devenu de fait un modèle de programmation largement répandu et qui autorise facilement l'accès à la puissance théorique des machines parallèles pour le calcul scientifique. L'objectif de cette thèse est de montrer qu'il est possible de programmer dans ce modèle sans contrainte de syntaxe ou d'architecture, tout en gardant le maximum de performances. Nous proposons un environnement de programmation visuelle : HELPDraw. Il permet de traduire la pensée et la conception du programmeur en un code data-parallèle source. HELPDraw se base sur un modèle de programmation géométrique. Les structures de données définies par l'utilisateur sont regroupées et alignées au sein d'un hyper-espace (machine virtuelle), référentiel de toute manipulation. Le modèle géométrique offre deux vues clairement distinctes : la vue microscopique permet l'expression du parallélisme de calcul ; la vue macroscopique permet les communications parallèles à travers l'hyper-espace par une modélisation à base de primitives géométriques. Le modèle géométrique offre un support naturel pour la programmation visuelle. Le programmeur développe son algorithme data-parallèle en interagissant avec les éditeurs graphiques de HELPDraw. Les objets data-parallèles représentés par des formes géométriques sont manipulés à travers des migrations et des changements de formes à l'intérieur de l'hyper-espace. Le programmeur construit graphiquement et interactivement ses instructions ou blocs d'instructions. HELPDraw les traduit au fur et à mesure dans le langage data-parallèle cible. Nous étudions dans cette thèse la génération automatique des codes C-HELP (un langage mis en oeuvre dans notre équipe) et HPF le nouveau fortran data-parallèle. Pour C-HELP qui se base lui-même sur le modèle géométrique, cette génération est assez naturelle. Pour HPF elle est cependant plus complexe, nous proposons une solution permettant de compiler une description géométrique vers une description par les indices.
APA, Harvard, Vancouver, ISO, and other styles
6

Abdelmoula, Mariem. "Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Full text
Abstract:
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié<br>One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
APA, Harvard, Vancouver, ISO, and other styles
7

Tka, Mouna. "Génération automatique de test pour les contrôleurs logiques programmables synchrones." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM020/document.

Full text
Abstract:
Ce travail de thèse, effectué dans la cadre du projet FUI Minalogic Bluesky, porte sur le test fonctionnel automatisé d'une classe particulière de contrôleurs logiques programmables (em4) produite par InnoVista Sensors. Ce sont des systèmes synchrones qui sont programmés au moyen d'un environnement de développement intégré (IDE). Les personnes qui utilisent et programment ces contrôleurs ne sont pas nécessairement des programmeurs experts. Le développement des applications logicielles doit être par conséquent simple et intuitif. Cela devrait également être le cas pour les tests. Même si les applications définies par ces utilisateurs ne sont pas nécessairement très critiques, il est important de les tester d'une manière adéquate et efficace. Un simulateur inclu dans l'IDE permet aux programmeurs de tester leurs programmes d'une façon qui reste à ce jour informelle et interactive en entrant manuellement des données de test. En se basant sur des recherches précédentes dans le domaine du test des programmes synchrones, nous proposons un nouveau langage de spécification de test, appelé SPTL (Synchronous Programs Testing Language) qui rend possible d'exprimer simplement des scénarios de test qui peuvent être exécutées à la volée pour générer automatiquement des séquences d'entrée de test. Il permet aussi de décrire l'environnement où évolue le système pour mettre des conditions sur les entrées afin d'arriver à des données de test réalistes et de limiter celles qui sont inutiles. SPTL facilite cette tâche de test en introduisant des notions comme les profils d'utilisation, les groupes et les catégories. Nous avons conçu et développé un prototype, nommé "Testium", qui traduit un programme SPTL en un ensemble de contraintes exploitées par un solveur Prolog qui choisit aléatoirement les entrées de test. La génération de données de test s'appuie ainsi sur des techniques de programmation logique par contraintes. Pour l'évaluer, nous avons expérimenté cette méthode sur des exemples d'applications EM4 typiques et réels. Bien que SPTL ait été évalué sur em4, son utilisation peut être envisagée pour la validation d'autres types de contrôleurs ou systèmes synchrones<br>This thesis work done in the context of the FUI project Minalogic Bluesky, concerns the automated functional testing of a particular class of programmable logic controllers (em4) produced by InnoVista Sensors. These are synchronous systems that are programmed by means of an integrated development environment (IDE). People who use and program these controllers are not necessarily expert programmers. The development of software applications should be as result simple and intuitive. This should also be the case for testing. Although applications defined by these users need not be very critical, it is important to test them adequately and effectively. A simulator included in the IDE allows programmers to test their programs in a way that remains informal and interactive by manually entering test data.Based on previous research in the area of synchronous test programs, we propose a new test specification language, called SPTL (Synchronous Testing Programs Language) which makes possible to simply express test scenarios that can be executed on the fly to automatically generate test input sequences. It also allows describing the environment in which the system evolves to put conditions on inputs to arrive to realistic test data and limit unnecessary ones. SPTL facilitates this testing task by introducing concepts such as user profiles, groups and categories. We have designed and developed a prototype named "Testium", which translates a SPTL program to a set of constraints used by a Prolog solver that randomly selects the test inputs. So, generating test data is based on constraint logic programming techniques.To assess this, we experimented this method on realistic and typical examples of em4 applications. Although SPTL was evaluated on EM4, its use can be envisaged for the validation of other types of synchronous controllers or systems
APA, Harvard, Vancouver, ISO, and other styles
8

Baez, miranda Belen. "Génération de récits à partir de données ambiantes." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Full text
Abstract:
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche<br>Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
APA, Harvard, Vancouver, ISO, and other styles
9

Moyse, Gilles. "Résumés linguistiques de données numériques : interprétabilité et périodicité de séries." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066526.

Full text
Abstract:
Nos travaux s'inscrivent dans le domaine des résumés linguistiques flous (RLF) qui permettent la génération de phrases en langage naturel, descriptives de données numériques, et offrent ainsi une vision synthétique et compréhensible de grandes masses d'information. Nous nous intéressons d'abord à l'interprétabilité des RLF, capitale pour fournir une vision simplement appréhendable de l'information à un utilisateur humain et complexe du fait de sa formulation linguistique. En plus des travaux existant à ce sujet sur les composants élémentaires des RLF, nous proposons une approche globale de l'interprétabilité des résumés vus comme un ensemble de phrases et nous intéressons plus spécifiquement à la question de leur cohérence. Afin de la garantir dans le cadre de la logique floue standard, nous introduisons une formalisation originale de l'opposition entre phrases de complexité croissante. Ce formalisme nous permet de démontrer que les propriétés de cohérence sont vérifiables par le choix d'un modèle de négation spécifique. D'autre part, nous proposons sur cette base un cube en 4 dimensions mettant en relation toutes les oppositions possibles entre les phrases d'un RLF et montrons que ce cube généralise plusieurs structures d'opposition logiques existantes. Nous considérons ensuite le cas de données sous forme de séries numériques et nous intéressons à des résumés linguistiques portant sur leur périodicité : les phrases que nous proposons indiquent à quel point une série est périodique et proposent une formulation linguistique appropriée de sa période. La méthode d’extraction proposée, nommée DPE pour Detection of Periodic Events, permet de segmenter les données de manière adaptative et sans paramètre utilisateur, en utilisant des outils issus de la morphologie mathématique. Ces segments sont ensuite utilisés pour calculer la période de la série temporelle ainsi que sa périodicité, calculée comme un degré de qualité sur le résultat renvoyé mesurant à quel point la série est périodique. Enfin, DPE génère des phrases comme « Environ toutes les 2 heures, l'afflux de client est important ». Des expériences sur des données artificielles et réelles confirment la pertinence de l'approche. D’un point de vue algorithmique, nous proposons une implémentation incrémentale et efficace de DPE, basée sur l’établissement de formules permettant le calcul de mises à jour des variables. Cette implémentation permet le passage à l'échelle de la méthode ainsi que l'analyse en temps réel de flux de données. Nous proposons également une extension de DPE basée sur le concept de périodicité locale permettant d'identifier les sous-séquences périodiques d'une série temporelle par l’utilisation d’un test statistique original. La méthode, validée sur des données artificielles et réelles, génère des phrases en langage naturel permettant d’extraire des informations du type « Toutes les deux semaines sur le premier semestre de l'année, les ventes sont élevées »<br>Our research is in the field of fuzzy linguistic summaries (FLS) that allow to generate natural language sentences to describe very large amounts of numerical data, providing concise and intelligible views of these data. We first focus on the interpretability of FLS, crucial to provide end-users with an easily understandable text, but hard to achieve due to its linguistic form. Beyond existing works on that topic, based on the basic components of FLS, we propose a general approach for the interpretability of summaries, considering them globally as groups of sentences. We focus more specifically on their consistency. In order to guarantee it in the framework of standard fuzzy logic, we introduce a new model of oppositions between increasingly complex sentences. The model allows us to show that these consistency properties can be satisfied by selecting a specific negation approach. Moreover, based on this model, we design a 4-dimensional cube displaying all the possible oppositions between sentences in a FLS and show that it generalises several existing logical opposition structures. We then consider the case of data in the form of numerical series and focus on linguistic summaries about their periodicity: the sentences we propose indicate the extent to which the series are periodic and offer an appropriate linguistic expression of their periods. The proposed extraction method, called DPE, standing for Detection of Periodic Events, splits the data in an adaptive manner and without any prior information, using tools from mathematical morphology. The segments are then exploited to compute the period and the periodicity, measuring the quality of the estimation and the extent to which the series is periodic. Lastly, DPE returns descriptive sentences of the form ``Approximately every 2 hours, the customer arrival is important''. Experiments with artificial and real data show the relevance of the proposed DPE method. From an algorithmic point of view, we propose an incremental and efficient implementation of DPE, based on established update formulas. This implementation makes DPE scalable and allows it to process real-time streams of data. We also present an extension of DPE based on the local periodicity concept, allowing the identification of local periodic subsequences in a numerical series, using an original statistical test. The method validated on artificial and real data returns natural language sentences that extract information of the form ``Every two weeks during the first semester of the year, sales are high''
APA, Harvard, Vancouver, ISO, and other styles
10

Enderlin, Ivan. "Génération automatique de tests unitaires avec Praspel, un langage de spécification pour PHP." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2067/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire portent sur la validation de programmes PHP à travers un nouveau langage de spécification, accompagné de ses outils. Ces travaux s’articulent selon trois axes : langage de spécification, génération automatique de données de test et génération automatique de tests unitaires.La première contribution est Praspel, un nouveau langage de spécification pour PHP, basé sur la programmation par contrat. Praspel spécifie les données avec des domaines réalistes, qui sont des nouvelles structures permettant de valider etgénérer des données. À partir d’un contrat écrit en Praspel, nous pouvons faire du Contract-based Testing, c’est à dire exploiter les contrats pour générer automatiquement des tests unitaires. La deuxième contribution concerne la génération de données de test. Pour les booléens, les entiers et les réels, une génération aléatoire uniforme est employée. Pour les tableaux, un solveur de contraintes a été implémenté et utilisé. Pour les chaînes de caractères, un langage de description de grammaires avec un compilateur de compilateurs LL(⋆) et plusieurs algorithmes de génération de données sont employés. Enfin, la génération d’objets est traitée.La troisième contribution définit des critères de couverture sur les contrats.Ces derniers fournissent des objectifs de test. Toutes ces contributions ont été implémentées et expérimentées dans des outils distribués à la communauté PHP<br>The works presented in this memoir are about the validation of PHPprograms through a new specification language, along with its tools. These works follow three axes: specification language, automatic test data generation and automatic unit test generation. The first contribution is Praspel, a new specification language for PHP, based on the Design by Contract. Praspel specifies data with realistic domains, which are new structures allowing to validate and generate data. Based on a contract, we are able to perform Contract-based Testing, i.e.using contracts to automatically generate unit tests. The second contribution isabout test data generation. For booleans, integers and floating point numbers, auniform random generation is used. For arrays, a dedicated constraint solver has been implemented and used. For strings, a grammar description language along with an LL(⋆) compiler compiler and several algorithms for data generation are used. Finally, the object generation is supported. The third contribution defines contract coverage criteria. These latters provide test objectives. All these contributions are implemented and experimented into tools distributed to the PHP community
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Génération automatique des données cinétiques"

1

"Outils de génération automatique des modèles." In Conception de bases de données avec UML. Presses de l'Université du Québec, 2007. http://dx.doi.org/10.2307/j.ctv18pgv5t.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!