Academic literature on the topic 'Optimisation de l'échange de données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Optimisation de l'échange de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Optimisation de l'échange de données"

1

Chukwu, Uzoma. "Optimisation du rapport coûts-avantages dans la réalisation de dictionnaires terminologiques informatisés (DTI) sur PC." Meta 41, no. 3 (September 30, 2002): 317–27. http://dx.doi.org/10.7202/002241ar.

Full text
Abstract:
Résumé Les dictionnaires terminologiques informatisés d'aujourd'hui répondent à la plupart des exigences qu'on pouvait formuler vers la fin des années 1980: rapidité d'exécution, consultation multiniveau, etc. Ce progrès, dans certains cas, n'a pas été tant le fait d'une sophistication accrue de l'ingénierie linguistique que de l'avènement de Windows 3.x. Cependant, l'élaboration du dictionnaire informatisé continue de comporter une phase de collecte et de description de données et une phase de développement de moteur de pilotage et d'interrogation du dictionnaire. Cela a pour conséquence non seulement de détourner l'attention du terminologue du contenu de son dictionnaire au profit du support-véhicule mais aussi d'augmenter le coût des dictionnaires. Or, on sait que le moteur du système d'aide de Windows est assez puissant pour piloter n'importe quel dictionnaire terminologique. Il présente par ailleurs d'autres avantages qui le rendent idéal pour la tâche : il est d'une conception hypertexte et il est multi- et hypermedia. L'urgence de la recherche d'un format standard de codage facilitant l'échange de données terminologiques est aussi un argument de poids en faveur de l'adoption de ce système : quel que soit l'outil de création utilisé pour créer un fichier de WinHelp, celui-ci a toujours le format RTF sous-jacent. A priori, c'est un projet qui semble relever avant tout du génie logiciel mais il n'en est rien puisqu'il permet de poser des questions proprement terminologiques et termino-graphiques, notamment celles du statut et de la gestion de la synonymie en terminologie, de la lisibilité de la fiche terminologique, de l'élargissement de la fonction terminologique. Nous espérons enfin qu'il permettra de mettre en œuvre ce qu'on pourrait appeler le "test hypertexte de terminologisme" permettant la validation a posteriori du statut terminologique des unités proposées comme telles par le terminologue.
APA, Harvard, Vancouver, ISO, and other styles
2

Mitton, C., Y. C. MacNab, N. Smith, and L. Foster. "Données relatives aux blessures en Colombie‑Britannique : opinion des décideurs en ce qui concerne le transfert de connaissances." Maladies chroniques au Canada 29, no. 2 (2009): 78–88. http://dx.doi.org/10.24095/hpcdp.29.2.05f.

Full text
Abstract:
Les décideurs provinciaux et régionaux du domaine de la prévention des blessures de la Colombie‑Britannique ont été interrogés sur ce qu'ils croient être la meilleure manière de transférer ou de diffuser des données pertinentes. Ces décideurs (n = 13) ont mentionné que les données devraient appuyer le processus décisionnel en dressant un tableau complet de la situation. Ils croient que les renseignements sur les types et les taux de blessures devraient non seulement être liés aux déterminants et aux causes, mais aussi aux répercussions et aux conséquences. Selon eux, une telle chaîne de données est nécessaire pour planifier et évaluer les mesures de promotion de la santé. Les décideurs croient également que les fournisseurs de données doivent investir plus d'efforts pour améliorer leur capacité de collecte de données dans le but de permettre aux professionnels du domaine des blessures de mieux comprendre, d'interpréter et d'utiliser les données. Les commentaires recueillis, qui peuvent facilement être utilisés par d'autres administrations ou secteurs de politique, permettent de mieux saisir la valeur concrète du transfert et de l'échange de connaissances entre les chercheurs et les décideurs.
APA, Harvard, Vancouver, ISO, and other styles
3

Manens, JP. "L'échange de données médicotechniques en radiothérapie: les besoins, les méthodes et les limites actuelles." Cancer/Radiothérapie 1, no. 5 (November 1997): 524–31. http://dx.doi.org/10.1016/s1278-3218(97)89633-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Mornet, Élisabeth. "Les chanoines au Moyen Âge : les fondements de l'échange d'une banque internationale de données prosopographiques." Le médiéviste et l'ordinateur 1, no. 1 (1990): 89–92. http://dx.doi.org/10.3406/medio.1990.1242.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

El Khayat, Mustapha. "L'échange de données informatisées dans les activités d'exportation des pays du Sud : les passages portuaires." Tiers-Monde 35, no. 138 (1994): 359–74. http://dx.doi.org/10.3406/tiers.1994.4880.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Murnaghan, D., W. Morrison, EJ Griffith, BL Bell, LA Duffley, K. McGarry, and S. Manske. "Étude sur les systèmes d'échange des connaissances pour la santé des jeunes et la prévention des maladies chroniques : étude de cas menée dans trois provinces." Maladies chroniques et blessures au Canada 33, no. 4 (September 2013): 290–300. http://dx.doi.org/10.24095/hpcdp.33.4.07f.

Full text
Abstract:
Introduction Les équipes de recherche ont adopté un modèle d'étude de cas utilisant un cadre d'analyse commun dans le but d'étudier trois systèmes provinciaux (Île-du-Prince-Édouard, Nouveau-Brunswick et Manitoba) d'échange des connaissances. Ces trois systèmes visent à générer et utiliser des données probantes lors de l'élaboration des politiques, de la planification des programmes et des évaluations afin d'améliorer la santé des jeunes et de prévenir les maladies chroniques. Méthodologie Nous avons appliqué un modèle d'étude de cas pour examiner en profondeur les leçons apprises (c.-à-d. les principales conditions ou les principaux processus contribuant au développement de la capacité d'échange des connaissances) à l'aide d'une méthode de collecte de données multiples. Les activités de gestion, de synthèse et d'analyse des données ont été simultanées, itératives et continues. Les leçons apprises ont été classées en sept catégories. Résultats L'échange des connaissances est un processus complexe, qui exige des champions et des partenariats de collaboration, une adaptation aux divers intervenants et qui exige aussi que les régions soient préparées. Analyse Dans l'ensemble, les systèmes d'échange des connaissances peuvent accroître la capacité d'échange et d'utilisation des données probantes en allant au-delà de la collecte et de la transmission de données. Leurs aires d'influence sont l'établissement de nouveaux partenariats, des activités élargies d'échange des connaissances et le perfectionnement des approches axées sur les politiques et les pratiques liées à la santé des jeunes et à la prévention des maladies chroniques.
APA, Harvard, Vancouver, ISO, and other styles
7

-COLOMIES, Bernard. "Optimisation et rationalisation de la gestion des données d'essais." Revue de l'Electricité et de l'Electronique -, no. 06 (1999): 52. http://dx.doi.org/10.3845/ree.1999.061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Grenier, Olivier, and Adrien Barton. "Une ontologie dispositionnelle du risque." Lato Sensu: Revue de la Société de philosophie des sciences 8, no. 2 (April 6, 2021): 58–69. http://dx.doi.org/10.20416/lsrsps.v8i2.6.

Full text
Abstract:
Le risque est une entité omniprésente dans le domaine biomédical. Une caractérisation ontologique cohérente du risque est donc nécessaire pour faciliter l'échange et le rassemblement des données informatiques du domaine biomédical à des fins cliniques et des fins de recherche à l'aide d'outils nommés « ontologies appliquées ». Nous analysons certaines définitions du risque et en tirons deux traits généraux que le risque partage avec les dispositions. Nous proposons par conséquent une définition du risque comme une disposition dont la réalisation est indésirable pour un agent. Cette définition permet de concilier la dimension objective et la dimension subjective du risque : un risque existe indépendamment de notre connaissance de celui-ci, mais le statut de risque d'une disposition pour un agent dépend des préférences de cet agent.
APA, Harvard, Vancouver, ISO, and other styles
9

Frémal, Sébastien, Michel Bagein, and Pierre Manneback. "Optimisation des transferts de données inter-domaines au sein de Xen." Techniques et sciences informatiques 34, no. 1-2 (April 30, 2015): 31–52. http://dx.doi.org/10.3166/tsi.34.31-52.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Skaržauskas, Valentinas, Valentinas Jankovski, and Juozas Atkočiűnas. "Optimisation des structures métalliques élastoplastiques sous conditions de rigidité et de plasticité données." Revue européenne de génie civil 13, no. 10 (December 15, 2009): 1203–19. http://dx.doi.org/10.3166/ejece.13.1203-1219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Optimisation de l'échange de données"

1

Ouertani, Mohamed Zied. "DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00163113.

Full text
Abstract:
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.
C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.
Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
APA, Harvard, Vancouver, ISO, and other styles
2

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
3

De, Vlieger Paul. "Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00719688.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source.L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
4

El, Khalkhali Imad. "Système intégré pour la modélisation, l'échange et le partage des données de produits." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0052/these.pdf.

Full text
Abstract:
Dans le contexte d'Ingénierie Simultanée et d'Entreprise Virtuelle, un grand nombre d'informations sont utilisées et manipulées. L'exploitation de ces données pose des problèmes de communication tels que l'accès, l'échange et le partage d'informations entre des sites distants et entre des systèmes hétérogènes bien souvent incompatibles. Pour y répondre le projet STEP a été introduit. L'objectif de STEP est de définir une représentation non ambigue͏̈ des données de produit, interprétable par tout système informatique, et couvrant un très vaste domaine de connaissances. Cependant les acteurs travaillant simultanément au développement d'un produit sont nombreux et de spécialités très différentes : Concepteurs, Fabricants, Clients, Marketing, etc. Les points de vue qu'ils portent sur le même produit sont également très différents. Malheureusement les modèles STEP ne permettent pas de prendre en compte cette notion de point de vue. Ainsi, le travail présenté dans cette thèse a pour objectif de mettre en place un cadre méthodologique pour la représentation des points de vue des acteurs de la conception et de la fabrication à différents niveaux d'abstraction. Une infrastructure informatique pour la modélisation, l'échange et le partage des données de produit est également proposée
In Virtual Enterprise and Concurrent Engineering environments, a wide variety of information is used. A crucial issue is the data communication and exchange between heterogeneous systems and distant sites. To solve this problem, the STEP project was introduced. The STandard for the Exchange of Product model data STEP is an evolving international standard for the representation and exchange of product data. The objective of STEP is to provide the unambiguous computer-interpretable representation of product data in all phases of the product’s lifecycle. In a collaborative product development different types of experts in different disciplines are concerned by the product (Design, Manufacturing, Marketing, Customers,. . . ). Each of these experts has his own viewpoint about the same product. STEP Models are unable to represent the expert’s viewpoints. The objective of our research work is to propose a methodology for representation and integration of different expert’s viewpoints in design and manufacturing phases. An Information Infrastructure for modelling, exchanging and sharing product data models is also proposed
APA, Harvard, Vancouver, ISO, and other styles
5

Stoeklé, Henri-Corto. "Médecine personnalisée et bioéthique : enjeux éthiques dans l'échange et le partage des données génétiques." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB175.

Full text
Abstract:
Du point de vue de la médecine et des sciences du vivant, la médecine personnalisée (MP) est trop souvent réduite à cette idée d'adapter un diagnostic, une prédisposition ou un traitement, en fonction des caractéristiques génétiques d'un individu. Cependant, du point de vue des sciences humaines et sociales, la MP peut être considérée comme un phénomène social complexe en raison d'une existence propre et d'une composition sui generis, de l'effet de contraintes qu'il exerce sur les individus, d'un grand nombre d'interactions et d'interférences entre un grand nombre d'unités, mues d'incertitudes, d'indéterminations, de hasard, d'ordre et de désordre. Selon nous, cet autre point de vue permet de mieux étudier la MP par un travail de recherche en bioéthique, mais avec un nouvel objectif, opposé mais complémentaire de celui du droit et de la philosophie morale, et une nouvelle méthode. En effet, l'objectif de la bioéthique devrait être un travail de recherche prospectif questionnant les normes établies faisant face à un phénomène social complexe émergeant, non l'inverse. Ceci permet de déterminer les bénéfices pour la société, et ses individus, à laisser le phénomène émerger en son sein, et d'étudier des solutions possibles et probables et non des certitudes, pour le présent et le futur. De cette façon, les bénéfices identifiés pourront se produire. Mais cet objectif nécessite une méthode permettant d'étudier le fonctionnement du phénomène dans son ensemble, à l'échelle de la société, sans le réduire à l'a priori de certains individus, en privilégiant ses interactions à ses éléments : il s'agit de la modélisation théorique systémique inductive qualitative. L'idée clé est d'être dans une logique de découverte, non de preuve. Cette nouvelle approche nous a tout d'abord permis de comprendre que la MP ne devrait plus être nommée «personnalisée », ni même « génomique » ou de « précision», mais «médecine des données» (MD) étant donné le caractère centrale de la « donnée » (data) pour son fonctionnement. En effet, les finalités du phénomène semblent être, à partir d'une masse importante de données (génétiques), déduire (Datamining) ou induire (Big Data) différentes informations valorisables au niveau du soin, de la recherche et de l'industrie. Le moyen pour ça semble être le développement d'un réseau d'échange ou de partage d'échantillons biologiques, de données génétiques et d'informations entre patients, cliniciens, chercheurs et industriels, grâce à des voies de communication dématérialisées, qui centralisent le stockage des échantillons biologiques et des données génétiques, et une partie du traitement et de l'analyse, au niveau de centres de soin et de recherche académiques (France), et/ou d'entreprises privées (États-Unis), avec ou sans l'intermédiaire du clinicien. Les enjeux éthiques majeurs semblent donc résider dans les moyens et les modalités d'accès, de stockage et d'usage des données génétiques, car delà découle pour une organisation globalement similaire du phénomène un fonctionnement radicalement (social/libéral) opposé qui questionne certaines normes morales et juridiques. Au final, notre méthode nous a permis d'apporter différents arguments en faveur du consentement éclairé exprès électronique (e-CE) dynamique comme solution et moyen permettant un développement de la MD plus optimal concernant l'accès, le stockage et l'usage des données génétiques que ce soit pour le partage (France) ou l'échange (États-Unis) des données génétiques
In the context of medicine and life sciences, personalized medicine (PM) is all too often reduced to the idea of adapting a diagnosis, predisposition or treatment according to the genetic characteristics of an individual. However, in human and social sciences, PM may be considered as a complex social phenomenon, due to the proper existence and unique composition of the constraints it imposes on individuals, the large number of interactions and interferences between a large number of units, rich in uncertainties, indeterminations, chance, order and disorder. We feel that this alternative point of view makes it possible to study PM more effectively by bioethics research approaches, but with a new objective, contrasting but complementary to those of law and moral philosophy, and a new method. Indeed, the objective of bioethics should be prospective studies questioning established norms in the face of emerging complex social phenomena, rather than the other way round. This makes it possible to determine the benefits, to society and its individuals, of allowing the phenomenon to emerge fully, and to study possible and probable solutions, rather than certainties, for the present and the future. This may allow the identified benefits to occur. However, this objective requires a method for studying the functioning of the phenomenon as a whole, at the scale of society, without a priori restriction to certain individuals, thereby favoring its interactions over its elements. Qualitative inductive systemic theoretical modeling is just such an approach. The key idea here is a rationale of discovery, rather than of proof. This new approach allowed us to understand that PM should not be called "personalized", or even "genomic" or "precision" medicine, and that the term "data medicine" (DM) should be favored, given the key role of data in its functioning. Indeed, the goal of this phenomenon seems to be to use a large mass of data (genetics) to deduce (data mining) or induce (big data) different types of information useful for medical care, research and industry. The means of achieving this end seems to be the development of a network for exchanging or sharing biological samples, genetic data and information between patients, clinicians, researchers and industrial partners, through electronic communication, with the central storage of biological samples and genetic data, and with treatment and analysis carried out at academic care and research centers (France) or in private companies (United States), with or without the involvement of a clinician. The major ethical issues thus seem to relate to the means and mode of access to, and the storage and use of genetic data, which may lead to a radically opposed (social/liberal) organizations and functioning, calling into question certain moral and legal standards. Finally, our method provided several arguments in favor of the use of dynamic electronic informed consent (e-CE) as a solution optimizing the development of PM in terms of genetic data access, storage and use, for the sharing (France) or exchange (United States) of genetic data
APA, Harvard, Vancouver, ISO, and other styles
6

Azizi, Leila. "Pratique et problèmes légaux de l'échange de données informatisées, le cas du crédit documentaire dématérialisé." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0020/MQ47163.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Darlay, Julien. "Analyse combinatoire de données : structures et optimisation." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00683651.

Full text
Abstract:
Cette thèse porte sur des problèmes d'exploration de données avec le point de vue de la recherche opérationnelle. L'exploration de données consiste en l'apprentissage de nouvelles connaissances à partir d'observations contenues dans une base de données. La nature des problèmes rencontrés dans ce domaine est proche de celle des problèmes de la recherche opérationnelle: grandes instances, objectifs complexes et difficulté algorithmique. L'exploration de données peut aussi se modéliser comme un problème d'optimisation avec un objectif partiellement connu. Cette thèse se divise en deux parties. La première est une introduction à l'exploration de données. Elle présente l'Analyse Combinatoire de Données (ACD), une méthode d'exploration de données issue de l'optimisation discrète. Cette méthode est appliquée à des données médicales originales et une extension aux problèmes d'analyse de temps de survie est proposée. L'analyse de temps de survie consiste à modéliser le temps avant un événement (typiquement un décès ou une rechute). Les heuristiques proposées utilisent des techniques classiques de recherche opérationnelle telles que la programmation linéaire en nombres entiers, la décomposition de problème, des algorithmes gloutons. La seconde partie est plus théorique et s'intéresse à deux problèmes combinatoires rencontrés dans le domaine de l'exploration de données. Le premier est un problème de partitionnement de graphes en sous-graphes denses pour l'apprentissage non supervisé. Nous montrons la complexité algorithmique de ce problème et nous proposons un algorithme polynomial basé sur la programmation dynamique lorsque le graphe est un arbre. Cet algorithme repose sur des résultats de la théorie des couplages. Le second problème est une généralisation des problèmes de couverture par les tests pour la sélection d'attributs. Les lignes d'une matrice sont coloriées en deux couleurs. L'objectif est de trouver un sous-ensemble minimum de colonnes tel que toute paire de lignes avec des couleurs différentes restent distinctes lorsque la matrice est restreinte au sous-ensemble de colonnes. Nous montrons des résultats de complexité ainsi que des bornes serrées sur la taille des solutions optimales pour différentes structures de matrices.
APA, Harvard, Vancouver, ISO, and other styles
8

Gamoudi, Oussama. "Optimisation adaptative appliquée au préchargement de données." Paris 6, 2012. http://www.theses.fr/2012PA066192.

Full text
Abstract:
Les mémoires caches ont été proposées pour réduire le temps d'accès moyen aux données et aux instructions. Ces petites mémoires permettent de réduire significativement la latence moyenne des accès mémoire si la majorité des données accédées sont conservées dans le cache. Toutefois, les caches ne permettent pas d'éviter les défauts de cache dus aux premiers accès aux blocs mémoire. Le préchargement de données est une solution qui a été proposée pour optimiser la performance du cache en anticipant la demande à la mémoire des données nécessaires au processeur. L'efficacité du préchargement repose sur sa capacité à détecter les données à précharger et surtout à les précharger au bon moment. Un préchargement réalisé trop tôt peut être évincé avant son référencement ce qui risque de polluer le cache et d'occuper la bande passante, tandis qu'un préchargement lancé trop tard masque seulement une partie de la latence mémoire. De nombreuses techniques de préchargement logicielles et matérielles ont été implémentées dans les architectures des processeurs contemporains. Le préchargement est bénéfique pour certains programmes lorsque les données préchargées sont référencées par le processeur. Toutefois, le préchargement peut être contre-productif pour d'autres programmes en polluant le cache, ou en mobilisant la bande passante au détriment des accès mémoires réguliers. De plus, l'utilité du préchargement varie tout au long de l'exécution d'une application, à cause des phases existantes dans un programme et du comportement des applications exécutées. Il est donc important de contrôler les requêtes de préchargement afin de tirer profit de ce dernier tout en réduisant son effet négatif. Pour adapter dynamiquement le préchargement de données, on peut chercher à capturer à l'exécution les phases d'un programme, ainsi que les interactions avec les programmes exécutés simultanément. Certains événements dynamiques (connus à l'exécution) tels que le nombre de défauts de cache L1/L2, le nombre de branchements exécutés, etc. Peuvent caractériser le comportement dynamique des applications prises individuellement ou exécutées simultanément. Les architectures actuelles incluent des compteurs matériels permettant de comptabiliser le nombre d'occurrences de certains événements au cours de l'exécution. Ces compteurs permettent d'obtenir des informations sur le comportement dynamique des applications. Dans ce travail, nous avons montré qu'il existe des événements capables de discriminer les intervalles d'exécution pendant lesquels le préchargement est bénéfique de ceux où il ne l'est pas. Nous avons montré également que l'espace des événements peut être partitionné en régions telles que plus de 90% des vecteurs d'événements de ces régions aboutissent au même effet de préchargement. Nous avons proposé ensuite, une nouvelle approche permettant d'exploiter la corrélation entre les événements d'exécution et l'efficacité de préchargement afin de filtrer à l'exécution les requêtes de préchargement selon leurs efficacités: celles qui sont jugées efficaces sont lancées et celles qui s'avèrent inutiles sont invalidées. Enfin, nous avons présenté une évaluation du filtre proposé sur différente architectures (monoprocesseur exécutant un seul programme, SMT, et multiprocesseurs) afin de mettre en évidence l'impact de la variation de l'environnement d'exécution et l'interaction des programmes exécutés simultanément sur l'utilité du préchargement. Le filtre proposé a montré qu'il est capable de tirer profit du préchargement tout en réduisant son effet négatif
Data prefetching is an effective way to bridge the increasing performance gap between processor and memory. Prefetching can improve performance but it has some side effects which may lead to no performance improvement while increasing memory pressure or to performance degradation. Adaptive prefetching aims at reducing negative effects of prefetching while keeping its advantages. This paper proposes an adaptive prefetching method based on runtime activity, which corresponds to the processor and memory activities retrieved by hardware counters, to predict the prefetch efficiency. Our approach highlights and relies on the correlation between the prefetch effects and runtime activity. Our method learns all along the execution this correlation to predict the prefetch efficiency in order to filter out predicted inefficient prefetches. Experimental results show that the proposed filter is able to cancel thenegative impact of prefetching when it is unprofitable while keeping the performance improvement due to prefetching when it is beneficial. Our filter works similarly well when several threads are running simultane-ously which shows that runtime activity enables an efficient adaptation of prefetch by providing information on running-applications behaviors and interactions
APA, Harvard, Vancouver, ISO, and other styles
9

Travers, Nicolas. "Optimisation Extensible dans un Mediateur de Données Semi-Structurées." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00131338.

Full text
Abstract:
Cette thèse propose un cadre d'évaluation pour des requêtes XQuery dans un
contexte de médiation de données XML. Un médiateur doit fédérer des sources de données
distribuées et hétérogènes. A cette fin, un modèle de représentation des requêtes est néces-
saire. Ce modèle doit intégrer les problèmes de médiation et permettre de définir un cadre
d'optimisation pour améliorer les performances. Le modèle des motifs d'arbre est souvent
utilisé pour représenter les requêtes XQuery, mais il ne reconnaît pas toutes les spécifica-
tions du langage. La complexité du langage XQuery fait qu'aucun modèle de représentation
complet n'a été proposé pour reconna^³tre toutes les spécifications. Ainsi, nous proposons un
nouveau modèle de représentation pour toutes les requêtes XQuery non typées que nous appe-
lons TGV. Avant de modéliser une requête, une étape de canonisation permet de produire une
forme canonique pour ces requêtes, facilitant l'étape de traduction vers le modèle TGV. Ce
modèle prend en compte le contexte de médiation et facilite l'étape d'optimisation. Les TGV
définis sous forme de Types Abstraits de Données facilitent l'intégration du modèle dans tout
système en fonction du modèle de données. De plus, une algèbre d'évaluation est définie pour
les TGV. Grâce µa l'intégration d'annotations et d'un cadre pour règles de transformation, un
optimiseur extensible manipule les TGV. Celui-ci repose sur des règles transformations, un
modèle de coût générique et une stratégie de recherche. Les TGV et l'optimiseur extensible
sont intégrés dans le médiateur XLive, développé au laboratoire PRiSM.
APA, Harvard, Vancouver, ISO, and other styles
10

Amstel, Duco van. "Optimisation de la localité des données sur architectures manycœurs." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM019/document.

Full text
Abstract:
L'évolution continue des architectures des processeurs a été un moteur important de la recherche en compilation. Une tendance dans cette évolution qui existe depuis l'avènement des ordinateurs modernes est le rapport grandissant entre la puissance de calcul disponible (IPS, FLOPS, ...) et la bande-passante correspondante qui est disponible entre les différents niveaux de la hiérarchie mémoire (registres, cache, mémoire vive). En conséquence la réduction du nombre de communications mémoire requis par un code donnée a constitué un sujet de recherche important. Un principe de base en la matière est l'amélioration de la localité temporelle des données: regrouper dans le temps l'ensemble des accès à une donnée précise pour qu'elle ne soit requise que pendant peu de temps et pour qu'elle puisse ensuite être transféré vers de la mémoire lointaine (mémoire vive) sans communications supplémentaires.Une toute autre évolution architecturale a été l'arrivée de l'ère des multicoeurs et au cours des dernières années les premières générations de processeurs manycoeurs. Ces architectures ont considérablement accru la quantité de parallélisme à la disposition des programmes et algorithmes mais ceci est à nouveau limité par la bande-passante disponible pour les communications entres coeurs. Ceci a amené dans le monde de la compilation et des techniques d'optimisation des problèmes qui étaient jusqu'à là uniquement connus en calcul distribué.Dans ce texte nous présentons les premiers travaux sur une nouvelle technique d'optimisation, le pavage généralisé qui a l'avantage d'utiliser un modèle abstrait pour la réutilisation des données et d'être en même temps utilisable dans un grand nombre de contextes. Cette technique trouve son origine dans le pavage de boucles, une techniques déjà bien connue et qui a été utilisée avec succès pour l'amélioration de la localité des données dans les boucles imbriquées que ce soit pour les registres ou pour le cache. Cette nouvelle variante du pavage suit une vision beaucoup plus large et ne se limite pas au cas des boucles imbriquées. Elle se base sur une nouvelle représentation, le graphe d'utilisation mémoire, qui est étroitement lié à un nouveau modèle de besoins en termes de mémoire et de communications et qui s'applique à toute forme de code exécuté itérativement. Le pavage généralisé exprime la localité des données comme un problème d'optimisation pour lequel plusieurs solutions sont proposées. L'abstraction faite par le graphe d'utilisation mémoire permet la résolution du problème d'optimisation dans différents contextes. Pour l'évaluation expérimentale nous montrons comment utiliser cette nouvelle technique dans le cadre des boucles, imbriquées ou non, ainsi que dans le cas des programmes exprimés dans un langage à flot-de-données. En anticipant le fait d'utiliser le pavage généralisé pour la distribution des calculs entre les cœurs d'une architecture manycoeurs nous donnons aussi des éléments de réponse pour modéliser les communications et leurs caractéristiques sur ce genre d'architectures. En guise de point final, et pour montrer l'étendue de l'expressivité du graphe d'utilisation mémoire et le modèle de besoins en mémoire et communications sous-jacent, nous aborderons le sujet du débogage de performances et l'analyse des traces d'exécution. Notre but est de fournir un retour sur le potentiel d'amélioration en termes de localité des données du code évalué. Ce genre de traces peut contenir des informations au sujet des communications mémoire durant l'exécution et a de grandes similitudes avec le problème d'optimisation précédemment étudié. Ceci nous amène à une brève introduction dans le monde de l'algorithmique des graphes dirigés et la mise-au-point de quelques nouvelles heuristiques pour le problème connu de joignabilité mais aussi pour celui bien moins étudié du partitionnement convexe
The continuous evolution of computer architectures has been an important driver of research in code optimization and compiler technologies. A trend in this evolution that can be traced back over decades is the growing ratio between the available computational power (IPS, FLOPS, ...) and the corresponding bandwidth between the various levels of the memory hierarchy (registers, cache, DRAM). As a result the reduction of the amount of memory communications that a given code requires has been an important topic in compiler research. A basic principle for such optimizations is the improvement of temporal data locality: grouping all references to a single data-point as close together as possible so that it is only required for a short duration and can be quickly moved to distant memory (DRAM) without any further memory communications.Yet another architectural evolution has been the advent of the multicore era and in the most recent years the first generation of manycore designs. These architectures have considerably raised the bar of the amount of parallelism that is available to programs and algorithms but this is again limited by the available bandwidth for communications between the cores. This brings some issues thatpreviously were the sole preoccupation of distributed computing to the world of compiling and code optimization techniques.In this document we present a first dive into a new optimization technique which has the promise of offering both a high-level model for data reuses and a large field of potential applications, a technique which we refer to as generalized tiling. It finds its source in the already well-known loop tiling technique which has been applied with success to improve data locality for both register and cache-memory in the case of nested loops. This new "flavor" of tiling has a much broader perspective and is not limited to the case of nested loops. It is build on a new representation, the memory-use graph, which is tightly linked to a new model for both memory usage and communication requirements and which can be used for all forms of iterate code.Generalized tiling expresses data locality as an optimization problem for which multiple solutions are proposed. With the abstraction introduced by the memory-use graph it is possible to solve this optimization problem in different environments. For experimental evaluations we show how this new technique can be applied in the contexts of loops, nested or not, as well as for computer programs expressed within a dataflow language. With the anticipation of using generalized tiling also to distributed computations over the cores of a manycore architecture we also provide some insight into the methods that can be used to model communications and their characteristics on such architectures.As a final point, and in order to show the full expressiveness of the memory-use graph and even more the underlying memory usage and communication model, we turn towards the topic of performance debugging and the analysis of execution traces. Our goal is to provide feedback on the evaluated code and its potential for further improvement of data locality. Such traces may contain information about memory communications during an execution and show strong similarities with the previously studied optimization problem. This brings us to a short introduction to the algorithmics of directed graphs and the formulation of some new heuristics for the well-studied topic of reachability and the much less known problem of convex partitioning
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Optimisation de l'échange de données"

1

Genetic algorithms + data structures = evolution programs. 3rd ed. Berlin: Springer-Verlag, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Genetic algorithms + data structures = evolution programs. 2nd ed. Berlin: Springer-Verlag, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Genetic algorithms + data structures = evolution programs. Berlin: Springer-Verlag, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

sais-je?, Que, and Claude Charmot. L'échange de données informatisé (EDI). Presses Universitaires de France - PUF, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Emmelhainz, Margaret A. EDI, l'échange de données informatisées. Dunod, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Chapuis, Roger. Les bases de données Oracle 8i : Développement, administration et optimisation. Dunod, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Michalewicz, Zbigniew. Genetic Algorithms + Data Structures = Evolution Programs. Springer, 2014.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Michalewicz, Zbigniew. Genetic Algorithms + Data Structures = Evolution Programs. Springer, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Onvural, Raif. Data Communications and their Performance (IFIP International Federation for Information Processing). Springer, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Optimisation de l'échange de données"

1

"V.2 Optimisation à données affines (Programmation linéaire)." In Optimisation et analyse convexe, 168–71. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0700-0-016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"V.2 Optimisation à données affines (Programmation linéaire)." In Optimisation et analyse convexe, 168–71. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0700-0.c016.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Optimisation de l'échange de données"

1

KERGADALLAN, Xavier, Sébastien DUPRAY, and Nathalie METZLER. "Optimisation du système public d’information sur les données de houle côtières, CANDHIS." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2020. http://dx.doi.org/10.5150/jngcgc.2020.009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Maron, Philippe, and Didier Rihouey. "Optimisation de données bathymétriques à l'aide de Surfer - Application A l'historique des plages d'Anglet." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2002. http://dx.doi.org/10.5150/jngcgc.2002.037-m.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Parisot, Jean-Paul, Sylvain Capo, Stéphane Bujan, Nadia Senechal, and Jean Brillet. "Traitement des données topographiques et bathymétriques acquises sur le littoral aquitain : optimisation des mesures effectuées en quad et au théodolite." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2008. http://dx.doi.org/10.5150/jngcgc.2008.057-p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hascoet, E., G. Valette, G. Le Toux, and S. Boisramé. "Proposition d’un protocole de prise en charge implanto-portée de patients traités en oncologie tête et cou suite à une étude rétrospective au CHRU de Brest." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602009.

Full text
Abstract:
L’organisation de la réhabilitation maxillo-faciale implanto-portée en oncologie tête et cou reste sujet à débat. Il n’existe pas de consensus quant au moment de la réhabilitation implantaire (pendant ou à distance de l’exérèse) ou quant aux prérequis anatomiques qui garantissent son succès. Le but de cette étude est de mettre en place un protocole de prise en charge implanto-portée de patients ayant été traités en oncologie tête et cou. Il s’agit d’une étude rétrospective entre 2013 et 2017, analysant la réhabilitation implantoportée de neuf patients traités pour un cancer tête et cou par chirurgie et radiothérapie (groupe 1 : 5 patients) ou par chirurgie seule (groupe 2 : 4 patients). Les critères étudiés étaient les données personnelles des patients, leurs antécédents oncologiques, les bilans oraux pré-opératoires effectués, les thérapeutiques utilisées ainsi que le suivi. Tous les patients ont été traités pour des carcinomes épidermödes majoritairement situés au niveau du plancher buccal. Ils présentaient tous une limitation de la mobilité linguale, une absence de vestibule et des tissus crestaux mobiles. Les projets prothétiques prévoyaient de réaliser pour sept patients une prothèse amovible complète mandibulaire stabilisée sur implants et pour deux patients des couronnes unitaires sur implant. Les patients ayant recu un lambeau libre de péroné latéral ont bénéficié d’une greffe d’apposition associée à un lambeau de FAMM. Les deux greffes ont permises la pose des implants. Sur neuf patients, cinq ont bénéficié d’une libération linguale, six ont recu une vestibuloplastie et huit ont eu une greffe épithélio-conjonctive péri-implantaire. Les implants ont été posés sous anesthésie générale avec un guide chirurgical pointeur. Il s’agissait d’implants Tissu Level RN SLA Roxolid (Straumann, Basel, Suisse). Pour les patients du groupe 2, la pose des implants a eu lieu en même temps que la vestibuloplastie. Lors de cette étude quatre patients étaient réhabilités par une prothèse sur implants. Le groupe 2 n’a pas présenté de complications. Deux patients du groupe 1 ont nécessité plusieurs libérations linguales et deux implants ne se sont pas ostéointégrés dans ce groupe. Lors de chirurgies en deux temps, des greffes épithélio-conjonctives crestales ont dû être réalisées pendant la vestibuloplastie puis pendant la pose implantaire. Deux greffes osseuses ont été réalisées chez deux patients ayant été irradiés bien que cela soit contre indiqué dans la littérature (Raoul 2009). Une greffe osseuse d’apposition peut donc être une solution viable chez ces patients afin de limiter le bras de levier prothétique. Cette étude a permis de mettre en exergue : l’importance de prévoir en amont la réhabilitation implantoportée lors de la reconstruction pour une optimisation du positionnement du greffon osseux et l’intérêt d’effectuer dans le même temps vestibuloplastie, pose des implants et aménagement péri-implantaire pour la pérennité implantaire. Cette étude rétrospective a permis de proposer un protocole de prise en charge standardisé de la réhabilitation implanto-portée de patients traités pour un cancer tête et cou.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography