Academic literature on the topic 'Base de données distribuée'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Base de données distribuée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Base de données distribuée"

1

Faye, Bernard, and Mohammed Bengoumi. "Données nouvelles sur le métabolisme des principaux éléments-traces chez le dromadaire." Revue d’élevage et de médecine vétérinaire des pays tropicaux 50, no. 1 (January 1, 1997): 47–53. http://dx.doi.org/10.19182/remvt.9601.

Full text
Abstract:
Dans un essai effectué sur cinq dromadaires recevant une ration de base couvrant leurs besoins d'entretien, une complémentation minérale à base de sulfates de cuivre, zinc, manganèse et cobalt, d'iodure et de sélénite a été distribuée pendant trois mois, après trois semaines d'adaptation. Après arrêt de la complémentation, les animaux ont été suivis pendant trois autres mois. Des prélèvements de sang, de fèces et de foie par biopsie ont été régulièrement effectués pour doser le cuivre et le zinc. Le fer et le manganèse ont été analysés dans les fèces et les rations seulement. Au cours des trois phases de l'essai, la cuprémie moyenne était de 44, 63 et 57 g/100 ml et la zincémie de 35, 36 et 42 g/100 ml. La complémentation minérale a donc augmenté les concentrations en cuivre au niveau plasmatique et hépatique, mais n'a pas modifié les teneurs en zinc. La concentration fécale de cuivre, zinc et manganèse a augmenté pendant la phase de complémentation, mais le taux d'absorption a globalement diminué de 15 à 20 %, sauf celui du zinc qui est resté stable. La concentration du fer fécal a augmenté pendant la phase de complémentation en dépit de l'absence d'apport ferrique, indiquant une interaction négative entre minéraux mineurs et fer. L'ensemble des résultats permet de considérer les besoins du dromadaire en éléments-traces comme étant plus faibles que pour les autres ruminants.
APA, Harvard, Vancouver, ISO, and other styles
2

Diallo, Abdourahmane. "Position et location en peul, l’usage de ka au Fouta Djallon." Journal of African Languages and Linguistics 41, no. 1 (August 4, 2020): 3–27. http://dx.doi.org/10.1515/jall-2020-2002.

Full text
Abstract:
RésuméLe but de cette contribution est d’analyser les particules locatives en peul, plus particulièrement l’emploi de ka dans le dialecte du Fouta Djallon. L’étude a été menée majoritairement sur la base des données empiriques auxquelles s’ajoutent quelques données secondaires issues de sources publiées. Les données primaires ont été collectées entre mai et décembre 2017 en Guinée à partir de la variété du Fouta Djallon, qui est parlée en Guinée, en Sierra Leone, en Guinée-Bissau et dans la partie sud de la Gambie. L’analyse a conduit aux constats suivants : (i) il existe un répertoire varié de marqueurs pour exprimer la localisation : ce sont entre autres, ka, ɗo, to, ko, e et ga; (ii) ceux-ci sont distribués différemment dans les divers dialectes. Fouta Toro et Macina partagent certaines caractéristiques communes en utilisant ɗo, ga et to, alors que dans le dialecte du Fouta Djallon, où se complètent les particules locatives ka et e, émerge ko dans les agglomérations urbaines, ce qui vient enrichir davantage le répertoire des particules locatives de ce dialecte.
APA, Harvard, Vancouver, ISO, and other styles
3

Fortin, J. P., R. Moussa, C. Bocquillon, and J. P. Villeneuve. "Hydrotel, un modèle hydrologique distribué pouvant bénéficier des données fournies par la télédétection et les systèmes d'information géographique." Revue des sciences de l'eau 8, no. 1 (April 12, 2005): 97–124. http://dx.doi.org/10.7202/705215ar.

Full text
Abstract:
Les processus hydrologiques variant dans l'espace et dans le temps en fonction de la variabilité spatio-temporelle des entrées météorologiques et de l'occupation du sol ainsi que de la variabilité spatiale de la topographie et de la nature du terrain, un modèle conçu pour bénéficier des données provenant de la télédétection et des SIG a été développé. Les principaux objectifs poursuivis étaient: l'application au plus grand nombre de bassins possible, une sélection d'algorithmes permettant de tenir compte des données disponibles, un minimum d'étalonnage, la facilité de transfert d'un bassin à l'autre, la programmation des algorithmes sur micro-ordinateur avec une interface très conviviale. La structure d'écoulement à l'intérieur d'un bassin versant est obtenue de manière informatisée à partir d'une discrétisation des altitudes rencontrées dans la zone d'intérêt, en mailles carrées de dimensions données, d'où l'on tire les pentes et les orientations de chaque maille, puis le bassin versant en amont de la maille identifiée comme exutoire, le réseau hydrographique, les sous-bassins versants et, finalement, les unités hydrologiques relativement homogènes (UHRH), définies sur la base de ces sous-bassins, en les regroupant ou les divisant au besoin. Un logiciel spécifique pour ce faire a été développé: PHYSITEL. Selon la conception très modulaire adoptée pour HYDROTEL, chaque sous-modèle offre généralement plus d'une option de simulation, afin de tenir compte des données disponibles sur le bassin versant traité. Les simulations peuvent être réalisées en considérant comme unité de simulation du bilan hydrologique vertical les mailles originales constituant le bassin ou les UHRH. Des exemples de simulation des débits à l'aide du modèle HYDROTEL sur divers bassins versants situés au Canada (Québec, Ontario, Colombie-Britannique) et dans le sud de la France sont présentés. Ces simulations indiquent que les différents algorithmes du modèle réagissent bien et qu'il est possible de considérer son application sur des bassins très divers situés sous des conditions climatiques variées. Des tests plus poussés sont en cours afin de mieux cerner la sensibilité des divers algorithmes aux données d'entrée ainsi que leur interchangeabilité.
APA, Harvard, Vancouver, ISO, and other styles
4

Pernice, Stéphanie, and Marie Marquis. "Qualité ou quantité : des parents québécois lèvent le voile sur leurs stratégies déployées pour favoriser le « bien manger » chez leurs enfants." Enfances, Familles, Générations, no. 21 (July 22, 2014): 176–96. http://dx.doi.org/10.7202/1025965ar.

Full text
Abstract:
Les attitudes et comportements alimentaires développés pendant la petite enfance influencent grandement la relation future du mangeur à l’égard des aliments. Le parent s’avère en ce sens des plus déterminants. Cette étude vise à connaître les pratiques observées et les attitudes adoptées par les parents québécois d’enfants d’âge préscolaire pour favoriser le « bien manger ». La collecte de données a été effectuée à l’aide de cartes postales distribuées dans les centres de la petite enfance du Québec pour ensuite être remises aux parents. L’analyse des réponses à la question ouverte figurant sur la carte postale a été réalisée sur la base du modèle des prises alimentaires de Jean-Pierre Poulain. 1257 cartes postales ont été retenues aux fins d’analyses. Les données recueillies permettent dans un premier temps de connaître la perception des parents quant à la notion de « manger bien ». Les notions de qualité et de quantité, diamétralement opposées, se démarquent. Cette étude permet de constater la variété des stratégies employées par les parents québécois au moment du repas. D’une grande pertinence pour la santé publique, ces données permettront de cibler les messages clés à promouvoir auprès de ces acteurs d’influence dans le développement des habitudes alimentaires des tout-petits.
APA, Harvard, Vancouver, ISO, and other styles
5

Lundsgaarde, Erik, Christian Breunig, and Aseem Prakash. "Instrumental Philanthropy: Trade and the Allocation of Foreign Aid." Canadian Journal of Political Science 43, no. 3 (September 2010): 733–61. http://dx.doi.org/10.1017/s0008423910000661.

Full text
Abstract:
Abstract.“Trade, not aid” has long been a catchphrase in international development discourse. This paper evaluates whether the “trade, not aid” logic has driven bilateral aid allocations in practice. Using a dataset that covers development assistance from 22 donor countries to 187 aid recipients from 1980 to 2002, we find that donor countries have dispersed bilateral aid in ways that reinforce their extant bilateral commercial ties with recipient countries. Instead of “trade, not aid,” bilateral aid disbursement has followed the logic of “aid following trade.” The policy implication is that bilateral aid allocation patterns have reinforced the disadvantages of poor countries that have a limited ability to participate in international trade due to a variety of factors such as geography and a lack of tradable resources.Résumé.«Le commerce et non l'aide» est un slogan qui continue d'occuper une place importante dans le débat sur le développement international. L'article qui suit vise à évaluer la mise en pratique de ce principe dans les allocations de l'aide bilatérale. S'appuyant sur une base de données recouvrant l'aide distribuée par 22 pays donateurs à 187 pays récipiendaires entre 1980 et 2002, notre analyse révèle que l'aide a été allouée en fonction des liens commerciaux bilatéraux existants et les a renforcés. C'est donc le principe de «l'aide après le commerce» qui a prévalu. Les allocations d'aide bilatérale ont ainsi aggravé les désavantages des pays pauvres dont la capacité à bénéficier du commerce international est limitée en raison de divers facteurs, dont la situation géographique et le manque de ressources marchandes.
APA, Harvard, Vancouver, ISO, and other styles
6

SEPCHAT, B., P. D'HOUR, and J. AGABRIEL. "Production laitière des vaches allaitantes : caractérisation et étude des principaux facteurs de variation." INRA Productions Animales 30, no. 2 (June 19, 2018): 139–52. http://dx.doi.org/10.20870/productions-animales.2017.30.2.2240.

Full text
Abstract:
Les mesures de Production Laitière (PL) des vaches allaitantes consistent à évaluer la quantité de lait bu par le veau grâce à deux pesées répétées avant et après tétée, mais elles restent difficilement réalisables et limitées aux unités expérimentales. Une base de données expérimentales regroupant 12 000 mesures de lait bu, réalisées depuis 15 ans dans les troupeaux charolais, limousins et salers de l’Herbipôle (plus de 1 000 vaches contrôlées et 7 mesures au moins par vache et par lactation) a été constituée pour actualiser nos connaissances quantitatives sur la production de ces vaches et en étudier les principaux facteurs de variation. La race influence la production laitière (1 600 ± 313 kg lait/lactation en race limousine, 1840 ± 355 kg en race charolaise et 2250 ± 470 kg en race salers) et on observe toujours environ 11% d’écart entre primipares et multipares soit environ 1 kg/j de plus pour les multipares. Dans un système « classique » de production de broutards, avec vêlage d’hiver et conduite semi-extensive au pâturage, deux pics de production laitière sont observés. Le premier a lieu un mois après le vêlage et le second, plus important, peu après la mise à l’herbe. Ces pics traduisent une augmentation de production + 0,8 à + 2,3 kg selon la race, la parité et la période de vêlage. L’analyse de la base de données a permis de quantifier la persistance de la lactation et sa variabilité (diminution de la production de lait de 17 à 27 g de lait bu par jour). La persistance est meilleure pour les vaches faiblement productrices (- 0,5 kg contre - 0,9 kg/j de lait mesuré sur un mois). Une meilleure production laitière amène un meilleur gain de poids des veaux. Au cours de la lactation entière, le surplus de gain de poids moyen quotidien des veaux est de 60 g/litre de lait bu en plus, soit 70 kg de gain de poids vif pour une lactation de 2 300 kg par rapport à une lactation de 1 200 kg. Une sélection sur la production de la mère et sa persistance permettrait donc de réduire les aliments achetés pour les broutards. Cela conforte la nécessité de pouvoir mesurer la production laitière de façon plus systématique et sur toute la lactation. La production de lait de la vache allaitante est peu sensible à la diminution du niveau des apports énergétiques ou globaux si celle-ci est inférieure à 3 UFL. En effet la fonction de production laitière est priorisée quel que soit l’état d’engraissement au vêlage. Néanmoins, la production laitière peut être réduite significativement lorsqu’une durée de sous-alimentation même modérée se prolonge. Avec des vêlages d’hiver, la qualité de l’herbe ingérée au printemps couvre largement (110%) les besoins alimentaires élevés de lactation. Ceci permet à la vache de relancer sa lactation et de reconstituer les réserves mobilisées en période hivernale et ainsi à l’éleveur d’épargner sur l’alimentation distribuée.
APA, Harvard, Vancouver, ISO, and other styles
7

Ashkar, F., N. El-Jabi, and T. B. M. J. Ouarda. "Etude des variations saisonnières des crues par le modèle de dépassement." Revue des sciences de l'eau 6, no. 2 (April 12, 2005): 131–52. http://dx.doi.org/10.7202/705170ar.

Full text
Abstract:
Cet article présente les résultats d'une étude traitant de deux aspects importants de l'application du modèle de dépassement en hydrologie. Ce modèle a été utilisé pour l'étude des variations saisonnieres des débits des rivières du Québec et du Nouveau-Brunswick. Ces variations ont généralement un effet important sur l'homogénéité des débits dans différentes périodes de l'année. Les modèles de dépassement sont capables de prendre ces variations saisonnières en considération en tenant compte des dépassements qui ne sont pas identiquement distribués lorsqu'ils proviennent de différentes saisons. L'étude traite spécialement le problème du choix de saisons à entrer dans le modèle. Particulièrement, on souligne l'importance de déterminer les saisons en se basant sur les données disponibles au lieu de se limiter aux quatre saisons habituelles: hiver, printemps, été et automne. On propose une procédure graphique qui, associée au modèle de dépassement, permet de délimiter les saisons dans les stations hydrologiques étudiées. La procédure est appliquée, sous deux formes différentes, à des stations de jaugeage dans les provinces du Québec et du Nouveau-Brunswick. Ceci nous a permis de diviser l'année convenablement en saisons dans différentes parties des deux provinces. Cette partition a été basée uniquement sur les débits de crues dans chaque station, et sans donner aucune considération à la location géographique de ces stations, mais il s'est avéré ultérieurement que cette subdivision des deux provinces représente en fait une partition géographique des stations hydrologiques. L'évaluation du débit de base représente un point d'une importance majeure dans l'application du modèle de dépassement. Une estimation du débit de base est proposée dans ce travail en utilisant l'analyse de régression multiple. Une approche basée sur l'ajustement du nombre de dépassements à une loi de Poisson a été suivie pour la détermination de ce niveau de base dans chaque station de jaugeage. Une forte corrélation est détectée entre le débit de base et la surface drainée, impliquant qu'il est possible de calculer le débit de base dans une station qui ne contient pas d'enregistrements. Les résultats de la régionalisation géographique de la saisonnalité sont analysés pour détecter et interpréter les liens entre les régions déterminées et les caractéristiques physiques et climatologiques des zones étudiées dans les deux provinces. Une association est démontrée entre ces deux paramètres qui semble être justifiable du point de vu hydrologique et climatologique. En conclusion, les résultats de cet article montrent la faisabilité technique et l'efficacité du modèle proposé pour l'étude des variations saisonnières des crues.
APA, Harvard, Vancouver, ISO, and other styles
8

CHILLIARD, Y., R. VERITE, and A. PFLIMLIN. "Effets de la somatotropine bovine sur les performances des vaches laitières dans les conditions françaises d’élevage." INRAE Productions Animales 2, no. 5 (December 10, 1989): 301–12. http://dx.doi.org/10.20870/productions-animales.1989.2.5.4423.

Full text
Abstract:
Vingt essais ont été réalisés en France sur 360 vaches recevant de la somatotropine (BST) retard tous les 14 ou 28 jours, à des doses correspondant à 24 ou 35 mg/j. Les données obtenues suggèrent, en première approximation, que l’effet de la BST retard sur la production laitière varie assez nettement selon la dose totale injectée chaque mois, et assez faiblement selon la fréquence d’injection (1 ou 2 fois par mois). Selon les conditions d’utilisation (dose et fréquence), les effets moyens ont été compris entre + 2,2 et + 3,7 kg de lait par jour avec des rations hivernales, et entre + 1,2 et + 2,3 kg de lait par jour au pâturage. Les réponses inférieures au pâturage pourraient être dues à la qualité de l’herbe, au stade de gestation ou à la durée du traitement. La composition du lait n’est pas modifiée au pâturage chez des vaches en milieu de lactation. Il existe une tendance à la diminution du taux protéique (- 0,5 g/l environ) avec les rations hivernales distribuées lorsque le traitement à la BST est de 3 à 4 mois après le pic de lactation. Ces chiffres provisoires devront être réévalués sur la base d’un plus grand nombre d’essais et après dépouillement statistique approfondi. Outre ces valeurs moyennes, la production et la composition du lait fluctuent entre deux injections successives, de façon croissante lorsque s’accroît l’intervalle entre injections. Les vaches traitées montrent aussi une diminution de leur note d’état corporel (- 0,3 point environ) lorsqu’elles reçoivent une ration hivernale au pic de lactation (ce qui peut entraîner un retard de fécondation non négligeable), ou lorsqu’elles sont au pâturage avec des quantités limitées de concentré. La variabilité de la réponse est très grande entre essais et entre vaches. Les données actuellement publiées ne permettent pas d’évaluer d’éventuels effets à long terme sur la santé et la carrière des animaux.
APA, Harvard, Vancouver, ISO, and other styles
9

Percoma, Lassané, Zowindé Koudougou, Oumarou Serdebeogo, Issa Tamboura, Mamadou Ouedraogo, Jérémy Bouyer, Adrien M. G. Belem, and Issa Sidibé. "Enquêtes entomologiques préparatoires à une lutte à grande échelle contre les glossines, assistées par un système d’information géographique : cas de la Pattec au Burkina Faso." Revue d’élevage et de médecine vétérinaire des pays tropicaux 68, no. 4 (May 9, 2016): 157. http://dx.doi.org/10.19182/remvt.31163.

Full text
Abstract:
Le système d’information géographique constitue une aide considérable lors de la définition d’un plan de lutte contre les glossines. Son application pratique pour la collecte de données entomologiques servant de base à la planification de la lutte et à son évaluation future a été faite dans l’ouest du Burkina Faso, de décembre 2007 à novembre 2008. Choisie pour englober les bassins versants des principaux fleuves ou rivières et les limites de distribution de Glossina palpalis gambiensis et G. tachinoides, la zone d’étude a été divisée en cellules de 10 km x 10 km. Dans chaque cellule, un maximum de 13 sites potentiels de piégeage ont été sélectionnés par l’utilisation d’imagerie satellite, puis repérés sur le terrain à l’aide du système mondial de positionnement (GPS). L’enquête entomologique a été réalisée avec des pièges biconiques Challier-Laveissière et les récoltes ont eu lieu 72 heures après leur installation. L’analyse des données a été conduite en utilisant des modèles aléa­toires mixtes binomiaux et de distribution de Poisson. La cartographie, réalisée avec le logiciel Arc Gis 9.3, a permis de déterminer la limite nord (12° 45’ N) des glos­sines dans la zone d’intervention. Les proportions de sites infestés étaient de 89,6 et 76,4 % respectivement au niveau des sections ascendante et descendante de la rivière Mouhoun (la première coule vers le nord-est depuis la source, la seconde vers le sud-est puis le sud après avoir conflué avec le Sourou), et de 16,7 et 10,3 % respectivement au niveau de leurs affluents. Entre les isohyètes 700–800 m et 800–900 m aucune différence significative n’a été observée dans les densités apparentes des glossines par piège, ni dans les sites infestés. Les deux espèces de glossines cap­turées étaient distribuées différemment selon les sections du Mouhoun : les cap­tures étaient composées de 79,5 % de G. p. gambiensis sur la section ascendante et de 96,0 % de G. tachinoides sur la section descendante. Les captures de vecteurs mécaniques ont été relativement faibles, leur distribution étant comparable à celle des glossines avec cependant quelques densités importantes sur les affluents.
APA, Harvard, Vancouver, ISO, and other styles
10

Mallet, L. "∑njeux de la πsychiatrie ℂomputationnelle." European Psychiatry 30, S2 (November 2015): S50—S51. http://dx.doi.org/10.1016/j.eurpsy.2015.09.143.

Full text
Abstract:
La psychiatrie computationnelle est un champ émergent qui, dans le prolongement des évolutions récentes en neurosciences cognitives, cherche à comprendre les pathologies mentales par la modélisation des processus élémentaires de pensée et leurs dysfonctionnements. En explicitant l’implémentation neurobiologique des algorithmes utilisés par le cerveau humain pour choisir, percevoir, ou ressentir… D’une certaine façon, cette nouvelle approche de la physiopathologie psychiatrique a pour ambition de combler le « fossé explicatif » entre cerveau et esprit. L’approche computationnelle se base sur la confrontation entre des données neurophysiologiques (IRM, EEG, MEG, électrophysiologie) acquises à chaque niveau de description du cerveau (récepteurs, neurones, réseaux, aires corticales) et les variables cachées prédites par des modèles ajustés aux comportements humains observables. Ce point de vue permet une approche transnosographique des symptômes psychiatriques qui peuvent être reconsidérés et caractérisés en termes de traitements pathologiques de l’information. Ces principes seront illustrés pour montrer :– comment cette approche permet de mieux comprendre l’émergence des processus élémentaires de pensée à partir de réseaux neuraux distribués, à contre-pied des approches néophrénologiques ;– illustrer comment ce type d’approche permet l’étude de l’architecture neurobiologique des processus de prise de décision chez l’homme ;– montrer l’intérêt des modèles bayésiens pour comprendre l’émergence des idées délirantes dans la schizophrénie.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Base de données distribuée"

1

Sahri, Soror. "Conception et implantation d'un système de bases de données distribuée & scalable : SD-SQL Server." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090013.

Full text
Abstract:
Le thème de recherche de cette thèse concerne la conception et l’implantation d’un système de gestion de bases de données distribuées et scalables (ang. Scalable Distributed Database System, SD-DBS) que nous avons appelé SD-SQL Server. SD-SQL Server implémente une nouvelle architecture de SGBD relationnel. Une base de SD-SQL Server, dite base scalable, grandit par la partition dynamique, scalable et distribuée de ses tables, dites scalables aussi. La partition et son évolution sont invisibles de l’usager/application. A l’heure actuelle, SD-SQL Server est le seul SGBD à offrir cette possibilité à notre connaissance. Les autres SGBDs connus, n’offrent au mieux que le partitionnement statique, nécessitant des réorganisations périodiques globales. Leur maniement est en général complexe et peu apprecié des usagers. Nos tables scalables sont organisées en segments d’une structure de données distribuée et scalable (SDDS). Chaque segment est placé sur un nœud lié de SQL Server. A l’heure actuelle, SQL Server supporte 250 nœuds liés, permettant à une table scalable de croître autant. L'expansion dynamique résulte des éclatements de segments débordant leur capacité de stockage. Chaque éclatement est déclenché par une insertion, à l’origine du débordement. Tout éclatement crée un ou plusieurs nouveaux segments. Les segments sont cachés des usagers/applications derrière les vues supportant les mises à jour, dites images. Les images sont des vues partitionnées et distribuées de SQL Server dynamiquement ajustées. Les usagers/applications de tables scalables n’interfacent que les images ou les vues des images
Our thesis elaborates on the design of a scalable distributed database system (SD-DBS). A novel feature of an SD-DBS is the concept of a scalable distributed relational table, a scalable table in short. Such a table accommodates dynamic splits of its segments at SD-DBS storage nodes. A split occurs when an insert makes a segment to overflow, like in, e. G. , B-tree file. Current DBMSs provide the static partitioning only, requiring a cumbersome global reorganization from time to time. The transparency of the distribution of a scalable table is in this light an important step beyond the current technology. Our thesis explores the design issues of an SD-DBS, by constructing a prototype termed SD-SQL Server. As its name indicates, it uses the services of SQL-Server. SD-SQL Server repartitions a table when an insert overflows existing segments. With the comfort of a single node SQL Server user, the SD-SQL Server user has larger tables or a faster response time through the dynamic parallelism. We present the architecture of our system, its implementation and the performance analysis
APA, Harvard, Vancouver, ISO, and other styles
2

Bessière, Hélène. "Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7761/1/bessiere1.pdf.

Full text
Abstract:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années (Nîmes en 1988, Vaison-la-Romaine en 1992, Aude en 1999, Gard en 2002). Le groupe HydroEco de l'IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel.
APA, Harvard, Vancouver, ISO, and other styles
3

Moussa, Rim. "Contribution à la conception et l'implantation de la structure de données distribuée & scalable à haute disponibilité LH*RS." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090050.

Full text
Abstract:
Le thème de recherche de cette thèse concerne la conception et la mise au point d'une structure de données distribuée et scalable (SDDS) à haute disponibilité : LH*RS. Cette structure permet de mémoriser un grand fichier de données. Les données du fichier LH*RS sont réparties par le hachage linéaire distribué sur les nœuds de stockage connectés par un réseau. LH*RS tolère l'indisponibilité de k  1 nœuds de stockage de données. La tolérance résulte de l'ajout de données de parité, encodées selon un nouveau code que cette Thèse contribue à proposer, de type Reed Solomon (RS). Nos résultats contribuent à la conception du code proposé à travers l'étude théorique et expérimentale de diverses techniques de codage/ décodage candidates pour LH*RS. L'étude expérimentale concernait tout particulièrement la conception et l'implantation d'un gestionnaire prototype pour cette SDDS. Nous avons montré l'efficacité de notre gestionnaire au niveau de temps des opérations de recherche et de mise à jour de données, ainsi que l'efficacité de la récupération de données mémorisées sur un ou plusieurs nœuds de stockage devenus indisponibles.
APA, Harvard, Vancouver, ISO, and other styles
4

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
5

Maillot, Pierre. "Nouvelles méthodes pour l'évaluation, l'évolution et l'interrogation des bases du Web des données." Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0007/document.

Full text
Abstract:
Le Web des données offre un environnement de partage et de diffusion des données, selon un cadre particulier qui permet une exploitation des données tant par l’humain que par la machine. Pour cela, le framework RDF propose de formater les données en phrases élémentaires de la forme (sujet, relation, objet) , appelées triplets. Les bases du Web des données, dites bases RDF, sont des ensembles de triplets. Dans une base RDF, l’ontologie – données structurelles – organise la description des données factuelles. Le nombre et la taille des bases du Web des données n’a pas cessé de croître depuis sa création en 2001. Cette croissance s’est même accélérée depuis l’apparition du mouvement du Linked Data en 2008 qui encourage le partage et l’interconnexion de bases publiquement accessibles sur Internet. Ces bases couvrent des domaines variés tels que les données encyclopédiques (e.g. Wikipédia), gouvernementales ou bibliographiques. L’utilisation et la mise à jour des données dans ces bases sont faits par des communautés d’utilisateurs liés par un domaine d’intérêt commun. Cette exploitation communautaire se fait avec le soutien d’outils insuffisamment matures pour diagnostiquer le contenu d’une base ou pour interroger ensemble les bases du Web des données. Notre thèse propose trois méthodes pour encadrer le développement, tant factuel qu’ontologique, et pour améliorer l’interrogation des bases du Web des données. Nous proposons d’abord une méthode pour évaluer la qualité des modifications des données factuelles lors d’une mise à jour par un contributeur. Nous proposons ensuite une méthode pour faciliter l’examen de la base par la mise en évidence de groupes de données factuelles en conflit avec l’ontologie. L’expert qui guide l’évolution de cette base peut ainsi modifier l’ontologie ou les données. Nous proposons enfin une méthode d’interrogation dans un environnement distribué qui interroge uniquement les bases susceptibles de fournir une réponse
The web of data is a mean to share and broadcast data user-readable data as well as machine-readable data. This is possible thanks to rdf which propose the formatting of data into short sentences (subject, relation, object) called triples. Bases from the web of data, called rdf bases, are sets of triples. In a rdf base, the ontology – structural data – organize the description of factual data. Since the web of datacreation in 2001, the number and sizes of rdf bases have been constantly rising. This increase has accelerated since the apparition of linked data, which promote the sharing and interlinking of publicly available bases by user communities. The exploitation – interrogation and edition – by theses communities is made without adequateSolution to evaluate the quality of new data, check the current state of the bases or query together a set of bases. This thesis proposes three methods to help the expansion at factual and ontological level and the querying of bases from the web ofData. We propose a method designed to help an expert to check factual data in conflict with the ontology. Finally we propose a method for distributed querying limiting the sending of queries to bases that may contain answers
APA, Harvard, Vancouver, ISO, and other styles
6

De, Vlieger Paul. "Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00719688.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source.L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
7

Antoine, Émilien. "Gestion des données distribuées avec le langage de règles: Webdamlog." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00908155.

Full text
Abstract:
Notre but est de permettre à un utilisateur du Web d'organiser la gestion de ses données distribuées en place, c'est à dire sans l'obliger à centraliser ses données chez un unique hôte. Par conséquent, notre système diffère de Facebook et des autres systèmes centralisés, et propose une alternative permettant aux utilisateurs de lancer leurs propres pairs sur leurs machines gérant localement leurs données personnelles et collaborant éventuellement avec des services Web externes. Dans ma thèse, je présente Webdamlog, un langage dérivé de datalog pour la gestion de données et de connaissances distribuées. Le langage étend datalog de plusieurs manières, principalement avec une nouvelle propriété la délégation, autorisant les pairs à échanger non seulement des faits (les données) mais aussi des règles (la connaissance). J'ai ensuite mené une étude utilisateur pour démontrer l'utilisation du langage. Enfin je décris le moteur d'évaluation de Webdamlog qui étend un moteur d'évaluation de datalog distribué nommé Bud, en ajoutant le support de la délégation et d'autres innovations telles que la possibilité d'avoir des variables pour les noms de pairs et des relations. J'aborde de nouvelles techniques d'optimisation, notamment basées sur la provenance des faits et des règles. Je présente des expérimentations qui démontrent que le coût du support des nouvelles propriétés de Webdamlog reste raisonnable même pour de gros volumes de données. Finalement, je présente l'implémentation d'un pair Webdamlog qui fournit l'environnement pour le moteur. En particulier, certains adaptateurs permettant aux pairs Webdamlog d'échanger des données avec d'autres pairs sur Internet. Pour illustrer l'utilisation de ces pairs, j'ai implémenté une application de partage de photos dans un réseau social en Webdamlog.
APA, Harvard, Vancouver, ISO, and other styles
8

Le, Sergent Thierry. "Méthodes d'exécution et machines virtuelles parallèles pour l'implantation distribuée du langage de programmation parallèle LCS." Toulouse 3, 1993. http://www.theses.fr/1993TOU30021.

Full text
Abstract:
L'objet de cette these est l'implantation d'un langage de programmation parallele de haut niveau sur des machines physiques paralleles a memoire partagee ou distribuee. Le langage support de l'etude, lcs, combine les aspects haut niveau du langage fonctionnel standard ml et le modele des processus communicants ccs. L'implantation repose sur une machine virtuelle parallele, composee d'un nombre limite de machines virtuelles sequentielles elementaires partageant l'ensemble des objets construits dans un tas. Les principales contributions sont: (1) la gestion du tas partage, qui fait appel a un ramasse miettes s'executant en parallele sur les machines elementaires, incrementalement avec le calcul sur chacune d'elles. Un mecanisme original de credit de tracage, et des algorithmes distribues d'allocation permettent une cooperation totale entre les machines. Sur des machines cibles a memoire distribuee, le tas est construit par la technique de memoire virtuelle partagee distribuee, integree efficacement avec le ramasse miettes grace a l'utilisation dans les deux cas des protections d'acces aux pages memoire. (2) la gestion de l'ensemble des processus, pour laquelle un algorithme de repartition de charge, base sur l'emploi de bornes dynamiques, a ete concu. Ses proprietes sont demontrees, et les resultats confirmes par simulation. L'implementation effectuee a permis d'apprecier les qualites du ramasse miettes paralleles developpe
APA, Harvard, Vancouver, ISO, and other styles
9

Tian, Yongchao. "Accéler la préparation des données pour l'analyse du big data." Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0017/document.

Full text
Abstract:
Nous vivons dans un monde de big data, où les données sont générées en grand volume, grande vitesse et grande variété. Le big data apportent des valeurs et des avantages énormes, de sorte que l’analyse des données est devenue un facteur essentiel de succès commercial dans tous les secteurs. Cependant, si les données ne sont pas analysées assez rapidement, les bénéfices de big data seront limités ou même perdus. Malgré l’existence de nombreux systèmes modernes d’analyse de données à grande échelle, la préparation des données est le processus le plus long de l’analyse des données, n’a pas encore reçu suffisamment d’attention. Dans cette thèse, nous étudions le problème de la façon d’accélérer la préparation des données pour le big data d’analyse. En particulier, nous nous concentrons sur deux grandes étapes de préparation des données, le chargement des données et le nettoyage des données. Comme première contribution de cette thèse, nous concevons DiNoDB, un système SQL-on-Hadoop qui réalise l’exécution de requêtes à vitesse interactive sans nécessiter de chargement de données. Les applications modernes impliquent de lourds travaux de traitement par lots sur un grand volume de données et nécessitent en même temps des analyses interactives ad hoc efficaces sur les données temporaires générées dans les travaux de traitement par lots. Les solutions existantes ignorent largement la synergie entre ces deux aspects, nécessitant de charger l’ensemble des données temporaires pour obtenir des requêtes interactives. En revanche, DiNoDB évite la phase coûteuse de chargement et de transformation des données. L’innovation importante de DiNoDB est d’intégrer à la phase de traitement par lots la création de métadonnées que DiNoDB exploite pour accélérer les requêtes interactives. La deuxième contribution est un système de flux distribué de nettoyage de données, appelé Bleach. Les approches de nettoyage de données évolutives existantes s’appuient sur le traitement par lots pour améliorer la qualité des données, qui demandent beaucoup de temps. Nous ciblons le nettoyage des données de flux dans lequel les données sont nettoyées progressivement en temps réel. Bleach est le premier système de nettoyage qualitatif de données de flux, qui réalise à la fois la détection des violations en temps réel et la réparation des données sur un flux de données sale. Il s’appuie sur des structures de données efficaces, compactes et distribuées pour maintenir l’état nécessaire pour nettoyer les données et prend également en charge la dynamique des règles. Nous démontrons que les deux systèmes résultants, DiNoDB et Bleach, ont tous deux une excellente performance par rapport aux approches les plus avancées dans nos évaluations expérimentales, et peuvent aider les chercheurs à réduire considérablement leur temps consacré à la préparation des données
We are living in a big data world, where data is being generated in high volume, high velocity and high variety. Big data brings enormous values and benefits, so that data analytics has become a critically important driver of business success across all sectors. However, if the data is not analyzed fast enough, the benefits of big data will be limited or even lost. Despite the existence of many modern large-scale data analysis systems, data preparation which is the most time-consuming process in data analytics has not received sufficient attention yet. In this thesis, we study the problem of how to accelerate data preparation for big data analytics. In particular, we focus on two major data preparation steps, data loading and data cleaning. As the first contribution of this thesis, we design DiNoDB, a SQL-on-Hadoop system which achieves interactive-speed query execution without requiring data loading. Modern applications involve heavy batch processing jobs over large volume of data and at the same time require efficient ad-hoc interactive analytics on temporary data generated in batch processing jobs. Existing solutions largely ignore the synergy between these two aspects, requiring to load the entire temporary dataset to achieve interactive queries. In contrast, DiNoDB avoids the expensive data loading and transformation phase. The key innovation of DiNoDB is to piggyback on the batch processing phase the creation of metadata, that DiNoDB exploits to expedite the interactive queries. The second contribution is a distributed stream data cleaning system, called Bleach. Existing scalable data cleaning approaches rely on batch processing to improve data quality, which are very time-consuming in nature. We target at stream data cleaning in which data is cleaned incrementally in real-time. Bleach is the first qualitative stream data cleaning system, which achieves both real-time violation detection and data repair on a dirty data stream. It relies on efficient, compact and distributed data structures to maintain the necessary state to clean data, and also supports rule dynamics. We demonstrate that the two resulting systems, DiNoDB and Bleach, both of which achieve excellent performance compared to state-of-the-art approaches in our experimental evaluations, and can help data scientists significantly reduce their time spent on data preparation
APA, Harvard, Vancouver, ISO, and other styles
10

Bechchi, Mounir. "Clustering-based Approximate Answering of Query Result in Large and Distributed Databases." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00475917.

Full text
Abstract:
Les utilisateurs des bases de données doivent faire face au problème de surcharge d'information lors de l'interrogation de leurs données, qui se traduit par un nombre de réponses trop élevé à des requêtes exploratoires. Pour remédier à ce problème, nous proposons un algorithme efficace et rapide, ap- pelé ESRA (Explore-Select-Rearrange Algorithm), qui utilise les résumés SAINTETIQ pré-calculés sur l'ensemble des données pour regrouper les réponses à une requête utilisateur en un ensemble de classes (ou résumés) organisées hiérarchiquement. Chaque classe décrit un sous-ensemble de résul- tats dont les propriétés sont voisines. L'utilisateur pourra ainsi explorer la hiérarchie pour localiser les données qui l'intéressent et en écarter les autres. Les résultats expérimentaux montrent que l'al- gorithme ESRA est efficace et fournit des classes bien formées (i.e., leur nombre reste faible et elles sont bien séparées). Cependant, le modèle SAINTETIQ, utilisé par l'algorithme ESRA, exige que les données soient disponibles sur le serveur des résumés. Cette hypothèse rend inapplicable l'algo- rithme ESRA dans des environnements distribués où il est souvent impossible ou peu souhaitable de rassembler toutes les données sur un même site. Pour remédier à ce problème, nous proposons une collection d'algorithmes qui combinent deux résumés générés localement et de manière autonome sur deux sites distincts pour en produire un seul résumant l'ensemble des données distribuées, sans accéder aux données d'origine. Les résultats expérimentaux montrent que ces algorithmes sont aussi performants que l'approche centralisée (i.e., SAINTETIQ appliqué aux données après regroupement sur un même site) et produisent des hiérarchies très semblables en structure et en qualité à celles produites par l'approche centralisée.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Base de données distribuée"

1

Gardarin, G. Relational databases and knowledge bases. Reading, Mass: Addison-Wesley, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

R, Meersman, International Symposium on Distributed Objects and Applications (2002 : Catania, Italy), and International Conference on Ontologies Databases and Applications of Semantics (2002 : Catania, Italy), eds. On the move to meaningful Internet systems 2003: CoopIS, DOA, and ODBASE : OTM confederated international conferences CoopIS, DOA, and ODBASE 2003, Catania, Sicily, Italy, November 3-7, 2003 : proceedings. New York: Springer-Verlag, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ross, David P. Données de base sur la pauvreté au Canada, 1989 =: Données de base sur la pauvreté au Canada = Données de base sur la pauvreté au Canada 1994. Ottawa: Conseil canadien de développement social, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ross, David P. Données de base sur la pauvreté au Canada. Ottawa, Ont: Conseil canadien de développement social, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Statistique Canada. Division des statistiques sociales, du logement et des familles. Base de données bibliographique sur l'équité en matière d'emploi. Ottawa, Ont: Industrie, sciences et technologie Canada, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ross, David P. Données de base sur la pauvreté au Canada: 1994. Ottawa, Ont: Conseil canadien de développement social, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Clouse, Michelle. Algèbre relationnelle: Guide pratique de conception d'une base de données relationnelle normalisée. St-Herblain: Éditions ENI, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Tardieu, Hubert. Conception d'un système d'information: Construction de la base de données. Paris: Éditions d'Organisation, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Bonville, Jean de. La production d'une base de données bibliographiques: Manuel de gestion. 2nd ed. Québec: Réseau québécois d'information sur la communication, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

E, Jones Paul, ed. Logical data base design. 2nd ed. Wellesley, Mass: QED Information Sciences, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Base de données distribuée"

1

Kempf, Werner, Markus Hantschke, Heinz Kutzner, Walter H. C. Burgdorf, and Renato G. Panizzon. "Base de données diagnostiques." In Dermatopathologie, 3. Paris: Springer Paris, 2010. http://dx.doi.org/10.1007/978-2-287-99669-6_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Grosclaude, Pascale, Jacques Estève, Nadine Bossard, Laurent Remontet, Aurélien Belot, Jean Faivre, Anne-Marie Bouvier, et al. "Description de la base de données." In Survie des patients atteints de cancer en France, 29–36. Paris: Springer Paris, 2007. http://dx.doi.org/10.1007/978-2-287-39310-5_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

de Micheaux, Pierre Lafaye, Rémy Drouilhet, and Benoît Liquet. "Les concepts de base, l’organisation des données." In Le logiciel R, 39–66. Paris: Springer Paris, 2014. http://dx.doi.org/10.1007/978-2-8178-0535-1_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hamesse, Jacqueline. "Le repérage des manuscrits à l'aide d'une base de données d'incipits." In Rencontres de Philosophie Médiévale, 111–29. Turnhout: Brepols Publishers, 1992. http://dx.doi.org/10.1484/m.rpm-eb.4.000026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Fresquet, Xavier. "MUSICASTALLIS: Base de données des scènes musicales dans les stalles médiévales." In Profane Arts of the Middle Ages, 155–60. Turnhout: Brepols Publishers, 2010. http://dx.doi.org/10.1484/m.pama-eb.4.3013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Hablot, Laurent. "Le programme SIGILLA, base de données nationale des sceaux des archives françaises." In Atelier de recherche sur les textes médiévaux, 129–41. Turnhout, Belgium: Brepols Publishers, 2020. http://dx.doi.org/10.1484/m.artem-eb.5.117333.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bisaro, Xavier. "D’une historiographie l’autre : éloge par l’exemple de la base de données prosopographique Muséfrem." In Catholicisme, culture et société aux Temps modernes, 185–96. Turnhout: Brepols Publishers, 2018. http://dx.doi.org/10.1484/m.elsem-eb.5.115082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Lombez, Christine. "Chapter 8. Les traductions littéraires dans les périodiques français sous l’Occupation et leur exploitation dans la base de données TSOcc." In Literary Translation in Periodicals, 203–22. Amsterdam: John Benjamins Publishing Company, 2020. http://dx.doi.org/10.1075/btl.155.08lom.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Beit-Arié, Malachi. "La base de données codicologiques du « Hebrew Palaeography Project » : un outil pour la localisation et la datation des manuscrits médiévaux hébreux." In Rencontres de Philosophie Médiévale, 17–64. Turnhout: Brepols Publishers, 1992. http://dx.doi.org/10.1484/m.rpm-eb.4.000023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Gili-Thébaudeau, Laura, and Timothy Salemme. "Le projet « transfrontalier » TRANSSCRIPT: Une base de données plurilingue pour les actes des ducs de Lorraine et des comtes de Luxembourg (xiiie-xive siècle)." In Atelier de recherche sur les textes médiévaux, 85–105. Turnhout, Belgium: Brepols Publishers, 2020. http://dx.doi.org/10.1484/m.artem-eb.5.117330.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Base de données distribuée"

1

Zouari, Mohamed, Françoise André, and Maria-Teresa Segarra. "Support d'adaptation dynamique et distribuée dans la conception de systèmes de réplication de données." In the 5th French-Speaking Conference. New York, New York, USA: ACM Press, 2009. http://dx.doi.org/10.1145/1739268.1739281.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Arbour Barbaud, Evelyne. "CARNAVAL : une base de données de régimes généralisés." In 2ème Congrès Mondial de Linguistique Française. Les Ulis, France: EDP Sciences, 2010. http://dx.doi.org/10.1051/cmlf/2010247.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

DESMARE, Stéphanie, and Pascal LE DU. "Base de données courantométriques au point fixe du SHOM." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2014. http://dx.doi.org/10.5150/jngcgc.2014.007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hamm, Luc, and Gérard Goasguen. "Applications pratiques de la base de données CANDHIS de mesures d’états de mer in-situ." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2004. http://dx.doi.org/10.5150/jngcgc.2004.003-h.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

BACHARI, Nour El Islam, Abdelkader ABDELLAOUI, and Fouzia HOUMA. "Modélisation des données multisources pour l’étude de la pollution de la baie d’Alger à base d’un système d’information géographique." In Conférence Méditerranéenne Côtière et Maritime - Coastal and Maritime Mediterranean Conference. Editions Paralia, 2011. http://dx.doi.org/10.5150/cmcm.2011.059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Benoit, Michel, Florence Lafon, and Gérard Goasguen. "Constitution et exploitation d’une base de données d’états de mer le long des côtes françaises par simulation numérique sur 23 ans." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2006. http://dx.doi.org/10.5150/jngcgc.2006.003-b.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

GILOY, Nathalie, Claire-Marie DULUC, Roberto FRAU, Yann FERRET, Thomas BULTEAU, Franck MAZAS, and Thierry SAUZEAU. "La base de données TEMPETES : un support pour une expertise collégiale et interdisciplinaire des informations historiques de tempêtes et de submersions." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2018. http://dx.doi.org/10.5150/jngcgc.2018.093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

MORELLATO, David, and Michel BENOIT. "Construction d'une base de données d'états de mer le long des côtes françaises méditerranéennes par simulations rétrospectives couvrant la période 1979-2008." In Conférence Méditerranéenne Côtière et Maritime - Coastal and Maritime Mediterranean Conference. Editions Paralia, 2009. http://dx.doi.org/10.5150/cmcm.2009.037-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ferries, B., V. Meilhat, A. Couillet, and F. Pelegrin. "Recherche du schema conceptuel d'une base de données devant constituer le cur d'un système de CAO orienté architecture: une approche SGBD sémantique." In Colloque CAO et Robotique en Architecture et BTP (3rd International Symposium on Automation and Robotics in Construction). Paris: Hermes, 1986. http://dx.doi.org/10.22260/isarc1986/0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Tzou, H. S., W. K. Chai, and D. W. Wang. "Modal Voltages and Distributed Signal Analysis of Conical Shells of Revolution." In ASME 2001 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference. American Society of Mechanical Engineers, 2001. http://dx.doi.org/10.1115/detc2001/vib-21544.

Full text
Abstract:
Abstract Conical shells and components are widely used as nozzles, injectors, rocket fairings, turbine blades, etc. Dynamic and vibration characteristics of conical shells have been investigated over the years. In this paper, electromechanics and distributed sensing phenomena of a generic double-curvature shell and a conical shell are discussed, and governing sensing signal-displacement equations are derived. Spatially distributed modal voltages and signal generations of conical shells laminated with distributed piezoelectric sensor layers or neurons are investigated based on the Donnel-Mushtari-Valsov theory. Distributed modal voltages and their various signal components of conical shell models reveal that the dominating signal component among the four contributing signal components is the circumferential membrane component. This dominance is even more significant for lower shell modes and/or deep shells. In general, high strain regions result in high signal magnitudes. Accordingly, the spatially distributed signal patterns — the modal voltages — clearly represent the modal dynamic and strain characteristics of conical shells.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Base de données distribuée"

1

Keating, P., J. Tod, and R. Dumont. La base de données aéromagnétiques nationale. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1996. http://dx.doi.org/10.4095/211815.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Revie, P. La Base de données toponymiques du Canada (BDTC). Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1995. http://dx.doi.org/10.4095/298481.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bégin, Y., A. Nicault, and C. Bégin. Établissement de la base de données de référence ARCHIVES. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/328072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Thompson, J. J. S., and M. R. Munro. La base nationale de données toponymiques - compte rendu des travaux (translation). Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1986. http://dx.doi.org/10.4095/298202.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ball, J. R. Base de données toponymiques de l'Ontario : compte rendu d'une étude des besoins des utilisateurs (translation). Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1986. http://dx.doi.org/10.4095/298200.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography