Добірка наукової літератури з теми "Méthodes basées sur les données"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Méthodes basées sur les données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Méthodes basées sur les données":

1

Poreba, Martyna, and François Goulette. "Recalage rigide de relevé laser par mise en correspondance robuste basée sur des segments." Revue Française de Photogrammétrie et de Télédétection, no. 207 (September 24, 2014): 3–17. http://dx.doi.org/10.52638/rfpt.2014.208.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le recalage se révèle indispensable pour assembler des relevés laser devant servir à l'analyse, à la documentation et à la reconstruction tridimensionnelle d'environnements. Ce problème apparaît lorsqu'une zone d'intérêt est numérisée, au fil du temps, deux ou plusieurs fois, ou quand sa complexité nécessite un accroissement du nombre de stations de scanner laser fixes. Aussi, en raison de la variété des techniques disponibles d'acquisition, l'intégration multi-données devient une question importante puisqu'elle permet de mettre en cohérence des données contenant souvent une information complémentaire. La vaste majorité des algorithmes existants s'appuient sur les éléments ponctuels. C'est pourquoi les méthodes ICP basées-point demeurent actuellement les plus répandues. Cet article propose l'utilisation des segments sous forme d'intersections entre les plans principaux, pour un recalage rigide des nuages de points mobiles avec d'autres données, qu'elles soient 2D ou 3D. Ces primitives peuvent être aisément extraites, même dans les données laser hétérogènes de faible densité. Quelques méthodes de recalage basées-lignes ont été examinées afin de vérifier leur précision et robustesse au bruit. Les erreurs des paramètres estimés ainsi qu'un nouveau critère — distance modifiée de Hausdorff ont été employés pour les besoins d'une analyse quantitative. Au vu de ces éléments, une chaîne complète nommée RLMR-FMII 2 comprenant un recalage grossier suivi par un recalage fin est proposée pour calculer les paramètres de pose à partir de segments appariés.Étant donné que la mise en correspondance automatique d'entités linéaires est ardue et influence l'estimation des paramètres optimaux de transformation, une méthode d'appariement étudiant la similitude relative est avancée. Enfin, l'efficacité de cette méthode de recalage par mise en correspondance préalable des segments est évaluée et discutée.
2

Cheriguene, Rabia Sarah, and Habib Mahi. "Comparaison entre les méthodes J-SEG et MEANSHIFT : application sur des données THRS." Revue Française de Photogrammétrie et de Télédétection, no. 203 (April 8, 2014): 27–32. http://dx.doi.org/10.52638/rfpt.2013.27.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'avènement des données à Très Haute Résolution Spatiale (THRS) rend les méthodes de classification basées pixels inadéquates. En effet, la résolution spatiale fine offerte par ces capteurs engendre une forte variabilité intra-classes. Afin de pallier cette carence, les méthodes de classification actuelles visent à traiter non pas le pixel individuellement mais à opérer sur les objets (ensemble de pixels) qui composent l'image, on parle alors de classification orientée objets. Généralement, elles sont composées de trois étapes : (1) Segmentation; (2) Caractérisation des objets; et enfin (3) La classification. Dans ce travail, on s'intéresse seulement à la segmentation des données à THRS à travers deux algorithmes de segmentation d'images couleur à savoir: l'algorithme J-SEG et l'algorithme MeanShift. Une étude comparative entre les deux algorithmes a été conduite à la fois sur des données synthétiques et des données réelles acquises par le satellite QuickBird sur une région urbaine de la ville d'Alger (Algérie). L'analyse quantitative des résultats de segmentation en utilisant les critères d'évaluation non supervisés de Levin-Nazif et de Borsotti ainsi qu'une évaluation supervisée basée sur un ensemble de référence montre que la segmentation obtenue par l'algorithme MeanShift est meilleure que celle obtenue par l'algorithme J-Seg. Une seconde comparaison a été menée entre l'algorithme MeanShift et la méthode de segmentation multi-échelles implémentée dans le logiciel ENVI Zoom 4.5. Les résultats comparatifs laissent apparaitre l'efficacité de l'algorithme MeanShift.
3

Abdelkader, Badaoui, Chettih Abdelkader, and Sahi Moustafa. "Les mécanismes de la méthode de PLS : une approche intéressante pour la recherche en Management (l’impact de la veille dans la gestion stratégique des PME)." Dirassat Journal Economic Issue 12, no. 2 (June 18, 2021): 365–80. http://dx.doi.org/10.34118/djei.v12i2.1400.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation par équations structurelles basée sur la méthode PLS diffère des méthodes basées sur l’analyse de covariances telles que Lisrel par son caractère prédictif plutôt que confirmatoire et sa plus grande souplesse notamment en ce qui concerne les conditions préalables à son utilisation. Elle permet en outre de traiter l’hétérogénéité des données et elle s’avère particulièrement intéressante pour les chercheurs en mangement. Après une description de ses caractéristiques et avantages, nous proposons une illustration sur des données réelles. L’objectif de cet article est de vérifier l'existence d'un impact de la veille dans La gestion stratégique des PME par la participation de l'effet indirect de la médiation. Aussi, l’enquête a montré qu’il y a un effet de L’influence et la position concurrentielle comme des médiateurs, d’où une médiation totale de la relation entre la veille et La gestion stratégique.
4

Caissie, D., N. El-Jabi, and G. Bourgeois. "Évaluation du débit réservé par méthodes hydrologiques et hydrobiologiques." Revue des sciences de l'eau 11, no. 3 (April 12, 2005): 347–64. http://dx.doi.org/10.7202/705311ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Plusieurs méthodes existent pour calculer le débit réservé d'un cours d'eau. Dans la présente étude deux approches sont analysées, soit les approches par méthodes hydrologiques et hydrobiologiques. Cinq méthodes hydrologiques d'évaluation du débit réservé ont été appliquées au ruisseau Catamaran au Nouveau-Brunswick (Canada), ainsi qu'une méthode hydrobiologique. Parmi les méthodes hydrologiques, on retrouve la méthode de Tennant, celle de 25% du débit moyen annuel (DMA), la méthode du débit médian (Q50) mensuel, 90% du débit classé (Q90) et la méthode basée sur l'analyse statistique de fréquence des débits faibles (7Q10). La méthode hydrobiologique utilisée dans la présente étude fut l'application du modèle PHABSIM pour le saumon Atlantique juvénile. Ce modèle est calibré en utilisant les données de vitesse d'écoulement (V), profondeur d'eau (D) et grosseur du substrat (S) pour trois différents débits. L'application des méthodes hydrologiques a démontré que certaines méthodes telle que la méthode Tennant, 25% DMA et la méthode du débit médian, donnent des résultats similaires surtout en période d'étiage. D'autre part, deux méthodes en particulier, soit la méthode de 90% du débit classé et celle basée sur une analyse statistique des débits faibles prédisent un débit réservé très faible en période d'étiage. Une modélisation de l'habitat physique du ruisseau Catamaran démontre que l'habitat disponible maximal se trouve généralement aux environs du débit moyen. De plus, il a été observé qu'en appliquant les modèles hydrologiques, l'habitat disponible était réduit par rapport à l'habitat maximum prédit par PHABSIM. En effet, l'habitat résultant de l'application de Tennant (30% DMA) et du 25% DMA représente environ 70% de l'habitat disponible maximum. Le débit calculé par la méthode du débit médian correspond à un habitat qui n'est que de 50% de l'habitat disponible maximum, tandis que les méthodes basées sur 90% du débit classé et l'analyse statistique des débits faibles ne représentent plus que des habitats de l'ordre de 20% à 40% de l'habitat disponible maximum. L'application de ces deux dernières méthodes laisse beaucoup de doute sur le niveau de protection des habitats aquatiques qu'elles procurent et il a été jugé utile de ne pas les recommander pour l'évaluation du débit réservé dans la région d'étude. Les autres méthodes (Tennant, 25% DMA et Q50) peuvent être utilisées. Cependant, l'application de la méthode du débit médian, qui peut donner des résultats proches de 50% de l'habitat disponible maximum, doit être appliquée avec précaution.
5

Lesnoff, Matthieu. "Evaluation d’une méthode d’enquête rétrospective sur une période de douze mois pour estimer les taux de mise bas et de mortalité du bétail dans un système d’élevage africain traditionnel." Revue d’élevage et de médecine vétérinaire des pays tropicaux 62, no. 1 (January 1, 2009): 49. http://dx.doi.org/10.19182/remvt.10093.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les taux annuels de mise bas et de mortalité sont des données de base nécessaires pour quantifier la productivité des cheptels domestiques tropicaux élevés en milieux extensifs. Les suivis de troupeaux avec bouclage des animaux sont une méthode de référence pour estimer ces paramètres sur le terrain. Les méthodes transversales rétrospectives, basées sur des entretiens avec les éleveurs et leur mémoire à court ou long terme de la démographie des troupeaux, sont des alternatives. La présente étude a évalué une méthode rétrospective (12MO) pour estimer les taux de mise bas et de mortalité pour la période des douze derniers mois précédents l’enquête. Le biais de différentes approximations utilisées dans les calculs a été évalué d’après plusieurs jeux de données disponibles et collectées sur les bovins et les petits ruminants au Sénégal. Le principal résultat de l’étude a été la variabilité potentiellement élevée du biais (en particulier pour le taux de mortalité des petits ruminants pour lequel le biais relatif a varié entre -60 et 96 p. 100 dans la classe d’âge « 0 à 1 an »), malgré un biais médian acceptable (la médiane de biais relatif a été ≤ 6 p. 100 en valeur absolue). Les méthodes rétrospectives telles que 12MO devraient être utilisées avec parcimonie (par exemple pour évaluer approximativement l’impact immédiat de chocs importants ou d’innovations) et leurs résultats interprétés avec précaution. Lorsque cela est possible, les suivis de troupeaux (avec ou sans identification des animaux) sur plusieurs années consécutives devraient être privilégiés.
6

Mudry, J. "L'analyse discriminante, un puissant moyen de validation des hypothèses hydrogéologiques." Revue des sciences de l'eau 4, no. 1 (April 12, 2005): 19–37. http://dx.doi.org/10.7202/705088ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude des tableaux de données hydrochimiques acquises au cours de campagnes synchrones (« instantanés ») ou de suivis diachroniques à pas régulier (hebdomadaire, quotidien, horaire) s'opère généralement en résumant l'information par des méthodes statistiques. Ces méthodes descriptives, qui négligent nécessairement une partie de l'information initiale, permettent l'interprétation de la structure du tableau de données en termes de fonctionnement hydrocinématique (BAKALOWICZ, 1979, 1982, MUDRY et BLAVOUX, 1988, ROLET et SEGUIN, 1986 8 et b). Ces méthodes, fondées sur l'analyse d'une seule population statistique (bi ou multidimensionnelle) impliquent un mode de raisonnement déductif. Leur application, ainsi que l'examen du tableau des données brutes (ou de ses représentations graphiques), peut mettre en évidence des sous-groupes fondés sur des critères hydrogéologiques. La réalité de ces sous-groupes peut être testée à l'aide de méthodes statistiques basées sur l'analyse de la variance. Certaines méthodes utilisent le rapport des variances qu'elles comparent à la distribution de Snedecor (analyse de la variance à une ou deux voies), d'autres comparent des variances multidimensionnelles intraclasses à la variance interclasses, c'est le cas de l'analyse discriminante. Les sous-groupes constituent une variable qualitative dont la pertinence peut être démontrée par la calcul. L'analyse discriminante apparaît donc comme un outil décisionnel. Le présent article présente brièvement la méthode du point de vue statistique et montre deux exemples d'application à des sources karstiques. Le premier exemple traite de l'appartenance chimique d'une phase de basses eaux à la petite crue qui la précède et non à un tarissement au sens hydrocinématique. L'analyse discriminante permet d'affirmer qu'une recharge peu perceptible sur l'hydrogramme de la source amène une évolution chimique irréversible de l'eau de la réserve, responsable des phénomènes d'hystérésis observés sur les courbes concentration-débit. Ce cas est celui de l'aquifère de la Fontaine de Vaucluse (Sud-Est de la France) pendant un suivi quotidien d'étiage. Le second exemple permet de rattacher, par son comportement physico-chimique hebdomadaire, une émergence karstique à une autre et non à une troisième. Ce cas est celui du karst de la Rochefoucauld (Charente), avec les sources du Bouillant, de la Font de Lussac et de la Lèche. Les sources du Bouillant et de la Font de Lussac ont un comportement physico-chimique semblable, alors que la Lèche réagit de manière totalement indépendante. Elle constitue un système globalement distinct du point de vue hydrocinématique, ce qui permet de minimiser les relations mises en évidence par traçage artificiel entre les deux systèmes.
7

Magee, L. A., K. Massey, P. von Dadelszen, M. Fazio, B. Payne, and R. Liston. "Repérage de sujets de recherche potentiels : utilité des registres sur papier et utilité des bases de données administratives des hôpitaux." Maladies chroniques et blessures au Canada 32, no. 1 (December 2011): 49–52. http://dx.doi.org/10.24095/hpcdp.32.1.06f.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction Le Réseau périnatal canadien (RPC) tient une base de données nationale centrée sur la menace d’accouchement très prématuré. Dans cette base de données sont incluses les femmes admises dans une unité participante de soins périnatals tertiaires entre la 22e et la 28e semaine (22 semaines et 0 jour et 28 semaines et 6 jours) de gestation et présentant l’un ou plusieurs des problèmes de santé les plus couramment associés à un accouchement très prématuré. Méthodologie Au BC Women’s Hospital and Health Centre, nous avons comparé l’utilité des registres classiques sur support papier tenus par les unités et l’utilité de la base de données électronique de l’Institut canadien d’information sur la santé (ICIS) sur les congés des patients comme méthode de repérage des patientes qui pourraient faire partie du Réseau périnatal canadien. Résultats L’étude a permis de recenser 244 femmes, admises entre avril et décembre 2007, susceptibles d’être incluses dans la base de données du RPC. Parmi les 155 femmes répondant aux critères fixés et dont les renseignements ont été entrés dans la base de données du RPC, chaque méthode a permis de trouver un nombre équivalent de dossiers uniques (142 et 147) que l’autre méthode n’avait pas permis de trouver : la recherche dans la base de données de l’ICIS a permis de trouver 10 dossiers supplémentaires (6,4 %) et l’examen des registres sur papier, d’en trouver 5 (3,2 %). Cependant, l’interrogation de la base de données de l’ICIS a abouti à ces résultats après l’examen d’un moins grand nombre de dossiers (206 contre 223) et en moins de temps (0,67 heure contre 13,6 heures dans le cas de l’examen des registres sur papier). Conclusion Les deux méthodes permettent de repérer des sujets de recherche potentiels en se servant de l’âge gestationnel comme critère. Bien que les méthodes électroniques soient plus rapides, on ne peut y avoir recours qu’une fois que les patientes ont obtenu leur congé de l’hôpital et que les dossiers et les registres ont été vérifiés. L’évaluation des avantages et des inconvénients de chacune des méthodes déterminera le choix à faire pour chaque projet spécifique.
8

Chekchaki, Samir, Arifa Beddiar, and Mohamed Djalil Zaafour. "Cartographie par télédétection des milieux envahis par Acacia mearnsii De Wild. dans l’extrême Nord-Est algérien." BOIS & FORETS DES TROPIQUES 343 (January 14, 2020): 5–16. http://dx.doi.org/10.19182/bft2020.343.a31835.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la région d’El Kala (extrême Nord-Est algérien), Acacia mearnsii De Wild. a été introduit lors des reboisements de 1970, en mélange à 20 % avec l'eucalyptus. Or, depuis quelques décennies, il est constaté un développement de taches d’invasion par cette espèce australienne dans cette même contrée du pays. L’utilisation d’outils tels qu’un système d'information géographique (SIG), avec des informations spatiales à jour, est nécessaire pour mieux comprendre l'invasion et identifier les écosystèmes potentiels à haut risque. Ainsi, le présent travail a été orienté vers la cartographie afin de procéder à l’étude de la répartition de l’invasion de cette espèce. Deux approches ont été adoptées, la première faisant appel aux données collectées sur le terrain et la seconde aux techniques de télédétection, en appliquant la méthode de classification supervisée sur une image Landsat 8. Les résultats obtenus par les deux méthodes montrent que la superficie envahie avoisine les 3 200 ha, répartis en quatre sites. La quasi-totalité de la surface envahie est occupée par l’eucalyptaie et la suberaie (respectivement 65,0 % et 17,9 % de la superficie totale). La classification de l’image satellite n’a permis de détecter que les paysages fortement envahis, tandis que la méthode des relevés effectués sur le terrain a permis de cartographier sa répartition totale. Toutefois, la superposition des deux cartes montre qu’elles sont majoritairement identiques (0,90 ≤ R ≤ 1). Pour conclure, l’utilisation des données spatialisées, couplées à des données ponctuelles (relevés de terrain), a permis, d’une part, de réduire les contraintes liées à la résolution de l’image Landsat et, d’autre part, de montrer l’importance des méthodologies basées sur les travaux de terrain.
9

Dodds, L., A. Spencer, S. Shea, D. Fell, B. A. Armson, A. C. Allen, and S. Bryson. "Validité des diagnostics d’autisme recensés à l’aide de données administratives sur la santé." Maladies chroniques au Canada 29, no. 3 (May 2009): 114–20. http://dx.doi.org/10.24095/hpcdp.29.3.02f.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est nécessaire de surveiller la prévalence de l’autisme afin de planifier l’aide à l’éducation et les services de santé à offrir aux enfants qui en sont atteints. C’est pourquoi nous avons réalisé cette étude qui vise à évaluer l’exactitude des bases de données administratives sur la santé en ce qui concerne les diagnostics d’autisme. Pour ce faire, nous avons repéré les diagnostics de troubles du spectre autistique (TSA) dans trois bases de données administratives sur la santé de la province de la Nouvelle-Écosse, soit la base de données sur les congés d’hôpital, la base de données sur la facturation des médecins au régime d’assurance-santé et la base de données du Système d’information sur les patients en clinique externe de santé mentale. Nous avons construit sept algorithmes en variant le nombre requis de déclarations de TSA (une ou plusieurs) et le nombre de bases de données administratives (une à trois) dans lesquelles ces déclarations doivent se retrouver. Nous avons ensuite comparé, avec chaque algorithme, les diagnostics posés par l’équipe attitrée à l’autisme du Centre de santé Izaak Walton Killam (IWK) à l’aide des barèmes de diagnostic de l’autisme les plus perfectionnés, puis nous avons calculé la sensibilité, la spécificité et la statistique C (une mesure de la capacité discriminante du modèle). L’algorithme présentant les meilleures caractéristiques d’essai était celui qui exigeait un code de TSA présent dans n’importe laquelle des trois bases de données (sensibilité = 69,3 %). La sensibilité de l’algorithme fondé sur la présence d’au moins un code de TSA soit dans la base de données sur les congés d’hôpital soit dans la base de données sur la facturation des médecins, était de 62,5 %. Les bases de données administratives sur la santé pourraient représenter une source économique pour la surveillance de l’autisme, surtout par comparaison aux méthodes nécessitant la collecte de nouvelles données. Cependant, il faudrait des sources de données additionnelles pour améliorer la sensibilité et l’exactitude des méthodes de recensement des cas d’autisme au Canada.
10

Van Dongen, Alexandre, Sébastien Lambot, Peter Eeckhout, and David Lo Buglio. "Exploitation des numérisations pour l'analyse urbaine en contexte archéologique : réflexion méthodologique sur le site précolombien de Pachacamac." SHS Web of Conferences 82 (2020): 03006. http://dx.doi.org/10.1051/shsconf/20208203006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article a pour objectif d’apporter une réflexion méthodologique sur l’exploitation des numérisations d’un site archéologique de grande échelle. Basées sur un grand volume de données issues de relevés photogrammétriques et GPR aériens, ces numérisations sont bien souvent utilisées pour l’enregistrement de l’état du bâti au moment de l’acquisition ou la prospection archéologique. Notre approche propose d’étendre l’exploitation de ces types de données massives afin d’enrichir la connaissance des logiques de conception urbaine d’une « cité » dont il ne reste que certaines parties monumentales encore visible aujourd’hui. En outre, les méthodes d’analyse urbaine s’appuient largement sur une compréhension occidentale de la ville qui est parfois très éloignée de celle que l’on rencontre en Amérique du sud avant l’arrivée des conquistadors. Au-delà des enjeux de connaissances spécifiques au terrain d’étude, l’ambition première de cet article est de comprendre comment l’apport et l’exploitation des technologies présentes et futures en matière de numérisation patrimoniale pourraient nous aider à accroître notre connaissance du passé. En somme se projeter dans le futur pour opérer un retour vers le passé.

Дисертації з теми "Méthodes basées sur les données":

1

Hassani, Bertrand Kian. "Quantification des risques opérationnels : méthodes efficientes de calcul de capital basées sur des données internes." Paris 1, 2011. http://www.theses.fr/2011PA010009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les risques opérationnels sont les risques de pertes résultant d'une inadéquation ou d'une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet. Procédure non sécurisée), de son personnel (erreur, malveillance et fraude) des systèmes internes (panne informatique,. . . ) ou à des risques externes (inondation, incendie,. . . ). Elles ont attiré l'attention des autorités, suites aux pertes et banqueroutes qu'elles ont engendrées. Pour les modéliser, le régulateur impose aux institutions l'utilisation de données internes, de données externes, de scénarios et certains critères qualitatifs. Utilisant des données internes, dans le cadre de la Loss Distribution Approach, nous proposons plusieurs méthodes innovantes pour estimer les provisions inhérentes à ces risques. La première innovation traitant des méthodes de convolutions suggère de mélanger les simulations de Monte Carlo, l'estimation de la densité par noyaux et l'algorithme de Panjer pour construire la distribution de perte. La seconde solution se concentre sur la modélisation de la queue droite des distributions de sévérité utilisant plusieurs résultats de la théorie des valeurs extrêmes et les méthodes d'estimation de paramètres de distributions tronquées. La troisième méthode que nous présentons s'intéresse aux calculs de VaR multivariés. Mettant en oeuvre des grappes de copules pour capter certains comportements particuliers tels que la dépendance de queue, nous fournissons un nouveau type d'architectures permettant de calculer la VaR globale.
2

Bernard, Francis. "Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6571.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
3

Leboucher, Julien. "Développement et évaluation de méthodes d'estimation des masses segmentaires basées sur des données géométriques et sur les forces externes : comparaison de modèles anthropométriques et géométriques." Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/e2504d99-e61b-4455-8bb3-2c47771ac853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation de paramètres inertiels segmentaires proches de la réalité est primordiale à l’obtention de données cinétiques fiables lors de l’analyse du mouvement humain. Le corps humain est modélisé en un nombre variable de solides, considérés indéformables, dans la grande majorité des études du mouvement. Ce travail de recherche a pour but de mettre en œuvre et de tester deux méthodes d’estimation des masses de ces solides appelés segments. Ces deux méthodes sont basées sur le principe d’équilibre statique d’un ensemble de solides rigides. La première a pour objectif la prédiction des masses des membres en se servant des distances parcourues par le centre de masse du membre et le centre de pression, projection horizontale du centre de gravité du sujet, entre deux positions considérées statiques. Le rapport de ces distances étant le même que celui des masses du membre considéré et du corps entier, la connaissance de cette dernière nous permet d’estimer la masse du membre. La seconde méthode a pour but d’estimer simultanément les masses relatives de tous les segments du modèle par résolution de l’équation d’équilibre statique en faisant l’hypothèse que le centre de pression est le barycentre de l’ensemble et d’après l’estimation des positions des centres de masse segmentaires. La démarche expérimentale innovante présentée dans cette thèse consiste en le transfert des centres de masse segmentaires issus d’une méthode anthropométrique géométrique et en leur utilisation en conjonction avec des méthodes usuelles en analyse du mouvement humain afin d’obtenir les masses segmentaires du sujet. La méthode d’estimation des masses des membres donne de bons résultats en comparaison de ceux obtenus grâce aux modèles issus de la littérature en ce qui concerne la prédiction de la position du centre de pression a posteriori. Une partie des causes de l’échec de la seconde sont évaluées à travers l’étude de l’effet de l’incertitude sur la position du centre de pression
Use of body segment parameters close to reality is of the utmost importance in order to obtain reliable kinetics during human motion analysis. Human body is modeled as a various number of solids in the majority of human movement studies. This research aims at developing and testing two methods for the estimation of these solid masses, also known as segment masses. Both methods are based on the static equilibrium principle for several solids. The first method’s goal is to provide with limb masses using total limb centre of mass and centre of pressure, projection on the horizontal plane of the total subject’s body centre of gravity, displacements. Ratio between these displacement being the same as the ratio of limb and total body masses, the knowledge of the latter allows for the calculation of the former. The second method aims at estimation all segment masses simultaneously by resolving series of static equilibrium equations, making the same assumption that centre of pressure is total body centre of mass projection and using segment centre of mass estimations. Interest of the new methods used in this research is due to the use of individual segment centre of mass estimations using a geometrical model together with material routinely utilized in human motion analysis in order to obtain estimates of body segment masses. Limb mass estimations method performs better predicting a posteriori center of mass displacement when compared to other methods. Some of the potential causes of the second method’s failure have been investigated through the study of centre of pressure location uncertainty
4

Irain, Malik. "Plateforme d'analyse de performances des méthodes de localisation des données dans le cloud basées sur l'apprentissage automatique exploitant des délais de messages." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30195.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation du cloud est une nécessité aujourd'hui, les données produites et utilisées par tous les types d'utilisateurs (individus particuliers, entreprises, structures administratives) ayant atteint une masse trop importante pour être stockées autrement. L'utilisation du cloud nécessite la signature, explicite ou non, d'un contrat avec un fournisseur de service de stockage. Ce contrat mentionne les niveaux de qualité de service requis selon différents critères. Parmi ces critères se trouve la localisation des données. Cependant, ce critère n'est pas facilement vérifiable par un utilisateur. C'est pour cela que la recherche dans le domaine de la vérification de localisation de données a suscité plusieurs travaux depuis quelques années, mais les solutions proposées restent encore perfectibles. Le travail proposé dans le cadre de cette thèse consiste à étudier les solutions de vérification de localisation par les clients, c'est-à-dire les solutions estimant la localisation des données et fonctionnant à l'aide de points de repère. L'approche à investiguer peut être résumée comme suit : en exploitant les délais de communication et en utilisant des modèles de temps de traversée du réseau, estimer, avec une certaine erreur de distance, la localisation des données. Pour cela, le travail réalisé est le suivant : • Une revue de l'état de l'art des différentes méthodes permettant aux utilisateurs de connaitre la localisation de leurs données. • La conception d'une notation unifiée pour les méthodes étudiées dans la revue de l'état de l'art, avec une proposition de deux scores pour évaluer et comparer les méthodes. • La mise en place d'une plateforme de collecte de mesures réseau. Grâce à cette plateforme, deux jeux de données ont été récoltés, un au niveau national et l'autre un niveau mondial. Ces deux jeux de données permettent d'évaluer les différentes méthodes présentées dans la revue de l'état de l'art. • La mise en place d'une architecture d'évaluation à partir des deux jeux de données et des scores définis, afin d'établir la qualité des méthodes (taux de succès) et la qualité des résultats (précision du résultat) grâce aux scores proposés
Cloud usage is a necessity today, as data produced and used by all types of users (individuals, companies, administrative structures) has become too large to be stored otherwise. It requires to sign, explicitly or not, a contract with a cloud storage provider. This contract specifies the levels of quality of service required for various criteria. Among these criteria is the location of the data. However, this criterion is not easily verifiable by a user. This is why research in the field of data localization verification has led to several studies in recent years, but the proposed solutions can still be improved. The work proposed in this thesis consists in studying solutions of location verification by a user, i.e. solutions that estimate data location and operate using landmarks. The implemented approach can be summarized as follows: exploiting communication delays and using network time models to estimate, with some distance error, data location. To this end, the work carried out is as follows: • A survey of the state of the art on the different methods used to provide users with location information. • The design of a unified notation for the methods studied in the survey, with a proposal of two scores to assess methods. • Implementation of a network measurements collecting platform. Thanks to this platform, two datasets were collected, at both national level and international level. These two data sets are used to evaluate the different methods presented in the state of the art survey. • Implementation of an evaluation architecture based on the two data sets and the defined scores. This allows us to establish the quality of the methods (success rate) and the quality of the results (accuracy of the result) thanks to the proposed scores
5

Cerra, Daniele. "Contribution à la théorie algorithmique de la complexité : méthodes pour la reconnaissance de formes et la recherche d'information basées sur la compression des données." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00562101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'assimilation du contenu informatif à la complexité de calcul a plus de 50 ans, mais une manière d'exploiter pratiquement cette idée est venue plus récemment, avec la définition de mesures de similarité basées sur la compression des données, qui permettent d'estimer la quantité d'information partagée entre deux objets. Ces techniques sont effectivement utilisées dans des applications sur divers types de données avec une approche universelle et pratiquement sans paramètres. Toutefois, les difficultés de les appliquer à des grands ensembles de données ont été rarement abordées. Cette thèse propose une nouvelle mesure de similarité basée sur la compression des dictionnaires qui est plus rapide comparativement aux solutions connues, sans perte de performance. Cela augmente l'applicabilité de ces notions, ce qui permet de les tester sur des ensembles de données de taille jusqu'à 100 fois plus grande que ceux précédemment analysés dans la littérature. Ces résultats ont été obtenus par l'étude des relations entre la théorie du codage classique, la compression des données et la notion de complexité par Kolmogorov. Les objets sont décomposés dans un dictionnaire, qui est considéré comme un ensemble de règles pour générer un code ayant une signification sémantique de la structure de l'image: les dictionnaires extraits décrivent les régularités des données, et sont comparés pour estimer l'information partagée entre deux objets. Cela permet de définir un système de recherche des images qui nécessite une supervision minimale par l'utilisateur, car il saute les étapes d'extraction de caractéristiques typiques, souvent dépendantes de paramètres. Ainsi, les hypothèses subjectives qui peuvent fausser l'analyse sont enlevées, et a leur place une approche guidée par les données est adoptée. Diverses applications sont présentées, et ces méthodes sont employées sans aucun changement des paramètres à différents types de données: photographies numériques, images radar, textes, génomes d'ADN, et signaux sismiques.
6

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes (composition, taille du génome) en lien avec leur écosystème spécifique : le sol pour les S. coelicolor et le milieu lait pour S. thermophilus
Second-order Hidden Markov Models (HMM2) are stochastic processes with a high efficiency in exploring bacterial genome sequences. Different types of HMM2 (M1M2, M2M2, M2M0) combined to combinatorial methods were developed in a new approach to discriminate genomic regions without a priori knowledge on their genetic content. This approach was applied on two bacterial models in order to validate its achievements: Streptomyces coelicolor and Streptococcus thermophilus. These bacterial species exhibit distinct genomic traits (base composition, global genome size) in relation with their ecological niche: soil for S. coelicolor and dairy products for S. thermophilus. In S. coelicolor, a first HMM2 architecture allowed the detection of short discrete DNA heterogeneities (5-16 nucleotides in size), mostly localized in intergenic regions. The application of the method on a biologically known gene set, the SigR regulon (involved in oxidative stress response), proved the efficiency in identifying bacterial promoters. S. coelicolor shows a complex regulatory network (up to 12% of the genes may be involved in gene regulation) with more than 60 sigma factors, involved in initiation of transcription. A classification method coupled to a searching algorithm (i.e. R’MES) was developed to automatically extract the box1-spacer-box2 composite DNA motifs, structure corresponding to the typical bacterial promoter -35/-10 boxes. Among the 814 DNA motifs described for the whole S. coelicolor genome, those of sigma factors (B, WhiG) could be retrieved from the crude data. We could show that this method could be generalized by applying it successfully in a preliminary attempt to the genome of Bacillus subtilis
7

Boudoin, Pierre. "L'interaction 3D adaptative : une approche basée sur les méthodes de traitement de données multi-capteurs." Phd thesis, Université d'Evry-Val d'Essonne, 2010. http://tel.archives-ouvertes.fr/tel-00553369.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La réalité virtuelle est un domaine touchant à plusieurs disciplines. Par le biais de l'interaction 3D l'Homme peut accomplir des tâches dans un environnement virtuel en utilisant des techniques d'interaction 3D. Ces techniques sont souvent mono-tâches et s'appuient sur l'utilisation de matériel de réalité virtuelle bien spécifique. Le passage d'une tâche de l'interaction 3D à une autre est le plus souvent à la charge de l'utilisateur, ou bien du programmeur. Cependant de nombreux problèmes sont présents dans ces systèmes, dits de réalité virtuelle. En effet, des problèmes matériels le plus souvent dû aux technologies utilisées sont présents et peuvent induire un comportement erratique du système. De plus, il peut arriver que les techniques d'interaction 3D ne soient pas adaptées à l'application de réalité virtuelle, ou que celles-ci soient trop complexes à utiliser pour le novice. Tous ces problèmes nuisent à l'immersion de l'être humain dans l'environnement virtuel ainsi qu'aux performances de l'interaction 3D et donc à l'accomplissement de la tâche dans l'application de réalité virtuelle. L'objectif de ce travail est de proposer un système d'interaction 3D adaptative. Par interaction 3D adaptative, on cherche à définir une interaction 3D qui soit continue tant au niveau des données qu'au basculement d'une tâche à l'autre. Nous avons donc modélisé et conçu un ensemble de composants pour accomplir cet objectif. Nous avons modélisé une technique d'interaction 3D pouvant être utilisé de manière continue même lors du basculement d'une tâche. Nous avons également conçu un système qui permet d'automatiser le basculement d'une tâche de l'interaction 3D vers une autre en estimant la tâche que souhaite accomplir l'utilisateur. Enfin, un dernier composant a pour rôle d'améliorer la précision et de garantir la continuité du tracking.
8

Ta, Minh Thuy. "Techniques d'optimisation non convexe basée sur la programmation DC et DCA et méthodes évolutives pour la classification non supervisée." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0099/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons particulièrement, dans cette thèse, à quatre problèmes en apprentissage et fouille de données : clustering pour les données évolutives, clustering pour les données massives, clustering avec pondération de variables et enfin le clustering sans connaissance a priori du nombre de clusters avec initialisation optimale des centres de clusters. Les méthodes que nous décrivons se basent sur des approches d’optimisation déterministe, à savoir la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution de problèmes de clustering cités précédemment, ainsi que des approches évolutionnaires élitistes. Nous adaptons l’algorithme de clustering DCA–MSSC pour le traitement de données évolutives par fenêtres, en appréhendant les données évolutives avec deux modèles : fenêtres fixes et fenêtres glissantes. Pour le problème du clustering de données massives, nous utilisons l’algorithme DCA en deux phases. Dans la première phase, les données massives sont divisées en plusieurs sous-ensembles, sur lesquelles nous appliquons l’algorithme DCA–MSSC pour effectuer un clustering. Dans la deuxième phase, nous proposons un algorithme DCA-Weight pour effectuer un clustering pondéré sur l’ensemble des centres obtenues à la première phase. Concernant le clustering avec pondération de variables, nous proposons également deux approches: clustering dur avec pondération de variables et clustering floue avec pondération de variables. Nous testons notre approche sur un problème de segmentation d’image. Le dernier problème abordé dans cette thèse est le clustering sans connaissance a priori du nombre des clusters. Nous proposons pour cela une approche évolutionnaire élitiste. Le principe consiste à utiliser plusieurs algorithmes évolutionnaires (EAs) en même temps, de les faire concourir afin d’obtenir la meilleure combinaison de centres initiaux pour le clustering et par la même occasion le nombre optimal de clusters. Les différents tests réalisés sur plusieurs ensembles de données de grande taille sont très prometteurs et montrent l’efficacité des approches proposées
This thesis focus on four problems in data mining and machine learning: clustering data streams, clustering massive data sets, weighted hard and fuzzy clustering and finally the clustering without a prior knowledge of the clusters number. Our methods are based on deterministic optimization approaches, namely the DC (Difference of Convex functions) programming and DCA (Difference of Convex Algorithm) for solving some classes of clustering problems cited before. Our methods are also, based on elitist evolutionary approaches. We adapt the clustering algorithm DCA–MSSC to deal with data streams using two windows models: sub–windows and sliding windows. For the problem of clustering massive data sets, we propose to use the DCA algorithm with two phases. In the first phase, massive data is divided into several subsets, on which the algorithm DCA–MSSC performs clustering. In the second phase, we propose a DCA–Weight algorithm to perform a weighted clustering on the obtained centers in the first phase. For the weighted clustering, we also propose two approaches: weighted hard clustering and weighted fuzzy clustering. We test our approach on image segmentation application. The final issue addressed in this thesis is the clustering without a prior knowledge of the clusters number. We propose an elitist evolutionary approach, where we apply several evolutionary algorithms (EAs) at the same time, to find the optimal combination of initial clusters seed and in the same time the optimal clusters number. The various tests performed on several sets of large data are very promising and demonstrate the effectiveness of the proposed approaches
9

Heritier-Pingeon, Christine. "Une aide à la conception de systèmes de production basée sur la simulation et l'analyse de données." Lyon, INSA, 1991. http://tel.archives-ouvertes.fr/docs/00/84/01/51/PDF/1991_Heritier-Pingeon_Christine.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les formes nouvelles de la concurrence imposent aux systèmes de production une flexibilité de plus en plus grande. Dans le cas de systèmes automatisés, les décisions prises lors de la conception vont fortement conditionner les possibilités du futur système ainsi que ses capacités d'adaptation aux changements, donc son degré de flexibilité. Le travail contenu dans ce mémoire s'attache précisément à l'étude de méthodes et d'outils d'aide à la décision pour la conception de systèmes de production. Le lecteur est d'abord introduit au domaine puis aux outils et méthodes utilisés. Le modèle d'atelier qui sert de support à la démarche est alors présenté : il est suivi d'une réflexion sur la construction des campagnes de simulations conduites à partir de ce modèle, réflexion concrétisée par la définition d'un module de génération automatique de plans de simulations associés au modèle d'atelier choisi. L'analyse des données utilisées comme méthode d'acquisition des connaissances sur le comportement des systèmes de production est ensuite envisagée : une méthode d'analyse est proposée et expérimentée. Ce travail a été développé avec le souci constant d'explorer les possibilités de l'analyse de données dans le domaine et d'évaluer ces possibilités sur la base de nombreuses expériences
New forms of competition are leading manufacturing systems to more and more flexibility. In the case of highly automated systems, decisions taken in the design phase will have a great influence on the possibilities of the future system and also on its ease of adaptation to changes, and thus on its degree of flexibility. This work is a study of methods and tools for decision support in the design of manufacturing systems. The reader is first introduced to the scope and then to the tools and methods employed. The workshop 's model which is used as a support for the approach is then presented and the construction of a simulation plan considered These considerations are then put into a concrete form by defining an automated generation module for simulation plans which are associated to the chosen workshop model. Data analysis which is used as a knowledge acquisition method is considered a method of analysis is proposed and tested. This work was developed to explore data analysis possibilities in this field and to evaluate these possibilities on the base of numerous experiments
10

Costache, Mihai. "Support vector machines et méthodes bayésiennes pour l'apprentissage sémantique fondé sur des catégories : recherche dans les bases de données d'imagerie satellitaire." Paris, ENST, 2008. http://www.theses.fr/2008ENST0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De grands volumes de données multimédias sont disponibles avec la source représentée par l'activité humaine dans différents domaines comme la photographie et les applications de la télédétection, etc. Pour l'ensemble de ces données, il est absolument nécessaire d'avoir des outils et des méthodes permettant une organisation et une utilisation optimales des données, afin que l'accès au contenu puisse être fait d'une manière rapide et efficace. Le nombre de satellites opérationnels augmente chaque année et génère une explosion du volume de données acquises. Par exemple, entre 10 à 100 Gigaoctets de données d'image sont en moyenne enregistrées chaque jour par des capteurs optiques et radar embarques. Le satellite ESA de l'environnement, Envisat, lance 2002 recueille environ 18 Téraoctets de données par année. Les données générées sont traitées manuellement par des experts spécialisés dans chaque domaine d'application en télédétection. Toutefois, ce type d'analyse est coûteux et prend du temps. De plus, il permet le traitement d' une petite fraction de données disponibles, à un rythme beaucoup plus faible que celui dans lequel les images enregistrées sont envoyées au sol. Pour faire face à ces deux principaux aspects de la télédétection, il est clair qu'il faut des outils très efficaces pour la recherche par contenu dans des archives satellitaires. Ils doivent être en mesure d'identifier et de reconnaître des structures dans les images. Ces systèmes doivent être rapides et fonctionner avec une grande précision. Un tel système a pour objectif d'automatiquement effectuer la classification des images numériques disponibles, sur la base d'une formation préalable, qui est supervisisée par un expert. Ainsi, la base de données est mieux organisée et des images d'intérêt peuvent être identifiées plus facilement plutôt que par l'emploi d'une interprétation manuelle d'experts. La tâche consiste à déduire des connaissances par le biais de l'interaction homme-machine. L'interaction entre un système automatique et un expert humain permet le transfert de l'expertise humaine à la machine par le biais d'algorithmes d'inférence de connaissances capable d'interpréter la décision humaine et de le traduire en conceptuel. De cette manière, le processus d'extraction d'information dans des données satellitaires est automatisé, ce qui permet une réponse rapide aux requêtes de l'utilisateur. Dans le domaine de la recherche par contenu il y a beaucoup de travaux mais peu dans le domaine satellitaire. Dans cette thèse nous proposons un système complet d'annotations d'images satellitaires par le contenu et par mots clés. Du point de vue des techniques d'apprentissage, une combinaison entre les SVM et les formalismes de Bayes peut être établie pour la génération de classe sémantique et catégorique en fonction de la représentation de données. L'apprentissage se fait sur la base d'un dialogue homme-machine qui est essentiel dans le processus de transfert de connaissances entre l'expert et le système. La combinaison des formalismes SVM et Bayésienne est une contribution originale de la thèse
Nowadays large volumes of multimedia data are available with the source being represented by different human activity domains such as photography, television channels, remote sensing applications, etc. For all these data there is a clear need for tools and methods which can allow an optimal data organisation so that the access to the content can be done in a fast and efficient manner. The number of operational EO satellites increases every year and generates an explosion of the acquired data volume. Nowadays, for instance, on average somewhere between 10 to 100 Gigabytes of image data are recorded daily on regular basis by the available optical and Synthetic Aperture Radar (SAR) sensors on board of the EO satellites. ESA's Environmental Satellite, Envisat, deployed in 2002 collects per year around 18 Terabytes of multisensor data. This leads to a total of about 10 Terabytes of annually recorded data volume which is representing a huge volume of data to be processed and interpreted. The generated data volume in classical remote sensing applications, are treated manually by specialised experts for each domain of application. However, this type of analysis is costly and time consuming. Moreover, it allows the processing of only a small fraction of the available data as the user-based image interpretation is done at a greatly lower pace that the one in which the recorded images are sent to the ground stations. In order to cope with these two major aspects in remote sensing, there is a clear need for highly efficient search tools for EO image archives and for search mechanisms able to identify and recognise structures within EO images; moreover these systems should be fast and work with high precision. Such a system should automatically perform classification of the available digital image collection, based on a previous training, which was supervised by an expert. In this way, the image database is better organized and images of interest can be identifed more easily than just by employing a manual expert image interpretation. The task is to infer knowledge, by means of human-machine interaction, from EO image archives. The human-machine interaction enables the transfer of human expertise to the machine by means of knowledge inference algorithms which interpret the human decision and to translate it into conceptual levels. In this way, the EO image information search and extraction process is automated, allowing a fast reponse adapted to human queries

Книги з теми "Méthodes basées sur les données":

1

Martin, Daniel ingénieur I. D. N. Bases de données: Méthodes pratiques sur maxi et mini-ordinateurs. 3rd ed. Paris: Dunod, 1985.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Andrieu, Olivier. Méthodes et outils de recherche sur l'Internet. Paris: Eyrolles, 1997.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Ontario. Esquisse de cours 12e année: Mathématiques de la gestion des données mdm4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Romano, Elisa. Prévalence de l'hyperactivité-impulsivité et de l'inattention chez les enfants canadiens: Constats tirés des données du premier cycle (1994-1995) de l'Enquête longitudinale nationale sur les enfants et les jeunes : rapport final. [Hull, Québec]: Développement des ressources humaines Canada, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Sellin, Burkart. Antizipation von Berufs- und Qualifikationsentwicklungen: Empfehlungen und Schlussfolgerungen aufgrund einer Untersuchung neuer, innovativer Methoden und Instrumente in der Europäischen Union = Anticipating occupational and qualificational developments : recommendations and conclusions based on a review of recent innovations in methods and instruments applied in the European Union = Prévoir le développement des professions et des qualifications : recommendations et conclusions basées sur une étude des innovations récentes relatives aux méthodes et aux instruments utilisés dans l'Union européenne. Luxembourg: Office for Official Publications of the European Communities, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Weller, Susan C. Systematic data collection. Newbury Park, Calif: Sage Publications, 1988.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ontario. Esquisse de cours 12e année: Le droit canadien et international cln4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Ontario. Esquisse de cours 12e année: Étude de l'alimentation et de la nutrition hfa4m cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Ontario. Esquisse de cours 12e année: Atelier d'écriture fae4o cours ouvert. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Ontario. Esquisse de cours 12e année: Histoire de l'Occident et du monde chy4u. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Méthodes basées sur les données":

1

ENCRENAZ, Thérèse, Marcello FULCHIGNONI, Laurent LAMY, Françoise ROQUES, and James LEQUEUX. "Méthodes d’étude du Système solaire." In Le Système solaire 2, 279–328. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9034.ch6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce chapitre passe en revue les différentes techniques observationnelles utilisées en planétologie (sondage à distance et instrumentation spatiale in situ à toutes les longueurs d’onde), ainsi que l’Observatoire virtuel et les bases de données. Il présente ensuite les perspectives d’observation au sol et dans l’espace et conclut sur l’apport des simulations numériques.
2

ATCERO, Milburga. "A Critical Evaluation of New Challenges Pertaining to the Activities of Translation and Interpretation in Sub-Saharan Africa." In La traduction et l’interprétation en Afrique subsaharienne : les nouveaux défis d’un espace multilingue, 25–38. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3540.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette contribution vise à évaluer de façon critique les nouveaux défis liés à la traduction et à l’interprétation (TI) dans une Afrique subsaharienne caractérisée par sa grande diversité linguistique. L’auteur espère identifier et suggérer des méthodologies pouvant être appliquées pour rapprocher cette région du reste du monde. Il identifie, en outre, la nécessité pour l’Afrique subsaharienne de mettre en œuvre des politiques et pratiques qui favorisent le multilinguisme. Elles sont principalement basées sur la pluralité des langues, avec un espace adéquat pour les langues internationales, étant donnée le rôle crucial des parcours scolaires sur ce continent. Dans l’environnement de travail dynamique d’aujourd’hui, différentes institutions reconnaissent le rôle important joué par la TI dans la recherche et le renforcement de l’efficacité des individus comme des organisations. L’auteur s’appuie sur un cadre logique illustrant l’importance de la traduction dans les sphères socioculturelles et linguistiques, pour la production de connaissances sur l’Afrique. Il soutient que la traduction devrait être considérée comme une occasion d’explorer la diversité des possibles dans la littérature africaine. Il conclut en décrivant les méthodes envisageables et les nouvelles orientations.
3

GARABÍK, Radovan. "Dvojjazyčné prekladové ekvivalenty z paralelného slovensko-francúzskeho korpusu." In Des langues calculables à l'homme incalculable, 53–60. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.5262.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons une base de données de type dictionnaire d'équivalents français-slovaque extraits d'un corpus parallèle slovaque-français aligné sur les phrases et les mots. Dans cet article nous abordons la structure de base du corpus, composé d'un sous-corpus de textes de fiction et d'un sous-corpus de textes administratifs et techniques et la méthode d'extraction et d'élagage des équivalents de traduction bilingues. La base de données est accessible sur le portail des dictionnaires de l'Institut Ľ. Štúr (Institute of Linguistics) et offre de riches possibilités d'interrogation et de visualisation des équivalents de traduction courts alignés sur les mots.
4

MATTRAND, Cécile, Pierre BEAUREPAIRE, and Nicolas GAYTON. "Méthodes adaptatives basées sur le krigeage pour l’évaluation de probabilités de défaillance : focus sur les méthodes AK." In Ingénierie mécanique en contexte incertain, 223–54. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude fournit au lecteur un aperçu des méthodes adaptatives récentes de calcul de probabilité de défaillance basées sur l’utilisation du krigeage (dit « processus gaussien ») avec un focus sur les méthodes nommées AK (Adaptative and Kriging-based methods). Ces méthodes sont particulièrement efficaces en présence de modèles de comportement coûteux à évaluer.
5

Courgeau, Daniel. "Les données de recensement sur la mobilité." In Méthodes de mesure de la mobilité spatiale. Ined Éditions, 2021. http://dx.doi.org/10.4000/books.ined.15795.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Lemoine, Jean-François. "Chapitre 11. La collecte des données sur Internet." In Les méthodes de recherche du DBA, 191. EMS Editions, 2018. http://dx.doi.org/10.3917/ems.cheva.2018.01.0191.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Quatrelivre, Carole. "Gournay-sur-Aronde (Oise), 1977-2017 : 40 ans d’archives archéologiques." In Méthodes d’enregistrement des données en archéologie. Éditions de la Sorbonne, 2019. http://dx.doi.org/10.4000/books.psorbonne.38837.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

BOURINET, Jean-Marc. "Estimation de probabilité d’événements rares." In Ingénierie mécanique en contexte incertain, 153–222. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce chapitre aborde l’estimation de probabilités faibles utiles pour l’analyse de la fiabilité de systèmes à fortes exigences de sûreté. La présentation inclut les méthodes FORM et SORM connues en fiabilité structurale, mais également les méthodes basées sur un échantillonnage naïf (Monte-Carlo) ou préférentiel (tirage d’importance, subset simulation). La sensibilité de la probabilité de défaillance calculée est également introduite.
9

BAUMGARDT, Ursula. "Analyse littéraire et traitement automatique de corpus de littérature orale." In Des langues calculables à l'homme incalculable, 17–26. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.5259.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Je voudrais présenter un exemple d’utilisation de base de données textuelles dans l’analyse d’un corpus de littérature orale. L’approche proposée est expérimentale, en ce sens que je ne me réfère pas à une école ni à une méthode vérifiée et confirmée que j’appliquerais à l’objet dont il est question ici. Je retracerai simplement le cheminement de mes interrogations qui, partant de la littérature africaine francophone, ont intégré la littérature orale en peul. L’une des questions concerne les représentations de l’espace dans des contes oraux. La réflexion porte sur les relations pouvant être éventuellement établies entre le traitement automatique de corpus et l’analyse littéraire.
10

"Méthodes d'encapsulation basées sur une réaction de transacylation Aude MUNIN, Maïté CALLEWAERT, Florence EDWARDS-LEVY." In Procédés et formulations au service de la santé, 94–103. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0939-4-009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Méthodes basées sur les données":

1

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros, and D. Tardivo. "Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
2

Lan, R., F. Campana, J. H. Catherine, U. Ordioni, and D. Tardivo. "Nouvelles techniques d’aide au diagnostic des lésions pré-cancéreuses et cancéreuses de la cavité orale : revue systématique et résultats préliminaires." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction : Récemment, de nombreuses techniques d’aide au diagnostic des lésions potentiellement malignes ou malignes de la cavité orale ont vu le jour (autofluorescence, spectroscopie, analyse cytologique microscopique, Narrow Band Imaging ...) sans jamais apporter la preuve scientifique de leurs intérêts, en complément ou en remplacement de l’examen histologique. De nombreuses études ont également été menées afin de comparer ces nouvelles techniques en comparaison avec l’examen visuel direct dans la détection précoce des transformations malignes. L’objectif principal de ce travail est de présenter les résultats préliminaires d’une revue systématique réalisée afin d’évaluer la performance diagnostique de ces nouvelles techniques en comparaison à la biopsie dans le diagnostic des lésions pré-cancéreuses et cancéreuses de la cavité orale. Matériels et méthodes : En novembre 2017, une revue systématique de la littérature portant sur les nouvelles techniques d’aide au diagnostic des lésions de la muqueuse buccale a été réalisée, basée sur la méthode PRISMA et dont la méthodologie du protocole a été déposé pour enregistrement sur la plateforme Prospero. Les bases de données Pubmed et Science Direct, la collection Web of Science et la librairie Cochrane ont été consultées (2000-2017). Après le retrait des doublons, les titres et les résumés d’articles potentiellement pertinents seront examinés par deux évaluateurs indépendants selon les critères d’inclusion suivants : articles en anglais, articles originaux ou suivies de cas clinique sur la cavité orale. Les ≪ lettres aux éditeurs ≫ et les études chez l’animal seront exclues. Résultats attendus : De par leurs hétérogénéités, biais, faibles puissances et niveaux de preuves insuffisants, aucune recherche n’a pu à ce jour être jugée suffisamment acceptable pour mettre en évidence un réel intérêt de ces techniques en comparaison à l’examen histologique ou visuel, que ce soit dans le dépistage ou le diagnostic des lésions potentiellement cancéreuses ou cancéreuses de la cavité orale. En revanche, certaines techniques prometteuses, comme le Narrow Band Imaging, paraissent prometteuses comme aide dans l’identification de zones cibles à la biopsie et des marges chirurgicales. Discussion et conclusion : De par leurs manques de spécificités et sensibilités, les dernières techniques d’aide au diagnostic ne permettent remplacer l’examen visuel direct et la palpation digitale, référence de l’inspection de la muqueuse buccale dans le dépistage des lésions potentiellement maligne de la cavité orale ni la biopsie, gold standard de l’établissement de diagnostic d’une pathologie de la muqueuse buccale. De nouvelles études, aux méthodologies appropriées sont encore nécessaires pour affirmer l’intérêt réel de ces techniques dans l’identification de zones cibles à la biopsie et des marges chirurgicales. Les cancers de la cavité orale, de mauvais pronostic et dont la détection précoce est insuffisante, est une priorité de santé publique qui devrait amener à voir l’émergence de nouvelles techniques plus performantes.
3

Dubuc, A., P. Monsarrat, S. Laurencin-Dalicieux, F. Virard, J. P. Sarrette, N. Merbahi, and S. Cousty. "Application du plasma atmosphérique froid en oncologie : une revue systématique." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction : Le plasma atmosphérique froid est un gaz ionisé produit à pression atmosphérique. Plusieurs applications médicales sont étudiées, notamment la cicatrisation des plaies chroniques et l’effet antimicrobien. En effet, le traitement par plasma permet de générer de nombreuses espèces réactives de l’oxygène et de l’azote. L’application d’un tel traitement in-vitro sur des cellules eucaryotes a montré de nombreux effets cellulaires tel que l’apoptose. Les applications dans le domaine de l’oncologie ont par conséquent été étudiées. Objectif : L’objectif de cette revue systématique est d’analyser l’utilisation du plasma atmosphérique froid en oncologie ainsi que les méthodologies (lignées cellulaires ciblées, paramètres physiques, thérapies directes ou indirectes) mises en oeuvre jusqu’à ce jour. Matériels et méthodes : Les bases de données Pubmed, ICTRP et Google Scholar ont été explorées jusqu’au 17/01/2017 afin de recenser les études traitant de l’utilisation du plasma en oncologie, que ce soit des études in-vitro, in-vivo ou des essais cliniques. Résultats : 150 articles originaux ont été inclus. Les Jets de plasma sont les systèmes de production de plasma les plus utilisés (73,3%). L’hélium est le gaz le plus utilisé (34%) suivi par l’air (28%) et l’argon (19,3%). Les études sont principalement in-vitro (94%). L’application directe du plasma est la plus représentée (84,2%). Les lignées cellulaires ciblées sont la plupart dérivées de lignées cancéreuses humaines (82%), en particulier des lignées issues de cancer du cerveau (16,6%). Conclusions : Cette étude met en évidence la multiplicité de moyens de production et d’applications clinques du plasma atmosphérique froid en oncologie. Alors que certains dispositifs peuvent être utilisés directement sur les patients, d’autres ouvrent la voie au développement de nouveaux produits pharmaceutiques qui pourraient être produits à échelle industrielle. L’utilisation clinique du plasma nécessite la mise au point de protocoles fiables et standardisés afin de déterminer le plasma le plus adapté à chaque type de cancers et d’envisager son association avec les traitements conventionnels.
4

Poirier, Franck, and Igor Schadle. "État de l'art des méthodes de saisie de données sur dispositifs nomades." In the 16th conference. New York, New York, USA: ACM Press, 2004. http://dx.doi.org/10.1145/1148613.1148632.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Hadj SaÏd, M., F. Campana, U. Ordioni, R. Lan, and C. M. Chossegros. "Tendances saisonnières des alvéolites et cellulites de la face en France : données du moteur de recherche Google Trends©." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction : Certaines pathologies présentent des tendances saisonnières dans leur incidence et leur prévalence. Ces tendances s’expriment par l’intérêt affiché dans le nombre de recherches sur Internet pour ces pathologies selon les mois de l’année. Matériel et Méthodes : Les données des requêtes de Google Trends© ont été extraites de décembre 2007 à décembre 2017. Celles-ci ont été traitées et calculées par volume trimestriel de recherche correspondant à chacune des quatre saisons sur cette période de 10 ans. Les données ont été isolées pour la région géographique spécifique correspondant à la France pour les termes de recherche suivants : « alvéolite », « cellulite de la face », « alvéolite dentaire », « cellulite dentaire » et « abcès dentaire ». Le même procédé a été réalisé pour les régions géographiques correspondant aux USA et à l’Australie avec les termes de recherche « alveolitis », « facial cellulitis », « dental alveolitis », « dental cellulitis », « dental abcess ». Les effets saisonniers ont été calculés à l’aide de modèles de régression. Résultats : En France, le volume de recherche est le plus élevé en hiver. Les patients manifestent le plus faible intérêt de recherche pour les cellulites et abcès dentaires pendant l’été (p <0,05). Les variations saisonnières sont comparables aux EZtats-Unis (hémisphère nord) alors qu’en Australie (hémisphère sud), elles présentent une tendance inverse. Les tendances de recherche pour l’alvéolite sont stables durant l’année (p <0,05). Conclusion : Au regard des données des requêtes de Google Trends, les cellulites de la face semblent plus susceptibles de se produire pendant les mois d’hiver, contrairement aux alvéolites qui n’ont pas de tendance saisonnière.
6

Catros, S. "A quoi servent les Bio-Imprimantes 3D ?" In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
7

SION, Mathilde, and Moncef BOUSSABAH. "Quid de l'impact de la déficience des données de base sur le choix des caractéristiques d'un émissaire en mer dans le golfe de Tunis?" In SANNIER L., LEVACHER D., JOURDAN M. (2009). Approche économique et validation de méthodes de traitements aux liants hydrauliques de sédiments marins contaminés. Revue Paralia, n° 2, pp s2.1– s2.15. Editions Paralia, 2009. http://dx.doi.org/10.5150/cmcm.2009.056-5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Звіти організацій з теми "Méthodes basées sur les données":

1

Gruson-Daniel, Célya, and Maya Anderson-González. Étude exploratoire sur la « recherche sur la recherche » : acteurs et approches. Ministère de l'enseignement supérieur et de la recherche, November 2021. http://dx.doi.org/10.52949/24.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
• Introduction Dans le cadre du deuxième Plan National de la Science Ouverte, le Comité pour la science ouverte a souhaité mener une étude pour la préfiguration d’un Lab de la science ouverte (LabSO) afin de mieux comprendre le périmètre de la recherche sur la recherche (research on research) dans un contexte international. • Objectifs de l’étude : L’étude répond ainsi à trois objectifs : 1. repérer des grands courants de recherche sur la recherche (RoR) dans le paysage plus général de la recherche universitaire en Europe et outre-atlantique, en reconnaître les principaux acteurs institutionnels et différencier les approches mobilisées par les uns et les autres ; 2. proposer une méthodologie d’analyse dans une démarche de science ouverte (méthodes mixtes et cartographie numérique) pour faciliter l’appropriation de son contenu ; 3. émettre des recommandations pour faciliter le positionnement du LabSO et s’inspirer d’initiatives existantes. • Méthodologie Une série de treize entretiens et une collecte de données d’une sélection thématique de sites web ont permis de dresser un paysage d’acteurs et d’approches impliqués dans des recherches sur la recherche. Ce dernier s’est nourri d’une démarche de cartographie numérique pour repérer et visualiser les liens existants entre différentes communautés, mouvements, réseaux et initiatives (financeurs, projets, centres de recherche, fournisseurs de données, éditeurs, etc.). • Résultats Le rapport présente différents courants de « recherche sur la recherche » issus des traditions théoriques et méthodologiques de la sociologie, de l’économie, des sciences politiques, de la philosophie, des sciences de l’information et des mesures (biblio/scientométrie). Des courants plus récents sont aussi décrits. Ils s’inscrivent dans un contexte de politiques publiques favorables à la science ouverte et ont émergé dans le champ des sciences sociales computationnelles, des Big Data ou encore des domaines biomédicaux. Si certaines de ces approches s’appuient sur des courants académiques (STS, sciences des mesures) établis depuis de nombreuses décennies, d’autres comme ceux de la « métascience » ou de la « science de la science », se sont structurées plus récemment avec une visée prescriptive et de changement fondé sur des preuves (evidence-based) se basant sur un engagement normatif pour une science plus ouverte, inclusive et diverse. Bien loin d’un paysage statique, l’étude fait ressortir des recherches en mouvement, des débats tout autant que des mises en garde afin que certains courants « ne réinventent pas la roue » en faisant fit d’une longue tradition académique de l’étude des sciences et de la production scientifiques. De nouvelles alliances entre centres de recherche et laboratoires, institutions subventionnaires, décideurs politiques et fournisseurs de données ont été repérées. Elles participent à une dynamique actuelle d’équipement des politiques publiques par des outils d’évaluation et des protocoles de recherche pour guider les actions menées, on parle d’évidence-based policies. Un des exemples les plus récents étant laa seconde feuille de route du RoRI1 poussant notamment à la formation d’un réseau international d’instituts de recherche sur la recherche, fondé sur le partage et la mutualisation de données, de méthodes et d’outils. Outre la présentation de ces différents acteurs et courants, le rapport pointe le rôle joué par les infrastructures et les fournisseurs de données scientifiques (publications, données, métadonnées, citations, etc.) dans la structuration de ce paysage et les équilibres à trouver. • Recommandations 1. Accompagner la construction d’indicateurs et de métriques par le biais d’un regard critique et de discussions collectives pour mesurer leurs impacts sur les comportements des professionnels de la recherche (mésusages, gaming). 2. Porter attention aux étapes de diffusion des résultats scientifiques issus des « recherches sur la recherche » pour les adapter aux différents publics ciblés (chercheurs, responsables des politiques publiques de recherche, journalistes, etc.). 3. Articuler les travaux de « recherche sur la recherche » avec une démarche de science ouverte en questionnant notamment les choix faits concernant les fournisseurs de données, les infrastructures et outils d’évaluation, de découvrabilité et d’analyse de la production scientifique (gouvernance, utilisation des données, etc.). 4. Soutenir les approches thématiques et transversales plutôt que disciplinaire de manière collaborative entre les différents membres du Lab de la science ouverte et aider le dialogue entre les différentes approches et mouvements (STS, research on research, science of science, scientométrie, etc.)
2

Brinkerhoff, Derick W., Sarah Frazer, and Lisa McGregor. S'adapter pour apprendre et apprendre pour s'adapter : conseils pratiques tirés de projets de développement internationaux. RTI Press, January 2018. http://dx.doi.org/10.3768/rtipress.2018.pb.0015.1801.fr.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les principes de programmation et de gestion adaptables centrés sur l’apprentissage, l’expérimentation et la prise de décisions basée sur des faits gagnent en popularité chez les bailleurs de fonds et les partenaires de mise en œuvre dans le monde du développement international. L'adaptation exige un apprentissage de manière à ce que les ajustements apportés au cours du projet soient éclairés. Cela exige des méthodes de collecte d’informations qui fassent la promotion de la réflexion, de l’apprentissage et de l’adaptation, au-delà de données préalablement précisées. Une concentration sur l’adaptation modifie la réflexion traditionnelle sur le cycle des programmes. D'une part, elle fait disparaître les séparations entre la conception, la mise en œuvre et l’évaluation et, d'autre part, elle recadre la réflexion pour prendre en compte la complexité des problèmes de développement et des voies de changements non linéaires. Le soutien de structures et de processus de gestion est essentiel pour encourager la gestion adaptable. Les organisations de mise en œuvre et les bailleurs defonds expérimentent avec la manière dont les passations de marchés, la sous-traitance, la planification du travail et les rapports peuvent être modifiés afin que la programmation adaptable soit encouragée. Des systèmes de suivi, d’évaluation et d’apprentissage bien conçus peuvent aller au-delà des exigences en matière de redevabilité et de rapports pour produire des données et des enseignements pour une prise de décisions et une gestion adaptable basées sur les faits. Il est important de continuer l’expérimentation et l’apprentissage de manière à intégrer la programmation et la gestion adaptable dans les politiques et pratiques opérationnelles des bailleurs de fonds, despartenaires pays et des entités de mise en œuvre. Nous devons consacrer des efforts continus à la constitution d'une base de faits qui pourra contribuer àla gestion adaptable de manière à ce que les résultats de développement international soient atteints.

До бібліографії