To see the other types of publications on this topic, follow the link: Méthodes de Monte-Carlo et quasi Monte-Carlo.

Journal articles on the topic 'Méthodes de Monte-Carlo et quasi Monte-Carlo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 27 journal articles for your research on the topic 'Méthodes de Monte-Carlo et quasi Monte-Carlo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Tuffin, Bruno, and Louis-Marie Le Ny. "Parallélisation d'une Combinaison des Méthodes de Monte-Carlo et Quasi-Monte-Carlo et Application aux Réseaux de Files d'Attente." RAIRO - Operations Research 34, no. 1 (January 2000): 85–98. http://dx.doi.org/10.1051/ro:2000106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Faure, Henri. "Méthodes quasi-Monte-Carlo multidimensionnelles." Theoretical Computer Science 123, no. 1 (January 1994): 131–37. http://dx.doi.org/10.1016/0304-3975(94)90073-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Cieslak, Mikolaj, Christiane Lemieux, Jim Hanan, and Przemyslaw Prusinkiewicz. "Quasi-Monte Carlo simulation of the light environment of plants." Functional Plant Biology 35, no. 10 (2008): 837. http://dx.doi.org/10.1071/fp08082.

Full text
Abstract:
The distribution of light in the canopy is a major factor regulating the growth and development of a plant. The main variables of interest are the amount of photosynthetically active radiation (PAR) reaching different elements of the plant canopy, and the quality (spectral composition) of light reaching these elements. A light environment model based on Monte Carlo (MC) path tracing of photons, capable of computing both PAR and the spectral composition of light, was developed by Měch (1997), and can be conveniently interfaced with virtual plants expressed using the open L-system formalism. To improve the efficiency of the light distribution calculations provided by Měch’s MonteCarlo program, we have implemented a similar program QuasiMC, which supports a more efficient randomised quasi-Monte Carlo sampling method (RQMC). We have validated QuasiMC by comparing it with MonteCarlo and with the radiosity-based CARIBU software (Chelle et al. 2004), and we show that these two programs produce consistent results. We also assessed the performance of the RQMC path tracing algorithm by comparing it with Monte Carlo path tracing and confirmed that RQMC offers a speed and/or accuracy improvement over MC.
APA, Harvard, Vancouver, ISO, and other styles
4

Gordon, Stephen, and Gilles Bélanger. "Échantillonnage de Gibbs et autres applications économétriques des chaînes markoviennes." Survol de la littérature 72, no. 1 (February 13, 2009): 27–49. http://dx.doi.org/10.7202/602194ar.

Full text
Abstract:
RÉSUMÉCe survol fournit une introduction aux techniques d’échantillonnage de typeMarkov Chain Monte Carlo(MCMC) et leurs applications à l’économétrie bayesienne. Par ce survol notre but n’est pas d’expliquer les fondements théoriques derrière les méthodes de type MCMC, mais bien de faire un exposé pratique des techniques qui s’y rapportent. Nous chercherons surtout à mettre en valeur la facilité et l’étendue des applications par l’utilisation d’exemples simples.
APA, Harvard, Vancouver, ISO, and other styles
5

Sambou, S. "Comparaison par simulation de Monte-Carlo des propriétés de deux estimateurs du paramètre d'échelle de la loi exponentielle : méthode du maximum de vraisemblance (MV) et méthode des moindres carrés (MC)." Revue des sciences de l'eau 17, no. 1 (April 12, 2005): 23–47. http://dx.doi.org/10.7202/705521ar.

Full text
Abstract:
La loi exponentielle est très répandue en hydrologie : elle est faiblement paramétrée, de mise en œuvre aisée. Deux méthodes sont fréquemment utilisées pour estimer son paramètre : la méthode du maximum de vraisemblance et la méthode des moments, qui fournissent la même estimation. A côté de ces deux méthodes, il y a celle des moindres carrés qui est très rarement utilisée pour cette loi. Dans cet article, nous comparons le comportement asymptotique de l'estimateur de la méthode des moindres carrés avec celui de la méthode du maximum de vraisemblance en partant d'une loi exponentielle à un seul paramètre a connu, puis en généralisant les résultats obtenus à partir de la dérivation des expressions analytiques. L'échantillon historique disponible en pratique étant unique, et de longueur généralement courte par rapport à l'information que l'on désire en tirer, l'étude des propriétés statistiques des estimateurs ne pourra se faire qu'à partir d'échantillons de variables aléatoires représentant des réalisations virtuelles du phénomène hydrologique concerné obtenus par simulations de Monte Carlo. L'étude par simulation de Monte Carlo montre que pour de faibles échantillons, l'espérance mathématique des deux estimateurs tend vers le paramètre réel, et que la variance de l'estimateur des moindres carrés est supérieure à celle de l'estimateur du maximum de vraisemblance.
APA, Harvard, Vancouver, ISO, and other styles
6

Dufour, Jean-Marie, Abdeljelil Farhat, and Lynda Khalaf. "Tests multiples simulés et tests de normalité basés sur plusieurs moments dans les modèles de régression*." Articles 80, no. 2-3 (October 24, 2005): 501–22. http://dx.doi.org/10.7202/011397ar.

Full text
Abstract:
RésuméCet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte-Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte-Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les loisplatikurtiques– et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
APA, Harvard, Vancouver, ISO, and other styles
7

Kazashi, Yoshihito. "Quasi–Monte Carlo integration with product weights for elliptic PDEs with log-normal coefficients." IMA Journal of Numerical Analysis 39, no. 3 (May 23, 2018): 1563–93. http://dx.doi.org/10.1093/imanum/dry028.

Full text
Abstract:
Abstract Quasi–Monte Carlo (QMC) integration of output functionals of solutions of the diffusion problem with a log-normal random coefficient is considered. The random coefficient is assumed to be given by an exponential of a Gaussian random field that is represented by a series expansion of some system of functions. Graham et al. (2015, Quasi-Monte Carlo finite element methods for elliptic PDEs with lognormal random coefficients. Numer. Math., 131, 329–368) developed a lattice-based QMC theory for this problem and established a quadrature error decay rate ≈ 1 with respect to the number of quadrature points. The key assumption there was a suitable summability condition on the aforementioned system of functions. As a consequence, product-order-dependent weights were used to construct the lattice rule. In this paper, a different assumption on the system is considered. This assumption, originally considered by Bachmayr et al. (2017c, Sparse polynomial approximation of parametric elliptic PDEs. Part I: affine coefficients. ESAIM Math. Model. Numer. Anal., 51, 321–339) to utilise the locality of support of basis functions in the context of polynomial approximations applied to the same type of the diffusion problem, is shown to work well in the same lattice-based QMC method considered by Graham et al.: the assumption leads us to product weights, which enables the construction of the QMC method with a smaller computational cost than Graham et al. A quadrature error decay rate ≈ 1 is established, and the theory developed here is applied to a wavelet stochastic model. By a characterisation of the Besov smoothness, it is shown that a wide class of path smoothness can be treated with this framework.
APA, Harvard, Vancouver, ISO, and other styles
8

Herrmann, L., and C. Schwab. "Multilevel quasi-Monte Carlo integration with product weights for elliptic PDEs with lognormal coefficients." ESAIM: Mathematical Modelling and Numerical Analysis 53, no. 5 (August 6, 2019): 1507–52. http://dx.doi.org/10.1051/m2an/2019016.

Full text
Abstract:
We analyze the convergence rate of a multilevel quasi-Monte Carlo (MLQMC) Finite Element Method (FEM) for a scalar diffusion equation with log-Gaussian, isotropic coefficients in a bounded, polytopal domain D ⊂ ℝd. The multilevel algorithm QL* which we analyze here was first proposed, in the case of parametric PDEs with sequences of independent, uniformly distributed parameters in Kuo et al. (Found. Comput. Math. 15 (2015) 411–449). The random coefficient is assumed to admit a representation with locally supported coefficient functions, as arise for example in spline- or multiresolution representations of the input random field. The present analysis builds on and generalizes our single-level analysis in Herrmann and Schwab (Numer. Math. 141 (2019) 63–102). It also extends the MLQMC error analysis in Kuo et al. (Math. Comput. 86 (2017) 2827–2860), to locally supported basis functions in the representation of the Gaussian random field (GRF) in D, and to product weights in QMC integration. In particular, in polytopal domains D ⊂ ℝd, d=2,3, our analysis is based on weighted function spaces to describe solution regularity with respect to the spatial coordinates. These spaces allow GRFs and PDE solutions whose realizations become singular at edges and vertices of D. This allows for non-stationary GRFs whose covariance operators and associated precision operator are fractional powers of elliptic differential operators in D with boundary conditions on ∂D. In the weighted function spaces in D, first order, Lagrangian Finite Elements on regular, locally refined, simplicial triangulations of D yield optimal asymptotic convergence rates. Comparison of the ε-complexity for a class of Matérn-like GRF inputs indicates, for input GRFs with low sample regularity, superior performance of the present MLQMC-FEM with locally supported representation functions over alternative representations, e.g. of Karhunen–Loève type. Our analysis yields general bounds for the ε-complexity of the MLQMC algorithm, uniformly with respect to the dimension of the parameter space.
APA, Harvard, Vancouver, ISO, and other styles
9

Gambu, Thobani, R. Abrahams, and Eric van Steen. "Micro-Kinetic Modelling of CO-TPD from Fe(100)—Incorporating Lateral Interactions." Catalysts 9, no. 4 (March 29, 2019): 310. http://dx.doi.org/10.3390/catal9040310.

Full text
Abstract:
The experimentally determined temperature programmed desorption profile of CO from Fe(100) is characterized by four maxima, i.e., α1-CO, α2-CO, α3-CO, and β-CO (see e.g., Moon et al., Surf. Sci. 1985, 163, 215). The CO-TPD profile is modeled using mean-field techniques and kinetic Monte Carlo to show the importance of lateral interactions in the appearance of the CO-TPD-profile. The inclusion of lateral interactions results in the appearance of a new maximum in the simulated CO-TPD profile if modeled using the mean-field, quasi-chemical approach or kinetic Monte Carlo. It is argued that α2-CO may thus originate from lateral interactions rather than a differently bound CO on Fe(100). A detailed sensitivity analysis of the effect of the strength of the lateral interactions between the species involved (CO, C, and O), and the choice of the transition state, which affects the activation energy for CO dissociation, and the energy barrier for diffusion on the CO-TPD profile is presented.
APA, Harvard, Vancouver, ISO, and other styles
10

Iorio de Souza, Giuliano Carroza Uzêda, and Carlos Patrício Samanez. "Avaliação de Opções Americanas com Barreiras Monitoradas de Forma Discreta." Brazilian Review of Finance 7, no. 4 (January 5, 2009): 503. http://dx.doi.org/10.12660/rbfin.v7n4.2009.1398.

Full text
Abstract:
This article presents an approach and a model to valuing discrete barrier American options. The developed model consists of an adaptation of the method of Grant, Vora and Weeks (1997), in order to allow to incorporate the barriers. The Hybrid Quasi-Monte Carlo method was used in the simulations and the Bisection method in the definition of the options trigger curves. The results found in the application of the developed model were compared with the estimated by the Adaptive Mesh Model, developed by Ahn et al (1999). In addition, the sensitivity of the options price relative to changes in inputs parameters was analyzed, confirming the consistence of the model.
APA, Harvard, Vancouver, ISO, and other styles
11

Vermeer, Gijs J. O. "On: “A quasi‐Monte Carlo approach to 3-D migration: Theory,” (Y. Sun, G. T. Schuster, and K. Sikorski, GEOPHYSICS, 62, 918–928)." GEOPHYSICS 63, no. 4 (July 1998): 1475. http://dx.doi.org/10.1190/1.1444445.

Full text
Abstract:
Sun et al. discuss the fact that random coarse sampling produces less serious artifacts in migration than regular coarse sampling. This is an interesting phenomenon which also applies to stacking: for high‐fold data, regular offset sampling produces the best result, whereas for low‐fold data random offset sampling is better.
APA, Harvard, Vancouver, ISO, and other styles
12

LIU, CHEN, HENRY SCHELLHORN, and QIDI PENG. "AMERICAN OPTION PRICING WITH REGRESSION: CONVERGENCE ANALYSIS." International Journal of Theoretical and Applied Finance 22, no. 08 (December 2019): 1950044. http://dx.doi.org/10.1142/s0219024919500444.

Full text
Abstract:
The Longstaff–Schwartz (LS) algorithm is a popular least square Monte Carlo method for American option pricing. We prove that the mean squared sample error of the LS algorithm with quasi-regression is equal to [Formula: see text] asymptotically, a where [Formula: see text] is a constant, [Formula: see text] is the number of simulated paths. We suggest that the quasi-regression based LS algorithm should be preferred whenever applicable. Juneja & Kalra (2009) and Bolia & Juneja (2005) added control variates to the LS algorithm. We prove that the mean squared sample error of their algorithm with quasi-regression is equal to [Formula: see text] asymptotically, where [Formula: see text] is a constant and show that [Formula: see text] under mild conditions. We revisit the method of proof contained in Clément et al. [E. Clément, D. Lamberton & P. Protter (2002) An analysis of a least squares regression method for American option pricing, Finance and Stochastics, 6 449–471], but had to complete it, because of a small gap in their proof, which we also document in this paper.
APA, Harvard, Vancouver, ISO, and other styles
13

Lubes-Niel, H., J. M. Masson, J. E. Paturel, and E. Servat. "Variabilité climatique et statistiques. Etude par simulation de la puissance et de la robustesse de quelques tests utilisés pour vérifier l'homogénéité de chroniques." Revue des sciences de l'eau 11, no. 3 (April 12, 2005): 383–408. http://dx.doi.org/10.7202/705313ar.

Full text
Abstract:
L'analyse statistique de séries chronologiques de données hydrométéorologiques est un des outils d'identification de variations climatiques. Cette analyse consiste le plus souvent à la mise en œuvre et à l'interprétation de tests statistiques d'homogénéité des séries. Les séries hydrologiques (données de pluie ou de débit) se caractérisent fréquemment par des effectifs faibles, et ne répondent que rarement aux conditions requises par l'application des tests statistiques dont certains sont paramétriques. Nous avons cherché à évaluer, en terme de puissance et de robustesse, le comportement de quelques méthodes statistiques largement employées dans les études de variabilité climatique. Ce travail a été mené dans chaque cas étudié au moyen de procédures de simulations type Monte-Carlo de 100 échantillons de 50 valeurs conformes aux caractéristiques souvent rencontrées dans les séries naturelles. La variabilité simulée est celle d'un changement brutal de la moyenne. Les procédures concernées sont le test de corrélation sur le rang, le test de Pettitt, le test de Buishand, la procédure bayésienne de Lee et Heghinian, et la procédure de segmentation des séries hydrométéorologiques de Hubert et Carbonnel. Des séries artificielles soit stationnaires, soit affectées par une rupture de la moyenne, normales, non-normales, autocorrélées, présentant une tendance linéaire ou un changement brutal de la variance ont été générées. Les conclusions de ce travail doivent être nuancées selon la méthode considérée. D'une manière générale la puissance maximale estimée se situe autour de 50% pour des taux de rupture de la moyenne de l'ordre de 75% de la valeur de l'écart-type. Par ailleurs il apparaît que l'autocorrélation et la présence d'une tendance dans les séries sont les deux caractéristiques qui pénalisent le plus les performances des procédures.
APA, Harvard, Vancouver, ISO, and other styles
14

Neumüller, Mario, and Friedrich Pillichshammer. "Metrical Star Discrepancy Bounds for Lacunary Subsequences of Digital Kronecker-Sequences and Polynomial Tractability." Uniform distribution theory 13, no. 1 (June 1, 2018): 65–86. http://dx.doi.org/10.1515/udt-2018-0004.

Full text
Abstract:
Abstract The star discrepancy $D_N^* \left( {\cal P} \right)$ is a quantitative measure for the irregularity of distribution of a finite point set 𝒫 in the multi-dimensional unit cube which is intimately related to the integration error of quasi-Monte Carlo algorithms. It is known that for every integer N ≥ 2 there are point sets 𝒫 in [0, 1)d with |𝒫| = N and $D_N^* \left( {\cal P} \right) = O\left( {\left( {\log \,N} \right)^{d - 1} /N} \right)$ . However, for small N compared to the dimension d this asymptotically excellent bound is useless (e.g., for N ≤ ed−1). In 2001 it has been shown by Heinrich, Novak, Wasilkowski and Woźniakowski that for every integer N ≥ 2there exist point sets 𝒫 in [0, 1)d with |𝒫| = N and $D_N^* \left( {\cal P} \right) \le C\sqrt {d/N}$ . Although not optimal in an asymptotic sense in N, this upper bound has a much better (and even optimal) dependence on the dimension d. Unfortunately the result by Heinrich et al. and also later variants thereof by other authors are pure existence results and until now no explicit construction of point sets with the above properties is known. Quite recently Löbbe studied lacunary subsequences of Kronecker’s (nα)-sequence and showed a metrical discrepancy bound of the form $C\sqrt {d\left({\log \,d} \right)/N}$ with implied absolute constant C> 0 independent of N and d. In this paper we show a corresponding result for digital Kronecker sequences, which are a non-archimedean analog of classical Kronecker sequences.
APA, Harvard, Vancouver, ISO, and other styles
15

Jaszczak, John A., Madhusudan A. Savaikar, Douglas R. Banyai, Boyi Hao, Dongyan Zhang, Paul L. Bergstrom, An-Ping Li, Juan-Carlos Idrobo, and Yoke Khin Yap. "Simulation of Charge Transport in Disordered Assemblies of Metallic Nano-Islands: Application to Boron-Nitride Nanotubes Functionalized with Gold Quantum Dots." MRS Proceedings 1700 (2014): 17–28. http://dx.doi.org/10.1557/opl.2014.731.

Full text
Abstract:
ABSTRACTIn this study, we investigate the charge-transport behavior in a disordered one-dimensional (1D) chain of metallic islands using the newly developed multi-island transport simulator (MITS) based on semi-classical tunneling theory and kinetic Monte Carlo simulation. The 1D chain is parameterized to model the experimentally-realized devices studied by Lee et al. [Advanced Materials25, 4544-4548 (2013)], which consists of nano-meter-sized gold islands randomly deposited on an insulating boron-nitride nanotube. These devices show semiconductorlike behavior without having semiconductor materials. The effects of disorder, device length, temperature, and source-drain bias voltage (VSD) on the current are examined. Preliminary results of random assemblies of gold nano-islands in two dimensions (2D) are also examined in light of the 1D results.At T = 0 K and low source-drain bias voltages, the disordered 1D-chain device shows charge-transport characteristics with a well-defined Coulomb blockade (CB) and Coulomb staircase (CS) features that are manifestations of the nanometer size of the islands and their separations. In agreement with experimental observations, the CB and the blockade threshold voltage (Vth) at which the device begins to conduct increases linearly with increasing chain length. The CS structures are more pronounced in longer chains, but disappear at high VSD. Due to tunneling barrier suppression at high bias, the current-voltage characteristics for VSD > Vth follow a non-linear relationship. Smaller islands have a dominant effect on the CB and Vth due to capacitive effects. On the other hand, the wider junctions with their large tunneling resistances predominantly determine the overall device current. This study indicates that smaller islands with smaller inter-island spacings are better suited for practical applications. Temperature has minimal effects on high-bias current behavior, but the CB is diminished as Vth decreases with increasing temperature.In 2D systems with sufficient disorder, our studies demonstrate the existence of a dominant conducting path (DCP) along which most of the current is conveyed, making the device effectively quasi-1-dimensional. The existence of a DCP is sensitive to the device structure, but can be robust with respect to changes in VSD.
APA, Harvard, Vancouver, ISO, and other styles
16

RAPAKA, SAIKIRAN, RAJESH J. PAWAR, PHILIP H. STAUFFER, DONGXIAO ZHANG, and SHIYI CHEN. "Onset of convection over a transient base-state in anisotropic and layered porous media." Journal of Fluid Mechanics 641 (November 16, 2009): 227–44. http://dx.doi.org/10.1017/s0022112009991479.

Full text
Abstract:
The topic of density-driven convection in porous media has been the focus of many recent studies due to its relevance as a long-term trapping mechanism during geological sequestration of carbon dioxide. Most of these studies have addressed the problem in homogeneous and anisotropic permeability fields using linear-stability analysis, and relatively little attention has been paid to the analysis for heterogeneous systems. Previous investigators have reduced the governing equations to an initial-value problem and have analysed it either with a quasi-steady-state approximation model or using numerical integration with arbitrary initial perturbations. Recently, Rapaka et al. (J. Fluid Mech., vol. 609, 2008, pp. 285–303) used the idea of non-modal stability analysis to compute the maximum amplification of perturbations in this system, optimized over the entire space of initial perturbations. This technique is a mathematically rigorous extension of the traditional normal-mode analysis to non-normal and time-dependent problems. In this work, we extend this analysis to the important cases of anisotropic and layered porous media with a permeability variation in the vertical direction. The governing equations are linearized and reduced to a set of coupled ordinary differential equations of the initial-value type using the Galerkin technique. Non-modal stability analysis is used to compute the maximum growth of perturbations along with the optimal wavenumber leading to this growth. We show that unlike the solution of the initial-value problem, results obtained using non-modal analysis are insensitive to the choice of bottom boundary condition. For the anisotropic problem, the dependence of critical time and wavenumber on the anisotropy ratio was found to be in good agreement with theoretical scalings proposed by Ennis-King et al. (Phys. Fluids, vol. 17, 2005, paper no. 084107). For heterogeneous systems, we show that uncertainty in the permeability field at low wavenumbers can influence the growth of perturbations. We use a Monte Carlo approach to compute the mean and standard deviation of the critical time for a sample permeability field. The results from theory are also compared with finite-volume simulations of the governing equations using fully heterogeneous porous media with strong layering. We show that the results from non-modal stability analysis match extremely well with those obtained from the simulations as long as the assumption of strong layering remains valid.
APA, Harvard, Vancouver, ISO, and other styles
17

Campillo, Fabien, Dominique Hervé, Angelo Raherinirina, and Rivo Rakotozafy. "Markov analysis of land use dynamics - A Case Study in Madagascar." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 17 - 2014 - Special... (August 27, 2014). http://dx.doi.org/10.46298/arima.1964.

Full text
Abstract:
International audience We present a Markov model of a land-use dynamic along a forest corridor of Madagascar. A first approach by the maximum likelihood approach leads to a model with an absorbing state. We study the quasi-stationary distribution law of the model and the law of the hitting time of the absorbing state. According to experts, a transition not present in the data must be added to the model: this is not possible by the maximum likelihood method and we make of the Bayesian approach. We use a Markov chain Monte Carlo method to infer the transition matrix which in this case admits an invariant distribution law. Finally we analyze the two identified dynamics. Nous présentons un modèle de Markov d’une dynamique d’utilisation des sols le long d’uncorridor forestier de Madagascar. Une première approche par maximum de vraisemblance conduit àun modèle avec un état absorbant. Nous étudions la loi de probabilité quasi-stationnaire du modèle etla loi du temps d’atteinte de l’état absorbant. Selon les experts, une transition qui n’est pas présentedans les données doit néanmoins être ajoutée au modèle: ceci n’est pas possible par la méthodedu maximum de vraisemblance et nous devons faire appel à une approche bayésienne. Nous faisonsappel à une technique d’approximation de Monte Carlo par chaîne de Markov pour identifier la matricede transition qui dans ce cas admet une loi de probabilité invariante. Enfin nous analysons les deuxdynamiques ainsi identifiés.
APA, Harvard, Vancouver, ISO, and other styles
18

Campillo, Fabien, Rivo Rakotozafy, and Vivien Rossi. "Computational probability modeling and Bayesian inference." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 9, 2007 Conference in... (November 9, 2008). http://dx.doi.org/10.46298/arima.1917.

Full text
Abstract:
International audience Computational probabilistic modeling and Bayesian inference has met a great success over the past fifteen years through the development of Monte Carlo methods and the ever increasing performance of computers. Through methods such as Monte Carlo Markov chain and sequential Monte Carlo Bayesian inference effectively combines with Markovian modelling. This approach has been very successful in ecology and agronomy. We analyze the development of this approach applied to a few examples of natural resources management. La modélisation probabiliste et l'inférence bayésienne computationnelles rencontrent un très grand succès depuis une quinzaine d'années grâce au développement des méthodes de Monte Carlo et aux performances toujours croissantes des moyens de calcul. Au travers d'outils comme les méthodes de Monte Carlo par chaîne de Markov et les méthodes de Monte Carlo séquentielles, l'inférence bayésienne se combine efficacement à la modélisation markovienne. Cette approche est également très répandue dans le domaine de l'écologie et l'agronomie. Nous faisons le point sur les développements de cette approche appliquée à quelques exemples de gestion de ressources naturelles.
APA, Harvard, Vancouver, ISO, and other styles
19

Huang, Wenzhen. "Sample Size Determination in NT-Net Quasi-Monte Carlo Simulation." Journal of Computing and Information Science in Engineering 13, no. 3 (May 14, 2013). http://dx.doi.org/10.1115/1.4024026.

Full text
Abstract:
Monte Carlo (MC) technique prevails in probabilistic design simulation, such as in statistical tolerance analysis and synthesis. A quasi-Monte Carlo (e.g., number theoretic net method (NT-net)) with better computation efficiency over MC has recently attracted interests in application. In spite of a comprehensive case study (Huang et al., 2004, “Tolerance Analysis for Design of Multistage Manufacturing Processes Using Number-Theoretical Net Method (NT-net),” Int. J. Flexible Manuf. Syst., 16, pp. 65–90 and Zhou et al., 2001, “Sequential Algorithm Based on Number Theoretic Method for Tolerance Analysis and Synthesis,” ASME J. Manuf. Sci. Eng., 123(3), pp. 490–493) for comparison between NT-net and MC, a method for sample size determination of NT-net is still not available. Combinatorial theory and the solution of occupancy problem are used for estimating equivalent sample sizes of MC and NT-net, allowing the NT-net sample size determination in application. A multivariate Chebyshev polynomial with variant coefficients is used to represent generic design functions for validation. The results are verified by case studies.
APA, Harvard, Vancouver, ISO, and other styles
20

Chan Shio, Christian, and Francine Diener. "Fitting coefficients of differential systems with Monte Carlo methods." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 20 - 2015 - Special... (October 16, 2015). http://dx.doi.org/10.46298/arima.1988.

Full text
Abstract:
International audience We consider the problem of estimating the coefficients in a system of differential equations when a trajectory of the system is known at a set of times. To do this, we use a simple Monte Carlo sampling method, known as the rejection sampling algorithm. Unlike deterministic methods, it does not provide a point estimate of the coefficients directly, but rather a collection of values that "fits" the known data well. An examination of the properties of the method allows us not only to better understand how to choose the different parameters when implementing the method, but also to introduce a more efficient method by using a new two-step approach which we call sequential rejection sampling. Several examples are presented to illustrate the performance of both the original and the new methods. On considère le problème d'estimer les coefficients d'un système d'équations différentielles quand une trajectoire du système est connue en un petit nombre d'instants. On utilise pour cela une méthode de Monte Carlo très simple, la méthode de rejet qui ne fournit pas directement une estimation ponctuelle des coefficients comme le font les méthodes déterministes mais plutôt un ensemble de valeurs de ces coefficients qui sont cohérentes avec les données. L'examen des propriétés de cette méthode permet de comprendre non seulement comment bien choisir les différents paramètres de la méthode lorsqu'on l'utilise mais aussi d'introduire une méthode plus efficace, en deux étapes, que nous appelons la méthode de rejet séquentielle. Plusieurs exemples illustrent les performances respectives de la méthode d'origine et de la nouvelle méthode.
APA, Harvard, Vancouver, ISO, and other styles
21

Campillo, Fabien, Philippe Cantet, Rivo Rakotozafy, and Vivien Rossi. "Méthodes MCMC en interaction pour l'évaluation de ressources naturelles." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 8, Special Issue... (November 30, 2008). http://dx.doi.org/10.46298/arima.1887.

Full text
Abstract:
International audience Markov chain Monte Carlo (MCMC) methods together with hidden Markov models are extensively used in the Bayesian inference for many scientific fields like environment and ecology. Through simulated examples we show that the speed of convergence of these methods can be very low. In order to improve the convergence properties, we propose a method to make parallel chains interact. We apply this method to a biomass evolution model for fisheries. Les méthodes de Monte Carlo par chaînes de Markov (MCMC) couplées à des modèles de Markov cachés sont utilisées dans de nombreux domaines, notamment en environnement et en écologie. Sur des exemples simples, nous montrons que la vitesse de convergence de ces méthodes peut être très faible. Nous proposons de mettre en interaction plusieurs algorithmes MCMC pour accélérer cette convergence. Nous appliquons ces méthodes à un modèle d'évolution de la biomasse d'une pêcherie.
APA, Harvard, Vancouver, ISO, and other styles
22

Li, Yichao, Wenshuo Wang, Ke Deng, and Jun S. Liu. "Stratification and Optimal Resampling for Sequential Monte Carlo." Biometrika, February 10, 2021. http://dx.doi.org/10.1093/biomet/asab004.

Full text
Abstract:
Abstract Sequential Monte Carlo algorithms have been widely accepted as a powerful computational tool for making inference with dynamical systems. A key step in sequential Monte Carlo is resampling, which plays a role of steering the algorithm towards the future dynamics. Several strategies have been used in practice, including multinomial resampling, residual resampling, optimal resampling, stratified resampling, and optimal transport resampling. In the one-dimensional cases, we show that optimal transport resampling is equivalent to stratified resampling on the sorted particles, and they both minimize the resampling variance as well as the expected squared energy distance between the original and resampled empirical distributions. In general d-dimensional cases, if the particles are first sorted using the Hilbert curve, we show that the variance of stratified resampling is O(m-(1+2/d)), an improved rate compared to the previously known best rate O(m-(1+1/d)), where m is the number of resampled particles. We show this improved rate is optimal for ordered stratified resampling schemes, as conjectured in Gerber et al. (2019).We also present an almost sure bound on the Wasserstein distance between the original and Hilbert-curve-resampled empirical distributions. In light of these results, we show that, for dimension d > 1, the mean square error of sequential quasi-Monte Carlo with n particles can be O(n-1-4/{d(d+4)}) if Hilbert curve resampling is used and a specific low-discrepancy set is chosen. To our knowledge, this is the first known convergence rate lower than o(n-1).
APA, Harvard, Vancouver, ISO, and other styles
23

Cohard, Philippe. "Simulation et planification projet : une approche Design Science." Management & Data Science, 2021. http://dx.doi.org/10.36863/mds.a.17201.

Full text
Abstract:
Le management par projets s’est implanté dans les organisations. Néanmoins, un certain nombre de projets ne respectent pas les délais impartis. Les méthodes d’estimation par simulation peuvent être utiles dans ce contexte pour sensibiliser aux variations inhérentes à la planification. Aussi, nous posons la question suivante : Comment concevoir un logiciel basé sur la simulation de Monte-Carlo pour sensibiliser à la planification probabiliste de projets ? Cette recherche passe par la conception d’un artefact à la fois innovant et utile ainsi que la création de connaissances par une approche Design Science Research. L’évaluation de l’artefact s’appuie sur des références du domaine. Les résultats montrent que le logiciel de simulation, répond à cette problématique.
APA, Harvard, Vancouver, ISO, and other styles
24

"COL5-02 Score Diagnostique De Méningite Aiguë Infectieuse : Utilisation Des Méthodes De Partition Récursive (Cart) Et De Monte-Carlo Et Comparaison À 5 Scores." Médecine et Maladies Infectieuses 35 (June 2005): S146. http://dx.doi.org/10.1016/s0399-077x(05)81480-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Hamza A. Abudayyeh, Imad A. Barghouthi, Ghadeer Al-Sarsour, and Husain Alsamamra. "DE-1 versus Cluster spectral density observations: the effect on ion outflow above the polar cap." Annals of Geophysics 58, no. 5 (November 11, 2015). http://dx.doi.org/10.4401/ag-6800.

Full text
Abstract:
<p>Wave-particle interaction is a very important mechanism in describing the outflow of ions at high latitudes and high altitudes. Quasi-linear perpendicular velocity diffusion coefficients are used to describe the effect of wave-particle interactions, therefore it is essential to determine the correct diffusion coefficients that must be used to model the outflow of ions. In this study a Monte Carlo method is used to assess the role of different diffusion coefficients for O+ and H+ ions at high altitudes above the polar cap. Two different sets of diffusion coefficients obtained from Barghouthi [1997]; Barghouthi et al. [1998] and Nilsson et al. [2013] are used. Barghouthi [1997]; Barghouthi et al. [1998] used spectral density measurements from Dynamic Explorer 1 spacecraft (DE-1) observations to calculate the diffusion coefficients, while Nilsson et al. [2013] used spectral density measurements from the Cluster spacecraft to obtain the diffusion coefficients. It was found that diffusion coefficients from Barghouthi [1997]; Barghouthi et al. [1998] in the cusp (aurora) and central polar cap (polar wind) respectively, describe well the observations of ion outflow at altitudes lower than 5 RE, but yield unreasonably high parallel velocities and temperatures at higher altitudes. Also diffusion coefficients from Cluster spectral density measurements produce reasonable results for high altitudes and unreasonably low parallel velocities and temperatures for the low altitude region. Therefore it is suggested that a combination of these diffusion coefficients is used where the diffusion coefficients given by Barghouthi [1997]; Barghouthi et al. [1998] are used at low altitudes and the diffusion coefficients obtained from Cluster measurements are used at high altitudes.</p>
APA, Harvard, Vancouver, ISO, and other styles
26

Rouchon, Pierre. "Quantum systems and control 1." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 9, 2007 Conference in... (September 22, 2008). http://dx.doi.org/10.46298/arima.1904.

Full text
Abstract:
http://www-direction.inria.fr/international/arima/009/00920.html International audience This paper describes several methods used by physicists for manipulations of quantum states. For each method, we explain the model, the various time-scales, the performed approximations and we propose an interpretation in terms of control theory. These various interpretations underlie open questions on controllability, feedback and estimations. For 2-level systems we consider: the Rabi oscillations in connection with averaging; the Bloch-Siegert corrections associated to the second order terms; controllability versus parametric robustness of open-loop control and an interesting controllability problem in infinite dimension with continuous spectra. For 3-level systems we consider: Raman pulses and the second order terms. For spin/spring systems we consider: composite systems made of 2-level sub-systems coupled to quantized harmonic oscillators; multi-frequency averaging in infinite dimension; controllability of 1D partial differential equation of Shrödinger type and affine versus the control; motion planning for quantum gates. For open quantum systems subject to decoherence with continuous measures we consider: quantum trajectories and jump processes for a 2-level system; Lindblad-Kossakovsky equation and their controllability. Ce papier décrit plusieurs méthodes utilisées par les physiciens pour la manipulation d’états quantiques. Pour chaque méthode, nous expliquons la modélisation, les diverses échelles de temps, les approximations faites et nous proposons une interprétation en termes de contrôle. Ces diverses interprétations servent de base à la formulation de questions ouvertes sur la commandabilité et aussi sur le feedback et l’estimation, renouvelant un peu certaines questions de base en théorie des systèmes non-linéaires. Pour les systèmes à deux niveaux, dits aussi de spin 1/2, il s’agit: des oscillations de Rabi et d’une approximation au premier ordre de la théorie des perturbations (transition à un photon); des corrections de Bloch-Siegert et d’approximation au second ordre; de commandabilité et de robustesse paramétrique pour des contrôles en boucle ouverte, robustesse liée à des questions largement ouvertes sur la commandabilité en dimension infinie où le spectre est continu. Pour les systèmes à trois niveaux, il s’agit: de pulses Raman; d’approximations au second ordre. Pour les systèmes spin/ressort, il s’agit: des systèmes composés de sous-systèmes à deux niveaux couplés à des oscillateurs harmoniques quantifiés; de théorie des perturbations à plusieurs fréquences en dimension infinie; de commandabilité d’équations aux dérivées partielles de type Schrödinger sur R et affine en contrôle; de planification de trajectoires pour la synthèse portes logiques quantiques. Pour les systèmes ouverts soumis à la décohérence avec des mesures en continu, il s’agit: de trajectoires quantiques de Monte-Carlo et de processus à sauts sur un systèmes à deux niveaux; des équations de Lindblad-Kossakovsky avec leur commandabilité.
APA, Harvard, Vancouver, ISO, and other styles
27

Gagné, Natacha. "Anthropologie et histoire." Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.060.

Full text
Abstract:
On a longtemps vu l’histoire et l’anthropologie comme deux disciplines très distinctes n’ayant pas grand-chose en partage. Jusqu’au début du XXe siècle, l’histoire fut essentiellement celle des « civilisés », des Européens et donc des colonisateurs. Si les colonisés n’étaient pas complètement absents du tableau, ils étaient, au mieux, des participants mineurs. L’anthropologie, pour sa part, s’est instituée en ayant pour objet la compréhension des populations lointaines, les « petites sociétés », autochtones et colonisées, ces populations vues comme hors du temps et de l’histoire. Cette situation était le produit d’une division traditionnelle (Harkin 2010 : 114) – et coloniale (Naepels 2010 : 878) – du travail entre histoire et anthropologie. Celle-ci se prolongeait dans le choix des méthodes : les historiens travaillaient en archives alors que les anthropologues s’intéressaient aux témoignages oraux et donc, s’adonnaient à l’enquête de terrain. Les deux disciplines divergeaient également quant à la temporalité : « Pour l’histoire, (…) le temps est une sorte de matière première. Les actes s’inscrivent dans le temps, modifient les choses tout autant qu’ils les répètent. (…) Pour l’anthropologue, s’il n’y prend garde, le temps passe en arrière-plan, au profit d’une saisie des phénomènes en synchronie » (Bensa 2010 : 42). Ces distinctions ne sont plus aujourd’hui essentielles, en particulier pour « l’anthropologie historique », champ de recherche dont se revendiquent tant les historiens que les anthropologues, mais il n’en fut pas de tout temps ainsi. Après s’être d’abord intéressés à l’histoire des civilisations dans une perspective évolutionniste et spéculative, au tournant du siècle dernier, les pères de l’anthropologie, tant en France (Émile Durkheim, Marcel Mauss), aux États-Unis (Franz Boas), qu’en Angleterre (Bronislaw Malinowski, Alfred Radcliffe-Brown), prendront fermement leur distance avec cette histoire. Les questions de méthode, comme le développement de l’observation participante, et l’essor de concepts qui devinrent centraux à la discipline tels que « culture » et « fonction » furent déterminants pour sortir de l’idéologie évolutionniste en privilégiant la synchronie plutôt que la diachronie et les généalogies. On se détourna alors des faits uniques pour se concentrer sur ceux qui se répètent (Bensa 2010 : 43). On s’intéressa moins à l’accidentel, à l’individuel pour s’attacher au régulier, au social et au culturel. Sans être nécessairement antihistoriques, ces précepteurs furent largement ahistoriques (Evans-Pritchard 1962 : 172), une exception ayant été Franz Boas – et certains de ses étudiants, tels Robert Lowie ou Melville J. Herskovits – avec son intérêt pour les contacts culturels et les particularismes historiques. Du côté de l’histoire, on priorisait la politique, l’événement et les grands hommes, ce qui donnait lieu à des récits plutôt factuels et athéoriques (Krech 1991 : 349) basés sur les événements « vrais » et uniques qui se démarquaient de la vie « ordinaire ». Les premiers essais pour réformer l’histoire eurent lieu en France, du côté des historiens qui seront associés aux « Annales », un nom qui réfère à la fois à une revue scientifique fondée en 1929 par Marc Bloch et Lucien Febvre et à une École d’historiens français qui renouvela la façon de penser et d’écrire l’histoire, en particulier après la Seconde Guerre mondiale (Krech 1991; Schöttler 2010). L’anthropologie et la sociologie naissantes suscitèrent alors l’intérêt chez ce groupe d’historiens à cause de la variété de leurs domaines d’enquête, mais également par leur capacité à enrichir une histoire qui n’est plus conçue comme un tableau ou un simple inventaire. Les fondateurs de la nouvelle École française des Annales décrivent leur approche comme une « histoire totale », expression qui renvoie à l’idée de totalité développée par les durkheimiens, mais également à l’idée de synthèse du philosophe et historien Henry Berr (Schöttler 2010: 34-37). L’histoire fut dès lors envisagée comme une science sociale à part entière, s’intéressant aux tendances sociales qui orientent les singularités. L’ouvrage fondateur de Marc Bloch, Les rois thaumaturges (1983 [1924]), pose les jalons de ce dépassement du conjoncturel. Il utilise notamment la comparaison avec d’autres formes d’expériences humaines décrites notamment dans Le Rameau d’Or (1998 [1924; 1890 pour l’édition originale en anglais]) de James G. Frazer et explore le folklore européen pour dévoiler les arcanes religieux du pouvoir royal en France et en Angleterre (Bensa 2010; Goody 1997). Il s’agit alors de faire l’histoire des « mentalités », notion qui se rapproche de celle de « représentation collective » chère à Durkheim et Mauss (sur ce rapprochement entre les deux notions et la critique qui en a été faite, voir Lloyd 1994). Les travaux de la deuxième génération des historiens des Annales, marqués par la publication de l’ouvrage de Fernand Braudel La Méditerranée et le monde méditerranéen à l’époque de Philippe II en 1949 et de son arrivée en 1956 à la direction de la revue, peuvent encore une fois mieux se comprendre dans l’horizon du dialogue avec l’anthropologie, d’une part, et avec les area studiesqui se développèrent aux États-Unis après la Seconde Guerre mondiale, de l’autre (Braudel 1958). Le projet est de rapporter « la spécificité des acteurs singuliers, des dates et des événements à des considérations plus vastes sur la transformation lente des mœurs et des représentations. Le travail ne consiste pas seulement à capter au projet de l’histoire des rubriques chères à l’anthropologie, mais aussi à caractériser une époque [et une région] par sa façon de percevoir et de penser le monde » (Bensa 2010 : 46). Il s’agit alors de faire l’histoire des structures, des conjonctures et des mentalités (Schöttler 2010 : 38). Les travaux de cette deuxième génération des Annales s’inscrivent dans un vif débat avec l’anthropologie structuraliste de Claude Lévi-Strauss. Si tant Braudel que Lévi-Strauss voulaient considérer les choses de façon globale, Lévi-Strauss situait la globalité dans un temps des sociétés des origines, comme si tout s’était joué au départ et comme si l’histoire n’en serait qu’un développement insignifiant. Pour sa part, Braudel, qui s’intéressait à l’histoire sérielle et à la longue durée, situait plutôt la globalité dans un passé qui sert à comprendre le présent et, jusqu’à un certain point, à prévoir ce qui peut se passer dans le futur. Ce qui constitue le fond de leur opposition est que l’un s’intéresse à l’histoire immobile alors que l’autre s’intéresse à l’histoire de longue durée, soit l’histoire quasi immobile selon laquelle, derrière les apparences de la reproduction à l’identique, se produisent toujours des changements, même très minimes. Dans les deux cas, l’ « événementiel » ou ce qui se passe à la « surface » sont à l’opposé de leur intérêt pour la structure et la profondeur, même si ces dernières ne sont pas saisies de la même façon. Pour Braudel, la structure est pleinement dans l’histoire ; elle est réalité concrète et observable qui se décèle notamment dans les réseaux de relations, de marchandises et de capitaux qui se déploient dans l’espace et qui commandent les autres faits dans la longue durée (Dosse 1986 : 89). Les travaux de Braudel et son concept d’ « économie-monde » inspireront plusieurs anthropologues dont un Marshall Sahlins et un Jonathan Friedman à partir du tournant des années 1980. Pour Lévi-Strauss, la structure profonde, celle qui correspond aux enceintes mentales humaines, « ne s’assimile pas à la structure empirique, mais aux modèles construits à partir de celle-ci » (Dosse 1986 : 85). Elle est donc hors de l’histoire. Comme le rappelait François Hartog (2014 [2004] : 287), Lévi-Strauss a souvent dit « rien ne m’intéresse plus que l’histoire. Et depuis fort longtemps! » (1988 : 168; voir d’ailleurs notamment Lévi-Strauss 1958, 1983), tout en ajoutant « l’histoire mène à tout, mais à condition d’en sortir » (Lévi-Strauss 1962 : 348) ! Parallèlement à l’entreprise déhistoricisante de Lévi-Strauss, d’autres anthropologues insistent au contraire à la même époque sur l’importance de réinsérer les institutions étudiées dans le mouvement du temps. Ainsi, Edward E. Evans-Pritchard, dans sa célèbre conférence Marett de 1950 qui sera publiée en 1962 sous le titre « Anthropology and history », dénonce le fait que les généralisations en anthropologie autour des structures sociales, de la religion, de la parenté soient devenues tellement généralisées qu’elles perdent toute valeur. Il insiste sur la nécessité de faire ressortir le caractère unique de toute formation sociale. C’est pour cette raison qu’il souligne l’importance de l’histoire pour l’anthropologie, non pas comme succession d’événements, mais comme liens entre eux dans un contexte où on s’intéresse aux mouvements de masse et aux grands changements sociaux. En invitant notamment les anthropologues à faire un usage critique des sources documentaires et à une prise en considération des traditions orales pour comprendre le passé et donc la nature des institutions étudiées, Evans-Pritchard (1962 : 189) en appelle à une combinaison des points de vue historique et fonctionnaliste. Il faut s’intéresser à l’histoire pour éclairer le présent et comment les institutions en sont venues à être ce qu’elles sont. Les deux disciplines auraient donc été pour lui indissociables (Evans-Pritchard 1962 : 191). Au milieu du XXe siècle, d’autres anthropologues s’intéressaient aux changements sociaux et à une conception dynamique des situations sociales étudiées, ce qui entraîna un intérêt pour l’histoire, tels que ceux de l’École de Manchester, Max Gluckman (1940) en tête. En France, inspiré notamment par ce dernier, Georges Balandier (1951) insista sur la nécessité de penser dans une perspective historique les situations sociales rencontrées par les anthropologues, ce qui inaugura l’étude des situations coloniales puis postcoloniales, mais aussi de l’urbanisation et du développement. Cette importance accordée à l’histoire se retrouva chez les anthropologues africanistes de la génération suivante tels que Jean Bazin, Michel Izard et Emmanuel Terray (Naepels 2010 : 876). Le dialogue entre anthropologie et histoire s’est développé vers la même époque aux États-Unis. Après le passage de l’Indian Claims Commission Act en 1946, qui établit une commission chargée d’examiner les revendications à l’encontre de l’État américain en vue de compensations financières pour des territoires perdus par les nations autochtones à la suite de la violation de traités fédéraux, on assista au développement d’un nouveau champ de recherche, l’ethnohistoire, qui se dota d’une revue en 1954, Ethnohistory. Ce nouveau champ fut surtout investi par des anthropologues qui se familiarisèrent avec les techniques de l’historiographie. La recherche, du moins à ses débuts, avait une orientation empirique et pragmatique puisque les chercheurs étaient amenés à témoigner au tribunal pour ou contre les revendications autochtones (Harkin 2010). Les ethnohistoriens apprirent d’ailleurs à ce moment à travailler pour et avec les autochtones. Les recherches visaient une compréhension plus juste et plus holiste de l’histoire des peuples autochtones et des changements dont ils firent l’expérience. Elles ne manquèrent cependant pas de provoquer un certain scepticisme parmi les anthropologues « de terrain » pour qui rien ne valait la réalité du contact et les sources orales et pour qui les archives, parce qu’étant celles du colonisateur, étaient truffées de mensonges et d’incompréhensions (Trigger 1982 : 5). Ce scepticisme s’estompa à mesure que l’on prit conscience de l’importance d’une compréhension du contexte historique et de l’histoire coloniale plus générale pour pouvoir faire sens des données ethnologiques et archéologiques. L’ethnohistoire a particulièrement fleuri en Amérique du Nord, mais très peu en Europe (Harkin 2010; Trigger 1982). On retrouve une tradition importante d’ethnohistoriens au Québec, qu’on pense aux Bruce Trigger, Toby Morantz, Rémi Savard, François Trudel, Sylvie Vincent. L’idée est de combiner des données d’archives et des données archéologiques avec l’abondante ethnographie. Il s’agit également de prendre au sérieux l’histoire ou la tradition orale et de confronter les analyses historiques à l’interprétation qu’ont les acteurs de l’histoire coloniale et de son impact sur leurs vies. La perspective se fit de plus en plus émique au fil du temps, une attention de plus en plus grande étant portée aux sujets. Le champ de recherche attira graduellement plus d’historiens. La fin des années 1960 fut le moment de la grande rencontre entre l’anthropologie et l’histoire avec la naissance, en France, de l’« anthropologie historique » ou « nouvelle histoire » et, aux États-Unis, de la « New Cutural History ». L’attention passa des structures et des processus aux cultures et aux expériences de vie des gens ordinaires. La troisième génération des Annales fut au cœur de ce rapprochement : tout en prenant ses distances avec la « religion structuraliste » (Burguière 1999), la fascination pour l’anthropologie était toujours présente, produisant un déplacement d’une histoire économique et démographique vers une histoire culturelle et ethnographique. Burguière (1999) décrivait cette histoire comme celle des comportements et des habitudes, marquant un retour au concept de « mentalité » de Bloch. Les inspirations pour élargir le champ des problèmes posés furent multiples, en particulier dans les champs de l’anthropologie de l’imaginaire et de l’idéologique, de la parenté et des mythes (pensons aux travaux de Louis Dumont et de Maurice Godelier, de Claude Lévi-Strauss et de Françoise Héritier). Quant à la méthode, la description dense mise en avant par Clifford Geertz (1973), la microhistoire dans les traces de Carlo Ginzburg (1983) et l’histoire comparée des cultures sous l’influence de Jack Goody (1979 [1977]) permirent un retour de l’événement et du sujet, une attention aux détails qui rejoignit celle qu’y accordait l’ethnographie, une conception plus dynamique des rapports sociaux et une réinterrogation des généralisations sur le long terme (Bensa 2010 : 49 ; Schmitt 2008). Aux États-Unis, la « New Culturel History » qui s’inscrit dans les mêmes tendances inclut les travaux d’historiens comme Robert Darnon, Natalie Zemon Davis, Dominick La Capra (Iggers 1997; Krech 1991; Harkin 2010). L’association de l’histoire et de l’anthropologie est souvent vue comme ayant été pratiquée de manière exemplaire par Nathan Wachtel, historien au sens plein du terme, mais également formé à l’anthropologie, ayant suivi les séminaires de Claude Lévi-Strauss et de Maurice Godelier (Poloni-Simard et Bernand 2014 : 7). Son ouvrage La Vision des vaincus : les Indiens du Pérou devant la Conquête espagnole 1530-1570 qui parut en 1971 est le résultat d’un va-et-vient entre passé et présent, la combinaison d’un travail en archives avec des matériaux peu exploités jusque-là, comme les archives des juges de l’Inquisition et les archives administratives coloniales, et de l’enquête de terrain ethnographique. Cet ouvrage met particulièrement en valeur la capacité d’agir des Autochtones dans leur rapport avec les institutions et la culture du colonisateur. Pour se faire, il appliqua la méthode régressive mise en avant par Marc Bloch, laquelle consiste à « lire l’histoire à rebours », c’est-à-dire à « aller du mieux au moins bien connu » (Bloch 1931 : XII). Du côté des anthropologues, l’anthropologie historique est un champ de recherche en effervescence depuis les années 1980 (voir Goody 1997 et Naepels 2010 pour une recension des principaux travaux). Ce renouveau prit son essor notamment en réponse aux critiques à propos de l’essentialisme, du culturalisme, du primitivisme et de l’ahistoricisme (voir Fabian 2006 [1983]; Thomas 1989; Douglas 1998) de la discipline anthropologique aux prises avec une « crise de la représentation » (Said 1989) dans un contexte plus large de décolonisation qui l’engagea dans un « tournant réflexif » (Geertz 1973; Clifford et Marcus 1986; Fisher et Marcus 1986). Certains se tournèrent vers l’histoire en quête de nouvelles avenues de recherche pour renouveler la connaissance acquise par l’ethnographie en s’intéressant, d’un point de vue historique, aux dynamiques sociales internes, aux régimes d’historicité et aux formes sociales de la mémoire propres aux groupes auprès desquels ils travaillaient (Naepels 2010 : 877). Les anthropologues océanistes participèrent grandement à ce renouveau en discutant de la nécessité et des possibilités d’une anthropologie historiquement située (Biersack 1991; Barofsky 2000; Merle et Naepels 2003) et par la publication de plusieurs monographies portant en particulier sur la période des premiers contacts entre sociétés autochtones et Européens et les débuts de la période coloniale (entre autres, Dening 1980; Sahlins 1981, 1985; Valeri 1985; Thomas 1990). L’ouvrage maintenant classique de Marshall Sahlins, Islands of History (1985), suscita des débats vigoureux qui marquèrent l’histoire de la discipline anthropologique à propos du relativisme en anthropologie, de l’anthropologie comme acteur historique, de l’autorité ethnographique, de la critique des sources archivistiques, des conflits d’interprétation et du traitement de la capacité d’agir des populations autochtones au moment des premiers contacts avec les Européens et, plus largement, dans l’histoire (pour une synthèse, voir Kuper 2000). Pour ce qui est de la situation coloniale, le 50e anniversaire de la publication du texte fondateur de Balandier de 1951, au début des années 2000, fut l’occasion de rétablir, approfondir et, dans certains cas, renouveler le dialogue non seulement entre anthropologues et historiens, mais également, entre chercheurs français et américains. Les nouvelles études coloniales qui sont en plein essor invitent à une analyse méticuleuse des situations coloniales d’un point de vue local de façon à en révéler les complexités concrètes. On y insiste aussi sur l’importance de questionner les dichotomies strictes et souvent artificielles entre colonisateur et colonisé, Occident et Orient, Nord et Sud. Une attention est aussi portée aux convergences d’un théâtre colonial à un autre, ce qui donne une nouvelle impulsion aux analyses comparatives des colonisations (Sibeud 2004: 94) ainsi qu’au besoin de varier les échelles d’analyse en établissant des distinctions entre les dimensions coloniale et impériale (Bayart et Bertrand 2006; Cooper et Stoler 1997; Singaravélou 2013; Stoler, McGranahn et Perdue 2007) et en insérant les histoires locales dans les processus de globalisation, notamment économique et financière, comme l’ont par exemple pratiqué les anthropologues Jean et John Comaroff (2010) sur leur terrain sud-africain. Ce « jeu d’échelles », représente un défi important puisqu’il force les analystes à constamment franchir les divisions persistantes entre aires culturelles (Sibeud 2004: 95). Ce renouveau a également stimulé une réflexion déjà amorcée sur l’usage des archives coloniales ainsi que sur le contexte de production et de conservation d’une archive (Naepels 2011; Stoler 2009), mais également sur les legs coloniaux dans les mondes actuels (Bayart et Bertrand 2006; De l’Estoile 2008; Stoler 2016)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography