Academic literature on the topic 'Maximum d'entropie sur la moyenne'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Maximum d'entropie sur la moyenne.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Maximum d'entropie sur la moyenne"

1

Pugnet, Lilian, Luciano Lourenço, and João Rocha. "L’ignition des feux de forêt par l’action de la foudre au Portugal de 1996 à 2008." Territorium, no. 17 (August 10, 2010): 57–70. http://dx.doi.org/10.14195/1647-7723_17_6.

Full text
Abstract:
Une étude des incendies de forêt causés par la foudre est présentée pour le Portugal, de 1996 à 2008. A l’aide des données de tous les feux de foudre enregistrés sur cette période, une analyse de la répartition spatiale et temporelle, de ces phénomènes, a été effectuée. Les informations sur les feux de foudre ont été couplées à celles sur l’activité des décharges électriques atmosphériques (DEA) et aux conditions météorologiques. La moyenne mensuelle montre un maximum d’activité des DEA de Mai à Septembre, alors que le minimum d’activité est observé en Janvier et Décembre. Il existe une forte corrélation entre l’activité des DEA et la répartition des feux de foudre.
APA, Harvard, Vancouver, ISO, and other styles
2

Chappaz, R., G. Brun, and G. Olivar. "Contribution à l'étude du régime alimentaire, de la croissance et de la fécondité de la perche (Perca fluviatilis L.) dans un lac oligotrophe de région tempérée." Revue des sciences de l'eau 2, no. 1 (April 12, 2005): 95–107. http://dx.doi.org/10.7202/705025ar.

Full text
Abstract:
La retenue de Sainte-Croix sur te Verdon, mise en eau il y a dix ans, est un lac oligotrophe monomictique chaud de 2 200 ha de surface et de 80 m de profondeur maximum (profondeur moyenne 50 m). Une vidange hivernale partielle en abaisse le niveau de 8 à 16 m selon les années. La température dans l'épilimnion varie de 7 °C en février à 22 °C en juillet, avec une moyenne de plus de 900 degrés/jours au-dessus de 14 °C. Les perches introduites depuis la mise en eau, se nourrissent des plus gros planctontes (Cladocères et Copépodes), des larves benthiques de divers insectes (Chironomides, Ephémères) ainsi que d'alevins. Malgré des conditions thermiques favorables, la croissance des perches est lente en raison de la faible densité des proies et de la concurrence avec des Cyprinidae planctonophages, ablettes et gardons, très bien représentés dans la retenue. La maturité sexuelle est atteinte au terme de ta première année pour la majorité des mâles, la seconde année seulement pour 60 % des femelles. Mesurée sur 15 femelles de 14 à 40 cm, la fécondité variant de 2 500 à 50 000 ovules, est faible.
APA, Harvard, Vancouver, ISO, and other styles
3

Ondo, Benjamin Obiang, Sylvie Carole Ondo Ntyam, and Richard Jules Priso. "Effet de la phytoaccumulation du plomb, du fer et du zinc sur deux Poacées dans la zone de Kribi et de ses environs." International Journal of Biological and Chemical Sciences 14, no. 6 (October 7, 2020): 2257–66. http://dx.doi.org/10.4314/ijbcs.v14i6.26.

Full text
Abstract:
Le défi de préservation de la biodiversité reste pertinent en zones côtières notamment à Kribi, où la démographie galopante s’accompagne d’un accroissement notable des polluants. Pour appréhender les effets des métaux lourds dans le métabolisme de quelques macrophytes de Kribi, 4 sites de collecte des échantillons ont permis d’identifier deux Poacées, Panicum maximum et Echinochloa colona. Avec une température moyenne d’eau de 25,25 ± 0,17 °C, n = 16; l’on constate la sensibilité thermique des feuilles de E. colona par rapport à P. maximum. Le site kribi plus acide (pH = 4,16 ± 0,02) contient aussi plus de plomb (1,04 ± 0,01 mg/l). Corrélée au taux de chlorophylle et au nombre de feuilles de P. maximum, la quantité de chlorophylle accumulée et le nombre de feuilles diminuent avec l’augmentation du plomb. Ce métal provoque la chlorose foliaire, des lésions nécrotiques et le dessèchement du feuillage pour ces deux Poacées. Le fer s’observe plus dans le cours d’eau Bidou et augmente avec le taux de chlorophylle de P. maximum. La variation moyenne du zinc dans l’étude est de 0,11 mg/l. L’accumulation du zinc empêche le développement de feuilles de P. maximum. Mots clés: Chlorophylle, Kribi, métaux lourds, Poacées, polluants. English Title: Effect of phytoaccumulation of lead, iron, zinc on Poaceae in Kribi and its surroundingsThe challenge of preserving biodiversity in the context of modernization of industries remains relevant in coastal areas, especially in Kribi, where demography is galloping while pollutants increase. To control the effects of heavy metals in the metabolism of some macrophytes in Kribi, four sample collection sites were identified with two Poaceae, Panicum maximum and Echinochloa colona. With an average water temperature of 25.25 ± 0.17 °C, n = 16; the thermal sensitivity of E. colona leaves is found in relation to P. maximum. The more acidic Kribi site (pH = 4.16 ± 0.02) also contains more lead (1.04 ± 0.01 mg/l). Correlated with chlorophyll and leaves of P. maximum, the amount of chlorophyll accumulated and the number of leaves decrease with increasing lead. This metal causes leaf chlorosis, necrotic lesions, yellowing and foliage drying, for these two Poaceae. Iron is observed more in Bidou stream and increases with maximum P. chlorophyll. The average variation of zinc in the study is 0.11 mg / l and the accumulation of zinc prevents the development of P. maximum leaves. Keywords: Chlorophyll, heavy metals, Kribi, Poaceae, pollutants.
APA, Harvard, Vancouver, ISO, and other styles
4

Marchane, Ahmed, Lionel Jarlan, Lahoucine Hanich, and Abdelghani Boudhar. "Caractérisation de l'enneigement sur l'atlas marocain par le capteur MODIS et relation avec le climat (période 2000-2011)." Revue Française de Photogrammétrie et de Télédétection, no. 204 (April 8, 2014): 13–22. http://dx.doi.org/10.52638/rfpt.2013.18.

Full text
Abstract:
Dans le Sud de la Méditerranée, de nombreux bassins versants sont caractérisés par un fonctionnement pluvio-nival où une partie des ressources en eau est stockée en hiver sous forme de neige en montagne alors que la zone de consommation se situe en plaine souvent dominée par l'agriculture irriguée. L'objectif de ce travail est double : (1) évaluer les capacités de la télédétection visible/proche infrarouge pour caractériser la variabilité interannuelle de l'enneigement sur l'Atlas marocain comme alternative aux données in situ éparses sur ces zones difficiles d'accès ; (2) identifier les déterminants climatiques qui gouvernent cette variabilité. Dans cet objectif, nous avons analysé plus de 10 ans d'acquisitions journalières issues du capteur MODIS (produits MOD10A1). Dans un premier temps, nous nous sommes attachés à corriger les produits bruts contaminés par la couverture nuageuse à l'aide de méthodes de filtrage basées sur le voisinage spatial et temporel et nous les avons confrontées à des mesures d'équivalent en eau de la neige mesurée à la station nivale de l'Oukamaïden, près de Marrakech, entre 2009 et 2011. Dans un deuxième temps, nous avons caractérisé la variabilité interannuelle à l'aide d'indicateurs saisonniers: enneigement maximum et moyen, et date des premières neiges. Enfin, nous avons mis en évidence une relation significative entre la valeur de l'oscillation Nord Atlantique (ONA) moyenne sur le mois de mars et l'enneigement maximum. Nous montrons également qu'il existe une relation significative entre les anomalies de températures de surface de l'Atlantique équatorial et tropical à la fin de l'été et l'enneigement maximum rencontré sur l'Atlas marocain l'hiver suivant. Ces résultats ouvrent des perspectives pour la prévision saisonnière de l'enneigement sur la région.
APA, Harvard, Vancouver, ISO, and other styles
5

Cantat, Olivier, and Alexandre Follin. "Les singularités thermiques d’un espace périurbain dans une agglomération de dimension moyenne : le cas de Caen durant l’hiver 2018/2019." Climatologie 17 (2020): 3. http://dx.doi.org/10.1051/climat/202017003.

Full text
Abstract:
L’analyse comparative des données météorologiques de la station rurale de Carpiquet avec une station expérimentale en périphérie de la ville de Caen a permis de montrer la présence en hiver d’un léger îlot de chaleur péri-urbain (ICPU) (moyenne de +0,4°C). Il est caractérisé par un maximum d’intensité en fin d’après-midi et début de soirée (+0,8°C) et des écarts faibles le reste du temps. Derrière cette image moyenne, une analyse du continuum temporel au pas de temps journalier puis horaire a mis en exergue des comportements différenciés selon les types de temps. Le caractère le plus original des résultats est la présence certes rare, mais significative en termes d’intensité, d’un îlot de fraîcheur péri-urbain (IFPU). Il se forme de nuit par temps clair et calme et se prolonge dans la matinée, jusqu’à présenter un maximum d’intensité vers 9 h UTC. Cette inversion par rapport au schéma classique de fonctionnement des îlots de chaleur urbain (ICU) s’explique par un mode d’occupation du sol favorable à la formation d’une poche froide par rayonnement nocturne, favorisée par l’absence totale de vent (effet de barrage du bâti et de la végétation) et par la faible densité urbaine, alors que sur la campagne ces mécanismes de refroidissement sont atténués par la persistance d’un léger flux. Cet IFPU résiste et s’intensifie en début de matinée, jusqu’à temps que le soleil et la turbulence de l’air ne viennent échauffer et disperser cette pellicule d’air froid plus dense. Ici, les conditions stationnelles semblent donc primer sur les effets purement urbains car l’agglomération de Caen ne présente pas une masse suffisante pour créer une « bulle chaude » jusque dans ses quartiers périphériques quand un type de temps radiatif s’impose.
APA, Harvard, Vancouver, ISO, and other styles
6

Hatungumukama, G., P. L. Leroy, and J. Detilleux. "Influence des facteurs non génétiques sur la production laitière journalière des vaches Frisonnes à la station de Mahwa (sud du Burundi)." Revue d’élevage et de médecine vétérinaire des pays tropicaux 61, no. 1 (January 1, 2008): 45. http://dx.doi.org/10.19182/remvt.10011.

Full text
Abstract:
Entre 1991 et 2003, 75 650 données sur la production laitière journalière de vaches Frisonnes de la station de Mahwa ont été collectées pour étudier les effets de la durée de lactation, de l’âge au vêlage, de l’année et du mois de lactation, et de la parité sur cette production. Les données ont été analysées à l’aide d’un modèle linéaire (procédure GLM de SAS). Tous les facteurs ont influencé significativement la production laitière (P < 0,001). La moyenne générale a été de 8,71 l/jour. La production laitière a suivi la courbe théorique de lactation avec un pic de lactation de 11,48 ± 0,20 l/jour au 15e jour de lactation. L’âge au vêlage a influencé la production, avec des coefficients de régression linéaire et quadratique de –0,26 l/mois et 0,0052 l/mois² en première parité, de 0,49 l/mois et –0,0056 l/mois² en deuxième parité, et de –0,22 l/mois et 0,0013 l/mois² en troisième (et plus) parité. La production laitière a diminué au cours des années de lactation avec la chute la plus importante en 1993. Elle a atteint un minimum en 1995 avec 6,91 ± 0.17 l/jour et un maximum en 1991 avec 15,55 ± 0,45 l/jour. Elle a été significativement plus élevée en février (9,75 ± 0,13 l/jour) au milieu de la saison pluvieuse qu’en septembre (7,60 ± 0,13 l/jour) en fin de saison sèche. La moyenne des moindres carrés pour la production laitière journalière a été respectivement de 11,47 ± 0,30, 5,23 ± 0,09, et 10,11 ± 0,06 l/jour en première, deuxième et troisième (et plus) lactation.
APA, Harvard, Vancouver, ISO, and other styles
7

Tisserand, Jean-Christian. "Le jeu de l’ultimatum, une méta-analyse de 30 années de recherches expérimentales." Articles 92, no. 1-2 (May 11, 2017): 289–314. http://dx.doi.org/10.7202/1039879ar.

Full text
Abstract:
Le jeu de l’ultimatum recense sans nul doute l’une des plus larges littératures expérimentales de ces trois dernières décennies. Dans cet article, nous nous intéressons aux décisions des joueurs dans le jeu de l’ultimatum ainsi qu’aux variables explicatives susceptibles d’influencer la somme offerte. Nous réalisons une méta-analyse portant sur un total de 97 observations du jeu simple de l’ultimatum recueillies à travers 42 articles publiés entre 1983 et 2012. Alors que la prédiction théorique annonce que les offres du jeu de l’ultimatum devraient être nulles, nos résultats mettent en évidence que ce choix procure un gain espéré de 7,69 % de la somme en jeu pour le proposant. Alors que le gain espéré du proposant est à son maximum lorsque ce dernier offre 40 % de la somme à partager, la moyenne pondérée des offres formulées par les proposants de notre échantillon d’études s’établit à 41,04 %. Parmi les variables explicatives étudiées, seul le fait d’être un étudiant en économie présente un impact significatif sur les sommes offertes. Ce résultat va dans le sens de l’étude menée par Carter et Irons (1991).
APA, Harvard, Vancouver, ISO, and other styles
8

Bencherif, Kada, and Houari Tadj. "Approche d'estimation du volume-tige de peuplements forestiers par combinaison de données Landsat et données terrain Application à la pineraie de Tlemcen-Algérie." Revue Française de Photogrammétrie et de Télédétection, no. 215 (August 16, 2017): 3–11. http://dx.doi.org/10.52638/rfpt.2017.360.

Full text
Abstract:
Une approche méthodologique s'appuyant sur la combinaison de données satellitaires et données de terrain est proposée pour l’estimation du volume-tige de peuplements forestiers hétérogènes ou peu homogènes. L'objectif est d'évaluer la disponibilité forestière, en inventoriant moins de 1% de la surface étudiée et avec une erreur max. de 15%. L'approche consiste en la réalisation de trois étapes principales : i) Analyse de la variance sur le volume-tige, ii) classification des données satellitaires et iii) Désignation et inventaire des pixels-échantillons. L'analyse et le calcul de la variance permet d'orienter les calculs du volume en fonction de sa variabilité dans les différentes strates de la forêt alors que la classification des données satellitaires vise à obtenir une stratification de la forêt. La troisième étape consiste en la sélection de pixels-échantillons sur l'image classifiée puis la géolocalisation, l'installation et le cubage des placettes-terrain correspondantes (même dimension spatiale que le pixel de l'image utilisée). Appliquée sur une futaie peu homogène de pin d'Alep (forêt de Tlemcen, Nord-Ouest algérien), l'approche a permis d'estimer un volume global sur pied du peuplement égal à 30 595 m3 m3±15.6% et ce en inventoriant 0.4% seulement de la surface totale. L'analyse de variance sur 12 placettes-échantillons a mis en évidence le caractère peu homogène de la forêt et la faible variabilité du volume-tige. Cependant, Elle fait apparaître aussi que la stratification apporte une légère amélioration à la précision (15.6%) contre 17.6% sans stratification. La classification supervisée d'une image Landsat (Mai 2002) par la méthode du maximum de vraisemblance (précision moyenne de 96%) a permis de stratifier la zone étudiée en six classes (forêt très dense, forêt dense, forêt claire, matorral, herbacées, autres). Pour chaque strate de forêt, le cubage complet de 4 placettes-échantillons comparables en dimension au pixel (30m—30m), a fourni le volume-tige moyen par pixel alors que la généralisation de celui-ci à l'ensemble des pixels a permis de déterminer le volume total de chaque strate. Vu les confusions générées par la classification supervisée au profit des objets pistes, routes et matorral, le volume global a été revu à la baisse (taux de réduction de 10%) et la valeur du volume total corrigé était de 27 535 m3±15.6%, une erreur, bien que non conforme à celle exigée par l'aménagement forestier (max ±10%), s'approche de celle généralement admise (une moyenne de ±15%) pour certains inventaires simplifiés.
APA, Harvard, Vancouver, ISO, and other styles
9

Zahar, Y., and J. P. Laborde. "Une méthode stochastique pour la prédétermination des fluctuations probables des durées de service des réservoirs collinaires en Tunisie." Revue des sciences de l'eau 11, no. 1 (April 12, 2005): 25–42. http://dx.doi.org/10.7202/705295ar.

Full text
Abstract:
Un modèle de génération stochastique de pluies est couplé ˆ un modèle de calcul de l'index de leurs érosivités, dérivé de l'Equation Universelle de l'Erosion des Sols (USLE). Le premier fonctionne au pas de temps de 30mn, il est calé sur une série pluviographique de 15 ans de la Tunisie centrale. Le second modèle fonctionne par calcul automatique des cumuls et moyennes de l'érosivité des pluies générées. En mode opérationnel, ces deux modèles sont exploités pour simuler les aléas de l'envasement annuel des réservoirs collinaires de la zone aride et semi-aride de la Tunisie : le bassin versant est considéré comme une "boite noire" où l'agressivité climatique est la principale variable (quelques pluies extrêmes font l'essentiel de l'érosion), les autres facteurs sont considérés constants durant la durée de service du réservoir. Nous observons sur trois bassins versants répartis du nord au sud de la frange comprise entre 500mm et 250mm (de pluie moyenne annuelle), que la distribution annuelle des index d'érosivité des pluies peut être assimilée ˆ la distribution des transports solides. Sur l'un de ces bassins versants (OUED EL HISSIANE : 15,9 ) nous observons également que les valeurs extrêmes de l'érosion sont proportionnelles aux valeurs extrêmes de l'index d'érosivité des pluies. Seulement l'automne et le printemps sont des saisons érosives. Dans le cas de petits bassins versants non-jaugés, comme ceux pour l'aménagement de réservoirs collinaires, le générateur nous permet de constituer des chroniques d'érosivité de pluie. Si on considère que les autres paramètres sont constants, ce modèle nous aide à déterminer les intervalles de confiance de durées de service probables. Une analyse de sensibilité par la modification des paramètres du générateur (nombre d'épisodes, hauteur de pluie, maximum et durée d'averse etc ...) valide la méthodologie. De même une analyse régionale montre les faibles fluctuations des résultats sur l'étendue aride et semi-aride de la Tunisie. Ces deux résultats nous ont conduit à proposer un abaque régional de prédétermination des fluctuations probables des durées de service des réservoirs collinaires, compte tenu de la connaissance préalable de la durée de service moyenne probable. Cette méthode directement opérationnelle peut être utilisée pour l'aménagement, la planification, et la gestion des réservoirs collinaires. Elle améliore les études de faisabilité, notamment lorsqu'on la couple aux calculs économiques.
APA, Harvard, Vancouver, ISO, and other styles
10

COLLEAU, J., S. FRITZ, F. GUILLAUME, A. BAUR, D. DUPASSIEUX, L. JOURNAUX, A. EGGEN, and D. BOICHARD. "Simulation des potentialités de la sélection génomique chez les bovins laitiers." INRA Productions Animales 28, no. 3 (January 13, 2020): 251–58. http://dx.doi.org/10.20870/productions-animales.2015.28.3.3030.

Full text
Abstract:
Cet article présente une simulation de sélection génomique dans une grande population de bovins laitiers en comparaison à un programme basé sur le testage des taureaux sur descendance. L’accroissement de progrès génétique est maximum (au moins 80% sans augmentation de coût) quand les pères à taureaux, dont les effectifs sont en forte augmentation, sont sélectionnés uniquement sur information génomique, sans testage sur descendance. Avec ce nombre élevé de pères à taureaux, les coefficients de consanguinité et de parenté diminuent, contrairement à ce qu’on aurait pu craindre compte tenu du raccourcissement de l’intervalle entre générations. Au niveau des éleveurs, la recommandation est de choisir les taureaux d’insémination de service (pères des femelles) en nombre suffisant dans l’ensemble des nombreux pères à taureaux génomiques, en opposition complète avec la pratique générale qui, jusqu’en 2009, consistait au contraire à sélectionner un nombre relativement réduit de taureaux de service parmi les taureaux testés et un nombre encore plus faible de pères à taureaux parmi les taureaux de service. Ces résultats, obtenus en 2009, ont jeté les bases de la gestion des populations bovines laitières en France en sélection génomique, mais ils restent tout à fait d’actualité aujourd’hui. Il est en effet essentiel pour la durabilité de la sélection et de la production que le nombre efficace de reproducteurs soit élevé pour limiter l’augmentation de la consanguinité. L’observation des premières années d’application montre que ces préconisations sont relativement bien suivies en moyenne.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Maximum d'entropie sur la moyenne"

1

Gamboa, Fabrice. "Méthode du maximum d'entropie sur la moyenne et applications." Paris 11, 1989. http://www.theses.fr/1989PA112346.

Full text
Abstract:
La méthode du maximum d'entropie permet de donner une solution explicite au problème de reconstruction d'une mesure de probabilité lorsque l'on ne dispose que des valeurs moyennes de certaines variables aléatoires. Nous utilisons cette méthode pour reconstruire une fonction contrainte à appartenir à un convexe C (contrainte non linéaire), en utilisant un nombre fini de ses moments généralisés (contrainte linéaire). Pour cela on considère une suite de problèmes de maximisation de l'entropie, le n-ème problème consiste à reconstruire une probabilité sur Cn, projection de C sur Rⁿ, dont la moyenne vérifie une contrainte approchant la contrainte initiale (moments généralisés). Faisant ensuite tendre n vers l’infini, on obtient une solution au problème initial en considérant la limite de la suite des moyennes des lois du maximum d'entropie sur les espaces Cn. Ce procédé de reconstruction est baptisé méthode du maximum d'entropie sur la moyenne (M. E. M), car la contrainte linéaire ne porte que sur la moyenne des lois à reconstruire. On étudie principalement le cas où C est une bande de fonctions continues. On obtient alors une famille de reconstructions, chacun des éléments de cette famille ne dépend que de la suite des mesures de référence utilisée dans la suite des problèmes d'entropie. Nous montrons que la méthode (M. E. M) est équivalente à la maximisation d'un critère concave. Nous utilisons ensuite la méthode (M. E. M) pour construire un critère numériquement calculable permettant de résoudre le problème des moments généralisés sur une bande bornée de fonctions continues. Enfin nous nous intéressons à des applications statistiques de la méthode
An explicit solution for the problem of probability reconstruction when only the averages of random variables are known is given by the maximum entropy method. We use this method to reconstruct a function constrained to a convex set C, (no linear constraint) using a finite number of its generalized moments linear constraint). A sequence of entropy maximization problems is considered. The nth problem consists in the reconstruction of a probability distribution on Cn, the projection of C on Rⁿ whose mean satisfies a constraint approximating the initial linear constraint (generalized moments). When n approaches infinity this gives a solution for the initial problem as the limit of the sequence of means of maximum entropy distributions on Cn. We call this technique the maximum entropy method on the mean (M. E. M) because linear constraints are only on the mean of the distribution to be reconstructed. We mainly study the case where C is a band of continuous functions. We find a reconstruction familly, each element of this family only depends of referenced measures used for the sequence of entropy problems. We show that the M. E. M method is equivalent to a concav criteria maximization. We then use the M. E. M method to construct a numerically computable criteria to solve generalized moments problem on a bounded band of continuous functions. In the last chapter we discuss statistical applications of the method
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Besnerais Guy. "Méthode du maximum d'entropie sur la moyenne, critères de reconstruction d'image et synthèse d'ouverture en radio-astronomie." Paris 11, 1993. http://www.theses.fr/1993PA112412.

Full text
Abstract:
Nous étudions le problème de la reconstruction d'une image à partir d'une mesure incomplète et dégradée de sa transformée de Fourier bidimensionnelle. On suppose en outre que l'image cherchée appartient à un ensemble convexe de fonctions définie par un gabarit. Enfin, le problème se présente parfois comme la remise à jour d'une image grossière déjà disponible, à laquelle la reconstruction finale doit «ressembler» dans la limite de ce qu'autorisent les données. L'approche adoptée est d'optimiser, sous les contraintes définies par les données de Fourier, un critère choisi pour imposer toutes les propriétés précédentes à la solution. Pour définir ce critère, nous utilisons le procédé du maximum d'entropie sur la moyenne (PMEM), introduit à l'origine par J. Navaza. Nous effectuons le lien entre le PMEM et les méthodes «à maximum d'entropie» très utilisées, car adaptées à la contrainte de positivité. Nous présentons ensuite une méthodologie de construction de critères fondée sur le PMEM et qui constitue une généralisation des méthodes précédentes, car il est alors possible de tenir compte de contraintes autres que la positivité. Un exemple synthétique monodimensionnel est présenté pour illustrer les propriétés générales des reconstructions obtenues. La méthode est appliquée au problème d'imagerie propre à la synthèse d'ouverture en radio-astronomie. Dans ce type d'application, il est important de tenir compte des erreurs systématiques qui n'ont pu être calibrées, en particulier celles affectant la phase des mesures. Nous introduisons à cet effet un jeu de paramètres de correction de ces aberrations, puis nous optimisons le critère choisi par rapport à ces nouvelles variables. Les résultats obtenus sont illustrés sur des exemples de simulation bidimensionnels
We adress here the problem of image reconstruction from a limited number of its Fourier coefficients, degraded by noise and/or systematic errors. The sought image is assumed to belong to a convex set of functions defined by some known template. Sometimes the problem may also consist in updating a default image, so that the reconstructed image be close to the default one in terms of some discrepancy measure. Reconstruction may be achieved by optimization of a criterion which naturally imposes the expected properties on the solution. The design of such a criterion is carried out using the maximum entropy on the mean procedure (MEMP), as originally proposed by J. Navaza. We first emphasize the relationship between MEMP and the maximum entropy image reconstruction methods, which are usualy used in connection with the positivity constraint. Then we present a constructive procedure to design image reconstruction criteria, based on the MEMP, which generalizes the maximum entropy methods, since it works with constraints other than positivity. A study of the properties of the reconstructions which may be obtained is given using a synthetic monodimensionnal problem. The method is then applied to the imaging problem which occurs in aperture synthesis techniques in radio-astronomy. Ln this problem, the influence of systematic errors, which remains after the calibration procedures and especially those affecting the phase of the measured data must be accounted for. The correction of systematic errors is handled through the introduction of a set of parameters, and the criterion is optimized with respect to this new set of variables. Simulation results are provided on bidimensionnal problems
APA, Harvard, Vancouver, ISO, and other styles
3

Amblard, Cécile. "Reconstruction de foyers d'hyperfixation en tomographie d'émission de positons par la méthode du maximum d'entropie sur la moyenne : application à l'oncologie." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0109.

Full text
Abstract:
Ce travail concerne les techniques de reconstruction d'images tridimensionnelles pour la detection de petits foyers cancereux et de metastases, a partir de donnees acquises en tomographie d'emission de positions (tep). En tep, la presence d'un foyer tumoral se traduit par une hyperfixation du traceur injecte. Nous cherchons a maximiser la probabilite de detection et de localisation correcte de petits foyers plutot qu'a restaurer sans biais l'intensite du signal. Ceci nous conduit a modeliser la concentration volumique du radiotraceur a l'aide de lois de melanges, qui traduisent le fait que chaque point de l'objet a une activite soit normale, soit surelev ee. Nous proposons de resoudre ce probleme avec une methode de maximum d'entropie sur la moyenne. Cette approche permet d'introduire de l'information a priori sous forme de lois de melange et conduit a une solution unique, au moyen d'un algorithme d'optimisation dont la forme ne depend pas de la loi a priori. De plus, elle permet de lier modelisations probabiliste et deterministe ; elle donne sens a des criteres de regularisation deterministes classiquement utilises et permet d'en definir de nouveaux. Une strategie d'evaluation a ete elaboree pour caracteriser quantitativement les performances des images reconstruites en terme de detectabilite d'hyperfixations. Cette strategie repose sur l'analyse roc (receiver operating characteristics) d'un vecteur d'indices calcules en differentes zones de l'image, et rendant compte de leur caractere hyperfixant. Les resultats obtenus avec l'approche proposee sont compares a ceux fournis par des methodes de reference en milieu hospitalier : maximum de vraisemblance par l'algorithme des sous ensembles ordonnes (osem) et filtrage retroprojection (fbp). Sur donnees simulees, nous obtenons des resultats significativement meilleurs, au sens de notre strategie d'evaluation, qu'avec fbp et osem. Sur fantome physique et donnees cliniques, les resultats semblent raisonnables.
APA, Harvard, Vancouver, ISO, and other styles
4

Gallón, Gómez Santiago Alejandro. "Template estimation for samples of curves and functional calibration estimation via the method of maximum entropy on the mean." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2000/.

Full text
Abstract:
L'une des principales difficultés de l'analyse des données fonctionnelles consiste à extraire un motif commun qui synthétise l'information contenue par toutes les fonctions de l'échantillon. Le Chapitre 2 examine le problème d'identification d'une fonction qui représente le motif commun en supposant que les données appartiennent à une variété ou en sont suffisamment proches, d'une variété non linéaire de basse dimension intrinsèque munie d'une structure géométrique inconnue et incluse dans un espace de grande dimension. Sous cette hypothèse, un approximation de la distance géodésique est proposé basé sur une version modifiée de l'algorithme Isomap. Cette approximation est utilisée pour calculer la fonction médiane empirique de Fréchet correspondante. Cela fournit un estimateur intrinsèque robuste de la forme commune. Le Chapitre 3 étudie les propriétés asymptotiques de la méthode de normalisation quantile développée par Bolstad, et al. (2003) qui est devenue l'une des méthodes les plus populaires pour aligner des courbes de densité en analyse de données de microarrays en bioinformatique. Les propriétés sont démontrées considérant la méthode comme un cas particulier de la procédure de la moyenne structurelle pour l'alignement des courbes proposée par Dupuy, Loubes and Maza (2011). Toutefois, la méthode échoue dans certains cas. Ainsi, nous proposons une nouvelle méthode, pour faire face à ce problème. Cette méthode utilise l'algorithme développée dans le Chapitre 2. Dans le Chapitre 4, nous étendons le problème d'estimation de calage pour la moyenne d'une population finie de la variable de sondage dans un cadre de données fonctionnelles. Nous considérons le problème de l'estimation des poids de sondage fonctionnel à travers le principe du maximum d'entropie sur la moyenne -MEM-. En particulier, l'estimation par calage est considérée comme un problème inverse linéaire de dimension infinie suivant la structure de l'approche du MEM. Nous donnons un résultat précis d'estimation des poids de calage fonctionnels pour deux types de mesures aléatoires a priori: la measure Gaussienne centrée et la measure de Poisson généralisée
One of the main difficulties in functional data analysis is the extraction of a meaningful common pattern that summarizes the information conveyed by all functions in the sample. The problem of finding a meaningful template function that represents this pattern is considered in Chapter 2 assuming that the functional data lie on an intrinsically low-dimensional smooth manifold with an unknown underlying geometric structure embedding in a high-dimensional space. Under this setting, an approximation of the geodesic distance is developed based on a robust version of the Isomap algorithm. This approximation is used to compute the corresponding empirical Fréchet median function, which provides a robust intrinsic estimator of the template. The Chapter 3 investigates the asymptotic properties of the quantile normalization method by Bolstad, et al. (2003) which is one of the most popular methods to align density curves in microarray data analysis. The properties are proved by considering the method as a particular case of the structural mean curve alignment procedure by Dupuy, Loubes and Maza (2011). However, the method fails in some case of mixtures, and a new methodology to cope with this issue is proposed via the algorithm developed in Chapter 2. Finally, the problem of calibration estimation for the finite population mean of a survey variable under a functional data framework is studied in Chapter 4. The functional calibration sampling weights of the estimator are obtained by matching the calibration estimation problem with the maximum entropy on the mean -MEM- principle. In particular, the calibration estimation is viewed as an infinite-dimensional linear inverse problem following the structure of the MEM approach. A precise theoretical setting is given and the estimation of functional calibration weights assuming, as prior measures, the centered Gaussian and compound Poisson random measures is carried out
APA, Harvard, Vancouver, ISO, and other styles
5

Krysta, Monika. "Modélisation numérique et assimilation de données de la dispersion de radionucléides en champ proche et à l'échelle continentale." Phd thesis, Université Paris XII Val de Marne, 2006. http://tel.archives-ouvertes.fr/tel-00652840.

Full text
Abstract:
La prévision des conséquences de rejets radioactifs dans l'atmosphère repose sur des modèles de dispersion qui fournissent des solutions analytiques (pX 0.1 développé par IRSN/ECL) ou numériques (Polair3D développé au CEREA) de l'équation d'advection-diffusion. Les modèles s'appuient d'une part sur des champs météorologiques possédant une résolution limitée et intègrent d'autre part des processus d'appauvrissement d'un nuage radioactif dont la description est imparfaite. Afin de contourner ces difficultés nous exploitons dans cette thèse les opportunités offertes par le couplage des modèles aux mesures, connu sous le nom d'assimilation de données. Dans un premier temps nous confrontons les modèles utilisés à des observations. Ces dernières sont fournies par des expériences effectuées avec des traceurs passifs ou collectées suite a des rejets de radionucléides. La dispersion sur une maquette de la centrale de Bugey dans une soufflerie en champ proche, l'expérience ETEX-I à l'échelle continentale et les rejets accidentels de Tchernobyl et Algésiras font l'objet d'études dans ce travail. Dans un deuxième temps, les modèles de dispersion sont associés aux mesures dans le but d'améliorer l'évaluation de conséquences de rejets radioactifs et d'inverser leur sources si la qualité du modèle le permet. En champ proche, l'approche variationnelle standard est utilisée. L'adjoint de pX 0.1 est construit à l'aide d'un différenciateur automatique. Les mesures collectées dans la soufflerie sont assimilées afin d'inverser le débit de la source. Dans le but d'obtenir un meilleur accord entre le modèle et les mesures, l'optimisation des paramètres gouvernant la distribution spatiale du panache est ensuite abordée. L'avantage de l'emploi de mesures est conditionné par leur contenu informatif. Ainsi, l'analyse a posteriori du réseau de mesures est effectuée et des possibilités de réduire sa taille en vue des applications opérationnelles sont exploitées. A l'échelle continentale, malgré la restriction aux mailles contenant des sites nucléaires, l'espace engendré par des sources est de dimension considérablement plus grande que l'espace d'observations. Par conséquent le problème inverse de reconstruction de la position et du profil temporel des sources est mal posé. Ce problème est régularisé en utilisant le principe du maximum d'entropie sur la moyenne. Des nouvelles fonctions coût prenant en compte le confinement spatio-temporel des sources accidentelles sont construites dans l'espace d'observations. Le lien entre la source recherchée et les mesures est décrit par l'adjoint de Polair3D. Les observations assimilées par la méthode sont constituées de mesures synthétiques, parfaites ou bruitées. Une série d'expériences se focalisant sur des sensibilités de la méthode est menée et leur qualité évaluée à l'aide d'un indicateur objectif. Un algorithme de réduction des sites suspectés pour des applications opérationnelles est testé. Finalement, les résultats de l'inversion du profil temporel de la source de l'accident d'Algésiras sont présentés.
APA, Harvard, Vancouver, ISO, and other styles
6

Comets, Francis. "A propos des systèmes de particules en interaction sur un réseau." Paris 11, 1987. http://www.theses.fr/1987PA112312.

Full text
Abstract:
Nous considérons des systèmes de particules disposées sur un réseau, avec différentes formes d'interaction. Pour l'interaction à courte portée sur zd, nous obtenons les propriétés de grandes déviations pour le champ empirique d'une mesure de Gibbs nous considérons également le cas d'une interaction aléatoire. Puis nous étudions la dynamique de Glauber d'un système sur le tore avec interaction de champ moyen local, dans l'asymptotique d'un nombre infini de particules. L'étude des fluctuations autour de la loi des grands nombres montre la nécessité d'une renormalisation en espace et en temps à la température critique. La théorie des grandes déviations permet d'analyser les changements d'attracteurs à basse température, nous mettons en évidence la nucléation. Enfin, nous étudions les points stationnaires du modèle de champ moyen local à l'aide de la théorie des bifurcations
We are interested in particles systems located on a lattice, with different type of interaction For short range interaction on zd, we study the large deviation properties for the empirical field of a Gibbs measure we also cover the case of random interaction and derive some applications Next we study Glauber dynamics of a local mean field model on the torus in the asymptotics of a large number of particles The fluctuation process has to be rescaled in space and time at the critical temperature We analyse the dynamics of a change of attractor using large deviations techniques at low temperature we recover a description for nucleation We then need to study the stationary points in such a local mean field model this is tackled in the frame of bifurcation theory
APA, Harvard, Vancouver, ISO, and other styles
7

Broux, Thibault. "Caractérisations structurales in situ avancées d'oxydes dérivées de la pérovskite pour des applications électrochimiques à haute température." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S125/document.

Full text
Abstract:
Ce travail de thèse se situe dans la thématique des oxydes dérivés de la pérovskite ayant des propriétés de conduction mixte tels que les structures de type K2NiF4, les pérovskites doubles et la brownmillérite. Cette aptitude à conduire à la fois l'oxygène et les électrons présente un intérêt pour des dispositifs électrochimiques fonctionnant à haute température et notamment en tant qu'électrode pour les piles à combustible à oxyde solide. Plus précisément, cette thèse concerne la synthèse et l'étude cristallochimique avancée de la réactivité de ces matériaux essentiellement par les grands instruments par le biais de la diffraction de neutrons (NPD) et des rayons X synchrotron. Le travail préliminaire à ces études implique de la synthèse inorganique par voie solide ou par voie sol-gel, l'analyse thermogravimétrique et la titration iodométrique. Des cellules de réactivité originales ont été développées spécialement à l'ISCR pour l'étude in situ du comportement redox sous différents flux gazeux et en fonction de la température à la fois dans le cadre de la diffraction des neutrons et rayons X synchrotron. L'étude in situ par NPD des composés La2-xSrxMnO4±δ où x = 2,0 et x = 0,8 qui dérivent du composé de cathode de référence La1-xSrxMnO3 a permis de suivre l'évolution structurale en fonction du δ en conditions réductrices pour x = 2,0 et en conditions oxydantes pour x = 0,8. L'étude DRX synchrotron de Pr2NiO4,22 a permis de mettre en évidence la symétrie monoclinique à température ambiante alors que les études précédentes annonçaient une symétrie orthorhombique. Les variations structurales notamment la transition vers la phase HTT sont accompagnées d'une modulation incommensurable qui persiste jusqu'à au moins 900 °C. L'étude des pérovskites doubles NdBaCo2−xMnxO5+δ où 0 ≤ x ≤ 2 a permis de montrer que ces matériaux présentent des conductivités électriques totales très prometteuses pour des applications en tant que cathode de SOFC. De plus, la confrontation de la dynamique moléculaire et de la NPD combinée à la MEM pour le composé x = 0 a permis d'élucider le mécanisme de diffusion de l'oxygène dans cette famille de composés. L'étude par NPD de la réduction de LaSrFeCoO6 vers LaSrFeCoO5 de structure brownmillérite a permis de mettre en évidence que la structure réduite persiste à haute température et l'évolution de la mise en ordre des moments magnétiques lors du refroidissement de LaSrFeCoO5
This thesis is focused on oxides related to perovskite such as K2NiF4 structure-type, double perovskite and brownmillerite with mixed conduction properties. This ability to conduct both oxygen ions and electrons is relevant for electrochemical devices operating at high temperature, particularly as an electrode for solid oxide fuel cell. Specifically, this thesis deals with the synthesis and advanced crystal structure characterization of the reactivity of these materials mainly through large scale facilities by means of neutron powder diffraction (NPD) and X-ray synchrotron. Preliminary work in these studies involves inorganic synthesis by solid-state or by sol-gel route, thermogravimetric analysis and the iodometric titration. Original reactivity cells have been developed at the ISCR to study redox behavior under different gas flow and as a function of temperature for both neutron diffraction and X-ray synchrotron experiment. In situ study by NPD of La2-xSrxMnO4 ± δ compounds where x = 2.0 and x = 0.8 which derived from the compound cathode reference La1-xSrxMnO3 allowed to follow the structural evolution as a function of δ in reducing conditions for x = 2.0 and oxidizing conditions for x = 0.8. The synchrotron study of Pr2NiO4.22 helped to highlight the monoclinic symmetry at room temperature while previous studies announced an orthorhombic symmetry. Besides, structural changes including the transition to the HTT phase are accompanied by an incommensurable modulation that persists at least up to 900 °C. The study of double perovskites NdBaCo2-xMnxO5+δ where 0 ≤ x ≤ 2 showed that these materials exhibit a promising electrical conductivities for SOFC applications as cathode. In addition, the comparison of the molecular dynamics and NDP combined with MEM for x = 0 compound has elucidated the oxygen diffusion mechanism in these compounds. The study by NPD in reducing condition of LaSrFeCoO6 to the brownmillerite LaSrFeCoO5 has showed that the reduced structure persists at high temperatures and allowed to follow the evolution in the ordering of the magnetic moments while cooling LaSrFeCoO5
APA, Harvard, Vancouver, ISO, and other styles
8

Lapalme, Ervig. "Méthodes entropiques appliqués au problème inverse en magnétoencéphalographie." Thèse, 2004. http://hdl.handle.net/1866/17329.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Nayihouba, Kolobadia Ada. "Essays in dynamic panel data models and labor supply." Thèse, 2019. http://hdl.handle.net/1866/23499.

Full text
Abstract:
Cette thèse est organisée en trois chapitres. Les deux premiers proposent une approche régularisée pour l’estimation du modèle de données de panel dynamique : l’estimateur GMM et l’estimateur LIML. Le dernier chapitre de la thèse est une application de la méthode de régularisation à l’estimation des élasticités de l’offre de travail en utilisant des modèles de pseudo-données de panel. Dans un modèle de panel dynamique, le nombre de conditions de moments augmente rapidement avec la dimension temporelle du panel conduisant à une matrice de covariance des instruments de grande dimension. L’inversion d’une telle matrice pour calculer l’estimateur affecte négativement les propriétés de l’estimateur en échantillon fini. Comme solution à ce problème, nous proposons une approche par la régularisation qui consiste à utiliser une inverse généralisée de la matrice de covariance au lieu de son inverse classique. Trois techniques de régularisation sont utilisées : celle des composantes principales, celle de Tikhonov qui est basée sur le Ridge régression (aussi appelée Bayesian shrinkage) et enfin celle de Landweber Fridman qui est une méthode itérative. Toutes ces techniques introduisent un paramètre de régularisation qui est similaire au paramètre de lissage dans les régressions non paramétriques. Les propriétés en echantillon fini de l’estimateur régularisé dépend de ce paramètre qui doit être sélectionné parmis plusieurs valeurs potentielles. Dans le premier chapitre (co-écrit avec Marine Carrasco), nous proposons l’estimateur GMM régularisé du modèle de panel dynamique. Sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini, nous montrons que nos estimateurs sont convergents and assymtotiquement normaux. Nous dérivons une méthode empirique de sélection du paramètrede régularisation basée sur une expansion de second ordre du l’erreur quadratique moyenne et nous démontrons l’optimalité de cette procédure de sélection. Les simulations montrent que la régularisation améliore les propriétés de l ’estimateur GMM classique. Comme application empirique, nous avons analysé l’effet du développement financier sur la croissance économique. Dans le deuxième chapitre (co-écrit avec Marine Carrasco), nous nous intéressons à l’estimateur LIML régularisé du modèle de données de panel dynamique. L’estimateur LIML est connu pour avoir de meilleures propriétés en échantillon fini que l’estimateur GMM mais son utilisation devient problématique lorsque la dimension temporelle du panel devient large. Nous dérivons les propriétes assymtotiques de l’estimateur LIML régularisé sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini. Une procédure empirique de sélection du paramètre de régularisation est aussi proposée. Les bonnes performances de l’estimateur régularisé par rapport au LIML classique (non régularisé), au GMM classique ainsi que le GMM régularisé sont confirmées par des simulations. Dans le dernier chapitre, je considère l’estimation des élasticités d’offre de travail des hommes canadiens. L’hétérogéneité inobservée ainsi que les erreurs de mesures sur les salaires et les revenus sont connues pour engendrer de l’endogéneité quand on estime les modèles d’offre de travail. Une solution fréquente à ce problème d’endogéneité consiste à régrouper les données sur la base des carastéristiques observables et d’ éffectuer les moindres carrées pondérées sur les moyennes des goupes. Il a été démontré que cet estimateur est équivalent à l’estimateur des variables instrumentales sur les données individuelles avec les indicatrices de groupe comme instruments. Donc, en présence d’un grand nombre de groupe, cet estimateur souffre de biais en échantillon fini similaire à celui de l’estimateur des variables instrumentales quand le nombre d’instruments est élevé. Profitant de cette correspondance entre l’estimateur sur les données groupées et l’estimateur des variables instrumentales sur les données individuelles, nous proposons une approche régularisée à l’estimation du modèle. Cette approche conduit à des élasticités substantiellement différentes de ceux qu’on obtient en utilisant l’estimateur sur données groupées.
This thesis is organized in three chapters. The first two chapters propose a regularization approach to the estimation of two estimators of the dynamic panel data model : the Generalized Method of Moment (GMM) estimator and the Limited Information Maximum Likelihood (LIML) estimator. The last chapter of the thesis is an application of regularization to the estimation of labor supply elasticities using pseudo panel data models. In a dynamic panel data model, the number of moment conditions increases rapidly with the time dimension, resulting in a large dimensional covariance matrix of the instruments. Inverting this large dimensional matrix to compute the estimator leads to poor finite sample properties. To address this issue, we propose a regularization approach to the estimation of such models where a generalized inverse of the covariance matrix of the intruments is used instead of its usual inverse. Three regularization schemes are used : Principal components, Tikhonov which is based on Ridge regression (also called Bayesian shrinkage) and finally Landweber Fridman which is an iterative method. All these methods involve a regularization parameter which is similar to the smoothing parameter in nonparametric regressions. The finite sample properties of the regularized estimator depends on this parameter which needs to be selected between many potential values. In the first chapter (co-authored with Marine Carrasco), we propose the regularized GMM estimator of the dynamic panel data models. Under double asymptotics, we show that our regularized estimators are consistent and asymptotically normal provided that the regularization parameter goes to zero slower than the sample size goes to infinity. We derive a data driven selection of the regularization parameter based on an approximation of the higher-order Mean Square Error and show its optimality. The simulations confirm that regularization improves the properties of the usual GMM estimator. As empirical application, we investigate the effect of financial development on economic growth. In the second chapter (co-authored with Marine Carrasco), we propose the regularized LIML estimator of the dynamic panel data model. The LIML estimator is known to have better small sample properties than the GMM estimator but its implementation becomes problematic when the time dimension of the panel becomes large. We derive the asymptotic properties of the regularized LIML under double asymptotics. A data-driven procedure to select the parameter of regularization is proposed. The good performances of the regularized LIML estimator over the usual (not regularized) LIML estimator, the usual GMM estimator and the regularized GMM estimator are confirmed by the simulations. In the last chapter, I consider the estimation of the labor supply elasticities of Canadian men through a regularization approach. Unobserved heterogeneity and measurement errors on wage and income variables are known to cause endogeneity issues in the estimation of labor supply models. A popular solution to the endogeneity issue is to group data in categories based on observable characteristics and compute the weighted least squares at the group level. This grouping estimator has been proved to be equivalent to instrumental variables (IV) estimator on the individual level data using group dummies as intruments. Hence, in presence of large number of groups, the grouping estimator exhibites a small bias similar to the one of the IV estimator in presence of many instruments. I take advantage of the correspondance between grouping estimators and the IV estimator to propose a regularization approach to the estimation of the model. Using this approach leads to wage elasticities that are substantially different from those obtained through grouping estimators.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography