Academic literature on the topic 'Distribution (Théorie des probabilités) – Mesure'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Distribution (Théorie des probabilités) – Mesure.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Distribution (Théorie des probabilités) – Mesure"

1

Laurencelle, Louis. "Une théorie des seuils psychométriques à double contrôle d’erreur – Partie II : l’erreur de mesure et le concept de norme sûre." Mesure et évaluation en éducation 39, no. 1 (June 9, 2016): 45–66. http://dx.doi.org/10.7202/1036705ar.

Full text
Abstract:
La décision psychométrique qui consiste à décréter qu’un candidat, évalué par un test et dont le score est confronté à une norme, « passe » ou « ne passe pas » fait face à deux incertitudes, deux sources d’erreur : l’erreur de mesure, reflétée par le coefficient de fidélité du test et modifiant peu ou prou la valeur vraie du candidat, et la variabilité échantillonnale de la norme, celle-ci étant ordinairement basée sur un échantillon et présentant sa propre distribution d’erreur. À la suite de l’examen de l’incertitude de la norme et de son contrôle (Laurencelle, 2015), nous abordons ici l’erreur de mesure et son interaction avec l’incertitude de la norme, puis nous intégrons les deux dans un système mathématique basé principalement sur la loi normale. La probabilité que soit sélectionné un candidat non méritant ou non qualifié peut être calculée, tout comme celle qu’un candidat qualifié soit rejeté. Nous proposons enfin le concept et la méthodologie de la « norme sûre » (Laurencelle, 2002), laquelle permet de contrôler statistiquement le risque d’une erreur de décision.
APA, Harvard, Vancouver, ISO, and other styles
2

Chen, Yanguang. "Characteristic Scales, Scaling, and Geospatial Analysis." Cartographica: The International Journal for Geographic Information and Geovisualization 56, no. 2 (June 2021): 91–105. http://dx.doi.org/10.3138/cart-2020-0001.

Full text
Abstract:
Les phénomènes géographiques s’inscrivent dans deux catégories : les phénomènes dépendants d’échelle et les phénomènes invariants d’échelle. Les premiers ont des échelles caractéristiques, ce qui n’est pas le cas des seconds. Les méthodes quantitatives et mathématiques classiques ne peuvent être appliquées efficacement aux phénomènes géographiques dépendants d’échelle. L’auteur compare les systèmes géographiques dépendants d’échelle et invariants d’échelle au moyen de simples modèles mathématiques applicables à la géographie. Les perspectives sont essentiellement les suivantes. Premièrement, les phénomènes dépendants d’échelle peuvent être étudiés au moyen de méthodes mathématiques traditionnelles, alors que l’analyse des phénomènes invariants d’échelle devrait reposer sur une théorie fondée sur la mise en échelle comme celle de la géométrie fractale. Deuxièmement, les phénomènes dépendants d’échelle relèvent du géoespace basé sur la distance, tandis que les phénomènes invariants d’échelle relèvent du géoespace basé sur la dimension. Troisièmement, quatre méthodes permettant de distinguer les phénomènes invariants d’échelle des phénomènes dépendants d’échelle sont présentées : transformation d’échelle, distribution de probabilités, fonctions d’autocorrélation et d’autocorrélation partielle, et indice ht ( head/tail — tête/queue). En pratique, un système géographique complexe comporte des aspects dépendants d’échelle et des aspects invariants d’échelle. Il convient d’adapter les méthodologies aux différents types de systèmes géographiques ou aux différents aspects d’un même système géographique.
APA, Harvard, Vancouver, ISO, and other styles
3

Peralta, Susana. "Numéro 11 - mai 2003." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16183.

Full text
Abstract:
L’abstention est un sujet de débat omniprésent dans la plupart des démocraties et ce pour deux raisons. Une de ces raisons est son importance croissante. Dans de nombreux pays démocratiques, un pourcentage croissant de la population décide de ne pas voter, suscitant de nombreux débats scientifiques, politiques et médiatiques. Même en Belgique, où le vote est obligatoire, nous sommes loin des 100 % de participation. En 1995, 9 % de la population avec droit de vote s’est abstenue, alors qu’en 1977 ils n’étaient que 5 %. Le cadre légal permettant de faire respecter la loi du vote obligatoire n’est en effet pas très strict. Entre 1987 et 1990, parmi les 500.000 personnes s’étant abstenues, seules 153 d’entre elles ont été jugées, et 138 condamnées à une amende symbolique. L’autre raison est beaucoup plus inquiétante : les citoyens qui décident de ne pas voter sont très souvent les plus défavorisés (moins riches, moins éduqués, ouvriers). Cette inégalité est loin d’être négligeable. Pour un ensemble de sept pays européens et le Canada, l’écart entre la participation des citoyens les plus éduqués et de leurs concitoyens moins diplômés a été estimé à 10 points de pourcent; en Suisse, pour les referenda menés entre 1981 et 1991, on a estimé l’écart à 25 points de pourcent; aux Etats-Unis, pour l’élection de 1972, il était de 40 points de pourcent. Est-ce problématique ? Le politologue Arend Lijphart affirme que la sous-représentation des plus défavorisés est l’équivalent fonctionnel des règles de vote censitaire existantes dans beaucoup de démocraties à la fin du dix-neuvième siècle, ce qui est intolérable. Cette position n’est cependant pas consensuelle. John Stuart Mill, par exemple, était de l’avis que les moins éduqués ne devraient pas voter parce qu’ils sont incapables de juger quelles sont les politiques favorables au bien-être de la communauté. Les données ne confirment cependant pas cette affirmation, mais elles montrent clairement que les pays ayant plus d’abstention sont ceux où la distribution du revenu est la plus inégale. Cela confirme la crainte de Lijphart de sous-représentation des opinions politiques des moins favorisés. Cette crainte est aussi renforcée par le fait qu’une diminution de l’abstention bénéficie principalement aux partis de gauche. Un phénomène de ce type peut partiellement expliquer les positions des différents partis sur le vote obligatoire en Belgique. En effet, selon les politologues belges Johan Ackaert et Lieven De Winter, son abolition peut gonfler ou diminuer fortement les résultats électoraux de certains partis. Quels sont alors les facteurs qui influencent l’abstention ? Le vote obligatoire a un impact déterminant sur le taux d’abstention. Dans une enquête menée en Belgique en 1991, 27 % des répondants affirment qu’ils ne voteraient plus jamais aux élections parlementaires si la loi sur le vote obligatoire était abolie. Pour l’élection du Parlement européen, on a estimé que le vote obligatoire diminuait l’abstention d’environ 20 à 23 points de pourcent. Par ailleurs, l’abstention varie selon le type d’élection (nationale, locale, européenne), le système électoral (proportionnel ou majoritaire), le jour de la semaine où ont lieu les élections (week-end ou jour ouvrable), l’existence ou pas d’un processus préalable d’inscription en tant qu’électeur (plus d’abstention dans les pays où c’est le cas), le nombre d’élections annuelles (l’abstention augmente lorsqu’il y en a beaucoup), le résultat espéré (moins d’abstention lorsqu’un résultat plus serré est attendu). La décision de voter ou de s’abstenir intéresse les économistes depuis que Downs a publié "An Economic Theory of Democracy" en 1957. L’auteur y décrit le comportement de l’électeur en tant qu’individu rationnel, qui évalue le bénéfice et le coût de voter. Le bénéfice correspond au gain de voir son parti préféré gagner l’élection, pondéré par la probabilité que son propre vote soit déterminant pour un tel résultat. Avec des millions d’électeurs, le vote d’un individu a un impact très faible sur le résultat, rendant presque nul le bénéfice de voter. Les coûts associés à l’acte de voter incluent le déplacement, le temps d’attente au bureau de vote et la récolte d’information préalable. L’électeur rationnel devrait donc s’abstenir. Downs conclut que si les citoyens votent malgré tout, c’est parce qu’ils attachent de la valeur au système démocratique et qu’ils veulent éviter son effondrement. C’est ce qu’il appelle la "valeur de long terme" de la démocratie. Ces éléments nous permettent d’interpréter les faits empiriques. Voter un jour ouvrable et le fait de devoir s’inscrire sont des coûts, qui font augmenter l’abstention. Le bénéfice de l’élection de son parti préféré est supérieur lorsque l’enjeu de l’élection est plus grand, ce qui explique la moindre abstention aux élections nationales par rapport aux européennes. Un résultat espéré très serré augmente l’impact du vote individuel sur le résultat des élections, ce qui fait diminuer l’abstention. Si on pense au coût d’obtention de l’information nécessaire à la décision de voter, la plus forte participation des plus diplômés devient claire : ce sont eux qui ont le plus de facilités à obtenir et interpréter cette information. Downs a aussi mis l’accent sur le paradoxe fondamental du vote. Si aucun individu ne vote parce qu’il ne peut influencer le résultat, chaque citoyen peut décider de voter et ainsi élire son parti préféré, puisque tous ses concitoyens se sont abstenus. Mais si tous parviennent à la même conclusion, ils votent donc tous et chaque vote individuel perd sa valeur. Ce raisonnement fait appel à deux aspects fondamentaux de l’acte de voter. D’un côté la compétition, qui pousse les gens à voter : les sympathisants d’un parti veulent voter pour que l’autre parti ne gagne pas. D’un autre le phénomène du "tire-au-flanc", qui amène les gens à s’abstenir : les sympathisants d’un même parti ont tendance à reporter l’un sur l’autre la responsabilité de voter, car cela leur évite le coût du vote tout en gardant le bénéfice de voir son parti élu. Le message des approches économiques face au problème de l’abstention est que son existence n’est pas étonnante, bien au contraire. Cependant, dans le souci d’augmenter la participation, on peut éliminer certains aspects institutionnels qui rendent l’acte de voter coûteux. De nombreuses études empiriques ont démontré l’importance des aspects institutionnels, et la théorie nous permet de comprendre pourquoi des tels facteurs influencent la décision de voter. Parmi les différentes mesures que l’on peut mettre en place pour faire baisser l’abstention, la plus effective mais aussi la plus controversée est sans doute le vote obligatoire, qui permet à la fois de faire descendre l’abstention à des niveaux très faibles et d’éliminer le biais social. La Belgique a le système le plus ancien et le mieux établi de vote obligatoire. Ce n’est cependant pas le seul pays à l’avoir adopté. L’introduction du vote obligatoire n’est cependant pas exempte de critiques. La plus importante concerne la liberté de choix. Les défenseurs du vote obligatoire tels que Arend Lijphart affirment que le droit de ne pas voter reste intact (par un vote blanc ou nul), c’est l’obligation de se déplacer jusqu’au bureau de vote qui est en cause. En outre, tout dépend de l’échelle des valeurs : si l’on préfère la liberté individuelle à l’égalité de représentation et d’opportunité, le vote obligatoire a en effet peu de sens. Enfin, ne pas voter est une attitude de tire-au-flanc comme beaucoup d’autres dans la vie économique, que l’Etat doit souvent éliminer en imposant une obligation.
APA, Harvard, Vancouver, ISO, and other styles
4

Peralta, Susana. "Numéro 11 - mai 2003." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2003.05.01.

Full text
Abstract:
L’abstention est un sujet de débat omniprésent dans la plupart des démocraties et ce pour deux raisons. Une de ces raisons est son importance croissante. Dans de nombreux pays démocratiques, un pourcentage croissant de la population décide de ne pas voter, suscitant de nombreux débats scientifiques, politiques et médiatiques. Même en Belgique, où le vote est obligatoire, nous sommes loin des 100 % de participation. En 1995, 9 % de la population avec droit de vote s’est abstenue, alors qu’en 1977 ils n’étaient que 5 %. Le cadre légal permettant de faire respecter la loi du vote obligatoire n’est en effet pas très strict. Entre 1987 et 1990, parmi les 500.000 personnes s’étant abstenues, seules 153 d’entre elles ont été jugées, et 138 condamnées à une amende symbolique. L’autre raison est beaucoup plus inquiétante : les citoyens qui décident de ne pas voter sont très souvent les plus défavorisés (moins riches, moins éduqués, ouvriers). Cette inégalité est loin d’être négligeable. Pour un ensemble de sept pays européens et le Canada, l’écart entre la participation des citoyens les plus éduqués et de leurs concitoyens moins diplômés a été estimé à 10 points de pourcent; en Suisse, pour les referenda menés entre 1981 et 1991, on a estimé l’écart à 25 points de pourcent; aux Etats-Unis, pour l’élection de 1972, il était de 40 points de pourcent. Est-ce problématique ? Le politologue Arend Lijphart affirme que la sous-représentation des plus défavorisés est l’équivalent fonctionnel des règles de vote censitaire existantes dans beaucoup de démocraties à la fin du dix-neuvième siècle, ce qui est intolérable. Cette position n’est cependant pas consensuelle. John Stuart Mill, par exemple, était de l’avis que les moins éduqués ne devraient pas voter parce qu’ils sont incapables de juger quelles sont les politiques favorables au bien-être de la communauté. Les données ne confirment cependant pas cette affirmation, mais elles montrent clairement que les pays ayant plus d’abstention sont ceux où la distribution du revenu est la plus inégale. Cela confirme la crainte de Lijphart de sous-représentation des opinions politiques des moins favorisés. Cette crainte est aussi renforcée par le fait qu’une diminution de l’abstention bénéficie principalement aux partis de gauche. Un phénomène de ce type peut partiellement expliquer les positions des différents partis sur le vote obligatoire en Belgique. En effet, selon les politologues belges Johan Ackaert et Lieven De Winter, son abolition peut gonfler ou diminuer fortement les résultats électoraux de certains partis. Quels sont alors les facteurs qui influencent l’abstention ? Le vote obligatoire a un impact déterminant sur le taux d’abstention. Dans une enquête menée en Belgique en 1991, 27 % des répondants affirment qu’ils ne voteraient plus jamais aux élections parlementaires si la loi sur le vote obligatoire était abolie. Pour l’élection du Parlement européen, on a estimé que le vote obligatoire diminuait l’abstention d’environ 20 à 23 points de pourcent. Par ailleurs, l’abstention varie selon le type d’élection (nationale, locale, européenne), le système électoral (proportionnel ou majoritaire), le jour de la semaine où ont lieu les élections (week-end ou jour ouvrable), l’existence ou pas d’un processus préalable d’inscription en tant qu’électeur (plus d’abstention dans les pays où c’est le cas), le nombre d’élections annuelles (l’abstention augmente lorsqu’il y en a beaucoup), le résultat espéré (moins d’abstention lorsqu’un résultat plus serré est attendu). La décision de voter ou de s’abstenir intéresse les économistes depuis que Downs a publié "An Economic Theory of Democracy" en 1957. L’auteur y décrit le comportement de l’électeur en tant qu’individu rationnel, qui évalue le bénéfice et le coût de voter. Le bénéfice correspond au gain de voir son parti préféré gagner l’élection, pondéré par la probabilité que son propre vote soit déterminant pour un tel résultat. Avec des millions d’électeurs, le vote d’un individu a un impact très faible sur le résultat, rendant presque nul le bénéfice de voter. Les coûts associés à l’acte de voter incluent le déplacement, le temps d’attente au bureau de vote et la récolte d’information préalable. L’électeur rationnel devrait donc s’abstenir. Downs conclut que si les citoyens votent malgré tout, c’est parce qu’ils attachent de la valeur au système démocratique et qu’ils veulent éviter son effondrement. C’est ce qu’il appelle la "valeur de long terme" de la démocratie. Ces éléments nous permettent d’interpréter les faits empiriques. Voter un jour ouvrable et le fait de devoir s’inscrire sont des coûts, qui font augmenter l’abstention. Le bénéfice de l’élection de son parti préféré est supérieur lorsque l’enjeu de l’élection est plus grand, ce qui explique la moindre abstention aux élections nationales par rapport aux européennes. Un résultat espéré très serré augmente l’impact du vote individuel sur le résultat des élections, ce qui fait diminuer l’abstention. Si on pense au coût d’obtention de l’information nécessaire à la décision de voter, la plus forte participation des plus diplômés devient claire : ce sont eux qui ont le plus de facilités à obtenir et interpréter cette information. Downs a aussi mis l’accent sur le paradoxe fondamental du vote. Si aucun individu ne vote parce qu’il ne peut influencer le résultat, chaque citoyen peut décider de voter et ainsi élire son parti préféré, puisque tous ses concitoyens se sont abstenus. Mais si tous parviennent à la même conclusion, ils votent donc tous et chaque vote individuel perd sa valeur. Ce raisonnement fait appel à deux aspects fondamentaux de l’acte de voter. D’un côté la compétition, qui pousse les gens à voter : les sympathisants d’un parti veulent voter pour que l’autre parti ne gagne pas. D’un autre le phénomène du "tire-au-flanc", qui amène les gens à s’abstenir : les sympathisants d’un même parti ont tendance à reporter l’un sur l’autre la responsabilité de voter, car cela leur évite le coût du vote tout en gardant le bénéfice de voir son parti élu. Le message des approches économiques face au problème de l’abstention est que son existence n’est pas étonnante, bien au contraire. Cependant, dans le souci d’augmenter la participation, on peut éliminer certains aspects institutionnels qui rendent l’acte de voter coûteux. De nombreuses études empiriques ont démontré l’importance des aspects institutionnels, et la théorie nous permet de comprendre pourquoi des tels facteurs influencent la décision de voter. Parmi les différentes mesures que l’on peut mettre en place pour faire baisser l’abstention, la plus effective mais aussi la plus controversée est sans doute le vote obligatoire, qui permet à la fois de faire descendre l’abstention à des niveaux très faibles et d’éliminer le biais social. La Belgique a le système le plus ancien et le mieux établi de vote obligatoire. Ce n’est cependant pas le seul pays à l’avoir adopté. L’introduction du vote obligatoire n’est cependant pas exempte de critiques. La plus importante concerne la liberté de choix. Les défenseurs du vote obligatoire tels que Arend Lijphart affirment que le droit de ne pas voter reste intact (par un vote blanc ou nul), c’est l’obligation de se déplacer jusqu’au bureau de vote qui est en cause. En outre, tout dépend de l’échelle des valeurs : si l’on préfère la liberté individuelle à l’égalité de représentation et d’opportunité, le vote obligatoire a en effet peu de sens. Enfin, ne pas voter est une attitude de tire-au-flanc comme beaucoup d’autres dans la vie économique, que l’Etat doit souvent éliminer en imposant une obligation.
APA, Harvard, Vancouver, ISO, and other styles
5

Leclerc, Véronique, Alexandre Tremblay, and Chani Bonventre. "Anthropologie médicale." Anthropen, 2020. http://dx.doi.org/10.17184/eac.anthropen.125.

Full text
Abstract:
L’anthropologie médicale est un sous-champ de l’anthropologie socioculturelle qui s’intéresse à la pluralité des systèmes médicaux ainsi qu’à l’étude des facteurs économiques, politiques et socioculturels ayant un impact sur la santé des individus et des populations. Plus spécifiquement, elle s’intéresse aux relations sociales, aux expériences vécues, aux pratiques impliquées dans la gestion et le traitement des maladies par rapport aux normes culturelles et aux institutions sociales. Plusieurs généalogies de l’anthropologie médicale peuvent être retracées. Toutefois, les monographies de W.H.R. Rivers et d’Edward Evans-Pritchard (1937), dans lesquelles les représentations, les connaissances et les pratiques en lien avec la santé et la maladie étaient considérées comme faisant intégralement partie des systèmes socioculturels, sont généralement considérées comme des travaux fondateurs de l’anthropologie médicale. Les années 1950 ont marqué la professionnalisation de l’anthropologie médicale. Des financements publics ont été alloués à la discipline pour contribuer aux objectifs de santé publique et d’amélioration de la santé dans les communautés économiquement pauvres (Good 1994). Dans les décennies qui suivent, les bases de l’anthropologie médicale sont posées avec l’apparition de nombreuses revues professionnelles (Social Science & Medicine, Medical Anthropology, Medical Anthropology Quarterly), de manuels spécialisés (e.g. MacElroy et Townsend 1979) et la formation du sous-groupe de la Society for Medical Anthropology au sein de l’American Anthropological Association (AAA) en 1971, qui sont encore des points de références centraux pour le champ. À cette époque, sous l’influence des théories des normes et du pouvoir proposées par Michel Foucault et Pierre Bourdieu, la biomédecine est vue comme un système structurel de rapports de pouvoir et devient ainsi un objet d’étude devant être traité symétriquement aux autres systèmes médicaux (Gaines 1992). L’attention portée aux théories du biopouvoir et de la gouvernementalité a permis à l’anthropologie médicale de formuler une critique de l’hégémonie du regard médical qui réduit la santé à ses dimensions biologiques et physiologiques (Saillant et Genest 2007 : xxii). Ces considérations ont permis d’enrichir, de redonner une visibilité et de l’influence aux études des rationalités des systèmes médicaux entrepris par Evans-Pritchard, et ainsi permettre la prise en compte des possibilités qu’ont les individus de naviguer entre différents systèmes médicaux (Leslie 1980; Lock et Nguyen 2010 : 62). L’aspect réducteur du discours biomédical avait déjà été soulevé dans les modèles explicatifs de la maladie développés par Arthur Kleinman, Leon Eisenberg et Byron Good (1978) qui ont introduit une distinction importante entre « disease » (éléments médicalement observables de la maladie), « illness » (expériences vécues de la maladie) et « sickness » (aspects sociaux holistes entourant la maladie). Cette distinction entre disease, illness et sickness a joué un rôle clé dans le développement rapide des perspectives analytiques de l’anthropologie médicale de l’époque, mais certaines critiques ont également été formulées à son égard. En premier lieu, Allan Young (1981) formule une critique des modèles explicatifs de la maladie en réfutant l'idée que la rationalité soit un model auquel les individus adhèrent spontanément. Selon Young, ce modèle suggère qu’il y aurait un équivalant de structures cognitives qui guiderait le développement des modèles de causalité et des systèmes de classification adoptées par les personnes. Au contraire, il propose que les connaissances soient basées sur des actions, des relations sociales, des ressources matérielles, avec plusieurs sources influençant le raisonnement des individus qui peuvent, de plusieurs manières, diverger de ce qui est généralement entendu comme « rationnel ». Ces critiques, ainsi que les études centrées sur l’expérience des patients et des pluralismes médicaux, ont permis de constater que les stratégies adoptées pour obtenir des soins sont multiples, font appel à plusieurs types de pratiques, et que les raisons de ces choix doivent être compris à la lumière des contextes historiques, locaux et matériaux (Lock et Nguyen 2010 : 63). Deuxièmement, les approches de Kleinman, Eisenberger et Good ont été critiquées pour leur séparation artificielle du corps et de l’esprit qui représentait un postulat fondamental dans les études de la rationalité. Les anthropologues Nancy Scheper-Hughes et Margeret Lock (1987) ont proposé que le corps doit plutôt être abordé selon trois niveaux analytiques distincts, soit le corps politique, social et individuel. Le corps politique est présenté comme étant un lieu où s’exerce la régulation, la surveillance et le contrôle de la différence humaine (Scheper-Hughes et Lock 1987 : 78). Cela a permis aux approches féministes d’aborder le corps comme étant un espace de pouvoir, en examinant comment les discours sur le genre rendent possible l’exercice d’un contrôle sur le corps des femmes (Manderson, Cartwright et Hardon 2016). Les premiers travaux dans cette perspective ont proposé des analyses socioculturelles de différents contextes entourant la reproduction pour contrecarrer le modèle dominant de prise en charge médicale de la santé reproductive des femmes (Martin 1987). Pour sa part, le corps social renvoie à l’idée selon laquelle le corps ne peut pas être abordé simplement comme une entité naturelle, mais qu’il doit être compris en le contextualisant historiquement et socialement (Lupton 2000 : 50). Finalement, considérer le corps individuel a permis de privilégier l’étude de l’expérience subjective de la maladie à travers ses variations autant au niveau individuel que culturel. Les études de l’expérience de la santé et la maladie axées sur l’étude des « phénomènes tels qu’ils apparaissent à la conscience des individus et des groupes d’individus » (Desjarlais et Throop 2011 : 88) se sont avérées pertinentes pour mieux saisir la multitude des expériences vécues des états altérés du corps (Hofmann et Svenaeus 2018). En somme, les propositions de ces auteurs s’inscrivent dans une anthropologie médicale critique qui s’efforce d’étudier les inégalités socio-économiques (Scheper-Hughes 1992), l’accès aux institutions et aux savoirs qu’elles produisent, ainsi qu’à la répartition des ressources matérielles à une échelle mondiale (Manderson, Cartwright et Hardon 2016). Depuis ses débuts, l’anthropologie médicale a abordé la santé globale et épidémiologique dans le but de faciliter les interventions sur les populations désignées comme « à risque ». Certains anthropologues ont développé une perspective appliquée en épidémiologie sociale pour contribuer à l’identification de déterminants sociaux de la santé (Kawachi et Subramanian 2018). Plusieurs de ces travaux ont été critiqués pour la culturalisation des pathologies touchant certaines populations désignées comme étant à risque à partir de critères basés sur la stigmatisation et la marginalisation de ces populations (Trostle et Sommerfeld 1996 : 261). Au-delà des débats dans ce champ de recherche, ces études ont contribué à la compréhension des dynamiques de santé et de maladie autant à l’échelle globale, dans la gestion des pandémies par l’Organisation Mondiale de la Santé (OMS), qu’aux échelles locales avec la mise en place de campagnes de santé publique pour faciliter l’implantation de mesures sanitaires, telles que la vaccination (Dubé, Vivion et Macdonald 2015). L’anthropologie a contribué à ces discussions en se penchant sur les contextes locaux des zoonoses qui sont des maladies transmissibles des animaux vertébrés aux humains (Porter 2013), sur la résistance aux antibiotiques (Landecker 2016), comme dans le cas de la rage et de l’influenza (Wolf 2012), sur les dispositifs de prévention mis en place à une échelle mondiale pour éviter l’apparition et la prolifération d’épidémies (Lakoff 2010), mais aussi sur les styles de raisonnement qui sous-tendent la gestion des pandémies (Caduff 2014). Par ailleurs, certains auteur.e.s ont utilisé le concept de violence structurelle pour analyser les inégalités socio-économiques dans le contexte des pandémies de maladies infectieuses comme le sida, la tuberculose ou, plus récemment, l’Ébola (Fassin 2015). Au-delà de cet aspect socio-économique, Aditya Bharadwaj (2013) parle d’une inégalité épistémique pour caractériser des rapports inégaux dans la production et la circulation globale des savoirs et des individus dans le domaine de la santé. Il décrit certaines situations comme des « biologies subalternes », c’est à dire des états de santé qui ne sont pas reconnus par le système biomédical hégémonique et qui sont donc invisibles et vulnérables. Ces « biologies subalternes » sont le revers de citoyennetés biologiques, ces dernières étant des citoyennetés qui donnes accès à une forme de sécurité sociale basée sur des critères médicaux, scientifiques et légaux qui reconnaissent les dommages biologiques et cherche à les indemniser (Petryna 2002 : 6). La citoyenneté biologique étant une forme d’organisation qui gravite autour de conditions de santé et d’enjeux liés à des maladies génétiques rares ou orphelines (Heath, Rapp et Taussig 2008), ces revendications mobilisent des acteurs incluant les institutions médicales, l’État, les experts ou encore les pharmaceutiques. Ces études partagent une attention à la circulation globale des savoirs, des pratiques et des soins dans la translation — ou la résistance à la translation — d’un contexte à un autre, dans lesquels les patients sont souvent positionnés entre des facteurs sociaux, économiques et politiques complexes et parfois conflictuels. L’industrie pharmaceutique et le développement des technologies biomédicales se sont présentés comme terrain important et propice pour l’analyse anthropologique des dynamiques sociales et économiques entourant la production des appareils, des méthodes thérapeutiques et des produits biologiques de la biomédecine depuis les années 1980 (Greenhalgh 1987). La perspective biographique des pharmaceutiques (Whyte, Geest et Hardon 2002) a consolidé les intérêts et les approches dans les premières études sur les produits pharmaceutiques. Ces recherches ont proposé de suivre la trajectoire sociale des médicaments pour étudier les contextes d’échanges et les déplacements dans la nature symbolique qu’ont les médicaments pour les consommateurs : « En tant que choses, les médicaments peuvent être échangés entre les acteurs sociaux, ils objectivent les significations, ils se déplacent d’un cadre de signification à un autre. Ce sont des marchandises dotées d’une importance économique et de ressources recelant une valeur politique » (traduit de Whyte, Geest et Hardon 2002). D’autres ont davantage tourné leur regard vers les rapports institutionnels, les impacts et le fonctionnement de « Big Pharma ». Ils se sont intéressés aux processus de recherche et de distribution employés par les grandes pharmaceutiques à travers les études de marché et les pratiques de vente (Oldani 2014), l’accès aux médicaments (Ecks 2008), la consommation des produits pharmaceutiques (Dumit 2012) et la production de sujets d’essais cliniques globalisés (Petryna, Lakoff et Kleinman 2006), ainsi qu’aux enjeux entourant les réglementations des brevets et du respect des droits politiques et sociaux (Ecks 2008). L’accent est mis ici sur le pouvoir des produits pharmaceutiques de modifier et de changer les subjectivités contemporaines, les relations familiales (Collin 2016), de même que la compréhensions du genre et de la notion de bien-être (Sanabria 2014). Les nouvelles technologies biomédicales — entre autres génétiques — ont permis de repenser la notion de normes du corps en santé, d'en redéfinir les frontières et d’intervenir sur le corps de manière « incorporée » (embodied) (Haraway 1991). Les avancées technologiques en génomique qui se sont développées au cours des trois dernières décennies ont soulevé des enjeux tels que la généticisation, la désignation de populations/personnes « à risque », l’identification de biomarqueurs actionnables et de l’identité génétique (TallBear 2013 ; Lloyd et Raikhel 2018). Au départ, le modèle dominant en génétique cherchait à identifier les gènes spécifiques déterminant chacun des traits biologiques des organismes (Lock et Nguyen 2010 : 332). Cependant, face au constat que la plupart des gènes ne codaient par les protéines responsables de l’expression phénotypique, les modèles génétiques se sont depuis complexifiés. L’attention s’est tournée vers l’analyse de la régulation des gènes et de l’interaction entre gènes et maladies en termes de probabilités (Saukko 2017). Cela a permis l’émergence de la médecine personnalisée, dont les interventions se basent sur l’identification de biomarqueurs personnels (génétiques, sanguins, etc.) avec l’objectif de prévenir l’avènement de pathologies ou ralentir la progression de maladies chroniques (Billaud et Guchet 2015). Les anthropologues de la médecine ont investi ces enjeux en soulevant les conséquences de cette forme de médecine, comme la responsabilisation croissante des individus face à leur santé (Saukko 2017), l’utilisation de ces données dans l’accès aux assurances (Hoyweghen 2006), le déterminisme génétique (Landecker 2011) ou encore l’affaiblissement entre les frontières de la bonne santé et de la maladie (Timmermans et Buchbinder 2010). Ces enjeux ont été étudiés sous un angle féministe avec un intérêt particulier pour les effets du dépistage prénatal sur la responsabilité parentale (Rapp 1999), l’expérience de la grossesse (Rezende 2011) et les gestions de l’infertilité (Inhorn et Van Balen 2002). Les changements dans la compréhension du modèle génomique invitent à prendre en considération plusieurs variables en interaction, impliquant l’environnement proche ou lointain, qui interagissent avec l’expression du génome (Keller 2014). Dans ce contexte, l’anthropologie médicale a développé un intérêt envers de nouveaux champs d’études tels que l’épigénétique (Landecker 2011), la neuroscience (Choudhury et Slaby 2016), le microbiome (Benezra, DeStefano et Gordon 2012) et les données massives (Leonelli 2016). Dans le cas du champ de l’épigénétique, qui consiste à comprendre le rôle de l’environnement social, économique et politique comme un facteur pouvant modifier l’expression des gènes et mener au développement de certaines maladies, les anthropologues se sont intéressés aux manières dont les violences structurelles ancrées historiquement se matérialisent dans les corps et ont des impacts sur les disparités de santé entre les populations (Pickersgill, Niewöhner, Müller, Martin et Cunningham-Burley 2013). Ainsi, la notion du traumatisme historique (Kirmayer, Gone et Moses 2014) a permis d’examiner comment des événements historiques, tels que l’expérience des pensionnats autochtones, ont eu des effets psychosociaux collectifs, cumulatifs et intergénérationnels qui se sont maintenus jusqu’à aujourd’hui. L’étude de ces articulations entre conditions biologiques et sociales dans l’ère « post-génomique » prolonge les travaux sur le concept de biosocialité, qui est défini comme « [...] un réseau en circulation de termes d'identié et de points de restriction autour et à travers desquels un véritable nouveau type d'autoproduction va émerger » (Traduit de Rabinow 1996:186). La catégorie du « biologique » se voit alors problématisée à travers l’historicisation de la « nature », une nature non plus conçue comme une entité immuable, mais comme une entité en état de transformation perpétuelle imbriquée dans des processus humains et/ou non-humains (Ingold et Pálsson 2013). Ce raisonnement a également été appliqué à l’examen des catégories médicales, conçues comme étant abstraites, fixes et standardisées. Néanmoins, ces catégories permettent d'identifier différents états de la santé et de la maladie, qui doivent être compris à la lumière des contextes historiques et individuels (Lock et Nguyen 2010). Ainsi, la prise en compte simultanée du biologique et du social mène à une synthèse qui, selon Peter Guarnaccia, implique une « compréhension du corps comme étant à la fois un système biologique et le produit de processus sociaux et culturels, c’est-à-dire, en acceptant que le corps soit en même temps totalement biologique et totalement culturel » (traduit de Guarnaccia 2001 : 424). Le concept de « biologies locales » a d’abord été proposé par Margaret Lock, dans son analyse des variations de la ménopause au Japon (Lock 1993), pour rendre compte de ces articulations entre le matériel et le social dans des contextes particuliers. Plus récemment, Niewöhner et Lock (2018) ont proposé le concept de biologies situées pour davantage contextualiser les conditions d’interaction entre les biologies locales et la production de savoirs et de discours sur celles-ci. Tout au long de l’histoire de la discipline, les anthropologues s’intéressant à la médecine et aux approches de la santé ont profité des avantages de s’inscrire dans l’interdisciplinarité : « En anthropologie médical, nous trouvons qu'écrire pour des audiences interdisciplinaires sert un objectif important : élaborer une analyse minutieuse de la culture et de la santé (Dressler 2012; Singer, Dressler, George et Panel 2016), s'engager sérieusement avec la diversité globale (Manderson, Catwright et Hardon 2016), et mener les combats nécessaires contre le raccourcies des explications culturelles qui sont souvent déployées dans la littérature sur la santé (Viruell-Fuentes, Miranda et Abdulrahim 2012) » (traduit de Panter-Brick et Eggerman 2018 : 236). L’anthropologie médicale s’est constituée à la fois comme un sous champ de l’anthropologie socioculturelle et comme un champ interdisciplinaire dont les thèmes de recherche sont grandement variés, et excèdent les exemples qui ont été exposés dans cette courte présentation.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Distribution (Théorie des probabilités) – Mesure"

1

Pigeon, Mathieu. "Utilisation d'avis d'experts en actuariat." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25548/25548.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Wang, Xiaomin. "Décider du type de distribution de degré d'un graphe (réseau) à partir des mesures traceroute-like." Paris 6, 2011. http://www.theses.fr/2011PA066608.

Full text
Abstract:
La distribution des degrés de la topologie d'Internet est considéré comme l'un de ses principales propriétés. Cependant, on ne connaît une estimation biaisée par une procédure de mesure. Cette mesure comme la première approximation est modélisé par un arbre de BFS (parcours en largeur). Nous explorons ici, notre capacité à inférer le type (soit Poisson soit la loi de puissance) de la distribution des degrés d'une telle connaissance limitée. Nous les procédures de conception qui estiment la distribution des degrés d'un graphe à partir d'un ou plusieurs BFS, et de montrer expérimentalement (sur les graphes du modèle et les graphes du monde réel) que notre méthodologie réussit à distinguer Poisson et la loi de puissance et dans certains cas nous peuvons également estimer le nombre de liens. De plus, nous établissons une méthode, qui est une urne décroissante, pour analyser la procédure de la file d'attente. Nous analysons le profil de l'arbre BFS d'un graphe aléatoire avec une distribution des degrés donnée. Le nombre de nœuds et le nombre de liens invisibles à chaque niveau de l'arbre BFS sont deux principaux résultats que nous obtenons. Grâce à ces informations, nous proposons deux autres méthodologies pour décider du type plus précisement. The degree distribution of the Internet topology is considered as one of its main properties. However, it is only known through a measurement procedure which gives a biased estimate. This measurement may in first approximation be modeled by a BFS (Breadth-First Search) tree. We explore here our ability to infer the type (Poisson or power-law) of the degree distribution from such a limited knowledge. We design procedures which estimate the degree distribution of a graph from a BFS or multi-BFS trees, and show experimentally (on models and real-world data) that our approaches succeed in making the difference between Poisson and power-law degree distribution and in some cases can also estimate the number of links. In addition, we establish a method, which is a diminishing urn, to analyze the procedure of the queue. We analyze the profile of the BFS tree from a random graph with a given degree distribution. The expected number of nodes and the expected number of invisible links at each level of BFS tree are two main results that we obtain. Using these informations, we propose two new methodologies to decide on the type of the underlying graph.
APA, Harvard, Vancouver, ISO, and other styles
3

Genest, Maxime. "Mesures de localisation et de dispersion et profondeur de Tukey en statistique directionnelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27669/27669.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Rabenoro, Dimbihery. "Distribution asymptotique de vecteurs aléatoires indépendants non identiquement distribués conditionnés par leur somme. Lois limites fonctionnelles pour les incréments d’un processus de Lévy." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS572.

Full text
Abstract:
Dans la première partie de cette thèse, nous développons des théorèmes limites conditionnels pour des vecteurs aléatoires indépendants, non nécessairement identiquement distribués. Nous étendons ainsi des théorèmes classiques du type principe de Gibbs conditionnels, obtenu dans le cas i.i.d. Nous utilisons notamment des développements de type point-selle. Dans la seconde partie, nous obtenons des théorèmes d’Erdös-Renyi pour les incréments d’un processus de Lévy, dans une version fonctionnelle. L’outil clé est ici celui de grandes déviations fonctionnelles
In the first part of this work, we develop conditional limit theorems for independent not necessarily identically distributed random vectors. We extend thus classical theorems, as the Gibbs conditioning principle, obtained in the i.i.d. case. We use, among other tools, some saddlepoint approximations. In the second part, we obtain a functional form of Erdös-Renyi theorems for the increments of Lévy processes. The main tools are here functional large deviations principles
APA, Harvard, Vancouver, ISO, and other styles
5

Bräutigam, Marcel. "Pro-cyclicality of risk measurements. Empirical quantification and theoretical confirmation." Thesis, Sorbonne université, 2020. http://www.theses.fr/2020SORUS100.

Full text
Abstract:
Cette thèse analyse, d’un point de vue empirique et théorique, la procyclicité des mesures de risque sur les données historiques, i.e. l'effet de surestimation du risque futur en temps de crise, et sa sous-estimation en temps normal. Nous développons une méthodologie pour évaluer empiriquement le degré de procyclicité, en introduisant un processus de quantiles (« Value-at-Risk ») historiques pour mesurer le risque. En appliquant cette procédure à 11 indices boursiers, nous identifions deux facteurs expliquant la procyclicité : le « clustering » et le retour à la moyenne de la volatilité (tel que modélisée par un GARCH(1,1)), mais aussi la façon intrinsèque d'estimer le risque sur des données historiques (même en l'absence de dynamique de la volatilité). Pour confirmer théoriquement ces arguments, nous procédons en deux étapes. Premièrement, nous démontrons des théorèmes bivariés (fonctionnels) de limite centrale pour les estimateurs de quantiles avec différents estimateurs de dispersion. Comme modèles de base, nous considérons les suites de variables aléatoires iid, ainsi que la classe des processus GARCH(p,q) augmentés. Enfin, ces résultats asymptotiques permettent de valider théoriquement la procyclicité observée empiriquement. Généralisant cette étude à d’autres mesures de risque et de dispersion, nous concluons que la procyclicité persistera quel que soit le choix de ces mesures
This thesis examines, empirically and theoretically, the pro-cyclicality of risk measurements made on historical data. Namely, the effect that risk measurements overestimate the future risk in times of crisis, while underestimating it in quiet times. As starting point, we lay down a methodology to empirically evaluate the amount of pro-cyclicality when using a sample quantile (Value-at-Risk) process to measure risk. Applying this procedure to 11 stock indices, we identify two factors explaining the pro-cyclical behavior: The clustering and return-to-the-mean of volatility (as modeled by a GARCH(1,1)) and the very way of estimating risk on historical data (even when no volatility dynamics are present). To confirm these claims theoretically, we proceed in two steps. First, we derive bivariate (functional) central limit theorems for quantile estimators with different measure of dispersion estimators. We establish them for sequences of iid random variables as well as for the class of augmented GARCH(p,q) processes. Then, we use these asymptotics to theoretically prove the pro-cyclicality observed empirically. Extending the setting of the empirical study, we show that no matter the choice of risk measure (estimator), measure of dispersion estimator or underlying model considered, pro-cyclicality will always exist
APA, Harvard, Vancouver, ISO, and other styles
6

Di, Bernardino Éléna. "Modélisation de la dépendance et mesures de risque multidimensionnelles." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00838598.

Full text
Abstract:
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
APA, Harvard, Vancouver, ISO, and other styles
7

Louisnard, Olivier. "Contribution à l'étude de la propagation des ultrasons en milieu cavitant." ENSMP, 1998. http://www.theses.fr/1998ENMP0817.

Full text
Abstract:
La principale limitation des procédés ultrasonores est la méconnaissance de la répartition de l’énergie acoustique dans le volume à insonifier, la présence des bulles de cavitation mettant les hypothèses de l'acoustique linéaire en défaut. Le caractère non-linéaire des oscillations radiales de ces bulles constitue la première difficulté dans la modélisation de la propagation des ultrasons. A partir d'un modèle de liquide à bulles, la non-linéarite de l'onde acoustique est tout d'abord examinée numériquement dans une géométrie monodimensionnelle, à l'aide d'un code de calcul par éléments finis développé à cet effet. La population de bulles est supposée uniforme dans l'espace et monodispersé, et le code est utilisé pour différents rapports de la fréquence acoustique à la fréquence propre des bulles. Les résultats obtenus montrent divers couplages entre le contenu harmonique des différentes grandeurs et la longueur du domaine, mais surtout que l'amortissement spatial de l'onde augmente notablement avec l'amplitude de la source. La population de bulles n'est cependant pas une donnée du problème, et l’hypothèse de monodispersité et d’homogénéité spatiale est relaxée, en sacrifiant les aspects non-linéaires. Les phénomènes de croissance, de migration, de fragmentation et de coalescence des bulles sont quantifiés, et réunis dans une équation de bilan de population, qui décrit l'auto-organisation de la population de bulles sous l'influence de l'onde acoustique. Le système est fermé par une équation de propagation en liquide à bulles linéarisée. Le système obtenu présente une forme complexe, mais sa résolution pourrait être envisageable dans un régime permanent. A défaut d'une telle résolution, une confrontation qualitative du modèle obtenu à l’interprétation de l'effet d’écran est proposée, et montre la nécessite d'ajouter au modèle une équation de transport de gaz dissous, et de reconsidérer la quantification des divers phénomènes dans un cadre non-linéaire.
APA, Harvard, Vancouver, ISO, and other styles
8

Reinhold, Küstner. "Asymptotic zero distribution of orthogonal polynomials with respect to complex measures having argument of bounded variation." Nice, 2003. http://www.theses.fr/2003NICE4054.

Full text
Abstract:
On détermine la distribution asymptotique des pôles pour trois types de meilleurs approximants (Padé à l’infini, rationnel en L2 sur le cercle unité, méromorphe dans le disque unité en Lp sur le cercle unité, p>2) de la transformée de Cauchy d’une mesure complexe sous l’hypothèse que le support S de la mesure soit de capacité positive et inclus dans (-1, 1), que la mesure satisfasse une condition de densité et que l’argument de la mesure soit la restriction d’une fonction à variation bornée. Les polynômes dénominateurs des approximants satisfont des relations d’orthogonalité. Au moyen d’un théorème de Kestelman, on obtient des contraintes géométriques pour les zéros qui impliquent que chaque mesure limite faible des mesures de comptage associées à son support inclus dans S. Puis, à l’aide de résultats de la théorie du potentiel dans le plan, on montre que les mesures de comptage convergent faiblement vers la distribution d’équilibre logarithmique respectivement hyperbolique de S
We determine the asymptotic pole distribution for three types of best approximants (Padé at infinity, rational in L2 on the unit circle, meromorphic in the unit disk in Lp on the unit circle, p>2) of the Cauchy transform of a complex measure under the hypothesis that the support S of the measure is of positive capacity and included in (-1 1), that the measure satisfies a density condition and that the argument of the measure is the restriction of a function of bounded variation ? The denominator polynomials of the approximants satisfay orthogonality relations ? By means of a theorem of Kestelman we obtain geometric constraints for the zeros which imply that every weak limit measure of the associated counting measures has support included in S. Then, with the help of results from potential theory in the plane, we show that the counting measures converge weakly to the logarithmic respectively hyperbolic equilibrium distribution of S
APA, Harvard, Vancouver, ISO, and other styles
9

Lathuille, Arnaud. "Sur l'intégrabilité des distributions en dimension infinie." Chambéry, 2009. http://www.theses.fr/2009CHAMS027.

Full text
Abstract:
L'Organisation Européenne pour la Recherche Nucléaire ou CERN, à Genève, est sur le point de mettre en service le LHC (Large Hadron Collider). Cet accélérateur de particules et les détecteurs dont il est équipé ont été conçus pour tenter de répondre aux interrogations que posent les théories de physique des particules actuelles. Le détecteur ATLAS est l'un de ces détecteurs, construit notamment pour confirmer ou infirmer l'existence du boson de Higgs. L'exploitation du détecteur et la qualité des données dépendent de la maîtrise de ses éléments de détection mais aussi de la maîtrise des conditions environnementales de l'expérience. Dans cette optique, Les travaux présentés dans ce document portent sur des réalisations instrumentales effectuées d'une part pour le contrôle de l'infrastructure du détecteur ATLAS et d'autre part pour le détecteur ALFA (Absolute Luminosity For ATLAS) qui doit fournir une mesure de la luminosité absolue du faisceau du LHC au point d'interaction d'ATLAS. La première partie présente la réalisation de deux projets intégrés dans le Système de Contrôle du Détecteur (DCS) : FPIAA (Finding Persons Inside ATLAS Areas) a été développé pour la sécurité des personnes dans la caverne expérimentale durant les périodes de maintenance du détecteur en fournissant une application de localisation et de suivi actif des personnes dans la caverne. Une seconde application a été développée pour mesurer la dose de radiations ionisantes et la fluence de particules intégrées par les éléments du détecteur pendant son exploitation afin de pouvoir évaluer à long terme leur vieillissement en fonction de la dose reçue. Les travaux réalisés sur le détecteur ALFA portent sur la qualification du matériel de photo-détection utilisé et sur l'évaluation et l'optimisation des performances des compteurs Trigger du détecteur. Enfin des réalisations préliminaires sur le DCS du détecteur ALFA sont présentées. Une structure logicielle a été développée pour configurer à distance l'électronique front-end ainsi que pour effectuer un étalonnage automatisé du détecteur et un protocole de communication haut niveau a été mis en place pour permettre au DCS d'ALFA d'échanger des informations avec le système de contrôle du mouvement des détecteurs sur le faisceau du LHC
The European Organization for Nuclear Research or CERN, Geneva, is about to operate the Large Hadron Collider (LHC). This accelerator ring and its particles detectors have been built to try to answer to the actual questions given by the particle physics theories. One of these detectors, ATLAS, has been designed, for instance, to validate, or invalidate, the theories on the existence of the Higgs Boson. The operation of the detector and the quality of ifs data depend on the quality of the detection elements but it depends also strongly on the good monitoring of its environment. In this respect, the developments presented in this docu- ment are focused on the control of the infrastructure of the ATLAS detector and on the ALFA detector (Absolute Luminosity For ATLAS) which is designed to provide an absolute measurement of the luminosity of the LHC beam at the ATLAS interaction point. Two projects which are integrated in the Detector Control System (DCS are presented in the first part of the document: FPIAA (Finding Persons Inside ATLAS Areas) has been developed as a tool for people safety in the experimental cavern during the maintenance periods of ATLAS. It consists in an application for people localization and an active tracking of people in the cavern. A second application has been developed to measure the level of ionizing radiations and the particles fluency in the detector during its operation. These data will be used to evaluate the aging of the elements of the detector in respect with the level of integrated radiations. The work done on the ALFA detector is focused on particle detection technologies and control applications. The photo detection devices which will be used have been evaluated, the hardware of the trigger counter have been studied and optimized. Finally, preliminary developments on the DCS of the ALFA detector will be presented. Software components have been implemented to configure remotely the front-end electronics of the detector and to perform automated calibrations. A high level communication scheme has also been implemented for data exchange between the ALFA DCS and the system which controls the movements of the detector on the LHC beam
APA, Harvard, Vancouver, ISO, and other styles
10

Bousfiha, Amina. "Approximation des systèmes semi-markoviens via les distributions de type phase et application en fiabilité." Compiègne, 1998. http://www.theses.fr/1998COMP1092.

Full text
Abstract:
Les processus semi-markoviens sont des processus dont l'évolution future dépend du temps passé depuis la dernière transition ; ils sont fréquemment rencontrés en pratique. Ici nous nous intéressons à l'étude de la fiabilité des systèmes semi-markoviens. Leur principal inconvénient c'est la complexité des calculs pour l'obtention de la fonction de transition du processus, ce qui complique considérablement les calculs des indices de fiabilité, de performance, etc. Dans ce travail, nous nous proposons d'approximer les systèmes semi-markoviens par des systèmes markoviens en utilisant les distributions de type phase. Une distribution de type phase est une distribution de temps d'absorption d'un processus de Markov fini absorbant. Nous développons des méthodes pour approximer les fonctions de transition non exponentielles d'un système semi-markovien par des distributions de type phase. Ensuite, nous montrons comment construire le générateur du système markovien transformé. D'autre part, nous évaluons une borne sur la distance entre deux systèmes semi-markoviens. Ce résultat nous a permis de contrôler l'erreur commise sur la matrice des probabilités de transition et sur les indices de fiabilité, lors de l'approximation des systèmes semi-markoviens par des systèmes markoviens en utilisant les distributions de type phase.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Distribution (Théorie des probabilités) – Mesure"

1

L' Outil mathématique: Distributions, convolution, transformations de Fourier et de Laplace, fonctions d'une variable complexe, fonctions eulériennes. 3rd ed. Paris: Masson, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Patel, Jagdish K. Handbook of statistical distributions. Ann Arbor, Mich: University Microfilms International, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Petit, R. L' Outil mathématique: Distributions, convolution, transformations de Fourier et de Laplace, fonctions d'une variable complexe, fonctions eulériennes. 2nd ed. Paris: Masson, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Max, Engelhardt, ed. Statistical analysis of reliability and life-testing models: Theory and methods. 2nd ed. New York: M. Dekker, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Elements of Distribution Theory. Cambridge University Press, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Heyer, Herbert. Probability Measures on Groups IX: Proceedings of a Conference Held in Oberwolfach, Frg, January 17-23, 1988 (Lecture Notes in Mathematics). Springer, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Extreme Values, Regular Variation, and Point Processes. Springer, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

A First Look at Rigorous Probability Theory. World Scientific Publishing Company, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

First Look at Rigorous Probability Theory. 2nd ed. World Scientific Publishing Company, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

First Look at Rigorous Probability Theory. 2nd ed. World Scientific Publishing Company, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Distribution (Théorie des probabilités) – Mesure"

1

GUILLEMIN, Fabrice, Marie-Ange REMICHE, and Bruno SERICOLA. "Analyse de la congestion et de la probabilité de perte dans les files d’attente fluides." In Théorie des files d’attente 1, 27–73. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9001.ch2.

Full text
Abstract:
Ce chapitre traite des files d’attente fluides markoviennes à capacité finie ou infinie. Notre méthode d’analyse se fonde sur l’étude des probabilités de passage conditionnellement au niveau maximal atteint pendant une période d’activité. Elle aboutit au calcul du taux de perte et à une caractérisation de la distribution de la durée de congestion et d’information perdue pendant une telle période.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography