Academic literature on the topic 'Statistique non paramétrique – Études de cas'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Statistique non paramétrique – Études de cas.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Statistique non paramétrique – Études de cas"

1

Lubes-Niel, H., J. M. Masson, J. E. Paturel, and E. Servat. "Variabilité climatique et statistiques. Etude par simulation de la puissance et de la robustesse de quelques tests utilisés pour vérifier l'homogénéité de chroniques." Revue des sciences de l'eau 11, no. 3 (2005): 383–408. http://dx.doi.org/10.7202/705313ar.

Full text
Abstract:
L'analyse statistique de séries chronologiques de données hydrométéorologiques est un des outils d'identification de variations climatiques. Cette analyse consiste le plus souvent à la mise en œuvre et à l'interprétation de tests statistiques d'homogénéité des séries. Les séries hydrologiques (données de pluie ou de débit) se caractérisent fréquemment par des effectifs faibles, et ne répondent que rarement aux conditions requises par l'application des tests statistiques dont certains sont paramétriques. Nous avons cherché à évaluer, en terme de puissance et de robustesse, le comportement de quelques méthodes statistiques largement employées dans les études de variabilité climatique. Ce travail a été mené dans chaque cas étudié au moyen de procédures de simulations type Monte-Carlo de 100 échantillons de 50 valeurs conformes aux caractéristiques souvent rencontrées dans les séries naturelles. La variabilité simulée est celle d'un changement brutal de la moyenne. Les procédures concernées sont le test de corrélation sur le rang, le test de Pettitt, le test de Buishand, la procédure bayésienne de Lee et Heghinian, et la procédure de segmentation des séries hydrométéorologiques de Hubert et Carbonnel. Des séries artificielles soit stationnaires, soit affectées par une rupture de la moyenne, normales, non-normales, autocorrélées, présentant une tendance linéaire ou un changement brutal de la variance ont été générées. Les conclusions de ce travail doivent être nuancées selon la méthode considérée. D'une manière générale la puissance maximale estimée se situe autour de 50% pour des taux de rupture de la moyenne de l'ordre de 75% de la valeur de l'écart-type. Par ailleurs il apparaît que l'autocorrélation et la présence d'une tendance dans les séries sont les deux caractéristiques qui pénalisent le plus les performances des procédures.
APA, Harvard, Vancouver, ISO, and other styles
2

Bouzouita, Anis, Valérie Vierstraete, and Mokhtar Kouki. "L’évaluation de l’efficience des institutions d’enseignement supérieur en Tunisie : le cas des Instituts Supérieurs des Études Technologiques (ISET)." Articles 88, no. 3 (2014): 347–60. http://dx.doi.org/10.7202/1021503ar.

Full text
Abstract:
Dans cet article, nous évaluons l’efficience des Instituts supérieurs des études technologiques tunisiens (ISET) avec la méthode non paramétrique du Data Envelopment Analysis (DEA). Il ressort des résultats empiriques que le fonctionnement de ces établissements se caractérise par une inefficience technique de l’ordre de 20 %, pouvant s’expliquer à la fois par des problèmes de taille des établissements (inefficience d’échelle de 11 % environ) et par des problèmes de gestion (inefficience pure de l’ordre de 10 %). Les résultats montrent également qu’une majorité des ISET de notre échantillon fonctionnerait de façon optimale si leur échelle de production augmentait, ce qui peut se révéler des pistes de solutions pour les pouvoirs politiques voulant promouvoir le système éducatif supérieur en Tunisie.
APA, Harvard, Vancouver, ISO, and other styles
3

Colot, Olivier. "Préparation des PME familiales belges à la transmission et impact sur la performance." Revue internationale P.M.E. 22, no. 2 (2010): 95–132. http://dx.doi.org/10.7202/044032ar.

Full text
Abstract:
Une large littérature conceptuelle met en évidence les difficultés éprouvées lors de la transmission des entreprises familiales à la génération suivante. Ces développements théoriques ont été validés par de nombreuses études empiriques, même s’il subsiste des débats contradictoires. Les objectifs de cette recherche sont de déterminer si la préparation de la transmission a une influence sur la performance des PME familiales et si ces PME se heurtent à moins de problèmes. Une enquête, réalisée auprès de 2 000 PME, a permis de relever 159 transmissions et de collecter les informations concernant la transmission. Cet article utilise la méthodologie du pairage statistique de manière à comparer les performances de PME familiales préparées à la transmission à celles d’homologues non préparées. Les résultats obtenus ne permettent pas de montrer que les PME familiales préparées sont significativement plus performantes. Les résultats montrent néanmoins une évolution des performances des PME non familiales après la transmission (observée sur trois ans) encore plus négative en cas de non-préparation.
APA, Harvard, Vancouver, ISO, and other styles
4

Beggiato, A. "Explorer l’hétérogénéité des phénotypes neuroanatomiques des apparentés d’enfants autistes." European Psychiatry 28, S2 (2013): 61–62. http://dx.doi.org/10.1016/j.eurpsy.2013.09.162.

Full text
Abstract:
L’autisme est un trouble neurodéveloppemental précoce et pervasif présent, environ, dans 1 % de la population infantile. Caractérisé par un phénotype extrêmement hétérogène, il comprend un déficit de l’interaction sociale, de la communication et la présence de comportements répétitifs et stéréotypés. Les premières études effectuées sur les jumeaux ont été fondamentales pour la démonstration des bases génétiques des troubles du spectre autistique, dont l’héritabilité est extrêmement complexe et insuffisamment expliquée. Même si des facteurs épigénétiques ont été identifiés comme causes potentielles, les bases neuropathologiques associées restent largement inconnues et l’absence d’un marqueur biologique spécifique rend le diagnostic de ce trouble essentiellement clinique. Les études de neuroimagerie pourraient contribuer à une meilleure compréhension des bases neuroanatomiques même si, actuellement, elles ne sont pas conclusives sur la présence d’anomalies cérébrales structurales ou fonctionnelles spécifiques à l’autisme. Les structures cérébrales sont largement héritables et influencées par des variantes génétiques qui commencent à être clarifiées par des études avec une bonne puissance statistique [2]. Les apparentés des enfants autistes présentent, souvent, des phénotypes intermédiaires entre ceux des cas et des contrôles, sans être atteints eux-mêmes. C’est dans cette optique que l’exploration des phénotypes neuroanatomiques des apparentés est cruciale dans la compréhension de l’association entre génétique, hétérogénéité des différences structurales et différents phénotypes cliniques [1]. On présentera les résultats préliminaires de l’étude des caractéristiques génotypiques, cliniques et neuroanatomiques chez une cohorte de sujets autistes et de leurs apparentés, appareillés à des familles non atteintes, qui a pour objectif de pouvoir contribuer à mieux caractériser cette maladie et ses bases endophénotypiques.
APA, Harvard, Vancouver, ISO, and other styles
5

Laughrea, Kathleen, Claude Bélanger, and John Wright. "Existe-t-il un consensus social pour définir et comprendre la problématique de la violence conjugale?" Santé mentale au Québec 21, no. 2 (2007): 93–116. http://dx.doi.org/10.7202/032400ar.

Full text
Abstract:
Résumé Pourquoi certaines relations de couple, initialement harmonieuses, basculent-elles dans des rapports de violence et d'abus ? Quelle est l'ampleur de ce type d'abus ? Plusieurs études se sont penché sur ce phénomène pour tenter d'en circonscrire l'incidence et d'en saisir la dynamique. Ces recherches semblent faire ressortir un phénomène social d'une ampleur non négligeable. Ainsi, selon une étude réalisée par MacLeod et Cadieux en 1980, une femme sur dix serait battue sur une base régulière. Selon Statistique Canada, en 1993, 25 % des femmes canadiennes mentionnent avoir été victimes de violence de la part d'un conjoint depuis l'âge de 16 ans. Parmi ce groupe, 15 % de ces femmes vivent toujours avec leur conjoint. De plus, en dépit des programmes d'aide aux victimes de violence conjugale, le nombre de cas de violence déclarés ne semble pas avoir diminué. Ces résultats alarmants ont amené plusieurs chercheurs à se pencher sur cette dynamique. Dans les dix dernières années, certains progrès ont ainsi été réalisés dans la compréhension du phénomène de la violence faite aux femmes. Des programmes d'intervention, l'implication des gouvernements, la judiciarisation de certaines formes d'abus, la sensibilisation accrue de la population face à la violence conjugale ainsi que la dénonciation des cas de violence ont marqué ces progrès. En dépit de cette conscience sociale accrue vis-à-vis ce phénomène, la recherche se bute parfois à des obstacles. En dépit de modélisations complexes des concepts et des facteurs de prédiction du phénomène, les résultats se montrent parfois décevants. Existe-t-il donc un consensus social pour définir cette problématique et la dynamique qui y est associée ? Nous tenterons de répondre à cette question en révisant les diverses approches théoriques utilisées pour définir la violence conjugale. Nous tenterons ensuite de faire une analyse critique de ces théories en examinant les diverses recherches empiriques qui ont été menées dans ce domaine.
APA, Harvard, Vancouver, ISO, and other styles
6

Morency, Jean-Dominique, and Benoît Laplante. "L’action publique et la première naissance au Canada." Articles 39, no. 2 (2011): 201–41. http://dx.doi.org/10.7202/1003586ar.

Full text
Abstract:
Les études sur la relation entre l’action publique et la fécondité cherchent habituellement à mesurer l’effet d’une ou plusieurs mesures sur la fécondité. Dans cet article, nous ne nous intéressons ni à l’effet d’une mesure en particulier, ni à l’effet de l’action publique dans son ensemble sur la fécondité, mais plutôt à la manière dont les couples canadiens susceptibles d’avoir le premier enfant réagissent à l’environnement que créent l’État et le marché du travail. Nous utilisons des données qui proviennent d’une enquête longitudinale prospective auprès des ménages menée par Statistique Canada, l’Enquête sur la dynamique du travail et du revenu. Nos résultats montrent que peu de facteurs ont un effet appréciable. Il semble que la décision qui conduit à la première naissance soit régie par deux mécanismes différents, selon que le revenu du couple est modeste ou non. Lorsque le revenu familial est modeste, la décision repose sur le montant des aides financières récurrentes ; lorsque le revenu est moyen, la décision repose plutôt sur le montant des prestations de maternité qui compensent la perte de revenu pendant le congé de maternité. Dans tous les cas, l’emploi permanent de la conjointe joue un rôle déterminant. La propriété de la résidence familiale joue également un rôle important. La décision d’avoir le premier enfant semble donc dépendre avant tout de la condition de la conjointe et de l’évaluation que le couple fait de ce que sera la situation financière de la famille une fois l’enfant né.
APA, Harvard, Vancouver, ISO, and other styles
7

Pacholek, X., D. Gamatie, S. G. Vias Franck, and Robert Tibayrenc. "Prévalence de la trypanosomose à Trypanosoma evansi chez les chamelons de l'ouest nigérien." Revue d’élevage et de médecine vétérinaire des pays tropicaux 53, no. 2 (2000): 177. http://dx.doi.org/10.19182/remvt.9748.

Full text
Abstract:
Une enquête épidémiologique a été réalisée dans la zone pastorale ouest nigérienne pour comparer la prévalence de la trypanosomose à Trypanosoma evansi chez les chamelons et les dromadaires adultes. Au total, 233 dromadaires de tous âges et sexes ont été prélevés dans deux régions à caractéristiques écologiques et climatiques différentes : la première, au nord (Ingall et l'ighazer), était constituée d'une vallée herbeuse peu arrosée ; la seconde, plus au sud (Tchintabaraden et Abalak) et plus humide, était composée d'un système dunaire ménageant de nombreuses mares à végétation arborée. Les prévalences ont été déterminées par la technique de centrifugation hématocrite et par le test sérologique d'agglutination sur carte (CATT evansi). La technique de centrifugation s'est montrée très peu sensible (un seul cas positif). Le test CATT evansi a révélé une séroprévalence totale de 12,0 p. 100. La séropositivité a varié selon la région d'élevage et les déplacements saisonniers des troupeaux (p < 0,001). Les dromadaires établis dans la zone Nord étaient moins infestés que ceux demeurant dans le Sud (respectivement 11,4 et 29,4 p. 100). Les dromadaires migrant entre les deux régions ont été les moins touchés (3,2 p. 100). Toutes les classes d'âges étaient infestées sans différence statistique significative, notamment entre les chamelons de moins d'un an et les dromadaires plus âgés (respectivement 6,9 et 13,7 p. 100). Quatre chameIons âgés de moins d'un an étaient séropositifs. L'un avait 11 mois et les trois autres moins de deux mois. Leur séropositivité pouvait provenir d'une infestation active ou de la présence d'immunoglobulines d'origine colostrale. Des études complémentaires s'intéressant au statut immunologique de la mère des chamelons et/ou utilisant une technique sensible de détection sérologique du trypanosome (Elisa-Ag ou Pcr) sont préconisées pour préciser si l'infestation des chamelons de moins de deux mois est active ou non.
APA, Harvard, Vancouver, ISO, and other styles
8

Flavia Irene, Santamaria,. "“Un estudio multimodal y dinámico de los conocimientos numéricos de estudiantes de primer grado”." RIDAA Tesis Unicen, September 27, 2021. http://dx.doi.org/10.52278/2850.

Full text
Abstract:
En esta tesis profundizamos el estudio de la cognición y comunicación numérica de niños y niñas de primeros grados de la escuela primaria en la zona andina rionegrina. Desde un enfoque socio-constructivista de recursos, interesó visibilizar, documentar y comprender la variedad, articulación y dinamismo de conocimientos numéricos en los diferentes grados de apropiación que estos jóvenes estudiantes ponen en juego al producir y reflexionar sobre signos numéricos en situación de entrevista, en distintos modos semióticos. También prestamos atención a sus procesos de reflexión y regulación de la propia cognición numérica. Los participantes son cuarenta y cinco niñas y niños que cursaban primer grado en cuatro escuelas públicas de gestión estatal de jornada simple en Bariloche y El Bolsón. Dos de las escuelas son céntricas y dos se encuentran en la periferia de la ciudad. La selección de las escuelas respondió a obtener un relativamente amplio abanico sociocultural y socioeducativo en el marco de la escolaridad urbana regional. Metodológicamente, se entrevistó a los niños individualmente en base a un guión semi-estructurado, con tareas abiertas, creativas, convocantes, desafiantes y andamiadas. Se utilizaron dispositivos de registro multimodal de los procesos comunicativo-cognitivos implicados en los momentos de producción oral, gráfica y con objetos. Los análisis mixtos buscaron conjugar profundidad y sistematicidad en la atención a la singularidad y la regularidad, utilizando técnicas que permiten tal diversidad de acercamientos a los textos gráficos creados por los niños, así como a sus respuestas verbales y gestuales y sus acciones con objetos. Principalmente trabajamos con: sistemas de categorías para la construcción de repertorios con posterior aplicación de técnicas de la estadística no paramétrica y multivariada, análisis de trayectorias de aprendizaje y estudio de casos múltiples. El enfoque socio-constructivista de recursos impregnó las decisiones tomadas tanto al realizar la entrevista como al analizar la producción numérica de cada niña o niño. Dimos cuenta de la variedad de las formas de conocer y comunicar numéricamente de los y las participantes mediante cuatro repertorios: el primero visibiliza el arco de producción numérica convencional identificado en la población estudiada; el segundo distingue las aproximaciones parciales a la convención numérica; el tercero articula trayectorias de conservación e innovación cognitiva al pensar en y con cantidades “grandes”, y finalmente, el cuarto identifica formas de reflexión y regulación de la propia cognición numérica. Ilustramos todas las categorías incluidas en esos cuatro repertorios con producciones orales, gráficas y a veces gestuales originales de los niños y niñas participantes. Además, nos dedicamos a captar multimodalmente el dinamismo del pensamiento y la comunicación numérica de los niños en situación, tanto a nivel intra-tarea como inter-tarea. Así, identificamos cuatro patrones de producción convencional, que se extienden desde una producción convencional limitada (Patrón 1, 9 niños) a una producción avanzada (Patrón 4, 8 niños), pasando por configuraciones de producción convencional “incipiente”(Patrón 2, 13 niños) e “intermedia” (Patrón 3, 15 niños). Encontramos una asociación entre los patrones de producción convencional y el sector socioeducativo y sociocultural vinculado a la escuela. En las escuelas céntricas se concentró la mayor proporción de niños y niñas cuya producción convencional es más extendida, y en las escuelas periféricas sucedió lo inverso. Sin embargo, en tres de los primeros grados participantes convivían niños de los cuatro patrones de producción convencional, y en uno, de tres patrones. La heterogeneidad se incrementa notablemente si miramos a los chicos considerando sus respuestas no convencionales como una producción comunicativa cognitiva genuina. Esta situación coloca a la heterogeneidad cognitiva en el campo del número como una condición a considerar como esperable en el inicio de la escolarización matemática primaria en la región. Para ahondar en el estudio del dinamismo en la puesta en juego de los recursos cognitivo-comunicativos de los niños realizamos varias líneas de análisis. Una fue el estudio de sus avances en el curso de una misma tarea o a lo largo de tareas relacionadas. El hallazgo de que el 78% de los niños evidenciaron alguna forma de progreso resalta la importancia de disponer un espacio abierto y sin prisa para la comunicación y evaluación del conocimiento. El progreso según indicadores de mayor producción estrictamente convencional se evidenció en niños o niñas pertenecientes a todos los patrones de producción convencional, lo que muestra que ni tan siquiera el saber que se corresponde con el establecido culturalmente constituye un bagaje del que niños y niñas disponen de forma estable, pronto a ser demostrado ante la primera demanda. A su vez pudimos constatar que las tensiones entre lo establecido y lo posible, o entre convenciones e invenciones, resultaron ser fuentes de conflicto y transformación cognitiva para algunos niños entrevistados. En este proceso, los niños y las niñas mostraron cómo gradualmente se apropiaron del conocimiento cultural establecido, exploraron relaciones, revisaron y generaron innovaciones en sus ideas y procedimientos. La mayoría de las niñas y niños entrevistados mostraron que tales respuestas surgieron de procesos constructivos y exploratorios no lineales, que introdujeron ajustes y fomentaron nuevas percataciones de regularidades numéricas, e incluso nuevos matices de significado. En nuestra búsqueda por comprender la variedad y el dinamismo de los recursos de los niños, elegimos incluir también un estudio de casos múltiples. Seleccionamos dos niños y una niña que se inscriben en distintos patrones de producción convencional para reconstruir su construcción de sentidos a lo largo de la progresión de tareas numéricas en la entrevista. Esta fue una vía más para dimensionar el grado en que los saberes de los niños entrevistados acerca de las formas y funciones numéricas abordadas revisten una notable disparidad inter-sujeto, y también conexiones de sentido a nivel inter-tarea. Somos conscientes de los alcances y restricciones de un trabajo investigativo acotado no solo en el número de participantes sino también en el tiempo/espacio de interacción en el que recabamos la información (una única entrevista diádica fuera del aula). No obstante, consideramos que los análisis de grano fino y multimodal de la variedad de recursos numéricos en esta etapa, junto a la atención al dinamismo de su puesta en juego en situación, pueden contribuir a articular un panorama de los niños como aprendices que buscan agentivamente apropiarse de las formas y funciones numéricas como instrumento de participación cultural. En ese sentido las contribuciones recogidas en los comentarios finales de los capítulos de resultados y en las conclusiones pueden ofrecer información valiosa de primera mano para el diseño y la implementación de prácticas de enseñanza capaces de promover la agencia en el aprendizaje numérico básico en entornos socioeducativos diversos. Planteamos una vía para superar enfoques de estándares que conciben el aprendizaje preferentemente como proceso descontextualizado, reproductivo, monomodal y universal. Para ello, por supuesto, es clave el trabajo también agentivo, creativo, colaborativo, multimodal y andamiado de los equipos docentes en sus comunidades de práctica. In this thesis we go a step further in the study of numerical cognition and communication of first-grade children in the Andean region of Rio Negro. From a resource-based socio-constructivist framework, we were interested in making visible, documenting and understanding the variety, articulation and dynamism of children’s numerical knowledge at work when they produced and thought about and with numerical signs during interviews, in different semiotic modes. We also paid attention to the processes of reflexion and regulation of their own numerical cognition. The participants are forty-five students who attended first grade in four public schools in Bariloche and El Bolsón. Two of the schools are located down-townl and two are located in the periphery of the city. The selection of schools aimed at obtaining a relatively wide sociocultural and socio-educational range within regional urban schooling. Methodologically, the children were interviewed individually based on a semi-structured script, with open, creative, convoking, challenging and scaffolding tasks. Multimodal recording devices of the communicative-cognitive processes evidenced during oral, graphic and object production were used. The mixed methods analyses sought to combine depth and systematic attention to both singularity and regularity, by using techniques that allow such a diversity of approaches to the graphic texts created by children, as well as to their verbal and gestural responses and to their actions with objects. We mainly worked with: category systems for the construction of repertoires, with subsequent application of non-parametric and multivariate statistics techniques, analysis of learning trajectories and study of multiple cases. The resource-based socio-constructivist framework resource-based socio-constructivist framework permeated the decisions made both when conducting the interview and when analyzing the numerical production of each girl or boy. Four repertoires captured the variety in participants’ ways of knowing and communicating numerically: the first one makes visible the conventional numerical production identified in the studied population; the second distinguishes partial approaches to numerical convention; the third articulates trajectories of cognitive preservation and cognitive innovation when thinking about and with relatively large quantities, and finally, the fourth identifies forms of reflexion and regulation of numerical cognition. We illustrate all the categories included in those four repertoires with original productions of the participating children ─oral, graphic and sometimes gestural. In addition, we sought to capture the multimodal dynamism of children’s situated thinking and communication, both at an intra-task and an inter-task level. Thus, we identified four conventional production patterns, which range from Limited conventional production (Pattern 1; 9 children) to Advanced production (Pattern 4; 8 children). Incipient conventional production (Pattern 2; 13 children) and Intermediate (Pattern 3; 15 children) configurations are half-way. We found an association between conventional production patterns and the socio-educational / socio-cultural sector characteristic of the schools. In the down-town schools a greater proportion of children whose conventional production is more widespread was concentrated, and in the peripheral schools the opposite happened. However, in three of the participating first grades, children of the four conventional production patterns coexisted, and in the remaining one, children from three patterns did so. Intra-school-grade heterogeneity increases markedly if we look at students’ unconventional responses as genuine cognitive-communicative productions. This situation places cognitive-communicative heterogeneity as a condition to be considered at the beginning of primary mathematical schooling in the region. In order to deepen into the study of the dynamism of children’s cognitive-communicative resources we performed several lines of analysis. One was the study of their progress in the course of a same task or along related tasks. The finding that 78% of children showed some form of progress highlights the importance of having an open and unhurried space for communication and knowledge assessment. Progress according to indicators of conventional production was evidenced in children belonging to all conventional production patterns. The latter shows that children’s established cultural knowledge is not a stable ready-made possession, soon to be demonstrated at request. At the same time, tensions between the realms of the established and the possible, or between conventions and inventions, turned out to be sources of conflict and cognitive transformation for some of the children. In this process, students showed how they gradually appropriated established cultural knowledge, explored relationships, reviewed and generated innovations in their ideas and procedures. Most of the interviewed children showed that such answers arose from nonlinear constructive and exploratory processes, which introduced adjustments and encouraged new perceptions of numerical regularities, and even new nuances of meaning. In our quest to understand the variety and dynamism of children's resources, we also chose to include a multiple case study. We selected two boys and a girl who belonged in different patterns of conventional production, as a way to reconstruct their meaning-making processes throughout the progression of numerical tasks in the interview. This was one more way to measure the degree to which the knowledge of the interviewed children about the numerical forms and functions addressed is markedly heterogeneous across learners, and also to understand connections of meaning at the single learner, inter-task level. We are aware of the scope and restrictions of a limited research work as ours. Limitations are related to the number of participants as well as to the temporal-spatial frame of interaction in which we collected the information (a single dyadic interview outside the classroom). However, we consider that the fine-grained and multimodal analyses of the variety of numerical resources at this stage, together with the attention to the dynamism of their putting into play in situation, can contribute to articulate a panorama of children as apprentices who agentively seek to appropriate numerical forms and functions as an instrument for their cultural participation. In that sense, we expect that the contributions collected in the final comments of each chapter, together with the final conclusions chapter can offer valuable first-hand information for the design and implementation of teaching practices capable of promoting children’s agency in basic numerical learning, in diverse socio-educational environments. We propose a way to overcome standardized approaches that conceive learning preferably as a decontextualized, reproductive, monomodal and universal process. To that end, of course, the agentive, creative, collaborative, multimodal and scaffolded work of the teaching teams in their communities of practice is also a key factor. Dans cette thèse, on approfondit l'étude de la cognition et de la communication numérique des enfants des premières années d'école primaire dans la région des Andes, province de Rio Negro. À partir d’un optique socioconstructiviste des ressources, on a voulu visualiser, documenter et comprendre la variété, l'articulation et le dynamisme des connaissances numériques à des degrés divers d'appropriation que ces jeunes étudiants mettent en jeu pour produire et réfléchir sur des signes numériques lors d'un entretien, dans différents modes sémiotiques. On s'intéresse également à leurs processus de réflexionet de régulation de la propre cognition numérique. Les participants sont quarante-cinq enfants de la première année d'école primaire de quatre écoles publiques de demi-journée d'activité à Bariloche et El Bolsón. Deux des écoles sont dans la ville et deux sont situées en périphérie. La sélection des écoles est motivée par l'idée d'obtenir un éventail socioculturel et socio-éducatif relativement large dans le cadre de la scolarisation en milieu urbain régional.Du point de vue méthodologique, des entretiens individuels avec les enfants se sont déroulés sur la base d'un protocole semi-structuré avec des tâches ouvertes, créatives, attirantes, défiantes et didactiques. Dispositifs multimodaux on été employés pour saisir les processus cognitifs-communicatifs impliqués pendant les périodes de production orale, graphique et avec des objets. Les analyses mixtes ont cherché à combiner profondeur et systématisation dans l'attentionà la singularité et à la régularité, en utilisant des techniques qui permettent une telle diversité d'approches aux textes graphiques créés par les enfants, ainsi qu'à leurs réponses verbales et gestuelleset à leurs actions avec des objets. Principalement, on a travaillé avec: systèmes de catégories pour la construction de répertoires avec application ultérieure de techniques d'analyse statistique non paramétrique et multi-variée, analyse de trajectoires d'apprentissage et étude de cas multiples. L'approche socioconstructiviste des ressources a imprégnée les décisions tant lors de la conduite de l'entretien comme pendant l'analyse de la production numérique de chaque enfant. Nous avons remarqué la variété de manières de comprendre et communiquer numériquement des enfants à travers quatre répertoires: le premier met en évidence l'arc de production numérique conventionnel correspondant à la population étudiée; le second distingue les approches partielles à la convention numérique; le troisième articule trajectoires de conservation et d'innovation cognitive en pensant à et avec des quantités "grandes", et en fin, le quatrième identifie les manières de réflexionet de régulation de la propre cognition numérique. On illustre toutes les catégories comprises dans ces quatre répertoires avec des productions orales, graphiques et parfois gestuelles des enfants. En plus, on s'est engagé à capter d'un point de vue multimodal le dynamisme de la pensée et de la communication numériques des enfants en situation, soit intra-tâche que inter-tâche. Ainsi, on a identifié quatre modèles de production conventionnels, allant d'une production conventionnelle limitée (modèle 1, 9 enfants) à une production avancée (modèle 4, 8 enfants), en passant par des configurations de production conventionnelle "naissante" (modèle 2, 13 enfants) et "intermédiaire" (modèle 3, 15 enfants). On a trouvé une association entre les modèles de production conventionnelle et le secteur socio-éducatif et socioculturel lié à l'école. Dans les écoles du centreville, on a trouvé la plus forte proportion d'enfants dont la production conventionnelle est la plus répandue, tandis que l'inverse caractérise les écoles périphériques. Toutefois, dans trois des premiers niveaux participants coexistaient des enfants des quatre modèles de production conventionnelle, et dans un, des trois modèles. L’hétérogénéité est fortement augmentée si l'on regarde les enfants en ce qui concerne leurs réponses non conventionnelles comme une véritable production communicative et cognitive. Cette situation place l'hétérogénéité cognitive dans le domaine du nombre comme condition à considérer attendue au début de l'scolarisation mathématique primaire dans la région. Pour plonger dans l'étude de la dynamique des enjeux des ressources cognitives et de communication des enfants on a considéré plusieurs lignes d'analyse. L'un était l'étude de leurs progrès au cours de la même tâche ou tout au long des tâches connexes. Le constat que 78% des enfants ont démontré une certaine forme de progrès souligne l'importance d’avoir un espace ouvert et le temps pour la communication et l'évaluation des connaissances. Selon les indicateurs de production plus vaste et strictement conventionnelle, le progrès s’est fait évident pour les enfants de tous les modèles de production conventionnelle, ce qui démontre que même pas le savoir qui correspond au plan culturel établi constitue un bagage dont les enfants disposent d’une manière stable, ce qui est facilement vérifié à la première question.Aussi, on a pu constater que les tensions entre l'établi et le possible, ou entre conventions et inventions, se sont révélées comme sources de conflit et de transformation cognitive pour certains enfants interrogés. Dans ce processus, les enfants ont mis en évidence comment ils se sont appropriés graduellement des connaissances culturelles établies, ont exploré des relations, examiné et généré des innovations de leurs idées et procédures. La plupart des enfants interrogés ont montré que ces réponses provenaient de processus constructifs et exploratoires non linéaires, qu’ils ont introduit des ajustements et qu’ils ont aperçu des nouvelles régularités numériques, et même de nouvelles nuances de sens. Dans notre quête pour comprendre la diversité et le dynamisme des ressources des enfants, on a choisi également d’inclure une étude de cas multiples. On a sélectionné deux garçons et une fille qui appartiennent à des différents modèles de production conventionnelle pour reconstruire leur construction de sens tout au long de la progression des tâches numériques dans l'entretien. Ce fut une autre façon d'évaluer la mesure dans laquelle les connaissances des enfants interrogés sur les formes et les fonctions numériques abordées ont des disparités considérables entre les individus, et aussi des connexions de sens au niveau individuel et inter-tâche. On comprend l’ampleur et les contraintes d'un travail de recherche limitée non seulement dans le nombre de participants, mais aussi dans le temps/espace d’interaction dans lequel on a recueilli l’information (un seul entretien dyadique en dehors de la salle de classe). Cependant, on considère que les analyses multimodaux et à grains fins sur la variété des ressources numériques à ce stade, avec une attention au dynamisme de la mise en jeu dans des situations, peuvent contribuer à articuler un panorama des enfants en tant qu’apprentis qui cherchent à s’approprier des formes et fonctions numériques comme instrument de participation culturelle. En ce sens, les contributions recueillies dans les observations finales des chapitres des résultats et dans les conclusions peuvent fournir de précieuses informations de première main pour la conception et la mise en œuvre des pratiques d'enseignement capables de promouvoir l'apprentissage numérique de base en milieux socioéducatifs divers. On propose un moyen de surmonter les approches standardisés qui perçoivent de préférence l’apprentissage comme un processus sans contexte, reproductif, monomodal et universel. Pour ce faire, bien sûr, le travail créatif, collaboratif, multimodal et didactique des équipes d’enseignement est clé dans leurs communautés de référence.
APA, Harvard, Vancouver, ISO, and other styles
9

Pensieroso, Luca, and Michel De Vroey. "Focus 25 - juin 2020." Regards économiques, July 16, 2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Full text
Abstract:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Statistique non paramétrique – Études de cas"

1

Lefieux, Vincent. "Modèles semi-paramétriques appliqués à la prévision des séries temporelles : cas de la consommation d’électricité." Phd thesis, Rennes 2, 2007. https://theses.hal.science/tel-00179866/fr/.

Full text
Abstract:
Une prévision correcte de la consommation d’électricité est fondamentale pour le bon fonctionnement du réseau électrique français, dont Réseau de Transport d’Electricité a la charge. Les prévisions utilisées quotidiennement par RTE sont issues d’un modèle alliant une régression paramétrique non linéaire et un modèle SARIMA. Dans l’idée d’obtenir un modèle de prévision adaptatif, des méthodes de prévision non-paramétriques ont déjà été testées sans succès véritable. On sait notamment que la qualité d’un prédicteur nonparamétrique résiste mal à un grand nombre de variables explicatives, ce qu’on appelle communément le fléau de la dimension. On a proposé récemment des méthodes semi-paramétriques d’estimation d’une régression qui améliorent l’approche non-paramétrique pure. L’une d’elles, basée sur la notion de ”directions révélatrices” appellée MAVE (Moving Average -conditional- Variance Estimation), peut s’appliquer aux séries temporelles. Nous étudions empiriquement son efficacité pour prédire les valeurs futures d’une série temporelle autorégressive. Nous adaptons ensuite cette méthode, d’un point de vue pratique, pour prédire la consommation électrique. Nous proposons un modèle semi-paramétrique semi-linéaire, basé partiellement sur la méthode MAVE, qui permet de prendre en compte simultanément l’aspect autorégressif du problème, et l’introduction de variables exogènes. La procédure d’estimation proposée se révèle efficace en pratique
Réseau de Transport d’Electricité (RTE), in charge of operating the French electric transportation grid, needs an accurate forecast of the power consumption in order to operate it correctly. The forecasts used everyday result from a model combining a nonlinear parametric regression and a SARIMA model. In order to obtain an adaptive forecasting model, nonparametric forecasting methods have already been tested without real success. In particular, it is known that a nonparametric predictor behaves badly with a great number of explanatory variables, what is commonly called the curse of dimensionality. Recently, semiparametric methods which improve the pure nonparametric approach have been proposed to estimate a regression function. Based on the concept of ”dimension reduction”, one those methods (called MAVE : Moving Average -conditional- Variance Estimate) can apply to time series. We study empirically its effectiveness to predict the future values of an autoregressive time series. We then adapt this method, from a practical point of view, to forecast power consumption. We propose a partially linear semiparametric model, based on the MAVE method, which allows to take into account simultaneously the autoregressive aspect of the problem and the exogenous variables. The proposed estimation procedure is practicaly efficient
APA, Harvard, Vancouver, ISO, and other styles
2

Lusinchi, Dominic. "La statistique appliquée : usage et signification dans les sciences sociales : essai de recherche méthodologique basé sur des études de cas aux États-Unis." Paris 8, 2008. http://octaviana.fr/document/137824084#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Cette thèse est un essai de réflexion sur l'outillage statistique à la disposition des chercheurs dans les sciences sociales. Les derniers trente ans ont connu un développement considérable des techniques statistiques, tant numériques que graphiques, dû en grande partie à l'application de la statistique à un nombre croissant de disciplines, ainsi qu'à l'apparition, depuis à peine vingt ans, de l'ordinateur personnel. En s'appuyant sur des données réelles empruntées à diverses enquêtes ou études menées aux États-Unis, cette recherche s'efforce de montrer comment des problèmes importants soulevés dans ces travaux peuvent être résolus en faisant appel aux techniques classiques, et aussi, nouvelles de la statistique appliquée. La statistique appliquée n'est pas simplement une collection de techniques, c'est avant tout une façon de réfléchir aux données empiriques, c'est-à-dire, notamment, un moyen d'identifier les effets réels et de les séparer de ce qui est insignifiant. Cette thèse se propose de démontrer que le rôle de la statistique appliquée consiste à révéler le sens des données et à évaluer leurs limites. L'application de la statistique aux données de l'expérience constitue souvent une anticipation et un vecteur du raisonnement sociologique
This study examines the statistical tools available to social science practitioners. The last 30 years have witnessed a considerable development in statistical techniques, both numerical and graphical. This is in large part a result of the application of statistical methods to an ever increasing number of fields, and also of the emergence, barely 20 years ago, of the personal computer. Using real data from surveys and other studies conducted in the U. S. , this research will show how important problems that arise in empirical data can be tackled by relying on well-known as well as relatively recent statistical techniques. Applied statistics is not simply an array of procedures; it is above all a way of thinking about empirical data, specifically how to discriminate between real and chance effects. This research endeavors to show that the role of applied statistics is to reveal both the meaning of the data and their limitations. The application of statistical methods to empirical data can often act as a catalyst to stimulate the sociological imagination
APA, Harvard, Vancouver, ISO, and other styles
3

Rhaiem, Mehdi. "Efficience de la recherche dans les écoles de gestion au Canada : modélisation par des approches paramétriques et non-paramétriques." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/36193.

Full text
Abstract:
La production des connaissances revêt une grande valeur pour les gouvernements, les universités et les chercheurs. Pour ces derniers, aujourd’hui plus que jamais, la recherche prend de plus en plus d’importance dans leurs portefeuilles d’activités. Plusieurs facteurs motivent cette nouvelle tendance, notamment l’adoption, dans plusieurs pays, de systèmes de financement de la recherche axée sur la productivité, la concurrence en matière de recherche qui est devenue mondiale, la prolifération des outils uniformisés de mesure de l’excellence scientifique, et l’importance de la performance et de la productivité en recherche dans la réussite de la trajectoire de carrière des chercheurs. Cependant, la performance des chercheurs universitaires est très variable, tant entre les disciplines qu’au sein d’une même discipline. Ces constats renforcent la pertinence de questionner l’allocation et la gestion des ressources dans le domaine de la recherche universitaire. La présente étude s’attaque à cette problématique dans le cadre spécifique de la recherche dans les Écoles de gestion au Canada. Son objectif général est, d’une part, de dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies et, d’autre part, d’évaluer l’efficience en matière de publications et de citations des chercheurs dans les Écoles de gestion au Canada et d’identifier les déterminants susceptibles d’expliquer les écarts d’efficience entre eux. La thèse est structurée en trois articles. Le premier article a préconisé la méthode de la revue systématique de la littérature et celle du « vote counting » pour édifier un cadre conceptuel intégrateur des intrants, des extrants et des déterminants de l’efficience de la recherche académique. Il a également permis d’identifier plusieurs opportunités de recherche pour contribuer à l’avancement des connaissances dans ce champ d’étude. Le deuxième article a utilisé une nouvelle méthode, « The Reference Publication Year Spectroscopy » pour étudier en profondeur le concept de l’efficience de la recherche académique en identifiant ses racines historiques ainsi que les contributions qui ont conditionné son évolution. Ces deux premiers articles ont permis de satisfaire à la première partie de l’objectif général de cette recherche : « dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies ». Tirant profit des constats et des contributions potentielles à l’avancement des connaissances identifiés dans les deux premiers articles, le troisième article de la thèse a estimé des frontières paramétriques et nonparamétriques de l’efficience en matière de publications et de citations des chercheurs dans huit disciplines de recherche dans les Écoles de gestion au Canada. Il a également identifié plusieurs déterminants des écarts d’efficience entre les chercheurs affiliés à ces Écoles. Entre autres, les résultats de ce troisième article ont montré que les niveaux d’efficience diffèrent d’une manière significative d’un champ disciplinaire à un autre, et au sein même des champs disciplinaires, et que l'accréditation AACSB, l'affiliation à des universités prestigieuses, la taille de l'institution, les sources de financement et la séniorité sont positivement associées à des niveaux d’efficience élevés. Les résultats des trois articles ont permis de suggérer quelques pistes de réflexion et d’intervention pouvant améliorer l’efficience de la recherche académique des chercheurs en général, et de ceux affiliés aux Écoles de gestion au Canada, en particulier.
The production of knowledge is of great importance to governments, universities and researchers. For the latter, today more than ever, research is becoming more and more important in their portfolios of activities. A number of factors are driving this new trend, including the introduction of productivity-driven research funding systems in a number of countries, global competition for research, the proliferation of standardized tools for assessing scientific excellence, and the importance of research performance and productivity in researchers’ career path success. However, the performance of university researchers varies greatly between disciplines and within the same discipline. These findings reinforce the relevance of questioning the allocation and management of resources in the field of university research. This study addresses this issue in the specific context of research in Canadian Business Schools. Its aims, on the one hand, to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades and, on the other hand, to evaluate the efficiency of academic research of Canadian Business Schools’ scholars and to identify the determinants that may explain the differences in efficiency between them. The thesis allowed the production of three articles. The first one used the systematic review of the literature and the method of vote counting to build an integrative conceptual framework of inputs, outputs, and determinants of the efficiency of academic research. It has also identified several research opportunities to contribute to the advancement of knowledge in this field of study. The second article used a new method, The Reference Publication Year Spectroscopy, to study in depth the concept of the efficiency of academic research by identifying its historical roots as well as the contributions that marked its evolution. These first two articles made it possible to satisfy the first part of the general objective of this research: “to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades”. Taking advantage of the findings and potential contributions to the advancement of knowledge identified in the first two articles, the third article estimated parametric and non-parametric frontiers of efficiency of scholars’ publications and citations in eight research disciplines in Canadian Business schools. It also allowed to identify several levers of efficiency gaps among researchers affiliated with these schools. Among other things, the results of this third article showed that efficiency scores differ significantly from one disciplinary field to another, and even within disciplinary fields, and that AACSB accreditation, affiliation to prestigious universities, size of institution, sources of funding and seniority are positively associated with high levels of efficiency. The findings of the three articles devised some lines of action that might improve the efficiency of academic research for researchers in general and those affiliated with Canadian Business schools, in particular.
APA, Harvard, Vancouver, ISO, and other styles
4

Antic, Julie. "Méthodes non-paramétriques en pharmacocinétique et/ou pharmacodynamie de population." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/935/.

Full text
Abstract:
La thèse étudie les méthodes non-paramétriques (NP) d'estimation de la distribution des effets aléatoires d'un modèle non-linéaire à effets mixtes. L'objectif est d'évaluer l'intérêt de ces méthodes pour les analyses Pharmacocinétiques (PK) et/ou Pharmacodynamiques (PD) de population, dans l'industrie Pharmaceutique. Dans un premier temps, la thèse fait le point sur les propriétés statistiques de quatre méthodes NP importantes. De plus, elle évalue leurs performances pratiques grâce des études de simulation inspirées d'analyses PK de population. L'intérêt des méthodes NP est établi, en théorie et en pratique. Les méthodes NP sont ensuite évaluées pour l'analyse PK/PD de population d'un médicament antidiabétique. L'objectif est d'évaluer la capacité des méthodes à détecter une sous-population de patients non-répondeurs au traitement. Des études de simulation montrent que deux méthodes NP semblent plus aptes à détecter cette sous-population. La dernière partie de la thèse est consacrée à la recherche d'algorithmes stochastiques permettant d'améliorer le calcul des méthodes NP. Un algorithme de gradient stochastique perturbé est proposé
This thesis studies non-parametric (NP) methods for the estimation of random-effects' distribution in non-linear mixed effect models. The objective is to evaluate the interest of these methods for population Pharmacokinetics (PK) and/or Pharmacodynamics (PD) analyses within Pharmaceutical industry. In a first step, the thesis reviews the statistical properties of four important NP methods. Besides, their practical performances are evaluated using some simulation studies, inspired from population PK analyses. The interest of NP methods is established in theory and in practice. NP methods are then for the population PK/PD analysis of an anti-diabetic drug. The aim is to evaluate the methods abilities to detect a sub-population of nonresponder patients. Some simulation studies show that two NP methods seem more capable of detecting this sub-population. The last part of the thesis is dedicated to the research of stochastic algorithms that improve the computation of NP methods. A perturbed stochastic gradient algorithm is proposed
APA, Harvard, Vancouver, ISO, and other styles
5

Essid, Hédi. "L'induction statistique dans le modèle DEA avec inputs quasi-fixes : développements théoriques et une application au secteur de l'éducation tunisien." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50374-2007-Essid.pdf.

Full text
Abstract:
L'objet de notre thèse est l'analyse de l'efficacité et de la productivité des organisations dans un contexte multivarié. En particulier, notre thèse s'inscrit dans la lignée des travaux qui cherchent à développer les assises statistiques des estimateurs non paramétriques des frontières d'efficacité de type Data Envelopment Analysis (DEA). Ainsi, nous nous intéressons aux propriétés statistiques de cet estimateur, notamment celles de la convergence et du biais. D'autant plus, la distribution d'échantillonnage pour cet estimateur fait aussi l'objet de notre étude ; et ce afin d'utiliser les techniques de l'inférence statistique dans l'analyse de l'efficacité et de la productivité. Dans notre analyse, nous distinguons entre les inputs contrôlables et les inputs quasi-fixes ou non discrétionnaires. Ces derniers entrent désormais, dans le processus de production de l'organisation sans être pourtant sous son contrôle. Pour mener notre étude, nous définissons un modèle statistique permettant la caractérisation du Processus Générateur des Données (PGD) ; et nous utilisons la méthode du noyau pour construire un estimateur convergent de ce processus. En se basant sur cet estimateur, nous utilisons la méthodologie bootstrap pour corriger le biais des estimateurs des scores d'efficacité, construire des intervalles de confiance et développer un problème de test d'hypothèses statistiques concernant la nature des rendements d'échelle des organisations. Nous étudions ensuite la variation de l'efficacité dans un modèle complet de variation de la productivité. Cette étude est menée en utilisant l'indice de productivité de Malmquist. Ce dernier est estimé par la méthode DEA avec inputs quasi-fixes. Pour évaluer la précision statistique des estimateurs, nous définissons un modèle statistique intertemporel permettant la caractérisation du Processus Générateur des Données Intertemporel (PGDI) ; et d'utiliser ainsi la méthodologie bootstrap pour corriger le biais des estimateurs et construire des intervalles de confiance pour l'indice de Malmquist ainsi que pour ses composantes. Enfin, nous appliquons notre analyse au secteur de l'éducation tunisien. Par cela, nous visons en premier lieu, le développement d'une mesure de l'efficacité de l'éducation dont nous pouvons étudier sa significativité statistique. En second lieu, nous voulons vérifier si la variation de la productivité dans le secteur de l'éducation est réelle ou plutôt perverse.
APA, Harvard, Vancouver, ISO, and other styles
6

Cissé, Ismaëlh Ahmed. "Trafic aérien de passagers au Canada : une analyse exploratoire du modèle origine-destination de Transports Canada pour le marché intérieur." Master's thesis, Université Laval, 2013. http://hdl.handle.net/20.500.11794/25411.

Full text
Abstract:
Le dynamisme du secteur aérien canadien amène Transports Canada à réviser régulièrement ses techniques de modélisation du trafic de passagers afin d’améliorer la performance prédictive de ses modèles. Ce travail explore différentes versions d’un modèle PODM (Passanger Origin-Destination Model) que Transports Canada utilise pour prévoir le trafic de passagers entre une origine et une destination à l’intérieur du Canada avec des données de panel (i.e. longitudinales et transversales). Deux formes paramétriques (log-linéaire et Box-Cox) sont estimées dans leurs versions empilées, avec des effets fixes/aléatoires et avec des coefficients individuels variables (fixes/aléatoires). Nous proposons également des estimations non paramétriques à noyaux pour explorer les non-linéarités qui caractérisent la relation entre le nombre de passagers par couple origine-destination et le prix du billet, le PIB des zones d’origine et de destination, la durée en voiture du trajet et la fréquence des vols. L’hypothèse d’empilement des données et les formes fonctionnelles postulées se révèlent statistiquement inadéquates. La prise en compte de l’hétérogénéité des trajets et des effets temporels par l’inclusion d’effets fixes/aléatoires dans les modèles paramétriques est également rejetée par nos tests. Les modèles à coefficients variables individuels et les estimations non paramétriques se révèlent les méthodes les plus pertinentes pour capturer l’hétérogénéité entre trajets, les chocs temporels ou les non-linéarités présentes dans les relations d’intérêt. Mots clés : Box-Cox, transport aérien, trafic de passagers, origine-destination, Transports Canada, non paramétrique, panels.
APA, Harvard, Vancouver, ISO, and other styles
7

Ould, Moulaye Hachem Bouye Ahmed. "Frontier estimation of efficiency and productivity : some new perspectives for firms and industry." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL12002/document.

Full text
Abstract:
Cette thèse contribue à la littérature de l'efficience et des frontières de production en adoptant une philosophie de gestion pour apporter quelques solutions aux gestionnaires. Un thème principal est abordé dans cette thèse : nous illustrons l'importance de la convexité dans une grande variété de frontières de production. Trois sujets représentent le noyau de cette dissertation: (1) L’utilisation de capacité optimale et la redistribution dans un réseau de branches bancaires allemand; (2) Une comparaison des indices de productivité Malmquist et Hicks Moorsteen, qui se concentrent sur le problème de l’infaisabilité; (3) Les économies d’échelle et les rendements d’échelle dans les modèles non paramétriques. Le premier chapitre montre comment le modèle à court terme de Johansen peut être utilisé pour élaborer des scénarios permettant de gérer la redistribution d’inputs et d’outputs dans un réseau bancaire, et illustre comment la convexité affecte les résultats du modèle à court terme de Johansen. Le deuxième chapitre décrit comment les infaisabilités de l'indice de productivité de Malmquist sont conditionnées par des hypothèses sur la technologie (y compris la convexité). Enfin, le troisième chapitre explore la différence entre l'efficacité technique et l'efficacité d'échelle ainsi que les éventuelles différences entre la caractérisation des économies d'échelle et des rendements d'échelle basées sur les technologies et l’estimation des fonctions de coût convexes et non convexes
This thesis contributes to the efficiency and production frontier literature by adopting a managerial focus to provide some new solutions to managers. There is in fact one recurrent theme in this PhD : we illustrate the importance of convexity in a wide variety of production frontier modeling settings. Three topics represent the core of this dissertation : (1) Optimal capacity utilization and reallocation in a German bank branch network; (2) A comparison of Malmquist and Hicks-Moorsteen productivity indices focusing on infeasibilities; (3) Scale economies and returns to scale in non-parametric models. The first chapter shows how the short run Johansen model can be used to develop scenarios to manage the reallocation of inputs and outputs over a bank branch network so as to improve its performance. Then, we illustrate how convexity affects these results. The second chapter describes how infeasibilities of the Malmquist productivity index are conditioned by assumptions on technology, in particular (i) short-run versus long-run analysis, (ii) convex versus non-convex, and (iii) constant versus flexible returns to scale assumptions. Finally, the third chapter explores the difference between the technical efficiency and the scale efficiency as well as the eventual differences between the characterization of economies of scale and returns to scale based on convex and non-convex technology and cost function estimations
APA, Harvard, Vancouver, ISO, and other styles
8

Tu, Nguyen Trung. "Estimation par ondelettes pour des données longitudinales." Paris 7, 2011. http://www.theses.fr/2011PA077001.

Full text
Abstract:
Cette thèse traite principalement des problèmes d'analyse des données longitudinales. Dans le cadre de l'estimation non paramétrique, une technique particulièrement intéressante consiste à utiliser des bases d'ondelettes. Le but de cette thèse est d'obtenir de bonnes procédures d'estimation par ondelettes pour des données longitudinales. Lors d'une analyse des données longitudinales, nous recevons régulièrement des observations d'un ensemble d'individus mesurées en temps aléatoires. Les études récentes montrent que les corrélations entre des observations d'un même individu portent des informations importantes et ne peuvent plus être négligeables comme dans les modèles classiques. Il est certes intéressant de tenir compte de ces corrélations mais elles posent des problèmes techniques difficiles à gérer. Dans de telles circonstances, serait-il possible d'adopter des outils classiques ? Quelles sont les hypothèses nécessaires pour bien analyser ces données ? Comment interviennent-elles les corrélations dans la performance de ces études ? Pouvons-nous toujours avoir des procédures adaptatives qui ne demandent pas d'informations a priori ? Les résultats établis dans cette thèse permettent de répondre à ces questions. Dans le cadre de notre travail, nous considérons deux modèles longitudinaux : le modèle général et le modèle linéaire longitudinal. Nous travaillons principalement sur le modèle général pour lequel nous proposons un schéma d'estimation qui contient plusieurs étapes. Ces différentes étapes de seront explicitées successivement dans les chapitres 3, 4 et 5. Le chapitre 6 présentera les résultats pour le modèle linéaire longitudinal. Chaque chapitre correspond à une ou plusieurs réponses aux questions précédentes. Au sein du chapitre 3, nous apporterons des procédures d'estimation linéaires de deux fonctions essentielles (la moyenne et la covariance) de l'approche ACP. Dans cette étape, l'intervention des corrélations dans la performance se présente comme une nouvelle borne du risque quadratique. L'estimation par ondelettes est particulièrement bien adaptée pour résoudre les difficultés techniques générées par l'autocorrélation. Sous les hypothèses gaussiennes, nous pouvons montrer que la procédure d'estimation est optimale sur le plan minimax. Les chapitres 4 et 5 proposeront des procédures d'estimation adaptatives par la méthode de seuillage en ondelettes. Dans cette étape, nous étudions les deux cas du modèle : borné et gaussien. Concernant l'estimation de la moyenne, un cas intéressant - le cas brownien - sera examiné dans la section 4. 3. 3. Une comparaison numérique avec la méthode localement linéaire sera faite dans la section 4. 4. Le chapitre 5 terminera notre schéma par l'estimation de la covariance, toujours pour les deux cas considérés. Chacun de ces chapitres peut être lu indépendamment les uns des autres. Les résultats principaux seront résumés dans le chapitre 2. Une brève introduction sur les données longitudinales, les méthodes classiques et l'approche principale est présentée dans le chapitre 1
This thesis mainly deals with problems of analysis of longitudinal data. In the context of nonparametric estimation, a technique particularly interesting consists of wavelet estimation methods. This thesis proposes wavelet estimation procedures for longitudinal data and studies their asymptotical properties. Generally, in longitudinal data analysis, we regularly collect data, measured from a group of individuals in random times. Recent studies show that the autocorrelations of the observations (of the same subject) should be taken into account to draw valid scientific inferences. It is essential to consider these autocorrelation, but they pose difficult technical problems to manage when we analyze the asymptotic behaviors of the estimation procedures. In such circumstances, would it be possible to adopt the standard non-parametric estimation tools? What assumptions are needed to properly analyze these data? How do the correlations behave in the asymptotical properties? Is there any adaptive estimation procedure that does not require any priori information? The results established in this thesis help answering these questions. Two longitudinal models: the general model and the longitudinal linear model are considered in our work. The main results are studied for the general model in which a completed estimation scheme, containing separated steps, is proposed. These different steps will be explained successively in chapters 3, 4 and 5. Chapter 6 will present the results for the longitudinal linear model. Each chapter corresponds to one or more answers to the previous questions. In chapter 3, a linear procedure is studied to estimate two essential fonctions (mean and covariance) of thé PCA approach. In this case, the impact of the autocorrelations is presented as a new component of the quadratic risk. Wavelet estimation methods are particularly well suited to solve the technical difficulties generated by the autocorrelation. Moreover, under Gaussian assumptions, our estimation procedures are clearly proved to be optimal in the minimax sense. Chapters 4 and 5 propose adaptive estimation procedures by using wavelet shrinkage methods. In this step, we study two separated cases of the model: when the unknown random process is bounded or Gaussian. Furthermore, the case Brownian is discussed in Section 4. 3. 3. A numerical comparison with the locally linear method will be made in Section 4. 4. Chapter 5 will complete our scheme by estimating the covariance function, consecutively for these two previous cases. Each of these chapters could be read independently of each other. The main results are summarized in Chapter 2. A brief introduction of longitudinal data, conventional methods and the main approach is presented in Chapter 1
APA, Harvard, Vancouver, ISO, and other styles
9

Ben, Abdeddaiem Maroua. "Tests d'ajustement pour des processus stochastiques dans le cas de l'hypothèse nulle paramétrique." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1016/document.

Full text
Abstract:
Ce travail est consacré au problème de construction des tests d'ajustement dans le cas des processus stochastiques observés en temps continu. Comme modèles d'observations, nous considérons les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène. Sous l'hypothèse nulle, nous traitons le cas où chaque modèle dépend d'un paramètre inconnu unidimensionnel et nous proposons l'estimateur de distance minimale pour ce paramètre. Notre but est la construction des tests d'ajustement « asymptotically distribution free » (ADF) de niveau asymtotique α ϵ (0,1) dans le cas de cette hypothèse paramétrique pour les modèles traités. Nous montrons alors que la limite de chaque statistique étudiée ne dépend ni du modèle ni du paramètre inconnu. Les tests d'ajustement basés sur ces statistiques sont donc ADF. L'objectif principal de ce travail est la construction d'une transformation linéaire spéciale. En particulier, nous résolvons l'équation de Fredholm du second type avec le noyau dégénéré. Sa solution nous permet de construire la transformation linéaire désirée. Ensuite, nous montrons que l'application de cette transformation aux statistiques de base étudiées dans chaque modèle nous aide à introduire des statistiques ayant la même limite (l'intégrale du carrée du processus de Wiener). Cette dernière est « distribution free » vu qu'elle ne dépend ni du modèle ni du paramètre inconnu. Par conséquent, nous proposons des tests d'ajustement ADF en se basant sur cette transformation linéaire pour les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène
This work is devoted to the problem of the construction of several goodness of-fit (GoF) tests in the case of somestochastic processes observed in continuous time. As models of observations, we take "small noise" and ergodic diffusionprocesses and an inhomogeneous Poisson process. Under the null hypothesis, we treat the case where each model depends on an unknown one-dimensional parameter and we consider the minimum distance estimator for this parameter. Our goal is to propose "asymptotically distribution free" (ADF) GoF tests of asymptotic size α ϵ (0,1) in the case of the parametric null hypotheses for the considered models. Indeed, we show that the limit of each studied statistic does not depend on the model and the unknown parameter. Therefore, the tests based on these statistics are ADF.The main purpose of this work is to construct a special linear transformation. In particular, we solve Fredholm equation ofthe second kind with degenerated kernel. Its solution gives us the desired linear transformation. Next, we show that theapplication of this transformation to the basic statistics allows us to introduce statistics with the same limit (the integral of the square of the Wiener process). The latter is "distribution free" because it does not depend on the models and the unknown parameter. Therefore, we construct the ADF GoF tests which are based on this linear transformation for the diffusion ("small noise" and ergodic) and inhomogeneous Poisson processes
APA, Harvard, Vancouver, ISO, and other styles
10

Duroux, Roxane. "Inférence pour les modèles statistiques mal spécifiés, application à une étude sur les facteurs pronostiques dans le cancer du sein." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066224/document.

Full text
Abstract:
Cette thèse est consacrée à l'inférence de certains modèles statistiques mal spécifiés. Chaque résultat obtenu trouve son application dans une étude sur les facteurs pronostiques dans le cancer du sein, grâce à des données collectées par l'Institut Curie. Dans un premier temps, nous nous intéressons au modèle à risques non proportionnels, et exploitons la connaissance de la survie marginale du temps de décès. Ce modèle autorise la variation dans le temps du coefficient de régression, généralisant ainsi le modèle à hasards proportionnels. Dans un deuxième temps, nous étudions un modèle à hasards non proportionnels ayant un coefficient de régression constant par morceaux. Nous proposons une méthode d'inférence pour un modèle à un unique point de rupture, et une méthode d'estimation pour un modèle à plusieurs points de rupture. Dans un troisième temps, nous étudions l'influence du sous-échantillonnage sur la performance des forêts médianes et essayons de généraliser les résultats obtenus aux forêts aléatoires de survie à travers une application. Enfin, nous présentons un travail indépendant où nous développons une nouvelle méthode de recherche de doses, dans le cadre des essais cliniques de phase I à ordre partiel
The thesis focuses on inference of statistical misspecified models. Every result finds its application in a prognostic factors study for breast cancer, thanks to the data collection of Institut Curie. We consider first non-proportional hazards models, and make use of the marginal survival of the failure time. This model allows a time-varying regression coefficient, and therefore generalizes the proportional hazards model. On a second time, we study step regression models. We propose an inference method for the changepoint of a two-step regression model, and an estimation method for a multiple-step regression model. Then, we study the influence of the subsampling rate on the performance of median forests and try to extend the results to random survival forests through an application. Finally, we present a new dose-finding method for phase I clinical trials, in case of partial ordering
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography