Дисертації з теми "Modèle de complexité intermédiaire"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Modèle de complexité intermédiaire.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Modèle de complexité intermédiaire".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Roche, Didier. "Isotopes de l'oxygène en paléoclimatologie : l'apport d'un modèle de complexité intermédiaire." Paris 6, 2005. http://www.theses.fr/2005PA066352.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Thual, Sulian. "Modèles réduits pour l'étude des mécanismes et de la modulation de l'oscillation australe El Niño." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1821/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'Oscillation Australe El Niño (ENSO pour El Niño Southern Oscillation) est la fluctuation climatique la plus intense sur Terre après le cycle saisonnier. L'observation, la compréhension et la prévision de cette fluctuation aux retombées mondiales sont des enjeux scientifiques majeurs. Cette thèse documente divers aspects d'ENSO tels que ses mécanismes, sa modulation et sa prévision. Ces divers aspects sont abordés en développant une hiérarchie de modèles du Pacifique équatorial, de complexité croissante, qui s'étend de modèles conceptuels à une méthode d'assimilation de données dans un modèle de complexité intermédiaire. Nous étudions dans un premier temps les mécanismes de formation d'ENSO. Nous développons une dérivation alternative du modèle conceptuel de recharge/décharge où ENSO résulte d'un ajustement de la thermocline équatoriale à échelle de bassin. Nous implémentons par ailleurs un diagnostic original dans un modèle d'instabilités couplées équatoriales, ce qui met en avant un nouveau mécanisme de formation d'ENSO où les réflexions aux frontières océaniques jouent un rôle secondaire. La stratification moyenne de l'océan contribue à la modulation décenalle des caractéristiques d'ENSO. Cette relation est abordée dans un nouveau modèle réduit qui prend en compte les premiers modes baroclines d'un océan continûment stratifié. L'espace des solutions du modèle est exploré, indiquant un contrôle de la stabilité d'ENSO par les caractéristiques de la thermocline équatoriale. La sensibilité à la stratification au cours des dernières décennies est mise en perspective avec la sensibilité aux rétroactions thermodynamiques et atmosphériques. Nous soulignons en particulier certaines limitations des méthodes usuelles d'estimation de la rétroaction de thermocline dans le Pacifique central. Finalement, nous implémentons une méthode de Filtre de Kalman d'Ensemble dans un modèle intermédiaire du Pacifique équatorial déjà existant, afin d'assimiler des observations de niveau de la mer et d'initialiser des prévisions rétrospectives d'ENSO. Nous montrons que la contrainte majeure du modèle porte sur les modes de bassin qui sont associés au processus de recharge/décharge du Pacifique équatorial. Notre travail fournit un formalisme pour diagnostiquer la modulation des caractéristiques d'ENSO dans les observations, les prévisions et projections climatiques. Les résultats soutiennent la nécessité d'étendre la compréhension des mécanismes d'ENSO, afin de rendre compte de la diversité des régimes observés et d'améliorer les prévisions
The El Niño Southern Oscillation (ENSO) is the most intense climatic fluctuation on Earth after the seasonal cycle. The observation, understanding and forecast of this fluctuation with worldwide impacts are major scientific issues. This thesis (entitled "Simple Models for Understanding the Mechanisms and Modulation of ENSO") documents various aspects of ENSO such as its mechanisms, its modulation and its forecast. Those various aspects are tackled by developing a hierarchy of models of the equatorial Pacific, of increasing complexity, ranging from conceptual models to a data assimilation method in an intermediate complexity model. We study at first mechanisms of ENSO formation. We develop an alternative derivation of the recharge/discharge conceptual model where ENSO arises from a basin-wide adjustment of the equatorial thermocline. We also implement an original diagnostic in a model of equatorial coupled instabilities, which evidences a new mechanism of ENSO formation where reflections at the ocean boundaries are secondary. The background ocean stratification contributes to the decadal modulation of ENSO characteristics. This relation is adressed in a new reduced model that takes into account the gravest baroclinic modes of a continusouly stratified ocean. The space of model solutions is explored, indicating a control on ENSO stability by characteristics of the equatorial thermocline. The sensitivity to stratification over the recent decades is put in perspective with the sensitivity to thermodynamic and atmospheric feedbacks. We stress in particular certain limitations of usual methods of estimation of the thermocline feedback in the central Pacific. Finally, we implement an Ensemble Kalman Filter method in an already existing intermediate model of the equatorial Pacific, in order to assimilate sea level observations and to initialize retrospective forecasts. We show that the major model constraint is on the basin modes that are associated to the recharge/discharge process of the equatorial Pacific. Our work provides a formalism to diagnose the modulation of ENSO characteristics in observations, climate projections and forecasts. Results support the need to extent the understanding of ENSO mechanisms, in order to account for the diversity of observed regimes and to improve forecasts
3

Gomes, Hélène. "Gestion écosystémique et durabilité des pêcheries artisanales tropicales face aux changements globaux." Electronic Thesis or Diss., Guyane, 2022. http://www.theses.fr/2022YANE0004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les changements globaux induisent de grandes pressions sur les écosystèmes marins, leurbiodiversité et les pêcheries qui en dépendent. Dans ce contexte, de nombreux scientifiquesprônent l'utilisation de l'approche écosystémique pour la gestion de pêches (AEGP). Néanmoins,la manière d’opérationnaliser l’AEGP reste controversée. La thèse apporte des éclairages surl’opérationnalisation de cette dernière pour les pêcheries côtières tropicales.Pour ce faire, nous proposons un modèle de complexité intermédiaire (MICE) multi-espèces,multi-flottilles et multi-critères, prenant en compte les impacts des changements globaux. Lemodèle est calibré pour la pêcherie artisanale côtière guyanaise. A l'échelle guyanaise, leréchauffement climatique, l'augmentation de population humaine et les variations de surface dela mangrove sont considérés comme les déterminants majeurs du changement global. A partirdu modèle calibré, plusieurs stratégies de pêche et scénarios environnementaux sont comparésà long terme. Dans ce cadre, des premiers résultats publiés (chapitre 3) montrent le rôle négatifdu changement climatique à la fois sur la biodiversité marine et la production halieutique. Cestravaux mettent également en évidence le rôle majeur de la compétition entre espèces depoissons. Puis dans le chapitre 4 en comparant les résultats bio-économiques obtenus pourchaque stratégie de pêche, ces travaux mettent en lumière l’intérêt de stratégies d’éco-viabilitéen termes de durabilité et de réconciliation écologico-économique. Les derniers résultatsprésentés dans cette thèse, au chapitre 5, soulignent l’impact positif de la mangrove, bienqu’insuffisant pour compenser l’impact négatif du réchauffement climatique, sur la durabilitéécologico-économique de la pêche côtière. Au-delà de ces résultats, cette thèse apporte unesérie de contributions transversales importantes. En premier lieu, sur le plan méthodologique,ces travaux permettent d'exposer les avantages des MICE pour la mise en place de l’AEGP.Ensuite, en mettant en évidence les facteurs écologiques majeurs de l'écosystème avec d'unepart l'interaction de compétition et d'autre part les filtres environnementaux, les travauxéclairent les complexités écologiques nécessaires à l’AEGP. Enfin, en évaluant et comparant lesperformances écologico-économiques de différentes stratégies de pêche, ces travauxpermettent d'ébaucher des politiques publiques pour avancer vers la durabilité de la pêcheriecôtière guyanaise et vers l’AEGP face aux changements globaux
Global changes induce high pressure on marine ecosystems, biodiversity and fisheries. In thatregard many scientists advocate the use of an ecosystem-based fisheries management (EBFM).However, the operationalization of such an ecosystem-based approach remains challenging. Thisthesis gives insight into the operationalization of EBFM for tropical coastal fisheries. To achievethat we propose a multi-species, multi-fleet and multi-criteria model of intermediate complexity(MICE), taking into account the impacts of global changes. The model is calibrated for theGuyanese small-scale coastal fishery. At local scale, global warming, the increase of populationand the variations of mangrove surface are considered as the main drivers of global changes.From the calibrated model, several fishing management strategies and environmental scenariosare compared in the long-run. In this context, the first results published (chapter 3) show thedetrimental impact of climate change on both marine biodiversity and fishery production. Thispaper also highlights the major role of ecological competition between species. Then, in thechapter 4, by comparing the bio-economic results obtained under each fishing managementstrategy, this research demonstrates the interest of Ecoviability strategies in terms ofsustainability and ecologico-economic reconciliation. The last results displayed in this thesis, inchapter 5, underline the positive impact of mangrove on ecologico-economic sustainability of thecoastal fishery, even if it is insufficient to balance the negative impact of warming. Beyond theseresults, this thesis brings a series of important transverse contributions. First, methodologically,this research permits to show the benefits of MICE to operationalize EBFM. Then, by highlightingthe major ecological factors of the ecosystem with on the one hand the interaction ofcompetition and on the other hand the environmental filters, the work sheds light on theecological complexities necessary for the EBFM. Finally, by evaluating and comparing theecologico-economic performances of several fishing strategies, this research permits to outlinepolicy recommendations to move towards the sustainability of the Guyanese coastal fishery andtowards EBFM, in the face of global changes
4

Corson, Nathalie. "Dynamique d'un modèle neuronal, synchronisation et complexité." Phd thesis, Université du Havre, 2009. http://tel.archives-ouvertes.fr/tel-00453912.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le fonctionnement d'un neurone, cellule fondamentale du système nerveux, intéresse de nombreuses disciplines scientifiques. Il existe ainsi des modèles mathématiques qui décrivent leur comportement par des systèmes d'EDO. Plusieurs de ces modèles peuvent ensuite être couplés afin de pouvoir étudier le comportement de réseaux, systèmes complexes au sein desquels émergent des propriétés. Ce travail présente, dans un premier temps, les principaux mécanismes régissant ce fonctionnement afin d'en comprendre la modélisation. Plusieurs modèles sont alors présentés, jusqu'à celui de Hindmarsh-Rose (1984), qui présente une dynamique lente-rapide. C'est sur l'étude numérique mais également théorique de la dynamique asymptotique et transitoire de ce dernier modèle, que se concentre la seconde partie de cette thèse. Dans une troisième partie, des réseaux d'interactions sont construits en couplant les systèmes dynamiques précédemment étudiés. L'étude du phénomène de synchronisation complète au sein de ces réseaux montre l'existence de propriétés émergentes pouvant être caractérisées par des lois de puissance. Enfin, un algorithme de détection de la synchronisation de bursts est proposé.
5

Ospina-Zamudio, Juan David. "Complexité chimique des protoétoiles de masse intermédiaire : une étude de Cep E-mm." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAY013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les étoiles de masse intermédiaire (2M⊙ ≤ M ≤ 10M⊙) sont parmi les sources dominantes du champ interstellaire FUV dans la Galaxie. Elles régulent les phases du milieu interstellaire et l’ensemble des processus de formation stellaire galactique. Alors que les protoétoiles de type solaire et massives ont été et continuent à faire l’objet de nombreuses études, la formation des étoiles intermédiaires a été relativement peu étudiée. Leur structure physique, composition chimique et leur richesse moléculaire sont un domaine à explorer.L’objectif de ma thèse est d’obtenir un recensement détaillé et aussi complète que possible des propriétés physico-chimiques d’une protoétoile isolée de masse intermédiaire. Notre choix s’est porté sur Cep E-mm (100 L⊙).J’ai pour cela complété un relevé spectral de l’émission moléculaire dans les bandes (sub)millimétriques entre 72 et 350 GHz avec le télescope de 30m de l’IRAM. La sensibilité des observations a permis d’identifier la présence de nombreuses molécules complexes organiques (COMs) dans l’enveloppe de la protoétoile, mais aussi, plusieurs espèces moléculaires inhabituelles dans le jet généré par la protoétoile. Des observations complémentaires avec le télescope de 30m ont permis de cartographier l’émission moléculaire à grande échelle (20’’ à 11’’ ; 15000 à 8000 UA). En parallèle, des cartes interférométriques de l’émission moléculaire entre 86 – 90 GHz et 216 – 220 GHz ont été obtenues avec l’interféromètre de l’IRAM (NOEMA) à 1.4’’ (1000 UA) de résolution angulaire. Ces observations m’ont permis d’obtenir une première description de la distribution de l’émission moléculaire au sein de l’enveloppe, des grandes échelles, dans les parties extérieures de l’enveloppe étendue, aux petites échelles dans la région d’un hot corino. Les études présentées ici ont suivi un travail méticuleux de réduction et d’analyse des données, single-dish et interférométriques. Plus précisément, j’ai identifié et séparé les contributions à l’émission détectée dans le lobe du télescope de 30m de l’IRAM des différentes régions physiques du cœur protostellaire. De ce fait, j’ai identifié et caractérisé quatre composantes physiques qui diffèrent par leurs propriétés spectroscopiques et leurs conditions d’excitation : l’enveloppe étendue, le hot corino, le flot bipolaire basse vitesse et le jet à haute vitesse. Enfin, l’anisotropie de la distribution de brillance du flot et du jet bipolaire ne peut pas être modélisée par l’approche ‘’classique’’ d’une source gaussienne. J’ai développé des outils spécifiques semi-analytiques pour calculer de manière approchée, et plus raisonnable, le couplage entre le lobe du télescope et la source
Intermediate-mass stars (2 M⊙ ≤ M ≤ 10 M⊙) are among the dominant sources of FUV interstellar field in the Galaxy. They regulate the phases of interstellar medium and the whole process of galactic star formation. While solar-type and massive protostars have been and continue to be the subject of many studies, the formation of intermediate stars has been relatively little studied. Their physical structure, chemical composition and molecular richness are still a subject to explore.The aim of my thesis is to obtain a detailed census, as complete as possible ,of the physical and chemical structure of an isolated intermediate-mass protostar: Cep E-mm (100 L⊙).I have completed a spectral survey of the molecular emission in the (sub)millimetre bands between 72 and 350 GHz with IRAM 30m telescope. The sensitivity of the observations made it possible to identify the presence of numerous complex organic molecules (COMs) in the protostar envelope, but also several unusual molecular species in the protostellar jet. Additionally, further observations with the IRAM 30m telescope made it possible to map the molecular emission at large scale (20’’ to 11’’; 15000 to 8000 AU). In parallel, interferometric maps of the molecular emission between 86 – 90 GHz and 216 – 220 GHz were obtained with NOEMA, the IRAM interferometer, at 1.4’’ (1000 AU) of angular resolution. These observations allowed me to obtain the distribution of molecular emission within the source, from large scales in the outer parts of the extended envelope, to the small scales in the hot corino region. The single-dish and interferometric observations were reduced and analysed in a meticulous manner. More precisely, I identified and separated the molecular emission contribution from the different physical regions as observed with the IRAM 30m telescope. I have identified and characterized fours physical components that differ in their spectroscopic properties and excitation conditions: the extended envelope, the hot corino, the bipolar outflow and the high-velocity jet. Finally, the anisotropy of the brightness distribution from the outflow system cannot be modelled by the “classical” Gaussian approach. I have developed specific tools to estimate, in a semi-analytical manner, the coupling between the telescope lobe and the source
6

Senot, Maxime. "Modèle géométrique de calcul : fractales et barrières de complexité." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00870600.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles géométriques de calcul permettent d'effectuer des calculs à l'aide de primitives géométriques. Parmi eux, le modèle des machines à signaux se distingue par sa simplicité, ainsi que par sa puissance à réaliser efficacement de nombreux calculs. Nous nous proposons ici d'illustrer et de démontrer cette aptitude, en particulier dans le cas de processus massivement parallèles. Nous montrons d'abord à travers l'étude de fractales que les machines à signaux sont capables d'une utilisation massive et parallèle de l'espace. Une méthode de programmation géométrique modulaire est ensuite proposée pour construire des machines à partir de composants géométriques de base -- les modules -- munis de certaines fonctionnalités. Cette méthode est particulièrement adaptée pour la conception de calculs géométriques parallèles. Enfin, l'application de cette méthode et l'utilisation de certaines des structures fractales résultent en une résolution géométrique de problèmes difficiles comme les problèmes de satisfaisabilité booléenne SAT et Q-SAT. Ceux-ci, ainsi que plusieurs de leurs variantes, sont résolus par machines à signaux avec une complexité en temps intrinsèque au modèle, appelée profondeur de collisions, qui est polynomiale, illustrant ainsi l'efficacité et le pouvoir de calcul parallèle des machines à signaux.
7

Giraud, Françoise. "Complexité et responsabilité : à la recherche d'un modèle émergent." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'idée de responsabilité est centrale dans la doctrine du contrôle de gestion, dont les démarches se structurent autour de la notion de centre de responsabilité. Aujourd'hui, la complexité à laquelle sont confrontées les entreprises fragilise les principes sur lesquelles cette notion est construite. Cette thèse explore l'émergence d'un modèle alternatif en s'appuyant sur les réflexions conceptuelles menées dans les champs du droit et de la philosophie, et en interrogeant les pratiques d'entreprises au travers de deux études de cas et d'une enquête par questionnaire.
8

Perifel, Sylvain. "Problèmes de décision et d'évaluation en complexité algébrique." Lyon, École normale supérieure (sciences), 2007. http://www.theses.fr/2007ENSL0430.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s'intéresse essentiellement à des questions concernant les classes de complexité algébrique de problèmes de décision et de problèmes d'évaluation. Plus précisément, nous étudions d'une part, le modèle de Blum, Shub et Smale (BSS) pour reconnaître des langages sur une structure quelconque grâce à des circuits algébriques, et d'autre part, le modèle de Valiant pour calculer des polynômes grâce à des circuits arithmétiques. Nos résultats montrent qu'afin de séparer des classes de complexité, il est moins difficile de travailler sur les problèmes d'évaluation, c'est-à-dire dans le modèle de Valiant. Cela confirme notre intuition que, le modèle étant plus simple (il n'y a pas de portes de tests), les résultats doivent être plus simples à obtenir. En particulier, nous montrons deux résultats de transfert. Le premier concerne les versions algébriques de P et NP : sur un corps de caractéristique nulle, séparer P et NP dans le modèle BSS grâce à des problèmes NP "sans multiplication" implique de séparer P et NP dans le modèle de Valiant. Le second concerne la question "P=PSPACE ?" : après avoir défini un analogue de PSPACE dans les deux modèles algébriques, nous montrons que séparer P de PSPACE, sur les réels ou sur les complexes, est moins difficile dans le modèle de Valiant. Par ailleurs, et plus brièvement, nous étudions également la manipulation par machines de Turing de polynômes donnés par des circuits arithmétiques. En effet, encoder des polynômes de cette façon peut être bien plus court que la liste de tous les monômes. Mais l'étude de deux exemples (calculer le coefficient d'un monôme et calculer le degré d'un polynôme) montre qu'il semble difficile de manipuler des polynômes donnés de cette façon, même lorsqu'ils sont de degré polynomial et que l'on travaille sur un corps de caractéristique non nulle
In this thesis we are essentially interested in questions concerning algebraic complexity classes of decision problems and of evaluation problems. More precisely, we study on the one hand the model of Blum, Shub and Smale (BSS) for the recognition of languages over arbitrary structures thanks to algebraic circuits, and on the other hand the model of Valiant for the computation of polynomials thanks to arithmetic circuits. Our results show that in order to separate complexity classes, it is easier to work on evaluation problems, that is, in Valiant's model. This confirms our intuition that, the model being simpler (there are no test gates), lower bounds should be easier to obtain. In particular, we show two transfer results. The first concerns the algebraic versions of P and NP: over a field of characteristic zero, the separation of P and NP in BSS model thanks to problems in NP "without multiplication" implies the separation of P and NP in Valiant's model. The second concerns the question "P=PSPACE?": after defining analogues of PSPACE in both algebraic models, we show that separating P and PSPACE, over the reals or over the complex field, is easier in Valiant's model. More succinctly, we also study the manipulation by Turing machines of polynomials given by arithmetic circuits. Indeed, this way of encoding polynomials can be much shorter than the list of monomials. But the study of two examples (computing the coefficient of a monomial and computing the degree of a polynomial) shows that the manipulation of polynomials given by circuits is hard, even if their degree is polynomial and if we work over a field of positive characteristic
9

Macagno, Nicolas. "Biologie des tumeurs conjonctives de malignité intermédiaire : le modèle des tumeurs fibreuses solitaires méningées." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0650.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le concept de tumeur conjonctive de malignité intermédiaire a été introduit par les classifications proposées par l’organisation mondiale de la santé (OMS): la tumeur fibreuse solitaire, une néoplasie conjonctive rare, est un modèle intéressant pour cette problématique. L’objectif général de ces travaux était de mieux définir la biologie de ces tumeurs par une approche multimodale, intégrant histopathologie, immunohistochimie et biologie moléculaire afin d'affiner leur pronostic et diagnostic.D’un point de vue diagnostique, nos travaux ont confirmé les excellentes performances de l’immunohistochimie STAT6 et sa sensibilité supérieure par rapport à la RT-PCR ciblée. D’un point de vue pronostique, nous avons précisé les paramètres cliniques, histologiques et moléculaires qui impactent la survie des patients : l’état des limites d’exérèse, l’index mitotique et la nécrose sont déterminants, d’autant plus s’ils sont combinés. Ainsi, nous avons montré qu’une révision du grade MGS, basée sur une combinaison facteurs histologiques permettaient d’affiner le pronostic des formes méningées. Nos résultats suggèrent que l’ensemble du spectre est de malignité intermédiaire, dès lors que la durée de suivi est suffisante. Nos travaux ont aussi montré que le type de transcrit de fusion NAB2-STAT6 et les mutations du promoteur de TERT ne présentent pas de valeur pronostique.Ainsi, le diagnostic et le pronostic des tumeurs fibreuses solitaires méningées peut se baser sur des critères histologiques accessibles bien que leur évaluation pronostique ne soit pas encore complètement résolue
Mesenchymal neoplasms of intermediate malignancy were introduced by the World Health Or-ganization (WHO) classification of soft-tissue and bone tumors. This terminology accounts for a heterogeneous group of neoplasms, which common denominator is to fail usual prognostic approaches. Solitary fibrous tumor, a rare neoplasia, is an interesting model of such tumors with a potential for local recurrence and a low risk of metastasis. In this context, the main goal of this work was to define the biology of these neoplasms, using a multimodal approach. Considering their diagnosis, our work confirmed the excellent performance of STAT6 immunohistochemistry and its greater sensitivity compared to targeted RT-PCR. Considering the prognosis, we further specified the clinical, histological and molecular parameters that impact survival: surgical margin, mitotic index and necrosis. We revised the criteria of the Marseille Grading Scheme (MGS) accordingly, which resulted in high prognosis value for meningeal forms. Our results point that the whole spectrum is of intermediate malignancy as long as the follow-up is sufficient to allow detection of delayed adverse events. Our works also showed that the type of NAB2-STAT6 tran-script and the mutation of TERT promoter do not carry an independent prognostic value, albeit certain types of transcripts were associated with particular clinical and histological criteria. To conclude, the diagnosis and prognosis assessment of solitary fibrous tumors can be based on accessible histological criteria albeit their prognosis assessment is not fully satisfactory yet
10

Baumler, Raphaël. "La sécurité de marché et son modèle maritime : entre dynamiques du risque et complexité des parades : les difficultés pour construire la sécurité." Thesis, Evry-Val d'Essonne, 2009. http://www.theses.fr/2009EVRY0024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Modèles de développement, capitalisme et industrialisme sont de grandes dynamiques du risque par leur capacité à transformer le social. Au niveau des firmes, l’innovation continue et la concurrence obligent à l’ajustement permanent. Soumises aux propriétaires, les firmes se focalisent sur le risque financier. Les autres risques lui sont subordonnés. Les dynamiques internes du risque évoluent au rythme d’impératifs externes. La compétition justifie réductions de coûts et réorganisations déstabilisantes. La sécurité a pour objectif la limitation des conditions de réalisation des risques. Construction sociale complexe, la sécurité voit localement la fusion d’hommes, d’outils dans une organisation. Globalement, l’enjeu de la sécurité est la maîtrise du niveau de risque et son coût. Comme pour l’armateur du navire, la direction de l’unité possède les clés de la sécurité. Elle arbitre entre les budgets et joue la concurrence entre les territoires. En assurant l’impunité, l’équivalence et la non-discrimination, le droit international garantit une mise en concurrence de tous les États. Avec la Mondialisation, nous entrons dans l’ère de la sécurité de marché. La sécurité est vue comme un facteur de production. Dans la concurrence, les dirigeants l’intègrent dans leurs stratégies, notamment lors des choix d’implantation géographique et des répartitions budgétaires. En sélectionnant les participants, la direction produit une représentation univoque de la sécurité en phase avec ses paradigmes. La rénovation de la sécurité dans les unités productives se joue localement mais aussi globalement en découvrant les complexités des dynamiques du risque et de la construction de la sécurité
Models of development, capitalism and industrialism are also big dynamics of risk by their ability altering social world. At the level of firms, innovation and competition requires ongoing adjustment. Subject to their owners, companies focus on financial risk. Other risks are subordinate to the primary target. The dynamics of risk are changing the firm at the rate of external demands. The competition justifies harmful cost reductions and destabilizing re-engineering. The aim of safety is to reduce the uprising conditions of risk. Safety is a complex social building. Locally, safety seems a melt of man and tools within an organization. Overall, control of the safety is a challenge between risk and cost in the unit. Between cost and efficiency, management makes its own choice. As the shipowner and his vessel, the factory management has the keys to safety. It arbitrates between budgets and plays competition between territories. Ensuring impunity, equivalence and non-discrimination, international law guarantees competition between all States and flags. With globalization, we entered the era of the safety market. Safety is one of the production factors in global competition. Business leaders incorporate it into their overall strategies. With this factor in mind they choose their factories geographical location but also the allocation of budgets inside the firm. In selecting safety participants, the Executive create a unique picture of what safety is that corresponds to their paradigms. The rebuilding of safety in production units is played locally but also globally and by discovering the complexities of the dynamics of risk and the way of building safety
11

Roussel, Olivier. "Génération aléatoire de structures ordonnées par le modèle de Boltzmann." Paris 6, 2012. http://www.theses.fr/2012PA066282.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le domaine de la combinatoire, la génération aléatoire d’objets est un problème central relié à de nombreux aspects de la science combinatoire, que ce soit à l’énumération exacte ou asymptotique, ou à la vérification de conjectures. De nombreuses méthodes ont été proposées afin de résoudre efficacement ce problème, dont le modèle de Boltzmann. Ce modèle, au prix d’un contrôle moindre sur la taille des objets générés, assure les propriétés de complexité linéaire dans beaucoup de cas réels, et de facilité d’automatisation pour de larges classes d’objets. Cette thèse vise à étendre encore les classes d’objets combinatoires sur lesquelles ce modèle de Boltzmann peut s’appliquer, tout en conservant les propriétés d’efficacité et d’automatisation. La première partie est une étude des algorithmes de générations de Boltzmann existants, ainsi que de leur propriétés et leurs fondations mathématiques sous-jacentes. Dans une seconde partie, nous présentons notre idée de biaiser ces algorithmes pour étendre leur domaine de validité. Nous proposons une extension très générale, avant de l’appliquer à plusieurs opérateurs combinatoires tels que la dérivation, le produit de shuffle et l’opération de dépointage. Enfin, nous présentons un algorithme de génération uniforme pour le produit de Hadamard. Nous appuyons nos algorithmes et résultats par des exemples et données expérimentales illustrant le bien fondé de nos méthodes
Uniform random generation is a central issue in combinatorics. Indeed, random sampling is virtually connected to all parts of combinatorics, whether to exact or asymptotic enumeration, or to the experimental verification of conjectures. Various methods have been developed in order to efficiently solve that issue. Boltzmann model is among them. This method, relaxing some constraints about the size of the object being currently generated, ensures a linear complexity in many actual cases, and can easily be automatized for various combinatorial classes. This thesis aims at enlarging the set of such admissible classes, while keeping the nice properties of linear complexity and ease of automation. The first part is devoted to the presentation of the Boltzmann model and existing Boltzmann samplers, and the study of their properties and mathematical foundations. In the second part, we introduce our idea of biasing those samplers in order to enlarge their range of validity. Firstly, we present a general extension, and then specialize it to several combinatorial operations such as the derivation, the shuffle product or the unpointing operation. Finally, we present a uniform random sampler for the Hadamard product. We highlight our algorithms through this thesis with examples and experimental results, illustrating the efficiency of our methods
12

Stöcker, Jan. "Un modèle intermédiaire pour la vérification des systèmes asynchrones embarqués en temps réel : définition et application du langage ATLANTIF." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0084.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La validation des systèmes critiques réalistes nécessite d'être capable de modéliser et de vérifier formellement des données complexes, du parallélisme asynchrone, et du temps-réel simultanément. Des langages de haut-niveau ont une syntaxe concise et une grande expressivité pour représenter ces aspects. Cependant, ils disposent de peu d'outils logiciels permettant d'appliquer des algorithmes efficaces du model-checking. Néanmoins, de tels outils existent pour des modèles graphiques, de niveau plus bas, tels que les automates temporisés et les réseaux de Petri temporisés. Les modèles intermédiaires sont un moyen pour combler le fossé qui sépare les langages des modèles graphiques. Dans cette thèse, nous proposons un nouveau modèle nommé ATLANTIF, qui enrichit le modèle NTIF de constructions temps-réel et de compositions parallèles de processus séquentiels. Leur synchronisation est exprimée d'une manière simple et intuitive par la nouvelle notion de synchroniseur. Nous montrons qu'ATLANTIF est capable d'exprimer les constructions principales des langages de haut-niveau. Nous présentons aussi des traducteurs d'ATLANTIF vers des modèles graphiques. Ainsi, ATLANTIF étend la classe des systèmes qui peuvent en pratique être vérifiés formellement, ce que nous illustrons par un exemple
The validation of real-life critical systems raises the challenge of being able to formally model and verify complex data, synchronous concurrency, and real-time aspects simultaneously. High-Ievellanguages, such as those inheriting from the theoretical foundations of process algebras, provide a concise syntax and a high expressive power regarding these aspects. Yet, they lack software tools enabling the application of efficient model checking algorithms. On the other hand, such tools exist for graphical, lower level, models such as timed automata (e. G. , UPPAAL) and time Petri nets (e. G. , TINA). Intermediate models are a key to bridge the gap between languages and graphical models. For instance, NTIF (New Technology Intermediate Format) was proposed to represent untimed sequential processes that handle complex data. Ln this thesis, we propose a new model named ATLANTIF, which extends NTIF with real-time constructs and parallel compositions of sequential processes. Their synchronization is expressed in a simple and intuitive way using the new notion of synchronizers. We show that ATLANTIF is capable of expressing the main constructs of high-Ievellanguages. We also present translators from ATLANTIF to timed automata (for verification using UPPAAL) and to time Petri nets (for verification using TINA). Thus, ATLANTIF extends the class of systems that can practically be formally verified, which we iIIustrate along an example
13

Thual, Sulian. "Modèles réduits pour l'etude des mécanismes et de la modulation de l'oscillation australe El Niño." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00772756.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'Oscillation Australe El Niño (ENSO pour El Niño Southern Oscillation) est la fluctuation climatique la plus intense sur Terre après le cycle saisonnier. L'observation, la compréhension et la prévision de cette fluctuation aux retombées mondiales sont des enjeux scientifiques majeurs. Cette thèse documente divers aspects d'ENSO tels que ses mécanismes, sa modulation et sa prévision. Ces divers aspects sont abordés en développant une hiérarchie de modèles du Pacifique équatorial, de complexité croissante, qui s'étend de modèles conceptuels à une méthode d'assimilation de données dans un modèle de complexité intermédiaire. Nous étudions dans un premier temps les mécanismes de formation d'ENSO. Nous développons une dérivation alternative du modèle conceptuel de recharge/décharge où ENSO résulte d'un ajustement de la thermocline équatoriale à échelle de bassin. Nous implémentons par ailleurs un diagnostic original dans un modèle d'instabilités couplées équatoriales, ce qui met en avant un nouveau mécanisme de formation d'ENSO où les réflexions aux frontières océaniques jouent un rôle secondaire. La stratification moyenne de l'océan contribue à la modulation décenalle des caractéristiques d'ENSO. Cette relation est abordée dans un nouveau modèle réduit qui prend en compte les premiers modes baroclines d'un océan continûment stratifié. L'espace des solutions du modèle est exploré, indiquant un contrôle de la stabilité d'ENSO par les caractéristiques de la thermocline équatoriale. La sensibilité à la stratification au cours des dernières décennies est mise en perspective avec la sensibilité aux rétroactions thermodynamiques et atmosphériques. Nous soulignons en particulier certaines limitations des méthodes usuelles d'estimation de la rétroaction de thermocline dans le Pacifique central. Finalement, nous implémentons une méthode de Filtre de Kalman d'Ensemble dans un modèle intermédiaire du Pacifique équatorial déjà existant, afin d'assimiler des observations de niveau de la mer et d'initialiser des prévisions rétrospectives d'ENSO. Nous montrons que la contrainte majeure du modèle porte sur les modes de bassin qui sont associés au processus de recharge/décharge du Pacifique équatorial. Notre travail fournit un formalisme pour diagnostiquer la modulation des caractéristiques d'ENSO dans les observations, les prévisions et projections climatiques. Les résultats soutiennent la nécessité d'étendre la compréhension des mécanismes d'ENSO, afin de rendre compte de la diversité des régimes observés et d'améliorer les prévisions.
14

Faye, El Hadji Malick. "Complexité attributionnelle et exactitude des attributions : appréciation du modèle de perception du leadership en Afrique sub-saharienne." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1230/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose un test empirique du modèle d’attribution du leadership basé sur l’observation de dyades leader-subordonné au Sénégal et en France. Ce modèle se concentre sur des construits essentiels comme la complexité attributionnelle et l’exactitude des attributions des leaders, les comportements qui en résultent, les variables médiatrices comme la satisfaction des subordonnés, les stratégies correctives de la performance et les variables de résultat comme les perceptions du leadership. Le modèle est testé à l’aide de régressions hiérarchiques des effets directs et des effets médiateurs des attributions biaisées. Notre intention est de tester les relations à partir d’un échantillon d’auditeurs en formation continue de l’enseignement supérieur (au Sénégal et en France) et de déterminer selon notre modèle et nos hypothèses de recherche, quels construits contribuent le plus à expliquer la complexité attributionnelle des leaders. Cequi nous amène à étudier l’influence directe de l’exactitude des attributions, l’effet des stratégies correctives et de la satisfaction des subordonnés sur la perception du leadership. Nous testerons aussi le rôle des attributions biaisées sur les deux variables médiatrices. Les hypothèses sont fortement corroborées. La complexité attributionnelle des leaders est liée à l’exactitude de leurs attributions, telle qu’elle est perçue par leurs subordonnés. Les stratégies de correction de la performance élaborées par les leaders se sont révélées liées à des attributions exactes, puis à des variables clés de résultats. Nous analysons les résultats ainsi que les limites et les orientations futures de la recherche. Les contributionsmanagériales sont doubles : d'une part, de prendre en compte dans le processus de recrutement des leaders leur aptitude à adopter une approche attributionnelle complexe et, d'autre part, les former afin de mieux accompagner leurs subordonnés
This thesis proposes an empirical test of the leadership attribution model based on the observation of leader-subordinate dyads in Senegal and France. This model focuses on key constructs such as attributional complexity and leader attribution accuracy, resulting behaviors, mediating variables such as subordinate satisfaction, performance corrective strategies, and outcome variables such as leadership perceptions. The model is tested using hierarchical regressions of direct effects and mediating effects of biased allocations. Our intention is to test the relationships from a sample of auditors in continuingeducation of higher education (in Senegal and France) and to determine according to our model and our research hypotheses, which constructs contribute the most to explain the attributional complexity of the leaders. This leads us to study the direct influence of the accuracy of the attributions, the effect of the corrective strategies and the satisfaction of the subordinates on the perception of the leadership. We will also test the role of biased assignments on the two mediating variables. Hypotheses are strongly corroborated. The attributional complexity of leaders is linked to the accuracy of their attributions, as perceived by their subordinates. The performance correction strategies developed by leaders have beenlinked to accurate attribution and then to key outcome variables. We analyze the results as well as the limits and future directions of the research. The managerial contributions are twofold: on the one hand, to take into account in the process of recruiting leaders their ability to adopt a complex attributional approach and, on the other hand, to train them to better support their subordinates
15

Meunier, Pierre-etienne. "Les automates cellulaires en tant que modèle de complexités parallèles." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00770175.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The intended goal of this manuscript is to build bridges between two definitions of complexity. One of them, called the algorithmic complexity is well-known to any computer scientist as the difficulty of performing some task such as sorting or optimizing the outcome of some system. The other one, etymologically closer from the word "complexity" is about what happens when many parts of a system are interacting together. Just as cells in a living body, producers and consumers in some non-planned economies or mathematicians exchanging ideas to prove theorems. On the algorithmic side, the main objects that we are going to use are two models of computations, one called communication protocols, and the other one circuits. Communication protocols are found everywhere in our world, they are the basic stone of almost any human collaboration and achievement. The definition we are going to use of communication reflects exactly this idea of collaboration. Our other model, circuits, are basically combinations of logical gates put together with electrical wires carrying binary values, They are ubiquitous in our everyday life, they are how computers compute, how cell phones make calls, yet the most basic questions about them remain widely open, how to build the most efficient circuits computing a given function, How to prove that some function does not have a circuit of a given size, For all but the most basic computations, the question of whether they can be computed by a very small circuit is still open. On the other hand, our main object of study, cellular automata, is a prototype of our second definition of complexity. What "does" a cellular automaton is exactly this definition, making simple agents evolve with interaction with a small neighborhood. The theory of cellular automata is related to other fields of mathematics, such as dynamical systems, symbolic dynamics, and topology. Several uses of cellular automata have been suggested, ranging from the simple application of them as a model of other biological or physical phenomena, to the more general study in the theory of computation.
16

Söderberg, Joakim. "Modèle de Markov caché multidimensionnelle [sic] appliqué aux images et à l'analyse vidéo." Paris, ENST, 2007. http://www.theses.fr/2007ENST0002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès récents dans les domaines de la vision cognitive, des multimédia, de l interaction homme-machine, des communications et de l Internet sont un apport considérable pour la recherche qui profite à l imagerie et l analyse vidéo. Des systèmes adaptés et fiables sont nécessaires pour l analyse, l indexation et le résumé de grandes quantités de données audiovisuelles. Les méthodes traditionnelles de classification d images procèdent par analyse des blocs distincts d une image, ce qui aboutit à un formalisme non contextuel des caractéristiques visuelles. Les approches récentes tendent donc de plus en plus vers une vision globale de l image incluant sa structure et sa forme générale. Cette thèse est une approche statistique issue de l intelligence artificielle visant à une représentation séquentielle des données de l image. Cette représentation statistique permet l estimation, à la classification, et à la segmentation de l image. Nous utilisons un nouvel algorithme efficace représentant les images à l aide du modèle bidimensionnel de Markov caché (HMM). La principale difficulté à appliquer un 2-D HMM aux images est la complexité algorithmique qui s’accroît de façon exponentielle avec le nombre de segments d image. En conséquence, la contribution technique majeure de cette thèse est d estimer les paramètres d un 2­D HMM la complexité sera O(whN^2) au lieu de O(wN^2h) où N est le nombre d’états dans le modèle et (w,h) sont respectivement la largeur et la hauteur de l image. Nous démontrons que la formalisation DT HMM présente plusieurs possibilités d extensions, par une étude du segmentation d’image, classification et 3-D HMM
Recent progress and prospects in cognitive vision, multimedia, human-computer interaction, communications and the Web call for, and can profit from applications of advanced image and video analysis. Image classification is perhaps the most important part of digital image analysis. The objective is to identify and portray the visual features occurring in an image in terms of differentiated classes or themes. Traditional classification methods analyses independent blocks of an image, which results in a context-free formalism. However there is a fairly wide-spread agreement that observations should be presented as collections of features which appear in a given mutual position or shape. We therefore employ a new efficient algorithm that models context in images by a 2-D hidden Markov model (HMM). The difficulty with applying a 2-D HMM to images is the computational complexity which grows exponentially with the number of image blocks. The main technical contribution of this thesis is a way of estimating the parameters of a 2-D HMM in O(whN^2) complexity instead of O(wN^2h), where N is the number of states in the model and (w,h) is the width respectively height of the image. We investigate the performance of our proposed model (DT HMM) , and search for its point of operation. In an effort to introduce both global and local context in the model, the DT HMM was extended to multiple image resolutions. The results indicate that earlier recorded deficiency can be conquered and that its performance can be compared with other known algorithms. We finally demonstrate the versatility of the model by presenting applications such as; classification, segmentation and object tracking
17

Albert, Luc. "Quelques analyses de complexité en moyenne sur les algorithmes de multi-filtrage, d'unification et de requête multiple." Paris 11, 1990. http://www.theses.fr/1990PA112226.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette these est l'etude de la performance des algorithmes fondamentaux que sont le multi-filtrage dans les generateurs de systemes experts, les algorithmes d'unification de termes du premier ordre en programmation logique et les algorithmes de requetes multiples dans les bases de donnees. Notre approche est celle de la complexite en moyenne. En effet ces algorithmes ont en general une variation importante de complexite entre le cas le meilleur et le cas le pire. Nous effectuons notre analyse a l'aide principalement de la theorie combinatoire des series generatrices et de l'analyse asymptotique complexe pour l'approximation de leurs coefficients. Ceci nous permet d'obtenir des resultats avec differents modeles d'etude (notamment pour la distribution des donnees) et de confirmer, voire de proposer, des optimisations pour ces algorithmes. L'usage d'un outil de calcul formel a ete indispensable pour mener a bien nos calculs. Nous avons confronte a l'experimentation ces resultats theoriques sur un generateur de systemes experts temps reel et developpe un analyseur automatique de performance en moyenne pour systemes de regles de production
18

Savary, Aymerick. "Détection de vulnérabilités appliquée à la vérification de code intermédiaire de Java Card." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9584.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
19

Fine, Lionel. "Processus et méthodes d'adaptation et d'idéalisation de modèles dédiés à l'analyse de structures mécaniques." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Kibangou, Alain Y. "Modèles de volterra à complexité réduite : estimation paramétrique et application à l'égalisation des canaux de communication." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00190985.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une large classe de systèmes physiques peut être représentée à l'aide du modèle de Volterra. Il a notamment été montré que tout système non-linéaire, invariant dans le temps et à mémoire évanouissante peut être représenté par un modèle de Volterra de mémoire et d¤ordre finis. Ce modèle est donc particulièrement attrayant pour les besoins de modélisation et d'identification de systèmes non-linéaires. Un des atouts majeurs du modèle de Volterra est la linéarité par rapport à ses paramètres, c¤est à dire les coefficients de ses noyaux. Cette caractéristique permet d'étendre à ce modèle certains résultats établis pour l'identification des modèles linéaires. Il est à noter que le modèle de Volterra peut, par ailleurs, être vu comme une extension naturelle de la notion de réponse impulsionnelle des systèmes linéaires aux systèmes non-linéaires. Toutefois, certaines limitations sont à circonvenir: un nombre de paramètres qui peut être très élevé et un mauvais conditionnement de la matrice des moments de l'entrée intervenant dans l¤estimation du modèle au sens de l¤erreur quadratique moyenne minimale (EQMM). Il est à noter que ce mauvais conditionnement est aussi à l¤origine de la lenteur de convergence des algorithmes adaptatifs de type LMS (Least Mean Squares). Cette thèse traite principalement de ces deux questions. Les solutions apportées sont essentiellement basées sur la notion d'orthogonalité. D'une part, l'orthogonalité est envisagée vis à vis de la structure du modèle en développant les noyaux de Volterra sur une base orthogonale de fonctions rationnelles. Ce développement est d'autant plus parcimonieux que la base est bien choisie. Pour ce faire, nous avons développé de nouveaux outils d'optimisation des bases de Laguerre et BFOR (Base de Fonctions Orthonormales Rationnelles) pour la représentation des noyaux de Volterra. D'autre part, l'orthogonalité est envisagée en rapport avec les signaux d'entrée. En exploitant les propriétés statistiques de l¤entrée, des bases de polynômes orthogonaux multivariables ont été construites. Les paramètres du modèle de Volterra développé sur de telles bases sont alors estimés sans aucune inversion matricielle, ce qui simplifie significativement l¤estimation paramétrique au sens EQMM. L¤orthogonalisation des signaux d¤entrée a aussi été envisagée via une procédure de Gram-Schmidt. Dans un contexte adaptatif, il en résulte une accélération de la convergence des algorithmes de type LMS sans un surcoût de calcul excessif. Certains systèmes physiques peuvent être représentés à l¤aide d¤un modèle de Volterra simplifié, à faible complexité paramétrique, tel que le modèle de Hammerstein et celui de Wiener. C¤est le cas d¤un canal de communication représentant l'accès à un réseau sans fil via une fibre optique. Nous montrons notamment que les liaisons montante et descendante de ce canal peuvent respectivement être représentées par un modèle de Wiener et par un modèle de Hammerstein. Dans le cas mono-capteur, en utilisant un précodage de la séquence d'entrée, nous développons une solution permettant de réaliser l'estimation conjointe du canal de transmission et des symboles transmis de manière semiaveugle. Il est à noter que, dans le cas de la liaison montante, une configuration multi-capteurs peut aussi être envisagée. Pour une telle configuration, grâce à un précodage spécifique de la séquence d¤entrée, nous exploitons la diversité spatiale introduite par les capteurs et la diversité temporelle de sorte à obtenir une représentation tensorielle du signal reçu. En appliquant la technique de décomposition tensorielle dite PARAFAC, nous réalisons l'estimation conjointe du canal et des symboles émis de manière aveugle. Mots clés: Modélisation, Identification, Bases orthogonales, Base de Laguerre, Base de fonctions orthonormales rationnelles, Polynômes orthogonaux, Optimisation de pôles, Réduction de complexité, Egalisation, Modèle de Volterra, Modèle de Wiener, Modèle de Hammerstein, Décomposition PARAFAC.
21

Alhadeff-Jones, Michel. "Education, critique et complexité : modèle et expérience de conception d'une approche multiréférentielle de la critique en Sciences de l'éducation." Paris 8, 2007. http://www.theses.fr/2007PA082800.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Partant du constat de la diversité des conceptions de la critique développées dans le champ académique (critiques philosophiques, sociales, littéraires, esthétiques, etc. ) cette thèse vise à problématiser les présupposés à partir desquels cette notion est envisagée et fragmentée en Sciences de l'éducation. A partir d'une posture constructiviste complexe et multiréférentielle, deux perspectives sont proposées. D'abord une macro-conceptualisation des notions associées à l'idée de critique et une modélisation de leur organisation sont proposées (téléologie, écologie, ontologie, fonctiologie et généalogie de la critique). La prise en considération de l'implication biographique du chercheur est ensuite envisagée pour rendre compte de certains des apprentissages nécessaires pour conjuguer des conceptions hétérogènes de la critique. La démarche adoptée permet ainsi de repenser conjointement le développement de référentiels critiques pluriels et le développement de ceux qui les produisent
Taking as a starting point, the diversity of conceptions of critique developed in the academic field (in philosophy, sociology, literature, esthetics, etc. ) this thesis aims to reconsider the assumptions, which ground the understanding of this notion and the fragmentation of its study in Educational Sciences. Based on a constructivist, complex and multireferential epistemology, two perspectives are proposed. First, notions associated to the idea of critique are macro-conceptualized and organized through a model (teleology, ecology, ontology, fonctiology and genealogy of critique). Second, the biographical experience of the author is considered in order to make explicit the learning involved in the process of conjugating heterogeneous conceptions of critique. Such an approach provides a point of view allowing for a consideration of both the plural development of critical frames of thought and the development of those who participate in their production
22

Briquel, Irénée. "Complexité de problèmes de comptage, d'évaluation et de recherche de racines de polynômes." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00677977.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous cherchons à comparer la complexité booléenne classique et la complexité algébrique, en étudiant des problèmes sur les polynômes. Nous considérons les modèles de calcul algébriques de Valiant et de Blum, Shub et Smale (BSS). Pour étudier les classes de complexité algébriques, il est naturel de partir des résultats et des questions ouvertes dans le cas booléen, et de regarder ce qu'il en est dans le contexte algébrique. La comparaison des résultats obtenus dans ces deux domaines permet ainsi d'enrichir notre compréhension des deux théories. La première partie suit cette approche. En considérant un polynôme canoniquement associé à toute formule booléenne, nous obtenons un lien entre les questions de complexité booléenne sur la formule booléenne et les questions de complexité algébrique sur le polynôme. Nous avons étudié la complexité du calcul de ce polynôme dans le modèle de Valiant en fonction de la complexité de la formule booléenne, et avons obtenu des analogues algébriques à certains résultats booléens. Nous avons aussi pu utiliser des méthodes algébriques pour améliorer certains résultats booléens, en particulier de meilleures réductions de comptage. Une autre motivation aux modèles de calcul algébriques est d'offrir un cadre pour l'analyse d'algorithmes continus. La seconde partie suit cette approche. Nous sommes partis d'algorithmes nouveaux pour la recherche de zéros approchés d'un système de n polynômes complexes à n inconnues. Jusqu'à présent il s'agissait d'algorithmes pour le modèle BSS. Nous avons étudié l'implémentabilité de ces algorithmes sur un ordinateur booléen et proposons un algorithme booléen.
23

Parpaleix, Laure-Anne. "Le capital-investissement peut-il soutenir durablement la croissance des entreprises ? Etude, modèle et conditions d’un capital-régénération." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le capital-investissement parait jouer un rôle essentiel dans la croissance des entreprises. Pourtant les liens entre modèles d'investissement et croissance restent mal compris. De plus, depuis quelques années, les doutes s’accumulent sur la compatibilité entre valorisation financière et développement pérenne et vertueux des entreprises, en particulier matures. Centrée plus spécifiquement sur le cas des entreprises de taille intermédiaire (ETI), cette thèse montre qu’une forme de capital-investissement, que nous appelons le « capital-régénération », demande à être mieux conceptualisée pour favoriser les dynamiques de croissance soutenables et outiller les politiques publiques en matière de financement des entreprises. Le capital-régénération, contrairement à la segmentation classique du capital-investissement, est moins lié au stade de développement des entreprises qu’à la nature de la croissance visée. Au lieu de porter sur une augmentation des performances à partir des produits existants, la thèse met en évidence une autre forme de croissance dite « générative », liée à l’innovation et qui s’appuie sur la dynamique de régénération des produits et des ressources de l’entreprise. A partir d’une analyse des besoins en financement des ETI, ainsi que de cas approfondis issus du portefeuille de Bpifrance, la thèse montre que le déficit de croissance des ETI ne s’explique pas par un défaut de capital (« equity gap »), mais plutôt par un manque de valorisation de la croissance générative par les modèles d’investissement classiques. La thèse explore alors comment, en s’appuyant sur des données existantes, il est possible d’enrichir les analyses en intégrant les capacités d’innovation des entreprises et les promesses de retours sur des produits encore à concevoir. Sont alors discutés à la fois les principes mais aussi les risques et les conditions d’un capital-régénération. Ce modèle, tout en expliquant une partie des difficultés des ETI à croître, ouvre des perspectives nouvelles sur les liens entre théorie financière et théories de la conception
Private equity seems to play a key role in firms’ growth. However, the relationship between investment and growth remains poorly understood. Moreover, in recent years, doubts have arisen regarding the correlation between financial valuation and firms’ long-term and virtuous development - especially for mature firms. With a focus on French medium-sized companies (“ETI”), this thesis shows that a specific kind of private equity - that we propose to call “regeneration capital”- could be better conceptualized in order to support firms’ sustainable economic growth and to empower public policy with respect to corporate funding. Regeneration capital, unlike usual private equity asset class, is less related to the firm’s life cycle stage than to the nature of targeted growth. Rather than increasing the performance of existing products, this type of growth emerges from another growth dynamic, that we call “generative growth”, which results from the regeneration of the firm’s products and resources. Based on an analysis of the financial needs of medium-sized companies, as well as on an in-depth case study of medium-sized firms extracted from Bpifrance's investment portfolio, the thesis demonstrates that the growth shortage of medium-sized firms is not due to an equity gap. Empirical evidence rather suggests a lack of valuation of generative growth by traditional investment models. Drawing on existing data, the thesis hence investigates how investors’ financial analysis can be enhanced by integrating an assessment of firms’ innovation capabilities and of the return promises of yet unknown product to be developed. We then discuss the principles but also the risks and prerequisites of regeneration capital. This model not only explains part of medium-sized firms’ difficulties to grow but opens new perspectives on the relationship between corporate finance and design theories
24

Mathy, Fabien. "L' apprenabilité des concepts évaluée au moyen d'un modèle multi-agent de la complexité des communications en mémoire de travail." Reims, 2002. http://www.theses.fr/2002REIML007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie la compressibilité de l'information en mémoire de travail. L'objectif est de définir une métrique de la complexité communicationnelle. Dans le modèle multi-agent proposé, chaque agent représente le travail effectué par une unité de la mémoire de travail. Le modèle multi-agent simule un apprentissage coopératif des concepts basés sur des dimensions booléennes. L'objectif des agents est de passer d'une connaissance distribuée à une connaissance commune. Pour chaque concept appris, le modèle produit un protocole de communication inter-agents minimal indiquant le nombre d'agents requis (i. E. La complexité de Kolmogorov) et le nombre de fois que ces agents sont requis (i. E. La profondeur logique). 900 participants de 4 ans à l'âge adulte ont été soumis à des tâches de classification basées sur des règles en 2, 3 et 4 dimensions. Le calcul de la profondeur logique et l'ordonnancement des protocoles de communication dans un treillis de Galois ont été confirmés
This dissertation reports a study on the compressibility of information in working memory in order to define a metric of communicational complexity. In the multi-agent system described, the work of each agent represents that of a working memory unit. The multi-agent system cooperatively learns concepts based on Boolean dimensions. The objective of agents is to elaborate common knowledge from distributed one. The present model produces for each concept learned a minimal inter-agent communication protocol describing the processing load in working memory. Communication protocol complexity is seen as the result of two sources of complexity: the number of agents required (i. E. The Kolmogorov complexity) and the number of times these agents are used (i. E. Logical depth). 900 participants, from 4 years old to adulthood, completed rule-based classification tasks in 2, 3 and 4 dimensions. The computation of logical depth and the ordering of communication protocols in a lattice were confirmed
25

Camara, Baba Issa. "Complexité de dynamiques de modèles proie-prédateur avec diffusion et applications." Phd thesis, Université du Havre, 2009. http://tel.archives-ouvertes.fr/tel-00460361.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre de la modélisation des interactions entre hôtes et auxiliaires de lutte biologique. L'objectif principal est de faire l'analyse mathématique et la simulation numérique des modèles spatiotemporels construits. Il s'agit de déterminer la typologie et la catégorisation des structures spatiales émergentes en fonction des paramètres de contrôle. Nous considérons dans la première partie de la thèse, une chaîne alimentaire de deux espèces, c'est à dire une population de proies et une population de prédateurs modélisées par un système de réaction-diffusion. Nous étudions l'analyse qualitatives des solutions, les bifurcations globales et locales, et déterminons les conditions de variation spatiales et temporales des motifs. Nous démontrons l'existence de "Travelling waves" par les outils d'analyse fonctionnelle en généralisant la méthode développée par S. Ahmad. Une étude mathématique similaire est menée dans le cadre d'une chaîne alimentaire de trois espèces constituée d'une proie, d'un prédateur et d'un super-prédateur. Le dernier chapitre de cette thèse est consacré à la construction et l'étude d'un modèle mathématique de type réaction-diffusion de la thérapie génétique du cancer. Le modèle prend en considération à la fois la dynamique de la population des cellules cancéreuses, des virus réplicatifs et de la réponse immunitaire qui reconnait les antigènes viraux dans les cellules cancéreuses. Nous établissons les conditions de stabilité de l'état d'équilibre endémique et celui correspondant à l'élimination de la tumeur. Si la tumeur ne peut pas être complétement guérie, nous déterminons les conditions d'une thérapie optimale et estimons par simulation le temps de survie du patient.
26

Theyssier, Guillaume. "Automates cellulaires : un modèle de complexités." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2005. http://tel.archives-ouvertes.fr/tel-00166295.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions le modèle des automates cellulaires en adoptant successivement deux points de vue --celui des représentations syntaxiques locales puis celui des dynamiques globales-- et en cherchant à établir des liens entre eux par différentes approches ou outils --algébrique, combinatoire, et de la théorie de la calculabilité. Au cours de notre étude de la structure des règles de transition locales, nous introduisons une nouvelle classe d'automates (appelés automates cellulaires captifs) définie par une contrainte locale très simple. Nous établissons une loi 0-1 sur cette classe qui a pour corollaire que presque tous les automates cellulaires captifs sont intrinsèquement universels. En revanche, nous montrons qu'il est indécidable de savoir si un automate cellulaire captif est intrinsèquement universel ou pas. Dans une seconde partie, nous poursuivons l'étude des automates cellulaires en cherchant au contraire à nous affranchir le plus possible de leur représentation syntaxique pour insister sur leurs propriétés dynamiques globales. Notre problématique devient celle de la classification et de l'étude de notions de complexité selon ce point de vue global. L'outil fondamental est celui de simulation. Nous étendons les résultats de N. Ollinger sur les structures de pré-ordre (nouvelles relations de simulations et nouvelles propriétés induisant des structures d'idéal ou de filtre) et étudions également l'effet du produit cartésien sur ces structures. Nous établissons une construction qui peut s'interpréter comme un produit cartésien limite et nous permet d'exhiber des chaînes infinies croissantes de longueur omega+omega dans l'un des pré-ordres étudiés. Enfin, nous nous intéressons aux dynamiques séquentielles et aux automates cellulaires universels pour le calcul Turing. Nous construisons un treillis infini d'automates cellulaires Turing-universels qui sont tous à distance infinie de tout automate cellulaire intrinsèquement universel.
27

Hosny, Michel. "Tailles et contenus en (G + C) des génomes des glomales. Complexité du génome et polymorphisme des ADN ribosomiques chez une espèce-modèle : Scutellospora Castanea." Dijon, 1997. http://www.theses.fr/1997DIJOS045.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les champignons endomycorhizogènes a arbuscules (glomales, zygomycètes) sont des symbiotes racinaires obligatoires. Leur germination en conditions contrôlées est difficile ce qui limite les investigations. Ainsi, l'obtention d'un extrait fongique pur exige des précautions lors des manipulations. Nous avons mis au point une méthode permettant d'obtenir des spores pures à partir d'un tamisat de sol ; ce qui a ouvert la voie à l'expérimentation de leur génome à grande échelle. Une courbe de dénaturation (Tm) de l’ADN d'une espèce-modèle, Scutellospora Castanea, a été définie, permettant la mise en évidence d'un taux faible en G + C, égal a 32%, mais reflétant également une grande hétérogénéité de cet ADN. L'étude, par HPLC, d’ADN extrait de spores de 10 isolats de glomales a démontré une gamme de variation du contenu en G + C très faible, comprise entre 30 et 35%, avec notamment un taux assez élevé de méthylcytosine (MC), atteignant 4,26%. La cytométrie en flux a permis d'évaluer le contenu en ADN des noyaux de spores de 12 isolats de glomales, allant de 0,14 a 1,15 PG d'ADN/noyau. Un seul niveau de fluorescence a été observé et considéré comme égal a la valeur C. Cette méthode a aussi servi à évaluer le nombre de noyaux par spore de S. Castanea à 520. L’ADN de cette espèce purifié sur gradient de CSCI est composé de 8 à 10% d'ADNMT, et de deux autres fractions d’ADN nucléaire de même proportion. La courbe de réassociation de l’ADN de cette espèce a révélé 4 familles d’ADN répété, évoquant une organisation génomique assez complexe, mais surtout une longueur comparable à celle des eucaryotes supérieurs. Le nombre de copies des unités d'Adnr a été étudié chez 2 espèces ; il s'est révélé égal à 95 et 55. La construction d'une banque génomique représentative en phage embl3 a permis de rechercher des fragments d’ADN, dont la taille moyenne est voisine de 16 kb, et par la suite, de détecter du polymorphisme dans l’ADN ribosomique : tailles et unités sont différentes à l'intérieur de l'espèce. Ceci traduit sans doute un polyphylétisme (homoplasie) chez ces champignons, maintenant une hétérogénéité intra spécifique résultant probablement du mode particulier de propagation végétative de la structure cénocytique.
28

Charrier, Tristan. "Complexité théorique du raisonnement en logique épistémique dynamique et étude d’une approche symbolique." Thesis, Rennes 1, 2018. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/2a4b2a55-42ff-4768-9b9e-677421fef507.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions la complexité théorique de tâches de raisonnement mettant en jeu la connaissance des agents dans les systèmes multi-agents. Nous considérons la logique épistémique dynamique (DEL) comme une façon naturelle d'exprimer la connaissance, qui permet d'exprimer la connaissance d'ordre supérieur des agents et des actions dynamiques partiellement observées. Nous montrons des résultats de complexité algorithmique pour la vérification de modèles et la satisfiabilité de formules de DEL, et définissons une approche symbolique pour ces mêmes problèmes. Nous étudions également la planification basée sur DEL ainsi que des quantifications sur certaines actions : les annonces publiques
We study the theoretical complexity of reasoning tasks involving knowledge in multi-agent systems. We consider dynamic epistemic logic (DEL) as a natural way of expressing knowledge, which allows to express nested knowledge of agents and partially observed dynamic actions. We show complexity results for model checking and satisfiability of DEL formulas, and define a symbolic approach for these problems. We also study DEL-based planning and quantification over specific actions: public announcements
29

Le, Coze Jean-Christophe. "De l'investigation d'accident à l'évaluation de la sécurité industrielle : proposition d'un cadre interdisciplinaire (concepts, méthode, modèle)." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00636888.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose un cadre d'approche interdisciplinaire pour la sécurité industrielle. Celui-ci est explicité et illustré par l'intermédiaire de plusieurs étapes. La première, empirique, présente une investigation d'accident majeur. Il est montré d'une part que ce dernier peut s'appréhender à la lumière d'une articulation de différents points de vue disciplinaires (sciences de l'ingénieur, ergonomie, sociologie, gestion, juridique) qui éclairent des questions d'ordre technologique, de situation de travail, d'organisation (et de gestion) ainsi que de réglementation et de contrôle par les autorités. Le résultat obtenu n'entre dans aucune discipline spécifique et possède un caractère hybride, à la croisée de chemins. Ce cas d'accident interroge d'autre part la nature dynamique et événementielle, contingente et unique des accidents technologiques majeurs. Ces deux points, synthétisés dans une deuxième étape, entrainent vers une exploration de la complexité, sous l'angle philosophique. Cette notion de complexité, envisagée comme une 'méta-catégorie épistémique' dans une troisième étape, permet ainsi de déboucher sur la caractérisation d'un 'style' cognitif d'approche de la connaissance, indiquant la nécessité, dans la situation contemporaine des sciences, d'explorer des stratégies de recherche pluri, inter (voire trans)disciplinaire. A l'issue de cette exploration à la fois des disciplines et de la complexité, un modèle de sécurité industrielle est proposé. Cette quatrième étape conceptualise les liens entre plusieurs dimensions clés de la sécurité industrielle, prenant en compte de manière combinée l'intrication du technologique et du social. Enfin, dans la dernière étape, ce modèle est illustré par une étude de cas. Elle montre comment le modèle fournit concrètement une structuration pour la collecte et l'interprétation des données, qui reposent sur la mobilisation d'une approche par les incidents (exploitant la valeur heuristique de l'événement) et par le 'mode normal'.
30

Nicquevert, Bertrand. "Manager l'interface. Approche par la complexité du processus collaboratif de conception, d'intégration et de réalisation : modèle transactionnel de l'acteur d'interface et dynamique des espaces d'échanges." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00789791.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans de grands projets tels qu'accélérateurs ou détecteurs de particules, les interfaces et les frontières se révèlent à la fois critiques et sous-estimées. Le manageur technique, acteur parmi les autres, se trouve placé à des nœuds de réseau où il doit mettre en œuvre des espaces d'échanges afin de susciter des conduites collaboratives. À partir d'études de cas issus du terrain du CERN, la thèse adopte trois principes issus de la littérature de la complexité, les principes dialogique,hologrammique et d'auto-éco-organisation. Elle propose une construction méthodologique matricielleoriginale menant à l'élaboration d'un modèle transactionnel de l'acteur d'interface.L'espace d'échanges collaboratif devient le lieu où se déploie la dynamique de transformation del'acteur d'interface en acteur-frontière. Les objets intermédiaires élaborés lors du processus deconception / intégration y sont simultanément transformés en objets frontières, qui sont mobiliséspour la réalisation du produit dans le cadre récursivement déterminé du projet. L'intérêt d'uneapproche globale et couplée de cette dynamique des espaces d'échanges conduit à proposer un"hypercompas" afin d'orienter "l'agir ↔ penser" du manageur technique.
31

Lerat, Julien. "Quels apports hydrologiques pour les modèles hydrauliques ? : vers un modèle intégré de simulation des crues." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00392240.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles hydrauliques sont couramment utilisés pour l'aménagement des rivières et la prévention des dommages liés aux inondations. Ces modèles calculent les hauteurs d'eau et débits sur un tronçon de rivière à partir de sa géométrie et des conditions aux limites du système: débit à l'amont du tronçon, débits d'apports latéraux provenant du bassin intermédiaire et hauteurs d'eau à l'aval. Lorsque le tronçon est long, les apports latéraux deviennent conséquents tout en demeurant rarement mesurés car provenant d'affluents secondaires. L'évaluation de ces apports constitue alors une étape essentielle dans la simulation des crues sous peine de fortes sous ou surestimations des variables hydrauliques. Cette thèse a pour objectif principal d'identifier une méthode de complexité minimale permettant de reconstituer ces apports. Nos travaux s'appuient sur un échantillon de 50 tronçons de rivière situés en France et aux Etats-Unis sur lesquels les apports latéraux ont été estimés à l'aide d'un modèle hydrologique semi-distribué connecté avec un modèle hydraulique simplifié.

Une méthode automatisée de découpage du bassin intermédiaire en sous-bassins a d'abord été élaborée afin de faciliter la construction du modèle hydrologique sur les 50 tronçons de rivière. Des tests de sensibilité ont été menés sur le nombre de sous-bassins, la nature uniforme ou distribuée des entrées de pluie et des paramètres du modèle hydrologique. Une configuration à 4 sous-bassins présentant des pluies et des paramètres uniformes s'est avérée la plus performante sur l'ensemble de l'échantillon.

Enfin, une méthode alternative de calcul des apports latéraux a été proposée utilisant une transposition du débit mesuré à l'amont et une combinaison avec le modèle hydrologique.
32

Goncalves, de Oliveira Eraci. "Membre articulé : modèle anatomique de l'automotricité dans le De motu animalium d'Aristote : un opérateur de la pensée de l'immanence." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01H233/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La présente thèse se propose de réfléchir sur le caractère cinétique de la méthode analogique adopté dans le De motu animalium d’Aristote. En considèrant que l'objet du traité est la cause commune du mouvement et qu'Aristote en adopte une solution du type paradigmatique, d'une manière générale l'automotricité est le thème pendant que le membre articulé est le phore dans le raisonnement analogique du DMA. Nous considérons hypothétiquement que les stratégies plastiques sont le fil conducteur du raisonnement suivi par la recherche de la cause commune de la motricité pour tout mouvement. Notre double objectif général est, d’une part de tirer les acquis philosophiques sur le caractère immanent du principe du mouvement de la recherche menée dans le DMA et, d’autre part de percevoir le caractère cinétique et plastique de sa démarche, qui comporte des procédés méthodologiques dynamiques dans le but de s’adapter à l’objet. Ce que nous faisons en deux pas : premièrement par l’analyse des étapes de l’établissement du paradigme du membre articulé ; et en suite par l’analyse de l’analogie entre le membre articulé et l’automotricité animée. Les deux analyses visent saisir des éléments pour confronter les deux termes de l'analogie et vérifier la validité de toute la thèse et de la considération selon laquelle, la méthode analogique est un l'instrument plastique de la pensée de l'immanence
This thesis proposes to reflect on the kinetic character of the analogical method adopted in De Motu Animalium of Aristotle. Considering that the object of the treatise is the common cause of the movement of animais, in general, automotricity is the "thème" while the articulated member is the ''phore" in De Motu's analogical reasoning. Hypothetically we consider that the plastic strategies of the analogical method of De motu are the guiding thread of the reasoning undertaken in the research on the common cause of the motility of ail animal movements. Our general double aim is: on the one hand, to take philosophical acquisitions on the immanent character of the principle of movement, and on the other hand, to grasp the kinetic and plastic character of this philosophical enterprise, which involves dynamic methodological procedures in view of the adaptation of the method to the object. We seek to achieve these objectives through two analyses: first, the analysis of the stages of the establishment of the articulated member paradigm (AMP), and then the analysis of the main analogy of the treatise, between the articulated limb and the animated automotricity. Through the two analyses we must gather the necessary elements to confront the two tenns of the main analogy, as well as to verify the general validity of the thesis and also the consideration according to which the analogical method of De Motu Animalium is a plastic instrument of the thought of immanence
33

Mermet, Eric. "Aide à l'exploration des propriétés structurelles d'un réseau de transport : conception d'un modèle pour l'analyse, la visualisation et l'exploration d'un réseau de transport." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un réseau de transport est un objet géographique complexe possédant plusieurs dimensions : géométrique, topologique, métrique et relationnelle. À partir de ces dimensions, il est possible d'effectuer une analyse se situant entre l'analyse descriptive des composantes issues des bases de données et l'analyse fonctionnelle reposant sur des paramètres anthropiques. Cette analyse dite structurelle permet de mettre en évidence certaines propriétés du réseau sans contexte d'usage. Elle est basée sur la construction et l'analyse d'indicateurs basés sur les relations proposées par le réseau : les indicateurs relationnels. Ils mettent en évidence ses potentialités relationnelles ; c'est à dire en quoi celui-ci par sa structure etl'organisation spatiale et topologique de ses composantes prédispose à la mise en relation plus ou moins aisée de lieux de l'espace. Notre travail consiste en la conception d'un modèle pour l'analyse et l'exploration des propriétés structurelles d'un réseau de transport. Ce type d'analyse engendre une complexité combinatoire liée au nombre de relations sur le réseau, une complexité algorithmique liée aux calculs des indicateurs et une complexité visuelle liée à la difficulté de mettre en valeur des informations. Le modèle proposé vise à faciliter à l'utilisateur l'analyse exploratoire des propriétés structurelles du réseau par la création de cartes exploratoires. Notre modèle comprend deux parties. La première permet de réaliser des cartes statiques d'exploration. La seconde permet la combinaison visuelle de cartes en s'appuyant sur un langage graphique. Les deux aspects du modèle ont été développés dans un prototype logiciel baptisé GeoGraphLab
A transportation network is a complex spatial system characterized by four dimension types : geometric, topological, metric and relational. Thanks to these dimensions, it is possible to perform analysis situated in between the descriptive analysis of components from databases and functional analysis based on anthropogenic parameters. This analysis called structural helps to emphasize some properties of the network without usage context. It is established on the construction and analysis of indicators based on the relationship generated by the network: the relational indicators. They highlight their relational possibilities ; ie how their structure and spatial organization and topology of their components predispose to connect places in space in more or less easy way. Our work consists of designing a model for analysis and exploration of the structural properties of a transportation network. This type of analysis leads to a combinatorial complexity related to the number of relationships within the network, algorithmic complexity related to the calculation of indicators and visual complexity related to the difficulty to emphasize information. The proposed model aims to supply the user with the exploratory analysis of structural properties of the network by creating exploratory maps. Our model is composed of two parts. The first one allows to prepare static maps of exploration. The second one enables the visual combination of maps based on a graphic language. Both aspects of the model were developed in a prototype software called GeoGraphLab
34

Batina, Jean de Dieu. "Une nouvelle approche du développement économique des pays d'Afrique noire au regard du modèle des pays du sud-est asiatique." Paris 2, 2006. http://www.theses.fr/2006PA020035.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les pays à revenu intermédiaire (PRI) d'Afrique Noire ont à ce jour échoué dans leur politique de développement malgré leurs importantes ressources naturelles, principalement à cause de l'instabilité politique et sociale et de modèles économiques reposant essentiellement sur la commercialisation des produits primaires (faible valeur ajoutée, faibles avantages comparatifs). Les nouveaux pays industrialisés (NPI) d'Asie du Sud-Est faiblement dotés en ressources naturelles ont réussi leur décollage économique grâce à une certaine stabilité politique et à un modèle extraverti d'exportations de produits manufacturés et de remontée de filière basé sur l'exploitation des avantages comparatifs. L'objet de cette thèse, à travers une première partie consacrée aux bases du développement (stabilité politique, formation, infrastructures. . . ), une deuxième partie aux moteurs de la croissance (épargne/investissement, exportations. . . ) et une troisième partie au financement et aux stratégies de développement, est de démontrer qu'un modèle de développement inspiré de l'exemple asiatique mais adapté aux propres spécificités des PRI d'Afrique Noire peut permettre à ces pays de se développer. La stratégie industrielle des créneaux porteurs que nous préconisons dans cette thèse, vise à faire des PRI d'Afrique Noire, des leaders industriels sur deux ou trois niches de produits ou services à valeur ajoutée sur les marchés sous-régionaux, puis mondiaux sur lesquels ils disposent d'avantages comparatifs en termes de position géostratégique et de ressources naturelles.
35

Marin, Pérez José Aramis. "La construction de la valeur en entrepreneuriat social : proposition d’un modèle pour la conception d’une valeur globale." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0285/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous nous intéressons à comprendre comment les entrepreneurs sociaux créent de la valeur. Notre objectif est de modéliser le processus de création de valeur que nous avons observé sur un projet de circuits courts à travers d’une méthodologie de recherche intervention. La sociologie de la traduction et l’analyse de discours ont été mobilisés pour rendre compte de la complexité dans la définition, la perception et le partage de la valeur du dit projet d’entreprise social. Nous voulons démontrer que la création de valeur dans l'entrepreneuriat social est un processus de traduction interactif, dynamique et complexe, parmi une multitude des visions et représentations sur la satisfaction des besoins, propres à chaque partie prenante, qui vont toucher ne pas seulement au domaine de la conception, réalisation et valorisation de l’activité économique, mais aussi leurs répercussions dans le domaine social et environnemental. Nous avons observé que les entrepreneurs sociaux construisent la valeur de leur projet en repérant un besoin social, ou en s’engageant dans une idéale de société, qu’ils vont incorporer à son échelle personnelle des valeurs, fruit d’un contexte et d’une histoire particulière. Cette appropriation va déterminer l’intentionnalité de leur action entrepreneuriale dont la pérennité dépendra du soutien du réseau et de la cohérence globale de l’organisation elle-même. Nous avons proposé donc, au niveau terrain l’amélioration d’un outil heuristique pour accompagner la création de valeur, et au niveau théorique un cadre pour comprendre l’agir des entrepreneurs et la perception de leurs parties prenantes
In this thesis, we are interested in understanding how social entrepreneurs create value. Our goal is to model the process of value creation that we observed on a short supply chain project through an action research methodology. The sociology of translation and discourse analysis have been used to take into account the complexity of the definition, the perception and the process of sharing the value of a social enterprise project. We want to demonstrate that value creation in social entrepreneurship is an interactive, dynamic and complex translation process. It takes into account a multitude of visions and representations on the satisfaction of the needs of each stakeholder that will affect not only the design and the implementation of economic activity, but also their social and environmental impact. We have observed that social entrepreneurs construct the value of their project by identifying a social need, or by committing themselves to a societal ideal that they will incorporate into their values on a personal scale. This adoption process will determine the intentionality of their entrepreneurial action, the sustainability of which will depend on the support of their network and the overall coherence of the organization itself. We therefore proposed, at the field level, the improvement of a heuristic tool to support value creation and, at the theoretical level, a framework for understanding social entrepreneurship based on the actions of entrepreneurs and the perception of their stakeholders
36

Maurer, Karine. "Étude rhéologique et texturale de dispersions alimentaires : essai de quantification de leur complexité structurale au moyen du concept de géométrie fractale." Vandoeuvre-les-Nancy, INPL, 1996. http://docnum.univ-lorraine.fr/public/INPL_T_1996_MAURER_K.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Sur le plan sensoriel, les dispersions alimentaires sont caractérisées par des propriétés telles que l'onctuosité et le caractère lisse. Ce sont des matériaux complexes, souvent hétérogènes. Leur procédé de fabrication est difficile à maitriser et la mesure de leurs propriétés rhéologiques est délicate. Il apparait donc nécessaire de mettre au point des méthodes d'observation de la complexité de cette catégorie de produits alimentaires. Dans un premier temps, on a caractérisé des dispersions modèles de type fromages frais et des dispersions commerciales par des mesures de viscoélasticité, d'écoulement et de quantification sensorielle. Dans un deuxième temps, des méthodes faisant appel au concept de géométrie fractale et d'analyse de Fourier ont été mises au point pour quantifier leur complexité structurale. Enfin, des corrélations statistiques ont été établies entre les propriétés structurales, rhéologiques et sensorielles de ces dispersions. Il est apparu, notamment, que les caractères mous, adhérent et gras étaient respectivement corrélés à la contrainte d'extrusion capillaire, au seuil d'écoulement statique et à la teneur en matière grasse. La méthode d'extrusion capillaire associée au concept de géométrie fractale et d'analyse de Fourier s'est révélée particulièrement intéressante pour quantifier les relations entre la fermeté, la rugosité et le degré d'agrégation de dispersions alimentaires grâce à l'exploitation mathématique des profils en extrusion. Le caractère lisse est apparu comme très complexe. Il est relié non seulement à d'autres perceptions de la texture comme l'homogénéité, la fermeté, ou l'onctuosité mais aussi à la dimension fractale apparente des profils et exclusion
37

Alirol, Servane. "Etude génétique du complexe synaptique lié au récepteur NMDA et caractérisation de modèles à complexité variable dans l'autisme." Thesis, Tours, 2015. http://www.theses.fr/2015TOUR3303/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'autisme est un trouble du développement du système nerveux central défini par des altérations des interactions sociales et de la communication, et par des comportements restreints et répétitifs. Sa prévalence est actuellement évaluée jusqu'à 1% dans la population générale. L'autisme est caractérisé par une grande hétérogénéité sur les plans phénotypiques et génétiques. À ce jour, plus de 300 gènes candidats ont été caractérisés soit par des variations du nombre de copies (CNV) et/ou des variations nucléotidiques (SNV). Leur identification a permis de mettre en évidence une contribution significative de mutation de novo, ainsi que l'implication de voies physiopathologiques cibles, en particulier la densité post-synaptique (PSD)
Autism is a developmental disorder of the central nervous system defined by impairments in social interaction and communication, and by restricted and repetitive behavior. Its prevalence is currently estimated at around 1% in the general population. Autism is characterized by a wide heterogeneity at both phenotypic and genetic level. To date, more than 300 candidate genes were characterized either by copy number variations (CNV) and/or nucleotide variations (SNV). Their identification has highlighted a significant contribution of de novo mutations, as well as the involvement of targeted pathophysiological pathways, particularly post-synaptic density (PSD)
38

Lecoeuvre, Laurence. "Le marketing de projet en situation Business to Business : Etudes de cas et proposition d'un modèle dynamique d'évaluation et de suivi." Phd thesis, Ecole Centrale Paris, 2005. http://tel.archives-ouvertes.fr/tel-00270114.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche a pour objet d'expliciter le marketing de projet dans ses environnements et sa complexité, de mieux comprendre les phénomènes liés à cette activité et, en particulier, les actions propices au processus de marketing de projet, et à son développement au sein du secteur de Business to Business.
Six variables - actions déterminantes dans l'avancée du processus de marketing de projet sont mises en avant, ainsi que les ressources internes et externes à mobiliser en fonction des quatre phases de marketing de projet : le marketing hors projet, le marketing en amont du projet, le marketing dans le projet et le marketing hors projet du prochain projet.
Une modélisation du processus de marketing de projet est proposée, qui non seulement permet d'en circonscrire la signification et la valeur, mais aussi en suscite l'opérationnalité.
Le travail mené ici est de type exploratoire. Il est en particulier basé sur l'analyse de trois cas d'entreprises, et est caractérisé par une construction progressive et itérative, avec de constants allers et retours entre l'empirique et le théorique.
39

Zotkiewicz, Mateusz. "Robust routing optimization in resilient networks : Polyhedral model and complexity issues." Thesis, Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les grands réseaux de transport, certains éléments du réseau peuvent être responsables du traitement d’importants volumes de trafic. Cela rend ces réseaux vulnérables aux pannes telles que les coupures de câbles. Des mécanismes appropriés pour le recouvrement du trafic doivent être mis en oeuvre pour éviter les ruptures de service. Une des meilleures techniques pour protéger les réseaux de transport consiste à prévoir des mécanismes de restauration au niveau de la couche transport elle-même afin que chaque opérateur de transport puisse sécuriser son propre réseau et offrir un service de transport fiable aux autres acteurs tels que les opérateurs IP. D’autres mécanismes de protection pourront alors être déployés aux niveaux supérieurs sans interférences avec la restauration au niveau transport. Outre les pannes pouvant touchers ses composantes, un réseau doit aussi faire face à l’incertitude de la matrice de trafic qu’on chercher à acheminer dans le réseau. Cette incertitude est une conséquence de la multiplication des applications et services faisant appel au réseau. La mobilité des usagers ainsi que les pannes touchant le réseau contribuent également à cette incertitude. La thèse se découpe donc en deux parties. Dans la première partie, nous nous intéressons à la complexité des différents mécanismes de sécurisation des réseaux. Dans la seconde partie, nous nous intéressons à l’incertitude de la matrice de trafic et notamment au modèle polyédrique
In the thesis robust routing design problems in resilient networks are considered. In the first part computational complexity of such problems are discussed. The following cases are considered: - path protection and path restoration - failure-dependent and failure-independent restoration - cases with and without stub-release - single-link failures and multiple-link failures (shared risk link group) - non-bifurcated (unsplittable) flows and bifurcated flows For each of the related optimization cases a mixed-integer (in the non-bifurcated cases) or linear programming formulation (in all bifurcated cases) is presented, and their computational complexity is investigated. For the NP-hard cases original NP-hardness proofs are provided, while for the polynomial cases compact linear programming formulations (which prove the polynomiality in the question) are discussed. Moreover, pricing problems related to each of the considered NP-hard problems are discussed. The second part of the thesis deals with various routing strategies in networks where the uncertainty issues are modeled using the polyhedral model. In such networks two extrema are possible. The simplest in terms of implementation, and simultaneously the least effective strategy, is the robust stable routing. On the other hand, the most effective strategy, i.e., the dynamic routing, is virtually impossible to implement in real world networks. Therefore, the major aim of this part of the thesis is to present novel routing strategies that merge the simplicity of the robust stable routing with the efficiency of the dynamic routing
40

Andrianandraina. "Approche d'éco-conception basée sur la combinaison de l'analyse de cycle de vie et de l'analyse de sensibilité : Cas d'application sur le cycle de vie du matériau d'isolation thermique biosourcé, le béton de chanvre." Ecole centrale de Nantes, 2014. http://www.theses.fr/2014ECDN0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail de thèse est d’établir une méthode d’éco-conception basée sur l’Analyse de Cycle de Vie, qui doit permettre d’identifier des leviers d’actions environnementaux propres à chacun des différents acteurs économiques intervenant dans le cycle de vie d’un produit. L’Analyse de Cycle de Vie a été couplée avec deux méthodes d’analyse de sensibilité, suivant cinq étapes décrites dans le mémoire : (i) la définition des objectifs et du système, (ii) la modélisation du calcul de l’inventaire et des indicateurs d’impacts avec des approches différenciées en premier et arrière-plan, (iii) la caractérisation des paramètres utilisés avec unetypologie définie selon les possibilités d’action de l’acteur économique concerné, (iv) la réalisation successive de deux méthodes d’analyse de sensibilité (Morris et Sobol) sur le modèle défini, (v) l’interprétation des résultats en vue de proposer des pistes efficaces d’amélioration. L’approche établie a été appliquée au cycle de vie du béton de chanvre, avec l’étude des étapes de production agricole, de transformation des fibres de chanvre et d’utilisation du béton de chanvre comme isolant thermique dans le bâtiment. L’approche permet d’identifier des scénarios technologiques potentiels, permettant d’améliorer les performances environnementales, pour chacun des acteurs du cycle de vie du produit. Mettre en oeuvre cette approche actuellement nécessite un surcroît d’informations, mais présente un gain à long terme car elle permet d’effectuer des choix robustes pour un produit donné
The purpose of this PhD thesis is to establish an ecodesign method based on Life Cycle Assessment, that should allow identifying action levers specific for each economic actor of the life cycle of a product, for improved environmental performances. Life Cycle Assessment was coupled with two methods of sensitivity analysis in five steps: (i) definition of objectives and system, (ii) modeling calculation of inventory and impact indicators with different approaches according to foreground and background sub-systems, (iii) characterization of parameters using a typology specific to possibilities of control of the considered economic actor, (iv) application of two sensitivity analysis methods (Morris and Sobol) and (v) results interpretation in order to identify potential efficient improvements. The approach was applied on the hemp concrete insulation product, including agricultural production, industrial transformation of hemp fibers, and use of hemp concrete as a thermal insulator for buildings. The approach provides potential technological scenarios improving environmental performances for each single economic actor of the product’s life cycle. Performing the method presently requires additional information, but will probably be paid back in the future by driving more robust choices for a given product
41

Rissons, Michel. "Incidence de la complexité du milieu physique et des lois de comportement sur la réponse hydrologique d'un bassin versant : modèle de représentation et de dynamique : application au bassin de la Peyne." Montpellier 2, 1995. http://www.theses.fr/1995MON20114.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Grente, Theo. "Caractérisation et programmation en théorie des langages et en logique des classes de complexité efficace des automates cellulaires." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC214.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les automates cellulaires constituent le modèle de calcul parallèle et local par excellence.Comme pour tout modèle du parallélisme, leur programmation est réputée difficile. La puissance de calcul des automates cellulaires, modèle le plus simple du parallélisme, est attestée par le fait que nombre de problèmes significatifs sont calculés en temps minimal, appelé temps-réel, surautomate cellulaire.Principal résultat de cette thèse, on démontre des liens exacts (des équivalences) entre d’un côté la complexité descriptive, essentiellement la définissabilité en logique du second ordre existentiel sur des formules de Horn, de l’autre les classes de complexité en temps-réel des automates cellulaires.Au-delà de cette caractérisation en logique de la complexité en temps minimal, la thèse établit une méthode de programmation parallèle. Cette méthode consiste dans un premier temps à programmer dans nos logiques de Horn l’induction résolvant un problème, puis dans un secondtemps, à appliquer un processus automatique aboutissant au programme de l’automate cellulaire résolvant le problème. Pour justifier l’intérêt de la méthode, la thèse présente un ensemble de programmes logiques pour une variété représentative de problèmes classiques connus pour êtrecalculables en temps-réel sur automates cellulaires.Par ailleurs, toujours en passant par nos logiques, on prouve divers résultats liant le temps-réel des automates cellulaires et les grammaires formelles. Typiquement, tout langage généré par une grammaire algébrique et, plus généralement, une grammaire conjonctive d’Okhotin, est reconnu en temps-réel sur un automate cellulaire de dimension 2
Cellular automata constitute the model of parallel and local computation by excellence.As for any model of parallelism, their programming is known to be difficult. The computingpower of cellular automata, the simplest model of parallelism, is attested by the fact that manysignificant problems are computed in minimal time, called real-time, on cellular automata.The main result of this thesis is the demonstration of exact links (equivalences) between, on onehand, the descriptive complexity, essentially the definability in existential second order logic on Horn formulas, and, on the other hand, the real-time complexity classes of cellular automata.Beyond this characterization in logic of the complexity in minimal time, the thesis establishes a method of parallel programming. This method consists first of all in programming in our Horn ogics the induction solving a problem, then in a second step, in applying an automatic process leading to the program of the cellular automaton solving the problem. To justify the interest of the method, the thesis presents a set of logic programs for a representative variety of classical problems known to be computable in real-time on cellular automata.In addition, we prove various results linking the real time of cellular automata and formal grammars. Typically, any language generated by an algebraic grammar and, more generally, an Okhotin conjunctive grammar, is recognized in real-time on a 2-dimensional cellular automaton
43

Pellerin, Jeanne. "Prise en compte de la complexité géométrique des modèles structuraux dans des méthodes de maillage fondées sur le diagramme de Voronoï." Phd thesis, Université de Lorraine, 2014. http://tel.archives-ouvertes.fr/tel-01005722.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Selon la méthode utilisée pour construire un modèle structural en trois dimensions et selon l'application à laquelle il est destiné, son maillage, en d'autres termes sa représentation informatique, doit être adapté afin de respecter des critères de type, de nombre et de qualité de ses éléments. Les méthodes de maillage développées dans d'autres domaines que la géomodélisation ne permettent pas de modifier le modèle d'entrée. Ceci est souhaitable en géomodélisation afin de mieux contrôler le nombre d'éléments du maillage et leur qualité. L'objectif de cette thèse est de développer des méthodes de maillage permettant de remplir ces objectifs afin de gérer la complexité géométrique des modèles structuraux définis par frontières. Premièrement, une analyse des sources de complexité géométrique dans ces modèles est proposée. Les mesures développées constituent une première étape dans la définition d'outils permettant la comparaison objective de différents modèles et aident à caractériser précisément les zones plus compliquées à mailler dans un modèle. Ensuite, des méthodes originales de remaillage surfacique et de maillage volumique fondées sur l'utilisation des diagrammes de Voronoï sont proposées. Les fondements de ces deux méthodes sont identiques : (1) une optimisation de type Voronoï barycentrique est utilisée pour globalement obtenir un nombre contrôlé d'éléments de bonne qualité et (2) des considérations combinatoires permettant de construire localement le maillage final, éventuellement en modifiant le modèle initial. La méthode de remaillage surfacique est automatique et permet de simplifier un modèle à une résolution donnée. L'originalité de la méthode de maillage volumique est que les éléments générés sont de types différents. Des prismes et pyramides sont utilisés pour remplir les zones très fines du modèle, tandis que le reste du modèle est rempli avec des tétraèdres.
44

Braccini, Vivien. "Ingénieries de formation à visée autonomisante et émancipatrice : vers un modèle d'association apprenante : une recherche-action dans le réseau associatif des petits débrouillards." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAG040/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde la formation et l'accompagnement des acteurs de l'Education Populaire. L'enjeu est de stabiliser la qualité des services des associations, malgré les rapides évolutions de l’environnement. Le postulat d'une nécessaire continuité entre le projet associatif, la démarche éducative et la formation interne, nous a orientés vers une démarche de recherche-action. La récursivité des analyses, a conduit à interroger les conditions d'utilisation du modèle de l'apprenance (Carré 2005), inspiré par le capitalisme cognitif. Il en ressort un cadre éthique qui a orienté le développement d'un modèle d'association apprenante, intégrant un outil de gestion de la fonction « apprendre » inspiré des ingénieries de formation à visée autonomisante (Poisson 2009). Cette thèse propose en outre une réflexion épistémologique et la méthodologique sur la recherche-action qui conduit à établir des liens entre ses conditions de pratique et l'émergence de l'association apprenante
This dissertation deals with the training and support of personnel in a not-for-profit association involved in education. At stake is the stabilization of the quality of their activities in order to perpetuate both their projects and their on-going operation. The author postulates a necessary continuity between the culture of the association – marked by its approach to education – and its in-house training. This continuity has led to the adoption of an action-research approach. The recursive analysis of the activities have led to a transposition of Carré’s (2005) “learning” model and produced an ethical framework which guided the design of a multidisciplinary learning model for associations. This model includes a tool adapted from instructional design, aimed at learner empowerment (Poisson 2009). The epistemological and methodological reflection aims at shedding light on action research and links its conditions for success to the emergence of associations as learning organizations
45

LEVI, Flora. "Etude de l'impact de l'algue envahissante Caulerpa taxifolia sur les peuplements de poissons. Etude approfondie sur une espèce « modèle » : Symphodus ocellatus (Labridae)." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00006063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous avons étudié les mécanismes d'impact de l'algue envahissante Caulerpa taxifolia (Vahl) C. Agardh sur les poissons en Méditerranée, en particulier à l'aide d'une étude approfondie sur une espèce « modèle » : Symphodus ocellatus (Forsskål). Un suivi des peuplements de poissons ainsi que des expérimentations in situ ont été réalisés au niveau du département des Alpes-Maritimes, sur des milieux colonisés par l'algue et des milieux témoins. Caulerpa taxifolia qui forme des prairies de frondes très denses et hautes, de la fin de l'été jusqu'au début de l'hiver, représente une gêne physique pour l'accès à la nourriture benthique et aux microhabitats. Le suivi de deux récifs artificiels crées in situ a montré que l'envasement et l'obstruction de cavités par C. taxifolia diminuent la capacité d'accueil d'un milieu rocheux pour la faune ichtyologique. La raréfaction d'abris convenables mène à une augmentation de la mortalité des petits individus par prédation. L'étude de contenus digestifs ainsi que des acides gras corporels chez S. ocellatus montre un changement de régime alimentaire sur les milieux envahis (augmentation de la consommation de plancton au détriment des proies benthiques). En aquarium, nous avons montré que l'accessibilité aux proies benthiques diminue avec la densification de l'algue. Nous avons observé in situ que C. taxifolia pose également le problème de l'accès et de la détection des proies benthiques pour les rougets de roche Mullus surmuletus. Sur les milieux colonisés, le bilan énergétique global se traduit par des déficits de 21% dans le contenu lipidique corporel chez les jeunes S. ocellatus et de 59% dans les lipides de stockage du foie ainsi que par un déficit pondéral au niveau du foie et des ovaires chez les femelles reproductrices. Cependant, la qualité des œufs n'est pas affectée. Par ailleurs, in situ, les toxines de C. taxifolia n'ont pas d'influence sur le succès de développement embryonnaire de S. ocellatus.
46

Briquel, Irénée. "Complexity issues in counting, polynomial evaluation and zero finding." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00665782.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In the present thesis, we try to compare the classical boolean complexity with the algebraic complexity, by studying problems related to polynomials. We consider the algebraic models from Valiant and from Blum, Shub and Smale (BSS). To study the algebraic complexity classes, one can start from results and open questions from the boolean case, and look at their translation in the algebraic context. The comparison of the results obtained in the two settings will then boost our understanding of both complexity theories. The first part follows this framework. By considering a polynomial canonically associated to a boolean formula, we get a link between boolean complexity issues on the formula and algebraic complexity problems on the polynomial. We studied the complexity of computing the polynomial in Valiant's model, as a function of the complexity of the boolean formula. We found algebraic counterparts to some boolean results. Along the way, we could also use some algebraic methods to improve boolean results, in particular by getting better counting reductions. Another motivation for algebraic models of computation is to offer an elegant framework to the study of numerical algorithms. The second part of this thesis follows this approach. We started from new algorithms for the search of approximate zeros of complex systems of n polynomials in n variables. Up to now, those were BSS machine algorithms. We studied the implementation of these algorithms on digital computers, and propose an algorithm using floating arithmetic for this problem.
47

Kerbrat, Alain. "Méthodes symboliques pour la vérification de processus communicants : étude et mise en oeuvre." Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00005100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur la vérification formelle de programmes parallèles. Parmi les méthodes habituellement utilisées, nous nous intéressons aux méthodes basées sur la construction d'un modèle du programme à vérifier; la vérification proprement dite s'effectue sur ce modèle. Cette approche est limitée par l'explosion de la taille du modèle, dès que le programme traite est de complexité réaliste. Notre but est l'étude et la mise en œuvre de techniques permettant d'effectuer la vérification malgré cette explosion. Les techniques que nous présentons sont liées par une caractéristique commune : l'utilisation de méthodes symboliques de représentation du modèle. Nous étudions en premier lieu des techniques de réduction de modèles. Ces réductions s'opèrent par rapport à des relations d'équivalence basées sur la notion de bisimulation. Nous étudions en particulier un algorithme de minimisation de modèle pendant sa génération (Génération de Modèle Minimal). Dans une seconde partie, nous nous intéressons a deux techniques symboliques de représentation de modèles. Il s'agit d'une part de Graphes de Décision Binaires, qui permettent la manipulation efficace de formules booléennes, et d'autre part de systèmes d'inéquations linéaires, connus sous le nom de polyèdres convexes, pour la manipulation de variables entières. L'utilisation de ces techniques permet de représenter et manipuler des modèles de taille souvent prohibitive pour des méthodes énumératives classiques. Nous présentons la mise en œuvre de méthodes de comparaison et réduction de modèles aves les Graphes de Décision Binaires, avec en particulier l'algorithme de Génération de Modèle Minimal. L'application de l'outil correspondant à plusieurs exemples de programmes LOTOS a permis de montrer l'intérêt, mais aussi les limites de l'utilisation de cette représentation symbolique. Enfin, nous présentons une méthode d'analyse statique de protocoles, basée sur l'utilisation des polyèdres convexes. Cette analyse permet le calcul d'approximations supérieures d'invariants du programme et de vérifier la véracité de propriétés définies en termes de variables du programme.
48

Duong, Trong Vinh. "On the hydro-mechanical behavior of ancient railway flatforms in term of reinforcement by soil-mixing." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1106/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent travail porte sur le comportement des plates-formes ferroviaires anciennes en France. Tout d'abord, une étude statistique a été menée sur les problèmes survenus dans l'ensemble du réseau ferroviaire français. L'analyse montre l'importance particulière de la qualité du sol support pour la performance de la sous-structure et pour la tenue géométrique des voies. Ensuite, une ligne ferroviaire ancienne située à l'Ouest de la France a été étudiée spécifiquement. Les analyses montrent que la vitesse de dégradation de cette ligne est en corrélation avec les différents paramètres tels que la nature de sol support, l'épaisseur des couches de la sous-structure. Une tendance d'augmentation de la vitesse de dégradation avec la diminution de l'épaisseur de la couche intermédiaire est identifiée. Cette couche as un impact positif puisqu'elle réduit les contraintes appliquées au sol support. Le comportement hydromécanique du sol de la couche intermédiaire dans des conditions différentes (teneur en eau, teneur en particules fines, charge, nombre de cycles) a été étudié. Des essais triaxiaux et des essais de colonne d'infiltration ont été réalisés à cette fin. En analysant les propriétés de résistance au cisaillement, la déformation axiale permanente et le module réversible, on a constaté que les effets de la teneur en eau et de la teneur en fines doivent être pris en compte ensemble. Une augmentation de teneur en fines dans la couche intermédiaire présente un impact positif à l'état non saturé grâce à l'effet de la succion, mais un impact négatif à l'état saturé. Les essais de colonne d'infiltration avec des cycles de séchage/humidification ont montré que la conductivité hydraulique du sol est gouvernée par la fraction de fines et qu'elle ne change pas significativement avec la teneur en fines. Afin d'étudier les mécanismes de la création de la couche intermédiaire et de remontée boueuse, un modèle physique de 550 mm de diamètre intérieur a été développé. Des échantillons de sol qui représentent la sous-structure ferroviaire ancienne avec une couche de ballast posée sur une couche de limon artificielle (mélange de sable concassé et du kaolin) ont été testés. Les effets des charges monotones et cycliques, de la teneur en eau et de la masse volumique sèche du sol support ont été étudiés. Il a été constaté que la pression interstitielle développée dans le sol support et la rigidité du sol support sont des facteurs clés pour la migration des particules fines ou la création de la couche intermédiaire/la remontée boueuse. L'eau est la condition nécessaire, mais c'est la compressibilité du sol support qui gouverne le phénomène à se produire
The present work deals with the behavior of ancient railway sub-structure in France. A statistical study was firstly undertaken on problems occurred in the whole ancient French railway network. The analysis evidenced the particular importance of sub-grade quality for the performance of the sub-structure and the track geometry. Afterwards, an ancient railway line in the West of France was investigated. The analysis showed that the degradation speed of this line was correlated with different parameters such as the nature of sub-grades and the thickness of different layers. An increase trend of degradation speed with the increase in interlayer thickness was identified. The interlayer has a positive impact since it reduces the train-induced stress applied to the sub-grade. The hydro-mechanical behavior of interlayer soil under different conditions (water content, fines content, stress, number of cycles) was investigated. A set of triaxial tests and infiltration tests were performed for this purpose. By analyzing the shear strength properties, the permanent axial strain and the resilient modulus of interlayer soil, we found that the water content and the fines content must be considered together. Adding more fines into the interlayer presents a positive impact under unsaturated conditions thanks to the suction effect, but a negative impact under saturated conditions. The infiltration column tests with drying/wetting cycles showed that the hydraulic conductivity of interlayer soil is governed by fines fraction but did not change significantly with fines content. In order to study the mechanism of interlayer creation and mud pumping, a physical model of 550 mm inner diameter was developed. Soil samples representing the ancient French railway substructure with a ballast layer overlying an artificial silt layer (mixture of crushed sand and kaolin were tested. The effects of monotonic and cyclic loadings, water content and dry unit mass of sub-soil were investigated. It was found that the pore water pressure developed in the sub-soil and the sub-soil stiffness are the key factors for the migration of fine particles or the creation of interlayer/mud pumping. Water is the necessary condition, but it is the soil compressibility that governs the phenomenon to occur
49

Cabon, Bertrand. "Problèmes d'optimisation combinatoire : évaluation de méthodes de la physique statistique." Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous abordons dans cette thèse trois approches pour la résolution de problèmes combinatoires difficiles. Nous montrons comment les méthodes du Recuit Simulé et de l'Approximation de Champ Moyen, issues de la Physique Statistique, peuvent être utilisées pour résoudre des problèmes d'optimisation discrète. Nous présentons également, dans le cadre CSP (Constraint Satisfaction Problems), des méthodes exactes de résolution sur le principe du "Branch and Bound". Les comportements de ces approches sont comparés sur différents problèmes combinatoires difficiles tels que le recalage d'images satellites, le problème d'allocation de f'équences radio, ou des problèmes CSP aléatoires. Enfin, nous montrons comment la méthode du Champ Moyen peut accélérer une méthode de type Branch and Bound en lui fournissant une bonne affectation initiale et deux heuristiques d'ordonnancement des variables et des valeurs. Nous présentons des résultats expérimentaux sur des problèmes CSP générés aléatoirement.
50

Matoussi, Oumaima. "Native simulation of MPSoC : instrumentation and modeling of non-functional aspects." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM075/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes embarqués modernes intègrent des dizaines, voire des centaines, de cœurs sur une même puce communiquant à travers des réseaux sur puce, afin de répondre aux exigences de performances édictées par le marché. On parle de systèmes massivement multi-cœurs ou systèmes many-cœurs. La complexité de ces systèmes fait de l’exploration de l’espace de conception architecturale, de la co-vérification du matériel et du logiciel, ainsi que de l’estimation de performance, un vrai défi. Cette complexité est généralement com-pensée par la flexibilité du logiciel embarqué. La dominance du logiciel dans ces architectures nécessite de commencer le développement et la vérification du matériel et du logiciel dès les premières étapes du flot de conception, bien avant d’avoir accès à un prototype matériel.Ainsi, il faut disposer d’un modèle abstrait qui reproduit le comportement de la puce cible en un temps raisonnable. Un tel modèle est connu sous le nom de plateforme virtuelle ou de simulation. L’exécution du logiciel sur une telle plateforme est couramment effectuée au moyen d’un simulateur de jeu d’instruction (ISS). Ce type de simulateur, basé sur l’interprétation des instructions une à une, est malheureusement caractérisé par une vitesse de simulation très lente, qui ne fait qu’empirer par l’augmentation du nombre de cœurs.La simulation native est considérée comme une candidate adéquate pour réduire le temps de simulation des systèmes many-cœurs. Le principe de la simulation native est de compiler puis exécuter la quasi totalité de la pile logicielle directement sur la machine hôte tout en communiquant avec des modèles réalistes des composants matériels de l’architecture cible, permettant ainsi de raccourcir les temps de simulation. La simulation native est beau-coup plus rapide qu’un ISS mais elle ne prend pas en compte les aspects non-fonctionnels,tel que le temps d’exécution, dépendant de l’architecture matérielle réelle, ce qui empêche de faire des estimations de performance du logiciel.Ceci dresse le contexte des travaux menés dans cette thèse qui se focalisent sur la simulation native et s’articulent autour de deux contributions majeures. La première s’attaque à l’introduction d’informations non-fonctionnelles dans la représentation intermédiaire (IR)du compilateur. L’insertion précise de telles informations dans le modèle fonctionnel est réalisée grâce à un algorithme dont l’objectif est de trouver des correspondances entre le code binaire cible et le code IR tout en tenant compte des optimisations faites par le compilateur. La deuxième contribution s’intéresse à la modélisation d’un cache d’instruction et d’un tampon d’instruction d’une architecture VLIW pour générer des estimations de performance précises.Ainsi, la plateforme de simulation native associée à des modèles de performance précis et à une technique d’annotation efficace permet, malgré son haut niveau d’abstraction, non seulement de vérifier le bon fonctionnement du logiciel mais aussi de fournir des estimations de performances précises en des temps de simulation raisonnables
Modern embedded systems are endowed with a high level of parallelism and significantprocessing capabilities as they integrate hundreds of cores on a single chip communicatingthrough network on chip. The complexity of these systems and their dedicated softwareshould not be an excuse for long design cycles, even though the design space is enormousand the underlying design decisions are critical. Thus, design space exploration, hard-ware/software co-verification and performance estimation need to be conducted within areasonable amount of time and early enough in the design process to avoid any tardy de-tection of functional or performance deficiencies.Co-simulation platforms are becoming an increasingly important part in design and ver-ification steps. With instruction interpretation-based software simulation platforms beingtoo slow as they model low-level details of the target system, an alternative software sim-ulation approach known as native simulation or host-compiled simulation has gained mo-mentum this past decade. Native simulation consists of compiling the embedded softwareto the host binary format and executing it directly on the host machine. However, this tech-nique fails to reflect the performance of the embedded software and its actual interactionwith the target hardware. So, the speedup gained by native simulation comes at a price,which is the absence of non-functional information (such as time and energy) needed for es-timating the performance of the entire system and ensuring its proper functioning. Withoutsuch information, native simulation approaches are limited to functional validation.Yielding accurate estimates entails the integration of high-level abstract models thatmimic the behavior of target-specific micro-architectural components in the simulation plat-form and the accurate placement of the obtained non-functional information in the high-level code. Back-annotating non-functional information at the right place requires a map-ping between the binary instructions and the high-level code statements, which can be chal-lenging particularly when compiler optimizations are enabled.In this thesis, we propose an annotation framework working at the compiler interme-diate representation level to accurately annotate performance metrics extracted from thebinary code, thanks to a dedicated mapping algorithm. This mapping algorithm is furtherenhanced to deal with aggressive compiler optimizations, such as loop unrolling, that radi-cally alter the structure of the code. Our target architecture being a VLIW processor, we alsomodel at a high level its instruction buffer to faithfully reproduce its timing behavior.The experiments we conducted to validate our mapping algorithm and component mod-els yielded accurate results and high simulation speed compared to a cycle accurate ISS ofthe target platform

До бібліографії