To see the other types of publications on this topic, follow the link: Cadre logique.

Dissertations / Theses on the topic 'Cadre logique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Cadre logique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Aubry, Geoffroy. "Un cadre logique pour la génération d'arguments." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2005. http://tel.archives-ouvertes.fr/tel-00632496.

Full text
Abstract:
L'idée de l'argumentation est de rechercher dans une base de connaissances, pour chaque proposition dont on souhaite évaluer la validité, les raisons qui étayent cette proposition et celles qui l'infirment. Un argument est alors entendu comme une paire comprenant une proposition et les raisons qui la justifient. Notre propos est d'offrir des outils formels pour la génération automatique d'arguments par deux agents en situation de dialogue. Ces outils reposent sur les X-logiques, formalisme non-monotone proposé en 1996 par Siegel et Forget et déterminant un cadre fondateur autour de la notion de preuve pour le raisonnement non-monotone. En particulier l'ensemble X servant à paramétrer la relation d'inférence confère une souplesse inégalée à la gestion dynamique des arguments. Après un tour d'horizon des travaux passés en matière de représentations logiques pour l'argumentation, nous introduisons les X-logiques, à partir desquelles est composée la notion d'attitude d'un agent par rapport à une formule. Nous définissons ensuite des opérateurs de confrontation qui permettent d'associer des ensembles de formules aux attitudes d'un agent. Le concept de réponse d'un agent à un ensemble de formules est alors élaboré en tant que motivation de l'attitude de cet agent vis-à-vis de l'ensemble en question. Plusieurs formes de réponses sont distinguées parmi lesquelles les notions de réponse pertinente ou encore de mensonge. Une réponse représente les raisons qui justifient la conclusion d'un argument : c'est à partir du calcul de ces réponses que nous exhibons une procédure de génération automatique d'arguments. Enfin nous montrons que notre cadre argumentatif permet de générer les contre-arguments conservatifs maximaux de Besnard et Hunter (2001), arguments retenus pour leur pertinence.
APA, Harvard, Vancouver, ISO, and other styles
2

CODOGNET, CHRISTIAN. "Backtracking intelligent en programmation logique : un cadre général." Paris 7, 1989. http://www.theses.fr/1989PA077183.

Full text
Abstract:
Ce travail propose un cadre formel general pour l'etude de backtracking intelligent en programmation logique. On expose d'abord un algorithme d'unification etendue permettant de connaitre l'historique des liaisons en associant un graphe a un systeme d'equations. L'unifiabilite de celui-ci se caracterise par des proprietes simples de ce graphe. En particulier, on peut determiner les causes de non-unifiabilite. L'exploitation de cette information est a la base du schema de backtracking intelligent presente ensuite. Celui-ci procede de trois alternatives: ordre partiel ou total sur les nuds de l'arbre de preuve, analyse plus ou moins fine des causes de non-unifiabilite, generation parallele ou sequentielle des points de backtracking. On etablit la completude des calculs intelligents que ce schema definit par rapport aux calculs exhaustifs comparables. On retrouve comme instances particulieres du schema les differentes methodes existantes. On s'interesse alors a l'instance la plus proche de prolog, c'est-a-dire celle qui utilise un ordre total (lexicographique), une analyse sommaire de non-unifiabilite et une generation sequentielle des points de backtracking, la conjonction de ces choix engendrant des simplifications importantes. Finalement, cette methode est encore simplifiee en vue d'une implementation, aux depens de l'intelligence du backtracking cette fois-ci
APA, Harvard, Vancouver, ISO, and other styles
3

Vittek, Marian. "Elan : un cadre logique pour le prototypage de langages de programmation avec contraintes." Nancy 1, 1994. http://www.theses.fr/1994NAN10372.

Full text
Abstract:
La thèse décrit l'étude et l'implantation du langage ELAN qui permet de spécifier, sur une base uniforme de systèmes de calcul, différents langages de programmation logique et différents résolveurs de contraintes. ELAN est basé sur l'idée que la sémantique opérationnelle de langages de programmation logique dans le sens général du terme et la résolution de contraintes peuvent être décrites d'une façon uniforme en donnant la syntaxe des formules, l'ensemble des axiomes et l'ensemble des règles de déduction. Les deux processus peuvent être vus comme l'instance du meme schéma d'application des règles de réécriture (de déduction) sur des formules, suivant une stratégie permettant l'obtention d'une forme spéciale. La logique de réécriture, introduite par Jose Meseguer, peut être ainsi utilisée pour coder différentes logiques intéressantes. Afin de pouvoir spécifier des procédures de résolution, la thèse présente une notion de stratégie, obtenant ainsi des systèmes de calcul. Un système de calcul est alors défini par une signature décrivant la syntaxe, un ensemble de règles de réécriture définissant le mécanisme de déduction et une stratégie qui guide l'application des règles. La thèse décrit également l'implantation d'ELAN et quelques exemples de procédures de résolution réalises avec cette implantation, en particulier la sld-resolution, la surréduction, la surréduction basique, la surréduction paresseuse et l'unification syntaxique et commutative
APA, Harvard, Vancouver, ISO, and other styles
4

Drissi, Talbi Abdenbi. "Cadre multi-niveaux de programmation logique et orientée objet : étude, extensions et réalisation." Rouen, 1996. http://www.theses.fr/1996ROUES033.

Full text
Abstract:
Cette thèse propose un cadre de programmation hybride fondé sur la programmation logique (PL) et la programmation orientée objet (POO), et étendu par la résolution des contraintes linéaires en nombres naturels. Le langage LOP associé à ce cadre offre une programmation pouvant être statique ou dynamique, déclarative ou procédurale. Le système proposé se compose d'une hiérarchie à trois niveaux de programmation permettant une fusion progressive et non limitative de la PL et de la POO. Chacun de ces niveaux privilégie une facette du mariage de ces deux paradigmes. Le niveau de base, appelé NPO, propose une programmation par objets logiques statiques. Il préserve les avantages de la programmation en Prolog pur, tout en améliorant la structuration des programmes. Le second niveau, appelé NP1, est une extension de NPO par des aspects dynamiques de la POO adaptés à l'esprit de la programmation déclarative. NP1 propose une programmation à la fois dynamique et déclarative par objets logiques multi-états et par méthodes logiques multi-définitions. Le dernier niveau, appelé NP2, intègre des mécanismes de programmation qui sortent du cadre déclaratif fixe au niveau NP1. D'une part, il complète NP1 par des mécanismes de contrôle, nécessaire à la réalisation d'un grand nombre d'applications. D'autre part, il intègre un nouveau modèle de simulation discrète orientée processus, ou les calculs temporels et la gestion des processus sont effectués par un solveur de contraintes. Le langage LOP et son interpréteur sont entièrement conçus par objets et implantés en clos.
APA, Harvard, Vancouver, ISO, and other styles
5

Brunet, Olivier. "Etude de la connaissance dans le cadre d'observations partielles : la logique de l'observation." Université Joseph Fourier (Grenoble), 2002. http://www.theses.fr/2002GRE10129.

Full text
Abstract:
On s'intéresse à la connaissance que l'on peut avoir d'un système en se basant uniquement sur des observations que l'on peut en faire et où certaines informations peuvent rester cachées. On peut structurer ces observations en comparant leur contenu et la quantité d'informations qu'elles fournissent, pour obtenir ce que nous nommons des représentations. On peut de plus étudier les relations existant entre les différentes façons d'observer un même système, pour obtenir certaines fonctions reliant les représentations entre elles. Avec ce formalisme, on se livre à une étude logique du comportement de l'information pour cette approche. Le premier résultat est que l'on se base sur la logique intuitionniste, puisque les propositions que l'on considère expriment des connaissances sûres, et que l'ajout d'information n'en modifie pas la véracité. On étend cette logique en utilisant des opérateurs "modaux" pour symboliser les différentes façons d'observer le système et exprimer le fait qu'une information est accesible ou non depuis le point de vue correspondant. Suivant les contraintes que l'on impose, on obtient plusieurs comportements de ces opérateurs dont découlent plusieurs logiques proches de la logique nommée IS4. Le postulat de base utilisé (on étudie un système en l'observant) est très général. Or, notre étude montre que cela impose une logique relativement faible, puisque ni le tiers-exclus, ni l'axiome modal 5 ne sont vérifiés, et ne peuvent l'être même en ajoutant des hypothèses. Cela signifie que seuls les éléments que l'on manipule, soit les résultats d'observations, sont importants. On est donc obligé de raisonner de façon constructive à partir de ceux-ci et la non observation d'un fait ne permet pas d'en déduire sa négation. Ainsi, les seuls éléments dont il faut tenir compte dans l'observation et l'étude de la nature sont les observations que l'on en fait et toute connaissance s'obtient de façon strictement déductive à partir de celle-ci.
APA, Harvard, Vancouver, ISO, and other styles
6

Hazan, Aurélien. "Interaction robot/environnement dans le cadre de la psychologie éco logique. Implémentation des affordances." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00259445.

Full text
Abstract:
Comment un robot peut-il estimer si une tâche est réalisable ou pas dans un envi ronnement donné ? De nombreux travaux en robotique s'appuient pour répondre sur les affordances de la psychologie écologique. Apprendre quelles sont les actions permises nécessite selon nous d'apprendre les relations de dépendances locales et globales entre capteurs et effecteurs au cours de l'action.
Pour cela nous assimilons le robot à un réseau sensorimoteur aléatoire, et pour représenter son activité nous introduisons des mesures de dépendance probabilist es et statistiques. Celles-ci nous permettent de construire des matrices, graphes et complexes simpliciaux aléatoires dont nous étudions les propriétés spectrales, topologiques et homologiques.
Puis nous vérifions expérimentalement l'intérêt des outils proposés à l'aide d'un robot mobile simulé, autour de la capacité de pousser les objets de l'environnement, dans le cadre de tâches de classification supervisée et non supervisée.
APA, Harvard, Vancouver, ISO, and other styles
7

Legastelois, Bénédicte. "Extension pondérée des logiques modales dans le cadre des croyances graduelles." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066516/document.

Full text
Abstract:
Dans le domaine de la modélisation du raisonnement, plusieurs approches se basent sur les logiques modales qui permettent de formaliser le raisonnement sur des éléments non factuels, comme la croyance, le savoir ou encore la nécessité. Une extension pondérées de ces logiques modales permet de moduler les éléments non factuels qu'elle décrit. En particulier, nous nous intéressons à l'extension pondérée des logiques modales qui permet de formaliser des croyances graduelles : nous traitons des aspects sémantiques et axiomatiques ainsi que des aspects syntaxiques liés à la manipulations de telles croyances modulées. Ainsi, les travaux de cette thèse sont organisés en trois parties. Nous proposons, d'une part, une sémantique proportionnelle qui étend la sémantique de Kripke classiquement utilisée pour les logiques modales ; ainsi qu'une étude des axiomes modaux dans le contexte de cette sémantique des modalités pondérées. D'autre part, nous proposons un modèle ensembliste flou pour représenter et manipuler des degrés de croyances. Enfin, nous mettons en œuvre ces modèles théoriques dans deux applications : un outil de vérification de formules modales pondérées et un joueur artificiel pour le jeu coopératif Hanabi dont la prise de décision repose sur un raisonnement sur ses propres croyances
In the field of reasoning models, many approaches are based on modal logics, which allow to formalise the non-factual reasoning, as belief, knowledge or necessity reasoning. A weighted extension for these modal logics aims at modulating the considered non-factual elements. In particular, we examine the weighted extension of modal logics for graded beliefs: we study their semantical and axiomatical issues related to manipulating such modulated beliefs. Therefore, this thesis works are organised in three parts. We first propose a proportional semantics which extends the Kripke semantics, classically used for modal logics. We also study modal axioms regarding the proposed semantics. Then, we propose a fuzzy set model for representing and manipulating belief degrees. We finally use these two formal models in two different applications: a model checking tool for weighted modal formulae and an artifical player for a cooperative game called Hanabi in which decision making is based on graded belief reasoning
APA, Harvard, Vancouver, ISO, and other styles
8

Legastelois, Bénédicte. "Extension pondérée des logiques modales dans le cadre des croyances graduelles." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066516.

Full text
Abstract:
Dans le domaine de la modélisation du raisonnement, plusieurs approches se basent sur les logiques modales qui permettent de formaliser le raisonnement sur des éléments non factuels, comme la croyance, le savoir ou encore la nécessité. Une extension pondérées de ces logiques modales permet de moduler les éléments non factuels qu'elle décrit. En particulier, nous nous intéressons à l'extension pondérée des logiques modales qui permet de formaliser des croyances graduelles : nous traitons des aspects sémantiques et axiomatiques ainsi que des aspects syntaxiques liés à la manipulations de telles croyances modulées. Ainsi, les travaux de cette thèse sont organisés en trois parties. Nous proposons, d'une part, une sémantique proportionnelle qui étend la sémantique de Kripke classiquement utilisée pour les logiques modales ; ainsi qu'une étude des axiomes modaux dans le contexte de cette sémantique des modalités pondérées. D'autre part, nous proposons un modèle ensembliste flou pour représenter et manipuler des degrés de croyances. Enfin, nous mettons en œuvre ces modèles théoriques dans deux applications : un outil de vérification de formules modales pondérées et un joueur artificiel pour le jeu coopératif Hanabi dont la prise de décision repose sur un raisonnement sur ses propres croyances
In the field of reasoning models, many approaches are based on modal logics, which allow to formalise the non-factual reasoning, as belief, knowledge or necessity reasoning. A weighted extension for these modal logics aims at modulating the considered non-factual elements. In particular, we examine the weighted extension of modal logics for graded beliefs: we study their semantical and axiomatical issues related to manipulating such modulated beliefs. Therefore, this thesis works are organised in three parts. We first propose a proportional semantics which extends the Kripke semantics, classically used for modal logics. We also study modal axioms regarding the proposed semantics. Then, we propose a fuzzy set model for representing and manipulating belief degrees. We finally use these two formal models in two different applications: a model checking tool for weighted modal formulae and an artifical player for a cooperative game called Hanabi in which decision making is based on graded belief reasoning
APA, Harvard, Vancouver, ISO, and other styles
9

Harmel, Ghassen. "Vers une conception conjointe des architectures du produit et de l’organisation du projet dans le cadre de l’Ingénierie Système." Besançon, 2007. http://www.theses.fr/2007BESA2022.

Full text
Abstract:
Lorsqu’une entreprise prend la décision stratégique de lancer une nouvelle famille de produits ou de concevoir un produit existant, l’architecte système a pour mission de concevoir ou faire évoluer, en même temps, l’organisation du projet pour la rendre plus performante. Dans ce mémoire, notre objectif est de développer des modèles et méthodes permettant d’aider les architectes système dans cette double activité. Dans le cadre de l’Ingénierie Système, notre méthode se base sur la définition de nos propres concepts d’architecture et de conception modulaire pour les étendre à la définition de l’architecture de l’organisation du projet. Nous proposons ensuite, en cohérence avec notre positionnement, un algorithme de clustering utilisant l’outil DSM comme méthode de représentation, cet algorithme a pour fonction de révéler l’architecture d’un domaine en partant de sa représentation matricielle (DSM). L’application de notre méthode de développement des architectures est liée aux quatre situations de conceptions identifiées. Pour chacune de ces situations, nous proposons une méthode de conception des architectures, faisant appel à un traitement flou et/ou à des opérations matricielles. Chacune de ces situations est ensuite illustrée par une application à la conception d’un moteur thermique de l’industrie automobile. La démarche présentée dans ce chapitre est une vision statique de la conception des architectures. Face à cette vision statique, nous montrons la nécessité de faire « co-évaluer » les architectures couplées. Nous proposons alors l’exploration des incertitudes comme méthode pour suivre l’évolution des systèmes (perturbations) étudiés. Nous développons une méthode basée sur un traitement flou pour faire co-évaluer les architectures perturbées et pour les rendre cohérentes
When a company makes the strategic decision of launching a new product family or redesigning an existing product, the system architect is in charge of designing and making evolve the architecture of this product. The system architect is also the Development Project (DP) manager and thus he is in charge of conceiving or making evolve at the same time the DP organisation (design teams). In this memory, our objective was to develop models and methods making it possible to help the system architects in this double duty. In short, we propose in this work a method for designing both product and organization architectures in the preliminary phases of the DB. In Engineering System context, our method is based on the definition of our own concepts of product architecture and modularity and in their extension to DP organization. We propose then in coherence with our positioning a clustering algorithm using DSM representation tool, the algorithm objective is to reveal project domains architectures starting from their matrix representation (DSM). The use of our method is tightly related to the design situations that the architect can face. In this memory, we identified four of them. For each one of these situations, we propose a method for architectures designing, calling upon a Fuzzy logic treatment. Each one of these situations is then illustrated by an application to the design of a thermal engine in the car industry. The step presented in this chapter is a static vision of the design of architectures. By opposition to this static vision, we show the need for making co-evaluate coupled architectures. We propose then the exploration of uncertainties to model systems evolution. We develop a method based on a fussy treatment to make co-evaluate disturbed architectures in order to obtain coherent ones
APA, Harvard, Vancouver, ISO, and other styles
10

Dartnell, Christopher. "Conception d'un Cadre Formel d'Interaction pour la Découverte Scientifique Computationelle." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00351202.

Full text
Abstract:
L'utilisation d'outils issus de la découverte scientifique computationnelle a montré un effet inattendu de l'interaction avec une machine apprenante : l'apparition d'un jeu dialectique de localisation et de correction d'erreurs, aussi bien dans les règles apprises par la machine que dans l'ontologie é́crite par l'utilisateur. Ces erreurs mettent en é́vidence des biais de modé́lisation ou de mesure, ainsi que des biais liés aux exemples fournis à la machine. C'est en ré́alité ce processus dialectique qui est exploité dans les diffé́rentes applications, et l'apprentissage ne sert finalement qu'à géné́rer des contradictions entre la théorie de la machine et celle de l'utilisateur. Cette constatation m'a incité́ à dé́finir un cadre formel pour cette dialectique. Dans ce contexte, j'ai décidé́ de positionner ce mode d'interaction avec une machine apprenante par rapports aux principaux paradigmes d'apprentissage, afin de déterminer un protocole d'interaction adapté à la dé́couverte scientifique computationnelle, c'est à dire adapté́ à l'apprentissage humain comme à l'apprentissage machine, et tenant compte d'une certaine démarche scientifique. Le protocole d'interaction vers lequel je me suis orienté́ peut être considé́ré́ comme une extension de l'apprentissage par requêtes [Angluin, 1988] proposant une restriction des requêtes d'appartenance à des expé́riences finies, et une distribution des requêtes d'é́quivalence sur une communauté́ d'apprenti. Une fois l'intuition de ce protocole dé́gagé́e, sa dé́finition logique m'a occupé un certain temps,
et je pré́sente dans ce document une dé́finition logique de jugements modaux fondée sur une extension du carré́ des oppositions.
APA, Harvard, Vancouver, ISO, and other styles
11

Cimpan, Sorana. "Omega : un formalisme et un système pour le monitoring des processus dans le cadre des environnements de génie logiciel." Chambéry, 2000. http://www.theses.fr/2000CHAMS003.

Full text
Abstract:
Durant ces derniers années, des besoins liés d'une part à la qualité des logiciels, et d'autre part à la productivité des entreprises qui les développent, ont conduit vers un développement de logiciels centre processus. Des modèles pour l'évaluation de la maturité des processus logiciels ont été proposés. La plupart fournit des échelles d'évaluation comportant les cinq niveaux suivants : initial, reproductible, défini, maitrise et optimisé. Aux niveaux maitrise et optimisé, le contrôle quantitatif est requis. Cependant, les supports informatique fournis pour cet aspect sont insuffisants, le problème du contrôle et son support reste donc posé. Nous abordons dans cette thèse, le problème du contrôle des processus logiciels à travers une boucle de rétroaction : monitoring, décision, changement. Nous nous focalisons sur le problème du monitoring : l'observation et l'analyse du processus afin de détecter ses éventuelles déviations par rapport à un comportement attendu (un modèle de processus instancie avec prise en compte des tolérances spécifiées par l'utilisateur). Nous proposons un langage pour la définition des modèles de monitoring ainsi que des mécanismes pour l'exécution de tels modèles. A travers ces derniers, il est possible de définir les informations que manipule le monitoring, ainsi que les transformations que subissent ces informations. Le langage permet la définition de modèles qui calculent la concordance entre le processus observé et un comportement attendu de ce même processus. Dans une approche réflexive, nous utilisons des modèles de monitoring ayant comme sujet des systèmes de monitoring, permettant le réglage dynamique de ce dernier. L'emploi de la logique floue dans la modélisation, l'analyse et l'acquisition d'informations, permet de gérer leurs éventuelles imprécisions ou incertitudes. Notre proposition a été développée et validée dans le cadre du projet européen de recherche à long terme Esprit IV LTR 34840 pie (process instance evolution).
APA, Harvard, Vancouver, ISO, and other styles
12

Sarr, Ngor. "Le cadre logique de la performance: un outil de management stratégique de l'efficacité économique de l'entreprise publique." Nantes, 2004. http://www.theses.fr/2004NANTA002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Palmer, Gilles. "Menta, moteur d'inférence et moteur ensembliste dans le cadre de la logique possibiliste : application au domaine medical." Toulouse 3, 1991. http://www.theses.fr/1991TOU30109.

Full text
Abstract:
Cette these presente l'etude et la realisation d'un outil d'aide a la decision dans le domaine medical. Une application sert de fil conducteur: la construction d'un systeme d'aide a la prescription d'antibiotiques, sur micro-ordinateur, dans le cadre d'un contrat avec l'organisation mondiale de la sante. Le document s'articule en quatre grands axes: 1) la conception d'un moteur d'inference a regles de production, travaillant en logique possibiliste, 2) la realisation d'un moteur ensembliste permettant la manipulation (intersection, union, exclusion) de sous-ensembles flous. La gestion des elements en jeu est de plus etendue: hierarchisation au sein d'un graphe oriente sans cycle, heritage de la fonction d'appartenance. Ce module est developpe selon la meme optique que le precedent, en reprenant notamment: a) une expression declarative de la connaissance sous forme de regles; b) et un filtrage flou des hypotheses permettant de modifier automatiquement les valeurs de fonction d'appartenance initiales, face aux situations reellement rencontrees; 3) le couplage de ces deux modules, avec une reutilisation mutuelle des conclusions etablies par chacun d'entre eux, 4) enfin, le document presente une description de l'applicatif realise, son utilisation face au probleme d'antibiotherapie pose, et une comparaison avec d'autres systemes experts portant sur ce meme sujet
APA, Harvard, Vancouver, ISO, and other styles
14

Maurel, François. "Un cadre quantitatif pour la Ludique." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00152476.

Full text
Abstract:
La ludique, introduite par Jean-Yves Girard, est un modèle de la logique linéaire sans exponentielles. En vue de la modélisation des exponentielles, cette thèse propose deux extensions successives de la ludique. La première extension étend la ludique en un modèle probabiliste original conservant la plupart des théorèmes du modèle initial. La seconde extension reprend ce modèle probabiliste et utilise des pointeurs, introduits dans les jeux de Hyland et Ong, ce qui permet de considérer les répétitions et donc de modéliser les exponentielles.

Un résultat de complétude est montré pour la ludique probabiliste vis-à-vis de la ludique et de la logique MALL2. La ludique exponentielle proposée vérifie les théorèmes principaux de la ludique : les théorèmes analytiques. En particulier, ce modèle montre une interprétation de la logique linéaire avec des répétitions gardant une topologie séparée. De plus, les coefficients introduits apporte à la ludique une "plus grande séparation" que dans le modèle d'origine.
APA, Harvard, Vancouver, ISO, and other styles
15

Sastra, Hasan Yudie. "La technologie et la concurrence industrielle : approche d'un pays en développement par la méthode du cadre logique général." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX3A001.

Full text
Abstract:
A l'etape actuelle de privatisation et d'augmentation la competition globale de marche, la plupart des pays en voie de developpement doivent realiser que le developpement d'une technologie appropriee est necessaire pour la survie d'une entreprise. Donc, ils reconnaissent que cette consideration technologique doit etre incorporee correctement au sein de strategies generales en developpant d'un ensemble de clignotants de niveau de technologie qui pourraient etre pour evaluation du developpement de la technologie. Apprecier ainsi le positionnement de technologies par exemple, la position de la technologie leader, technologie de suiveur, technologie d'exploitant et technologie d'extendeur sont necessites tenir compte de maillons entre le developpement et aptitude technologique de strategies. Cette tentative de cadre a integrer affaire et technologie, particulierement dans le contexte de pays en voie de developpement. Commencant avec la consideration des caracteristiques de technologie au niveau ferme, et utilisant l'approche d'analyse a la structure de marche, melanges strategiques possibles sont determines en considerant des strategies d'affaire, et strategies de technologie de positionnement. L'analyse sur des aspects tels que degre de sophistication de composant de technologie, niveau d'aptitude de technologie, le statut d'infrastructure de technologie, et dynamisme de climat de technologie sont accentues. Dans ce travail, nous approchons une methode du cadre de l'evolution de technologie a affronter un environnement competitif, ou le positionnement strategique de developpement technologique, criteres pour situer les strategies et rendements a chaque niveau de ces strategies sont decrits. Dans l'ordre a atteindre les technologies strategiques de developpement, ce modele nous permet analyser des positions de technologiques contre des criteres pour soutenir la position strategique et la possible position strategique alternative pour l'entreprise entrant en la competition globale.
APA, Harvard, Vancouver, ISO, and other styles
16

Singer, Nicolas. "Resolution de contraintes lineaires sur les nombres rationnels dans le cadre de la programmation en logique avec contraintes." Clermont-Ferrand 2, 1997. http://www.theses.fr/1997CLF21971.

Full text
Abstract:
Les interpreteurs de programmes logiques avec contraintes, sur lesquels reposent l'efficacite de ce type de langages, doivent faire face a des objectifs parfois contradictoires. A la fois explorateurs d'espace de recherche et presentateurs de resultats, une de leur tache essentielle reste la resolution de contraintes. Dans cette these nous nous interessons aux interpreteurs specialises dans le traitement de contraintes lineaires sur les nombres rationnels. Dans un premier temps nous comparons et optimisons differentes methodes de resolution, dans un deuxieme nous donnons une methode pour desengorger les systemes de contraintes en eliminant dynamiquement une majorite de leurs variables. Les algorithmes decrits ont ete implementes et rendus publics par l'intermediaire de multisolver(q), un interpreteur plc, et de solver(q), une bibliotheque de fonctions c.
APA, Harvard, Vancouver, ISO, and other styles
17

Maaref, Abdenasser. "Le transfert de connaissances dans un cadre de joint venture : une approche des facteurs déterminants dans une logique interactive." Phd thesis, Université du Littoral Côte d'Opale, 2014. http://tel.archives-ouvertes.fr/tel-01022856.

Full text
Abstract:
De nos jours de plus en plus de joint-ventures apparaissent. Cette forme de coopération peut être sous certaines conditions un espace d'apprentissage et de transfert de connaissances entre les entreprises mères. Pourtant, le transfert de connaissances dans le cadre d'une joint-venture demeure encore un domaine peu connu. La présente recherche s'est proposé d'explorer le phénomène de transfert de onnaissances dans le cadre d'une joint-venture. A travers cette thèse on propose une vision originale et riche en précisant la nature et la dynamique d'une relation triale (entreprises mères et joint-venture). Les résultats de la recherche ont montré, tout d'abord, que la réussite de transfert dépend de la qualité des contributions de l'entreprise mère étrangère, de l'entreprise mère locale et de la joint-venture. Ensuite, la relation informelle entre les décideurs est apparue comme un facteur facilitateur du transfert de connaissances. Enfin, nous avons pu identifier des facteurs déterminants du transfert de connaissances de l'entreprise mère étrangère vers la joint-venture, de l'entreprise mère locale vers la joint-venture et de la joint-venture vers les entreprises mères. Les facteurs suivants : la confiance mutuelle, la performance de la joint-venture, la qualité des contributions, l'équilibre du pouvoir de négociation, la compatibilité stratégique et la compatibilité culturelle sont des facteurs déterminants dans les trois processus de transfert de connaissances. Autant les entreprises mères que la joint-venture doivent les prendre en compte en vue de mieux réussir le transfert de connaissances.
APA, Harvard, Vancouver, ISO, and other styles
18

Castaignede, Monique. "LA REGULATION DU PARTAGE DU POUVOIR POLITIQUE AU LIBAN LA LOGIQUE COMMUNAUTAIRE DANS LE CADRE DES ACCORDS DE TAËF." Phd thesis, Institut d'études politiques de Bordeaux, 2014. http://tel.archives-ouvertes.fr/tel-00949311.

Full text
Abstract:
L'analyse socio-historique de l'émergence du pouvoir politique au Liban, son essence même et son instrumentalisation conditionnent l'exercice de la régulation démocratique des conflits dans une société plurale dont le système politique repose sur un compromis historique, celui du Pacte de 1943. Ni Orient, ni Occident, ni vainqueur, ni vaincu. Les difficultés d'élaboration d'un projet consensuel et de mise en oeuvre d'une coalition gouvernementale, dans le modèle libanais de démocratie consociative ont favorisé la confrontation de la logique individuelle à la logique communautaire sans espace de subsidiarité. Cette thèse tend à démontrer que des Accords de Taëf jusqu'aux années post Doha, malgré la confirmation de l'autonomie segmentaire, le non dépassement des contradictions entre esprit de consensus et concentration du pouvoir sans réelle distribution de celui-ci a conduit à la définition d'un consensus minimal qui fragilise la stabilité du pays à travers des crises politiques successives. La démocratie consociative libanaise, forte de l'ouverture vers un espace public transcommunautaire, montrera-t-elle sa capacité à évoluer, en luttant contre le décalage existant entre les institutions du consensus représentées par ses élites politiques et la dynamique sociale ?
APA, Harvard, Vancouver, ISO, and other styles
19

Castaignède, Monique. "La régulation du partage du pouvoir politique au Liban : la logique communautaire dans le cadre des accords de Taëf." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0004/document.

Full text
Abstract:
L’analyse socio-historique de l’émergence du pouvoir politique au Liban, son essence même et son instrumentalisation conditionnent l’exercice de la régulation démocratique des conflits dans une société plurale dont le système politique repose sur un compromis historique, celui du Pacte de 1943.Ni Orient, ni Occident, ni vainqueur, ni vaincu.Les difficultés d’élaboration d’un projet consensuel et de mise en oeuvre d’une coalition gouvernementale, dans le modèle libanais de démocratie consociative ont favorisé la confrontation de la logique individuelle à la logique communautaire sans espace de subsidiarité.Cette thèse tend à démontrer que des Accords de Taëf jusqu’aux années post Doha, malgré la confirmation de l’autonomie segmentaire, le non dépassement des contradictions entre esprit de consensus et concentration du pouvoir sans réelle distribution de celui-ci a conduit à la définition d’un consensus minimal qui fragilise la stabilité du pays à travers des crises politiques successives.La démocratie consociative libanaise, forte de l’ouverture vers un espace public transcommunautaire, montrera-t-elle sa capacité à évoluer, en luttant contre le décalage existant entre les institutions du consensus représentées par ses élites politiques et la dynamique sociale ?
This analysis of the socio-historical birth of political power in Lebanon, its own nature as well as its implementation, concerns the different ways of viewing democratically regulated conflicts in a multi-directionally and politically oriented plural society based on a historical agreement signed in 1943.There is a challenge to compromise East and West, a balance without obvious loser and winner.The difficult project of creating a consensus among a governmental coalition while respecting the Lebanese model of democracy required personal and group compromises without room for subsidiarity.While taking into consideration the segmentation, the need to do not overlap the contradiction of consensus and opposing ideas among politico-communitarian cleavages, this work aims at demonstrating that the accord of Taef followed by the after Doha, lead to a fragile consensus which weakens the stability of the country during the following political crisis.The Lebanese consociate system re-enforced by opening to a transcultural public space may show its capacity to evolve, mature, within the existing gap between the consensus institution proposed by the elite and the social pressure
APA, Harvard, Vancouver, ISO, and other styles
20

Djennaoui, Mohand-Said. "Structuration des données dans le cadre d'un système de gestion de bases de connaissances." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0077.

Full text
Abstract:
La déduction et la structuration des informations sont des caractéristiques essentielles pour la nouvelle génération des Systèmes de Gestion de Bases de Données (appelés communément Systèmes de Gestion de Bases de Connaissances((SGBC) EPSILON est un SGBC basé sur l'intégration de la programmation logique (PROLOG) et des Bases de Données Relationnelles. Il permet d'utiliser les données stockées dans une Base de Données comme des faits PROLOG- et de façon transparente à l'uti1isateur. Cette thèse décrit l'enrichissement de ce système en le dotant de mécanismes de structuration de données dans le sens des relations NF2 (relations imbriquées). L'utilisateur peut définir des vues externes basées sur un modèle NF2. Au niveau interne, les relations restent compatibles avec le modèle relationnel classique. Sans remettre en cause le noyau d'EPSILON, nous avons ajouté les éléments suivants : • Un méta-interprète d'un langage de programmation logique incluant des constructeurs d'ensemble et de tuple. Un traducteur rendant transparent l'utilisation du méta-interprête précédent • un méta-interprète permettant d'interprêter des requêtes SQL qui manipulent des relations imbriquées
Both the deduction and the structuration of the information are essential features for the new generation of DBMS (namely Knowledge Base management System : KBMS). EPSILON is KBMS integration (combining) logic programming (PROLOG) and relational databases ; It allows to use data stored in the data bases as prolog's facts and with user transparency. This work descibes the system's enriching by endowing it with structuration mechanisms in the sens of NF2 relations (Nested relations). The user can define external views based on a NF2 model. At the internal level, the relations remain compatible with the traditional relational model. Around the EPSILON kermel, we have designed and developed: - A meta-interpreter of logic based language including sets and tuples constructors. - A translater which allows to use the met-interpreter in a transparency way. - A meta-interpreter which allows to handle SQL request relation
APA, Harvard, Vancouver, ISO, and other styles
21

Raveloson, Elisé Andriakoto. "Méthodologie de la gestion de projet des pays en développement : application de la méthode du cadre logique, champ d'étude Madagascar." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30010.

Full text
Abstract:
La gestion de projet joue un role determinant dans l'aboutissement ou dans l'echec d'un projet autant dans les pays developpes que dans les pays en developpement (ped). La methodologie se trouve parmi les solutions fondamentales pour denouer la problematique de la gestion de projet : difficultes techniques, financieres, organisationnelles, manque de competence et lacunes culturelles, manque d'information, abus de pouvoir. L'acuite de ces problemes prend une dimension complexe quand les mots ped, projets en difficultes et pauvrete deviennent inseparables. Le champ d'etude base sur madagascar manifeste un phenomene d'interdependance important des projets. Le triptyque du developpement : agriculture, industrie et infrastructure, est souvent marque par une situation qualifiee de surcritique. Les difficultes a surmonter dans la gestion de projet des ped sont en effet tres complexes par rapport aux contraintes internes et externes. La methode de la seriation par blocs a ete utilisee pour l'analyse des donnees permettant plus facilement d'identifier et d'interpreter les facteurs de succes determinants d'un projet (technologique, financier mais aussi culturel, ecologique et de veille technologique). Ainsi il a ete demontre, dans le cadre d'une methodologie bien structuree, que le developpement integre est incontournable dans toute categorie de projet des ped. Des solutions sont proposees dans le cadre d'une approche systemique avec la methode du cadre logique. Cette methode a ete developpee et informatisee pour mettre a la disposition des decideurs, cadres et ingenieurs de projet, enseignant et etudiants, un logiciel simple et pratique : le logiframe (outil accessible meme pour les non inities a l'informatique et a la gestion de projet). Ainsi developpee, renforcee d'un concept de veille technologique, elle permet de diagnostiquer, d'identifier, d'elaborer et de realiser un projet avec efficacite. Ce logiciel peut etre developpe comme un puissant outil d'aide a la decision accompagne d'un systeme d'analyse de reponses. Les ped doivent eliminer de leur programme de developpement les projets mort-nes, garantir la reussite de leurs projets avec des outils de gestion de projet performants repondant exactement a leur besoin et permettant de rehausser leur credibilite a moyen terme.
APA, Harvard, Vancouver, ISO, and other styles
22

Barbier, Fabrice. "Résultats de théorie abstraite des modèles dans le cadre des institutions : vers la combinaison de logiques." Phd thesis, Université d'Evry-Val d'Essonne, 2005. http://tel.archives-ouvertes.fr/tel-00087587.

Full text
Abstract:
De nombreux travaux ont montré l'importance de l'interpolation de Craig pour la structuration et la modularité des spécifications de type axiomatique. En vue d'en donner des conditions suffisantes dans un cadre théorique adapté à l'informatique, nous nous sommes intéressé à une propriété équivalente à l'interpolation de Craig dans le cadre de la théorie standard des modèles : la consistance de Robinson. L'étude de cette dernière propriété nous a amené à généraliser dans une spécialisation des institutions les notions classiques de diagrammes complets et de morphismes élémentaires. Ceci nous a alors permis de généraliser quelques résultats classiques de théorie des modèles tels que les théorèmes de Löwenheim-Skolem ou l'union de chaînes de Tarski. En fin, les constructeurs de formules étant explicites dans notre cadre théorique, nous nous sommes naturellemant intéressés à la combinaison de logiques et à la préservation de l'interpolation de Craig et de la consistance de Robinson.
APA, Harvard, Vancouver, ISO, and other styles
23

Masson, Pierre-Alain. "Vérification par Model-Checking Modulaire de Propriétés Dynamiques PLTL exprimées dans le cadre de Spécifications B événementielles." Phd thesis, Université de Franche-Comté, 2001. http://tel.archives-ouvertes.fr/tel-00011112.

Full text
Abstract:
Cette thèse propose une nouvelle technique de vérification par model-checking de propriétés dynamiques PLTL, exprimées au cours d'un processus de spécification de systèmes réactifs par raffinement. La vérification par model-checking a l'avantage d'être entièrement automatisable, mais elle se heurte au problème de l'explosion combinatoire de l'espace d'états à vérifier. Afin de faire face à ce problème, nous proposons de découper par partition l'espace d'états en un ensemble de modules, et de mener la vérification successivement sur chacun des modules, afin de pouvoir conclure sur le modèle dans son ensemble. Nous prouvons que cette méthode de vérification (appelée vérification modulaire) est valide pour tout une classe de propriétés PLTL, que nous caractérisons par des automates de Büchi. Nous présentons les systèmes d'événements B comme cadre d'application de cette technique. Nous proposons une méthode de découpage en modules guidée par le processus de raffinement B.
APA, Harvard, Vancouver, ISO, and other styles
24

CHAO, HUI LAN. "Comprehension automatique de phrases interrogatives francaises et chinoises : application dans le cadre de l'interrogation de bases de donnees." Besançon, 1998. http://www.theses.fr/1998BESA1005.

Full text
Abstract:
Pour faciliter la communication homme-machine, et plus particulierement, l'extraction d'informations a partir des systemes de gestion de bases de donnees (sgbd), notre recherche a pour objectif d'elaborer une interface permettant l'interrogation de bases de donnees en langage naturel. Nous avons avance une methodologie unifiee: non seulement elle permet de traiter deux langues tres eloignees, en l'occurrence le francais et le chinois, mais encore elle reussit a fusionner les deux approches distinctes: l'approche semantique et l'approche syntaxique. Notre analyse automatique des phrases interrogatives mene a la transcription en syntaxe du langage sql en raison de leur rapprochement. Comme sql est un langage de requetes tres repandu dans les sgbd, cette strategie permettra la generalisation de notre interface. Malgre sa convivialite, sql demeure un langage de machine qui est rigide et qui n'admet pas les imprecisions inherentes au langage naturel. Dans les phrases interrogatives visant a extraire des informations a partir d'une base de donnees, les imprecisions proviennent surtout des adjectifs evaluatifs tels que 'bon', 'mauvais', etc. Et de leurs modificateurs comme 'tres', 'plutot', etc. Nous introduisons donc la technique de la logique floue qui consiste a traiter cet aspect problematique de maniere precise. Notre recherche debouche sur la mise en oeuvre du systeme sibdln qui sert d'interface a interroger les bases de donnees en langage naturel. Mais, avant sa mise en service au grand public, l'intervention d'un developpeur est necessaire afin d'etablir, en plus de notre dictionnaire de base, un dictionnaire adapte aux bases de donnees appliquees. Pour cette raison, notre systeme fournit egalement une interface facilitant le travail du developpeur. Ainsi, sibdln est extensible a toutes les bases de donnees
In view of facilitating the communication between human beings and machines, especially the information extraction from databases, our research aims at elaborating an interface permitting data retrieval in natural language. We propose an unified methodology: not only it enables the processing of two distinct languages, french and chinese, but also it achieves the fusion of two approches, semantic oriented and syntaxic oriented approches. Our automatic analysis of interrogarative phrases leads to the transcription in sql syntaxe with the consideration of their resemblances. Sql is a standard query language, supported by a great many databases management systems. This strategy will facilitate the generalization of our interface. Despite of its friendliness, sql remainds to be a machine language intolerant of imprecisions inherent in natural language. We introduce thus the technique of fuzzy logic to solve this problem. Our researche leads finally to the implementation of a software named sidbln permitting the natural language query of databases
APA, Harvard, Vancouver, ISO, and other styles
25

Quost, Benjamin. "Combinaison de classifieurs binaires dans le cadre des fonctions de croyance." Compiègne, 2006. http://www.theses.fr/2006COMP1647.

Full text
Abstract:
La classification supervisée a pour enjeu de construire un système, ou classifieur, capable de prédire automatiquement la classe d'un phénomène observé. Son architecture peut être modulaire : le problème abordé est décomposé en sous-problèmes plus simples, traités par des classifieurs, et la combinaison des résultats donne la solution globale. Nous nous intéressons au cas de sous-problèmes binaires, en particulier les décompositions où chaque classe est opposée à chaque autre, chaque classe est opposée à toutes les autres, et le cas général où deux groupes de classes disjoints sont opposés l'un à l'autre. La combinaison des classifieurs est formalisée dans le cadre de la théorie des fonctions de croyance. Nous interprétons les sorties des classifieurs binaires comme des fonctions de croyance définies sur des domaines restreints, dépendant du schéma de décomposition employée. Les classifieurs sont alors combinés en déterminant la fonction de croyance la plus consistante possible avec leurs sorties
Supervised classification aims at building a system, or classifier, able to predict the class of a phenomenon being observed. Its architecture may be modular : the problem to be tackled is decomposed into simpler sub-problems, solved by classifiers, and the combination of the results gives the global solution. We address the case of binary sub-problems in particular the decompositions where each class is opposed to each other, each class is opposed to an the others, and the general case where two disjoint groups of classes are opposed to each other. The combination of the classifiers is formalized within the theory of evidence framework. We interpret the outputs of the binary classifiers as belief functions defined on restricted domains, according to the decomposition scheme used. The classifiers are then combined by determining the belief function which is the most. . . Consistant with their outputs
APA, Harvard, Vancouver, ISO, and other styles
26

Herment, Michel. "GLEF ATINF, un cadre générique pour la connexion d'outils d'inférence et l'édition graphique de preuves." Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344974.

Full text
Abstract:
Après un historique bref et général de la déduction automatique, on analyse les tendances actuelles et les besoins en présentation de preuves et communication d'outils d'inférence. Les notions théoriques concernées sont présentées et étudiées en détail. On donne ensuite une synthèse comparative critique et exhaustive de l'état de l'art. Cette synthèse manquait dans la littérature. L'analyse des notions fondamentales en logique et la synthèse sur l'état de l'art permettent d'établir les caractéristiques retenues pour le système GLEF (Graphical & Logical Edition Framework). La conception et la réalisation de deux langages ont permis de rendre GLEF générique (c'est à dire paramétrable par le système formel employé et par la présentation de ses preuves). Un formalisme de définition, fondé sur le Calcul des Construction (dû à Coquand et Huet), sert à représenter et à vérifier les systèmes formels et les preuves dans ses systèmes formels. Un langage de présentation, fondé sur la notion de «boîte», sert à décrire leur présentation. En annexe nous donnons un algorithme original pour l'opération d'effacement, particulièrement difficile en lambda-calcul typé, qui sert à réaliser la commande «couper» de GLEF. GLEF a été développé au sein du projet ATINF (ATelier d'INFérence). Un manuel utilisateur rudimentaire et de nombreux exemples d'utilisation en sont donnés. Certains exemples montrent comment, après avoir spécifié la définition et la présentation d'un système formel objet, un utilisateur de GLEF peut construire ou visualiser des preuves en manipulant directement les objets (formules, preuves partielles, etc.) à l'écran, avec la souris. D'autres illustrent comment GLEF présente les preuves produites par les démonstrateurs d'ATINF ou extérieurs à ATINF. Les principales lignes de recherche future concluent ce travail
APA, Harvard, Vancouver, ISO, and other styles
27

Harmel, Ghassen. "Vers une conception conjointe des architectures du produit et de l'organisation du projet dans le cadre de l'Ingénierie Système." Phd thesis, Université de Franche-Comté, 2007. http://tel.archives-ouvertes.fr/tel-00206133.

Full text
Abstract:
Lorsqu'une entreprise prend la décision stratégique de lancer une nouvelle famille de produits ou de reconcevoir un produit existant, l'architecte système a pour mission de concevoir ou de faire évoluer l'architecture de ce produit. L'architecte joue aussi le rôle de chef de projet et doit concevoir ou faire évoluer en même temps, l'organisation du projet pour la rendre plus performante. Dans ce mémoire, notre objectif est de développer des modèles et méthodes permettant d'aider les architectes système dans cette double activité. Dans le cadre de l'Ingénierie Système, notre méthode se base sur la définition de nos propres concepts d'architecture et de conception modulaire pour les étendre à la définition de l'architecture de l'organisation du projet. Nous proposons ensuite en cohérence avec notre positionnement, un algorithme de clustering utilisant l'outil DSM comme méthode de représentation, cet algorithme a pour fonction de révéler l'architecture d'un domaine en partant de sa représentation matricielle (DSM). L'application de notre méthode de développement des architectures est liée aux quatre situations de conception identifiées. Pour chacune de ces situations, nous proposons une méthode de conception des architectures, faisant appel à un traitement flou et/ou à des opérations matricielles. Chacune de ces situations est ensuite illustrée par une application à la conception d'un moteur thermique dans l'industrie automobile. La démarche présentée dans ce chapitre est une vision statique de la conception des architectures. Face cette vision statique, nous montrons la nécessité de faire « coévoluer » les architectures couplées. Nous proposons alors l'exploration des incertitudes comme méthode pour suivre l'évolution des systèmes (perturbations) étudiés. Nous développons une méthode basée sur un traitement flou pour faire coévoluer les architectures perturbées et pour les rendre cohérentes.
APA, Harvard, Vancouver, ISO, and other styles
28

Fernández, de Castro Max. "La solution de Quine au problème de l'acceptation d'une ontologie abstraite dans le cadre de l'empirisme." Paris 1, 2000. http://www.theses.fr/2000PA010636.

Full text
Abstract:
Le but de cette thèse est d'exposer et d'analyser la façon dont William V. O. Quine résout le problème de l'acceptation d'une ontologie abstraite dans le cadre de l'empirisme. Le premier chapitre esquisse la solution de Rudolf Carnap a ce problème, surtout à son epoque syntaxique, ainsi que les critiques que Quine lui a adressé, spécialement concernant la distinction analytique-synthétique. Les arguments de Quine montrent le caractère artificiel de cette distinction, son manque de pertinence épistémologique et le besoin de traiter le problème ontologique sous une nouvelle lumière. Le deuxième chapitre traite du critère ontologique et de la conception de Quine de la notion d'objet abstrait. Une des justifications du critère ontologique est la fidélité avec laquelle l'enregimentement conserve un noyau de notre langage ou la réferentialité est la plus explicite et transparente possible. Afin de le montrer, nous suivons Quine dans sa reconstruction rationnelle de la manière selon laquelle l'enfant et l'espèce sont parvenus à la maitrise de l'appareil référentiel de notre langue. Nous montrons comment cette explication ontogénétique permet concilier le "platonisme" de Quine avec sa bphilosophie empiriste. Le troisième chapitre expose les arguments de Quine contre l'utilisation d'une ontologie intensionnelle dans la science. Le paradoxe de la logique modale est étudié et les essais de le résoudre sont divisés en deux grands groupes. Les trois preuves de la thèse de l'indétermination de la traduction fournies par Quine sont analysées. Elles montrent la vraisemblance de la thèse sans arriver à la démontrer.
APA, Harvard, Vancouver, ISO, and other styles
29

Piat, Emmanuel. "Fusion de croyances dans le cadre combiné de la logique des propositions et de la théorie des probabilités : application à la reconstruction de scène en robotique mobile." Compiègne, 1996. http://www.theses.fr/1996COMPD933.

Full text
Abstract:
Cette thèse propose un cadre conceptuel pour la fusion de croyances dans des hypothèses du type : tel élément appartient à tel ensemble. La notion de croyance est utilisée dans le cadre combiné de la logique des propositions et du calcul des probabilités proposé par R. T. Cox. Ce cadre met en avant le fait que l'axiomatique des probabilités peut aussi être considérée comme une extension de la logique classique lorsque la valuation des propositions n'est pas connue avec certitude. Les croyances manipulées sont donc des degrés de probabilité dans des hypothèses représentées par des propositions. Le problème traité est le suivant : si un système automatisé doit se faire une opinion sur la pertinence d'hypothèses et interroge des sources d'information (appelées experts) capables de lui fournir leurs propres croyances sur ces hypothèses, comment le système peut-il fusionner ces croyances ? Afin de restreindre les champs d'investigation, cette thèse traite ce problème avec les contraintes suivantes : les hypothèses susceptibles d'être manipulées par le système ne le sont qu'à l'aide des opérateurs classiques de conjonction, de disjonction et de négation qui découlent logiquement de la nature ensembliste de ces hypothèses, les croyances ne sont calculées qu'à l'aide de l'axiomatique des probabilités, les experts plus ou moins contradictoires doivent pouvoir être gérés implicitement et enfin la méthodologie doit faire apparaître de façon explicite les différents modes de fusion possibles pour un jeu donné de croyances fournies par les experts. Ces différents modes sont ensuite utilisés pour résoudre formellement une problématique de reconstruction d'environnement sous forme de grille d'occupation dans le cadre de la robotique mobile.
APA, Harvard, Vancouver, ISO, and other styles
30

Gand, Sébastien. "L'organisation des dynamiques de services professionnels : logique de rationalisation, cadre de gestion et formes de collégialité. À partir d'une recherche intervention dans un cabinet d'expertise et de conseil." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00738425.

Full text
Abstract:
Cette thèse porte sur l'étude des rationalisations contemporaines des Entreprises de Services Professionnels (ESP). L'étude du phénomène s'appuie sur une recherche intervention menée durant trois ans au sein d'un cabinet d'expertise et de conseil auprès des comités d'entreprise qui a la particularité de fonctionner de manière démocratique (le cabinet X). Dans un contexte de transformation profonde de son activité, le cabinet X est confronté à une crise dont l'origine se trouve dans les limites de l'autonomie traditionnelle des consultants - l'" artisanat intellectuel ". La première partie construit des cadres d'analyses issus d'une revue de littérature dans les champs de la sociologie des professions et des travaux en économie et gestion des services professionnels. Il est montré que si la crise de l'artisanat intellectuel n'est pas un phénomène nouveau, les voies de rationalisation présentes dans la littérature ne dessinent pas de logique de rationalisation univoque et complète. Ceci conduit alors à ré-ouvrir la problématique des voies de rationalisation possibles pour dépasser les limites de l'artisanat intellectuel. Dans une seconde partie, la problématique est instruite à partir du cas du cabinet X. En nous appuyant sur une mise en perspective historique et les travaux de recherche intervention, un diagnostic est porté et une voie de rationalisation est conçue : elle nécessite la gestion coordonnée des parcours des consultants, des savoirs et de la stratégie. Elle constitue un cadre de gestion et des éléments de mise en œuvre sont également décrits dans cette partie. Dans une troisième partie, une montée en généralité permet de décrire l'évolution du cabinet X comme la rationalisation couplée de l'organisation des " opérations ", ce qui est appelé un " régime d'activité " et de la gouvernance de l'ESP, ce qui est appelé un " régime de collégialité ". Cette partie s'attarde également sur la gestion des entreprises démocratiques et explore la portée heuristique des cadres théoriques développés à partir du cas de recherche intervention.
APA, Harvard, Vancouver, ISO, and other styles
31

Gand, Sébastien. "L’organisation des dynamiques de services professionnels : Logique de rationalisation, cadre de gestion et formes de collégialité. A partir d’une recherche-intervention dans un cabinet de conseil et d'expertise." Paris, ENMP, 2008. http://pastel.archives-ouvertes.fr/pastel-00738425.

Full text
Abstract:
Cette thèse porte sur l’étude des rationalisations contemporaines des Entreprises de Services Professionnels (ESP). L’étude du phénomène s’appuie sur une recherche intervention menée durant trois ans au sein d’un cabinet d’expertise et de conseil auprès des comités d’entreprise qui a la particularité de fonctionner de manière démocratique (le cabinet X). Dans un contexte de transformation profonde de son activité, le cabinet X est confronté à une crise dont l’origine se trouve dans les limites de l’autonomie traditionnelle des consultants – l’« artisanat intellectuel ». La première partie construit des cadres d’analyses issus d’une revue de littérature dans les champs de la sociologie des professions et des travaux en économie et gestion des services professionnels. Il est montré que si la crise de l’artisanat intellectuel n’est pas un phénomène nouveau, les voies de rationalisation présentes dans la littérature ne dessinent pas de logique de rationalisation univoque et complète. Ceci conduit alors à ré-ouvrir la problématique des voies de rationalisation possibles pour dépasser les limites de l’artisanat intellectuel. Dans une seconde partie, la problématique est instruite à partir du cas du cabinet X. En nous appuyant sur une mise en perspective historique et les travaux de recherche intervention, un diagnostic est porté et une voie de rationalisation est conçue : elle nécessite la gestion coordonnée des parcours des consultants, des savoirs et de la stratégie. Elle constitue un cadre de gestion et des éléments de mise en œuvre sont également décrits dans cette partie. Dans une troisième partie, une montée en généralité permet de décrire l’évolution du cabinet X comme la rationalisation couplée de l’organisation des « opérations », ce qui est appelé un « régime d’activité » et de la gouvernance de l’ESP, ce qui est appelé un « régime de collégialité ». Cette partie s’attarde également sur la gestion des entreprises démocratiques et explore la portée heuristique des cadres théoriques développés à partir du cas de recherche intervention
This thesis addresses the issue of contemporary rationalizations of Professional Service Firms (PSF). The study of this phenomenon rests upon a three-year collaborative research in an consulting firm to works councils which functions democratically (Cabinet X). In a context of deep transformation of its activity, the Cabinet X is confronted to a crisis whom origin lies in the limits of consultants’ traditional autonomy – i. E. “intellectual craftship”. The first part build up analytical frameworks from a literature review in the sociology of professions and economy and management of professional services. This part aims to show that, if the “intellectual craftship” crisis is not a new phenomenon per se, the ways of rationalizing do not draw a “one best ways” or fully-fledged approaches. This justifies the re-opening of the issue of finding ways to overcome the limits of intellectual craftship. In a second part, the problematics is treated from the case-study of the Cabinet X. Resting on an historical perspective and the collaborative research, a diagnosis is made and a way of rationalizing is designed : it requires the coordinated management of consultants’ carreers, knowledge and strategy. It represents a management framework and implementation elements are then given in this part. In a third part, a rise in generality allows to describe the evolution of Cabinet X as the coupled rationalization of both the “operations” organizing, what is called a “regime of activity”, and the ESP governance, what is called a “regime of collegiality”. This part also provide a specific focus on the management of democratic firms and explores the heuristic value of the theoretical frameworks which have been developed previously
APA, Harvard, Vancouver, ISO, and other styles
32

Jaadari, Abdelhafidh. "Systèmes quasi-LPV continus : comment dépasser le cadre du quadratique ?" Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2013. http://tel.archives-ouvertes.fr/tel-00865634.

Full text
Abstract:
Cette thèse aborde le problème de l'analyse de la stabilité et de la conception des lois de commande pour les systèmes non linéaires mis sous la forme de modèles flous continus de type Takagi-Sugeno. L'analyse de stabilité est généralement basée sur la méthode directe de Lyapunov. Plusieurs approches existent dans la littérature, basées sur des fonctions de Lyapunov quadratiques sont proposées pour résoudre ce problème, les résultats obtenus à l'aide des telles fonctions introduisent un conservatisme qui peut être très préjudiciable. Pour surmonter ce problème, différentes approches basées sur des fonctions de Lyapunov non quadratiques ont été proposées, néanmoins ces approches sont basées sur desconditions très restrictives. L'idée développée dans ce travail est d'utiliser des fonctions de Lyapunov non quadratiques et des contrôleurs non-PDC afin d'en tirer des conditions de stabilité et de stabilisation moins conservatives. Les propositions principales sont : l'utilisation des bornes locales des dérivées partielles au lieu des dérivés des fonctions d'appartenances, le découplage du gain du régulateur des variables de décision de la fonction Lyapunov, l'utilisation des fonctions de Lyapunov floues polynomiales dans l'environnement des polynômes et la proposition de la synthèse de contrôleur vérifiant certaines limites de dérivés respectées dans une région de la modélisation à la place de les vérifier a posteriori. Ces nouvelles approches permettent de proposer des conditions locales afin de stabiliser les modèles flous continus de type T-S, y compris ceux qui n'admettent pas une stabilisation quadratique et obtenir des domaines de stabilité plus grand. Plusieurs exemples de simulation sont choisis afin de vérifier les résultats présentésdans cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
33

Thiré, François. "Interoperability between proof systems using the logical framework Dedukti." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG053.

Full text
Abstract:
Il existe aujourd'hui une large famille de systèmes de preuve baséesur différentes logiques: Le calcul des constructions inductives, lalogique d'ordre supérieur, la théorie des ensembles, etc... Undésavantage majeur de cette diversité est, que les théorèmes sontprouvés de nombreuses fois. Une possibilité pour résoudre ce problèmeest de rendre les systèmes de preuve interoperables. Dans cette thèse,nous avons attaqué le problème d'interopérabilité entre systèmes depreuve aussi bien sur le plan théorique que le plan pratique enutilisant le cadre logique Dedukti.Notre voyage commence avec l'exploration des systèmes de typescumulatifs (CTS), une famille de systèmes de type qui étend celle dessystèmes de types pures avec une relation de sous-typage. Les CTSfournissent aujourd'hui une squelette commun a beaucoup de logiquesutilisés aujourd'hui. Les logiques derrières les systèmes Coq,HOL-Light, Lean, Matita ou bien PVS peuvent toutes être vues comme desextensions des CTS avec des fonctionnalités différentes (typesinductifs, irrelevance de la preuve, sous-typage propositionnel,...). Nous définissons une nouvelle notion de traduction entreCTS. Entre autre, nous expliquons un nouvel algorithme (correct maisincomplet) pour déterminer si une preuve écrite dans un CTS peut-êtretraduire dans un autre CTS. Cet algorithme peut aussi être vu commeune extension de l'algorithme de Coq qui permet de vérifier qu'unensemble de contraintes sur les univers est cohérent. Finalement, nousproposons un nouvel encodage des CTS dans Dedukti et nous prouvonsque cet encodage est correct. Ces résultats montrent que Dedukti estun cadre logique approprié sur le plan théorique pour étudierl'interopérabilité entre systèmes de preuve.Nous poursuivons notre voyage avec une étude de cas: le petit théorèmede Fermat prouvé en Matita. Nous montrons comment nous avons putraduire cette preuve vers différents systèmes à travers le cadrelogique Dedukti. Cette traduction se repose principalement sur deuxoutils que nous avons créees :- Dkmeta qui permet d'utiliser la réécriture comme un langage à partentière pour écrire des traductions de preuves. Un avantage de cetoutil est qu'il ré-utilise la syntaxe de Dedukti.- Universo, un outil qui permet d'implémenter l'algorithme mentionnéprécédemment qui permet de traduire une preuve d'un CTS (en Dedukti)vers un autre.Cette procédure semi-automatique permet de traduire la preuve du petitthéorème de Fermat dans une logique assez faible mais expressive quel'on appelle STTforall. STTforall est une version constructive de lathéorie des types simples avec du polymorphisme prénexe. La simplicitéde cette logique permet d'exporter des preuves de STTforall vers denombreux systèmes de preuve. Cette étude de cas montre que Deduktiest tout aussi efficace en tant qu'outil pour faire del'interopérabilité sur le plan pratique.Les outils que nous avons développés dans cette thèse ne sont passpécifiques à cette traduction et peuvent être réutilisés pourd'autres systèmes de preuve dont un encodage en Dedukti est connu(comme Coq ou bien Agda).Finalement, nous concluons ce voyage avec l'exportation du petitthéorème de Fermat vers cinq systèmes de preuve différents: Coq, Lean,Matita, OpenTheory (membre de la famille des systèmes de preuve basésur la logique d'ordre supérieure) et PVS. Cette traduction estdisponible via un site web appelé Logipedia.Logipedia n'a pas été créé seulement pour cette traduction mais avecl'objectif de contenir beaucoup plus de preuves que l'on pourraitpartager entre plusieurs systèmes de preuves. Cela rendrait Logipediaalors une encyclopédie de preuves formelles en ligne
There is today a large family of proof systems based upon variouslogics: The Calculus of Inductive Constructions, Higher-Order logic orSet theory, etc. The diversity of proof systems has the negativeconsequence that theorems are formalized many times. One way toovercome this issue would be to make proof systems interoperable. Inthis thesis, we have tackled the interoperability problem for proofsystems both on the theoretical and the practical side using theDedukti logical framework.We begin our journey by looking at Cumulative Type Systems (CTS), afamily of type systems which extends that of Pure Type Systemswith a subtyping relation. CTS provides a common skeleton to manylogics used today. The logic behind Coq, HOL-Light, Lean, Matita orPVS can be seen as an extension of CTS with various features(inductive types, proof irrelevance, predicate subtyping, …). Wedefine a new notion of embedding between CTS. We also provide a soundbut incomplete algorithm to decide whether a proof in one CTS can betranslated into another CTS. This algorithm can also be seen as anextension of Coq's algorithm to check that the floating universeconstraints are consistent. Then, we propose a new embedding of CTSinto Dedukti and give a soundness proof of this embedding. Theseresults show that Dedukti is suitable for studying interoperability onthe theoretical side.We continue our journey on a case of study: The proof of Fermat'slittle theorem written in Matita. We show how we were able totranslate this proof to various proof systems through Dedukti. Thistranslation mainly relies on two tools created for this purpose:— Dkmeta, a tool which proposes to use rewriting as a way to writeproofs transformation programs. One advantage of this tool is that itreuses the syntax of Dedukti itself.— Universo, a tool which implements the aforementioned algorithm whichallows to translate a proof in one CTS (written in Dedukti) toanother.This semi-automatic translation allows to translate the proof ofFermat's little theorem into a weak but expressive logic calledSTTforall. STTforall is a constructive version of Simple Type Theorywith prenex polymorphism. As a consequence, a proof in STTforall canbe exported easily to many proof systems. This case of study showsthat Dedukti is also suitable for interoperability on the practicalside.The tools used for these transformations could be reused also forproofs coming from other proof systems for which an encoding inDedukti is known (such as Coq or Agda).The journey ends with the exportation of the proof of Fermat's littletheorem encoded in STTforall towards 5 different proof systems: Coq,Lean, Matita, OpenTheory (a member of the HOL-family proof systems)and PVS. We have implemented a user interface for that via a websitecalled Logipedia.Logipedia was designed with the goal of containing many more proofs thatcould be shared between proof systems and as such is intended to be anencyclopedia of formal proofs
APA, Harvard, Vancouver, ISO, and other styles
34

Hondet, Gabriel. "Expressing predicate subtyping in computational logical frameworks." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG070.

Full text
Abstract:
Le typage permet d'apporter de la sûreté dans la programmation, et il est utilisé au coeur de la majorité des systèmes de preuve. Plus un système de types est expressif, plus il est aisé d'y encoder des invariantsqui seront vérifiés mécaniquement lors du typage. Les types dépendants sont une extension des types simples dans laquelle les types peuvent dépendre de valeurs. Ils permettent par exemple de définir les vecteurs paramétrés par leur longueur. Le sous-typage par prédicat est une autre extension des types simples, dans laquelle les types peuvent être définis par des prédicats. Un sous-type défini par un prédicat, généralement noté { x : A | P(x) }, est habité par les éléments t de type A pour lesquels P(t) est vrai. Cette extension fournit un système de type très riche et intuitif, mais qui rend le typage indécidable.Cet ouvrage est dédié à l'encodage du sous-typage par prédicats dans Dedukti, un cadre logique avec des règles de calcul. On commence par encoder une version explicite du sous-typage par prédicats pour lequel un habitant de { x: A | P(x) } est syntaxiquement différent d'un habitant de A. On montre que tout jugement dérivable dans cette version du sous-typage par prédicat peut être encodé en un jugement dérivable du cadre logique.Le sous-typage par prédicat est souvent utilisé de manière implicite, sans différence syntaxique entre les habitants de A et les habitants de { x: A | P(x) }. On enrichit le cadre logique avec un système de raffinement des termes qui pourra ajouter ces marqueurs syntaxiques. Ce raffineur peut traduire des jugements typables avec du sous-typage par prédicat implicite en des jugements typable avec du sous-typage explicite.L'assistant à la preuve pvs utilise abondamment le sous-typage par prédicat. On montre comment sa bibliothèque standard peut être exportée vers Dedukti. Par ailleurs, PVS ne préserve que des traces de preuves. Dans la pénultième section, on décrit une procédure pour générer des preuves complètes à partir des traces laissées par PVS.La dernière section détaille une architecture pour l'entrepôt et l'échange de preuves formelles, afin de promouvoir l'interopérabilité
Safe programming as well as most proof systems rely on typing. The more a type system is expressive, the more these types can be used to encode invariants which are therefore verified mechanically through type checking procedures. Dependent types extend simple types by allowing types to depend on values. For instance, it allows to define the types of lists of a certain length. Predicate subtyping is another extension of simple type theory in which types can be defined by predicates. A predicate subtype, usually noted {x: A | P(x)}, is inhabited by elements t of type A for which P(t) is true. This extension provides an extremely rich and intuitive type system, which is at the heart of the proof assistant PVS, at the cost of making type checking undecidable.This work is dedicated to the encoding of predicate subtyping in Dedukti: a logical framework with computation rules. We begin with the encoding of explicit predicate subtyping for which the terms in {x: A | P(x)} and terms of Aare syntactically different. We show that any derivable judgement of predicate subtyping can be encoded into a derivable judgement of the logical framework. Predicate subtyping, is often used implicitly: with no syntactic difference between terms of type A and terms of type {x: A | P(x) }. We enrich our logical framework with a term refiner which can add these syntactic markers. This refiner can be used to refine judgements typed with implicit predicate subtyping into explicited judgements.The proof assistant PVS uses extensively predicate subtyping. We show how its standard library can be exported to Dedukti. Because PVS only store proof traces rather than complete proof terms, we sketch in the penultimate section a procedure to generate complete proof terms from these proof traces.The last section provides the architecture of a repository dedicated to the exchange of formal proofs. The goal of such a repository is to categorise and store proofs encoded in Dedukti to promote interoperability
APA, Harvard, Vancouver, ISO, and other styles
35

Roussillon, René. "Logiques et archéologiques du cadre psychanalytique." Lille 3 : ANRT, 1990. http://catalogue.bnf.fr/ark:/12148/cb37618304q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Maksimovic, Petar. "Développement et Vérification des Logiques Probabilistes et des Cadres Logiques." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00911547.

Full text
Abstract:
On présente une Logique Probabiliste avec des Operateurs Conditionnels - LPCP, sa syntaxe, sémantique, axiomatisation correcte et fortement complète, comprenant une règle de déduction infinitaire. On prouve que LPCP est décidable, et on l'étend pour qu'il puisse représenter l'évidence, en créant ainsi la première axiomatisation propositionnelle du raisonnement basé sur l'évidence. On codifie les Logiques Probabilistes LPP1Q et LPPQ2 dans l'Assistant de Preuve Coq, et on vérifie formellement leurs propriétés principales: correction, complétude fort et non-compacité. Les deux logiques étendent la Logique Classique avec des opérateurs de probabilité, et présentent une règle de déduction infinitaire. LPPQ1 permet des itérations des opérateurs de probabilité, lorsque LPPQ2 ne le permet pas. On a formellement justifié l'utilisation des solveurs SAT probabilistes pour vérifier les questions liées à la cohérence. On présente LFP, un Cadre Logique avec Prédicats Externes, en introduisant un mécanisme pour bloquer et débloquer types et termes dans LF, en permettant l'utilisation d'oracles externes. On démontre que LFP satisfait tous les principales propriétés et on développe un cadre canonique correspondant, qui permet de prouver l'adéquation. On fournit diverses encodages - le λ-calcul non-typé avec la stratégie de réduction CBV, Programmation-par-Contrats, un langage impératif avec la Logique de Hoare, des Logiques Modales et la Logique Linéaire Non-Commutative, en montrant que en LFP on peut codifier aisément des side-conditions dans l'application des règles de typage et atteindre une séparation entre vérification et computation, en obtenant des preuves plus claires et lisibles.
APA, Harvard, Vancouver, ISO, and other styles
37

Maksimović, Petar. "Développement et vérification des logiques probabilistes et des cadres logiques." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00907854.

Full text
Abstract:
On présente une Logique Probabiliste avec des opérateurs Conditionnels - LPCP, sa syntaxe, sémantique, axiomatisation correcte et fortement complète, comprenant une règle de déduction infinitaire. On prouve que LPCP est décidable, et on l'étend pour qu'il puisse représenter l'évidence, en créant ainsi la première axiomatisation propositionnelle du raisonnement basé sur l'évidence. On codifie les Logiques Probabilistes LPP1Q et LPPQ2 dans l'Assistant de Preuve Coq, et on vérifie formellement leurs propriétés principales: correction, complétude fort et non-compacité. Les deux logiques étendent la Logique Classique avec des opérateurs de probabilité, et présentent une règle de déduction infinitaire. LPPQ1 permet des itérations des opérateurs de probabilité, lorsque LPPQ2 ne le permet pas. On a formellement justifié l'utilisation des solveurs SAT probabilistes pour vérifier les questions liées à la cohérence. On présente LFP, un Cadre Logique avec Prédicats Externes, en introduisant un mécanisme pour bloquer et débloquer types et termes dans LF, en permettant l'utilisation d'oracles externes. On démontre que LFP satisfait tous les principales propriétés et on développe un cadre canonique correspondant, qui permet de prouver l'adéquation. On fournit diverses encodages - le λ-calcul non-typé avec la stratégie de réduction CBV, Programmation-par-Contrats, un langage impératif avec la Logique de Hoare, des Logiques Modales et la Logique Linéaire Non-Commutative, en montrant que en LFP on peut codifier aisément des side-conditions dans l'application des règles de typage et atteindre une séparation entre vérification et computation, en obtenant des preuves plus claires et lisibles.
APA, Harvard, Vancouver, ISO, and other styles
38

Genestier, Guillaume. "Dependently-Typed Termination and Embedding of Extensional Universe-Polymorphic Type Theory using Rewriting." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG045.

Full text
Abstract:
Dedukti est un cadre logique dans lequel l’utilisateur encode la théorie qu’il souhaite utiliser à l’aide de règles de réécriture. Pour garantir la décidabilité du typage, il faut s’assurer que le système de réécriture utilisé est terminant.Après avoir rappelé les propriétés des systèmes de types purs et leur extension avec de la réécriture, un critère de terminaison pour la réécriture d’ordre supérieur avec types dépendants est présenté. Il s’agit d’une extension de la notion de paires de dépendances au cas du lambda-pi-calcul modulo réécriture. Cerésultat se décompose en deux théorèmes principaux. Le premier stipule que la bonne fondaison de la relation d’appel définie à partir des paires de dépendances implique la normalisation forte du système de réécriture.Le second résultat de cette partie décrit des conditions décidables suffisantes pour pouvoir utiliser le premier théorème. Cette version décidable du critère de terminaison est implémenté dans un outil appelé “SizeChange Tool”.La seconde partie de cette thèse est consacrée à l’utilisation du cadre logiqueDedukti pour encoder une théorie des types riche. Nous nous intéressons plusparticulièrement à la traduction d’un fragment d’Agda incluant deux fonctionnalités très répandues : l’extension de la conversion avec la règle eta et le polymorphisme d’univers.Une fois encore, ce travail possède un versant théorique, avec des encodagesprouvés corrects de ces deux fonctionnalités dans le lambda-pi-calcul modulo réécriture, ainsi qu’une implémentation prototypique de traducteur entre Agda et Dedukti
Dedukti is a logical framework in which the user encodes the theory she wantsto use via rewriting rules. To ensure the decidability of typing, the rewriting system must be terminating.After recalling some properties of pure type systems and their extension with rewriting, a termination criterion for higher-order rewriting with dependent types is presented. It is an extension of the dependency pairs to the lambda-pi-calculus modulo rewriting. This result features two main theorems. The first one states that the well-foundedness of the call relation defined from dependency pairs implies the strong normalization of the rewriting system.The second result of this part describes decidable sufficient conditions to use the first one. This decidable version of the termination criterion is implemented in “SizeChange Tool”.The second part of this thesis is dedicated to the use of the logical framework Dedukti to encode a rich type theory. We are interested in a fragment of the logic beyond Agda which includes two widely used features: extension of conversion with the eta rule and universe polymorphism.Once again, this work includes a theoretical part, with correct encodings of both features in the lambda-pi-calculus modulo rewriting, and a prototypical translator from Agda to Dedukti
APA, Harvard, Vancouver, ISO, and other styles
39

Bounouh, Abdelala. "Planification spatiale et logiques des acteurs de production et de gestion de l'espace urbain : cas du nouveau quartier résidentiel d'El Mourouj dans la périphérie méridionale du Grand Tunis." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2004. http://tel.archives-ouvertes.fr/tel-00451485.

Full text
Abstract:
Le début des années 70 a été marqué par une forte accélération de la croissance urbaine en Tunisie en particulier dans le Grand Tunis. Cette croissance s'est manifestée par un étalement spatial de l'agglomération tunisoise vers le Nord et l'Ouest qui s'est distingué surtout par la prolifération de l'habitat spontané. Face à une telle situation, les pouvoirs publics ont pris la décision d'orienter la dynamique spatiale vers la périphérie méridionale, traditionnellement connue par ses activités industrielles. C'est dans ce contexte que s'inscrit le nouveau quartier résidentiel d'El Mourouj qui a vu le jour à partir des années 1980 et qui constitue une opération d'urbanisme d'envergure. Plusieurs acteurs du développement urbain vont « s'affronter » sur ce territoire en gestation avec des logiques et des stratégies souvent contradictoires. Les pouvoirs publics qui représentent le principal acteur à travers ses différentes institutions et organismes ont exercé durant les trois dernières décennies le monopole de la gestion et l'offre foncière, de la production et du financement du logement. Ils ont essayé de développer un modèle d'aménagement urbain privilégiant la mixité des quartiers d'habitation d'un point de vue contenu social et encourageant les constructions verticales afin d'atténuer la « déferlante urbaine ». Cette politique qui vise à réduire la consommation de l'espace ne cadre pas avec l'engouement des ménages qui préfèrent les logements individuels et procèdent souvent à de multiples transformations dans les nouvelles habitations qu'ils acquièrent dans le but de les adapter à leurs coutumes et mode de vie quotidiens. Avec le désengagement progressif de l'Etat du secteur de l'habitat, les promoteurs immobiliers privés vont s'imposer sur la scène de la production du cadre bâti et ils vont profiter de l'augmentation des coûts fonciers et des fluctuations du marché immobilier pour réaliser des marges bénéficiaires appréciables. A travers notre recherche, nous avons essayé de montrer que l'absence de coordination entre les différents opérateurs du secteurs public et privé, le cloisonnement qui existe au niveau de l'administration et la mise à l'écart des citoyens dans la gestion des affaires quotidiennes de la cité, expliquent les retards dans la réalisation des équipements de base comme c'est le cas de la ligne de métro à El Mourouj et les difficultés de gouvernance communale dans ces nouvelles banlieues en recomposition de la périphérie du Grand Tunis.
APA, Harvard, Vancouver, ISO, and other styles
40

Mansouri, Farouk. "Integration des objets et des contraintes : cadre base sur les logiques terminologiques." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0079.

Full text
Abstract:
C e travail porte sur l'étude de l'intégration des objets et des contraintes pour la modélisation des données spatiales. Le cadre de cette intégration est basé sur les logiques terminologiques. Dans la première partie de ce travail, nous présentons des notions de base utilisées dans le cadre des bases de données spatiales. Sont également présentés, les travaux qui ont utilisé les contraintes pour spécifier les données spatiales. Enfin, les logiques terminologiques et leur utilisation dans des applications de bases de données sont présentées. Dans la seconde partie, nous proposons le formalisme LCS qui est une logique terminologique étendue par de nouveaux constructeurs basés sur les contraintes pour la modélisation des données spatiales. Le formalisme LCS, est utilisé par la suite, pour la spécification de bases de connaissances spatiales. Un algorithme qui teste la satisfiabilité d'une base décrite à l'aide de LCS est présenté. Da ns la troisième parie, nous proposons un langage de règles basé su r une intégration du formalisme LCS et du langage 0atalog avec contraintes. Ce langage permet de faire du raisonnement spatial en permettant le calcul de relations spatiales qui existent entre les objets. Il est également utilisé pour la formulation de requêtes adressées à une base de connaissances LCS
We study the problem of integrating objects and constraints for modeling spatial data. The framework presented here rests on terminological logics. In the first part of this work, we present basic notions regarding spatial databases, research works dealing with constraints for modeling spatial data, and the use of terminological logics for database applications. In the second part, we propose formalism called Lcs, as an extension of description logic for capturing spatial dimension of data. Lcs is used for specifying spatial knowledge bases. An algorithm for checking the satisfiability of knowledge bases described by mean of LCs is presented. In the third part, we present a rule-based query language for querying such knowledge bases. The query language is a hybrid one in the sense that it integrates rule and constraint paradigms
APA, Harvard, Vancouver, ISO, and other styles
41

Lamarque, Éric. "Les métiers bancaires : définitions et logiques d'intégration : proposition d'un cadre méthodologique et conceptuel d'analyse." Bordeaux 4, 1996. http://www.theses.fr/1996BOR40041.

Full text
Abstract:
L'environnement bancaire vient de traverser deux décennies de mutations réglementaires, comportementales technologiques remodelant sans cesse la donne concurrentielle du secteur. Stratégies de diversification et recentrages se sont succédés, parfois sans logique apparente, avec des fortunes diverses selon les établissements, pour retrouver une rentabilité perdue sur des métiers dit "classiques" ou de base. Aujourd'hui, les établissements cherchent à comprendre les contours et les fondements de leurs métiers. Cette thèse s'inscrit dans ce questionnement. Partant d'une typologie de métiers fondée sur une logique produits/marchés issue de l'analyse de rapports d'activité, on a cherché à identifier les fondements en termes de compétences de ces définitions auprès de trois groupes bancaires français. Cette démarche a permis de réaliser des "profils de compétences" par métier qui ont été confrontés pour mettre en évidence les logiques d'intégration. Ainsi sont apparus de véritables systèmes stratégiques regroupant plusieurs métiers et s'articulant autour de partage et ou de combinaisons de compétences qui sont considérées comme clés pour ces systèmes. D'autre part, certaines fonctions de la banque comme la distribution ou la gestion des risques sont considérés comme des métiers transversaux à l'organisation. Ils sont appréhendés comme un ensemble structuré et cohérent de compétences. Cette cohérence est assurée par la mise en œuvre de compétences particulières, de nature organisationnelle et humaine
Throughout the last two decades, the banking industry has been faced with regulatory, behavioral and technological changes, which have modified competitive conditions. Different diversification and refocusing strategies have come and gone, sometimes without any clear logic, in an attempt to regain profitability lost in traditional businesses. For many firms the results have been mitigated. We began by establishing a typology of businesses based on a product market logic which stemmed from an analysis of annual reports. We then tried to identify the foundations of these businesses in terms of competencies (basic or distinctive) through a clinical analysis of three french banking groups. This approach allowed us to establish "competence profiles" for each business in our typology. The comparison of these profiles enabled us to underline different integration logics. In the strategic systems which emerge, the different businesses in our typology are linked by a combination or a share of competencies which we consider as "core competencies". Moreover, certain banking functions, like distribution or risk management, are considered as transversal businesses within organisations. They are managed as coherent and structured groups of competencies. We attempted to understand how this coherence is insured in the management of specific competencies which are of an organisationnal and human nature
APA, Harvard, Vancouver, ISO, and other styles
42

Dartnell, Christopher. "Conception d’un cadre formel d’interaction pour la découverte scientifique computationelle." Montpellier 2, 2008. http://www.theses.fr/2008MON20060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Aptekman, Jeanne. "De la logique à la linguistique : une étude du sens de si." Paris, EHESS, 2006. http://www.theses.fr/2006EHES0123.

Full text
Abstract:
Les conditionnels forment une part importante du questionnement de la logique sur elle-même. A travers de nombreuses réflexions sur le conditionnel matériel, la logique cherche à penser l’implication logique telle qu’elle nous apparaît intuitivement, comme un enchaînement nécessaire entre un antécédent et un conséquent. Mais ce questionnement s’est accompagné sur un questionnement sur la possibilité de traiter les conditionnels ordinaires à 1’aide du conditionnel matériel de la logique, ou des réformes qui en ont été proposées. Or, les conditionnels, que nous étudierons ici sous leur forme paradigmatique de phrases en SI, se distinguent radicalement de ce conditionnel matériel. Nous avons donc voulu sortir l’analyse des phrases en SI de cette tradition philosophico-logique pour analyser le sens de SI dans une perspective clairement sémantique. Il s’en dégage une réelle unité, qui au travers d’une grande polysémie, permet d’envisager de façon unifiée des usages souvent traités séparément. Cette analyse permet également de revenir sur le débat en psychologie du raisonnement sur les connecteurs logiques
Conditionals hold an important place in logical questioning about itself. In analysing the numerous theories about material conditional. Logic attempts‘ to grasp the logical implication as it appears intuitively to us,. Wich is a necessary entailment between an antecedent and a consequent. But a the same time arise the question of the possibility of offering a treatment for ordinary conditional using the material conditional of logic or the reforms that have been proposed for it. However, the conditionals which we will/ approach here in their paradigmatic forms of SI-clauses, do not always expressed a logical entailment and these are two different questions. That is the reason why we wanted to leave aside the philosophico-logical tradition to propose an analysis of the meaning of SI in a clearly semantic prospective. Within a large polysemy, a significant unity comas out of this approach which allows us to take a fresh look at the debate in psychology of reasoning about logical connectives
APA, Harvard, Vancouver, ISO, and other styles
44

Valax, Marc. "Les logiques structurelles d'intégration des jeunes cadres en PME innovantes : de la régulation des tensions à la stabilisation professionnelle." Toulouse 1, 1999. http://www.theses.fr/1999TOU10009.

Full text
Abstract:
La gestion des ressources humaines dans les petites et moyennes entreprises s'inscrit selon une interaction complexe de processus cognitifs interpersonnels, de dépendances de pouvoir et de contraintes de contexte. Les logiques d'intégration des jeunes diplômés en potentiel de devenir cadre dans des PME sont soumises à des contradictions et des tensions organisationnelles. Le dirigeant et l'organisation font face à cette complexité par des bases de savoirs partielles et conflictuelles. Ils font appel à leurs expériences, à leurs croyances et à d'autres modalités cognitives. La compréhension des enjeux et des représentations des acteurs en interaction permettrait une interprétation et un enrichissement des comportements décisionnels. Plaider pour une structuration managériale est possible. Cette ouverture de la conscience collective conduit à une coconstruction organisationnelle. Ainsi, sans en nier les aspects conflictuels, il est possible de construire la relation d'emploi d'un jeune embauché en PME dans le sens d'un enrichissement réciproque au niveau des représentations cognitives et des répartitions de rôles. L'analyse des données collectées sur le terrain des PME en étude longitudinale selon une méthodologie qualitative et quantitative nous a conduit à caractériser les logiques structurelles d'intégration par une typologie, un modèle de régulation et de pilotage.
APA, Harvard, Vancouver, ISO, and other styles
45

Al, Nasser Wissam. "Les usages politiques de Facebook : cadre d'injustice et logiques de mobilisation : le cas de la page The Syrian revolution 2011." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0024.

Full text
Abstract:
L'usage politique d'Internet et des réseaux socionumériques (RSN) ne cesse d'augmenter depuis plus d'une décennie. Le recours à des réseaux tels que Facebook, Youtube, Twitter, Skype, Instagram etc., se manifeste comme un passage obligatoire, tant pour les acteurs politiques que pour les citoyens « ordinaires ». La présente recherche retrace l'usage politique et les logiques de mobilisation et de la production de parole politique sur les RSN dans le contexte de la crise syrienne en 2011. Elle questionne, à travers l'analyse de cas de la page The Syrian Revolution 2011, les possibilités que ces RSN offrent aux usagers dans l'instauration d'espaces de mobilisations et d'interactions collectives. Notre analyse s'est organisée pour couvrir deux périodes : la première s'étale de 18 janvier au 14 mars 2011, quant à la seconde, elle s'étend du 15 mars au 30 avril 2011. Ce découpage permet de comprendre le passage d'un mode opératoire à un autre en fonction du changement du contexte politique et de la dégradation de la situation dramatique en Syrie. Notre recherche question également la place de la discussion politique en ligne dans l'élaboration des cadres d'action collective. Elle montre que ces derniers sont, activés, adoptés et diffusés à travers des logiques propres aux pratiques sociotechniques offertes par les RSN. Ainsi, notre étude peut apporter une contribution, nous l'espérons, originale dans le champ de l'analyse des RSN. Elle montre comment ces derniers peuvent constituer un espace de mobilisation d'information à travers duquel les usagers peuvent développer différentes pratiques communicationnelles
During the last decade, the political use of the Internet and Social Network Sites (SNS) has tremendously increased. Using networks such as Facebook, Youtube, Twitter, Skype, Instagram, etc., has become a must for both political actors and ordinary citizens. Using as a framework the Syrian crisis in 2011, this research will follow the evolution of the political use of SNS in addition to the logics of mobilization and the production of the political speech in these networks. Through the analysis of the Facebook Page the Syrian Revolution 2011, it will question the possibilities that these SNS provide to the users to create mobilizations spaces and collective interaction. Our analysis covered two periods of time: the first one from January 18th to March 14th 2011, and the second from March 15th to April 30th 2011. This will help us better understand the change from one operational mode to another based on the change of the political context and on the degradation of the dramatic situation in Syria. Our research questions the place of the political discussion online and its parts on the creation of collective actions frames. It shows that these frames are activated, adopted and spread in ways that are specific to the social and technical practices provided by the SNS. From this perspective, we hope that our study can bring an original contribution in the analysis of the SNS field. It shows how these networks can be an area for mobilization of information that would help users develops various communication practices
APA, Harvard, Vancouver, ISO, and other styles
46

Ferjani, Aicha. "Prise en compte de la fatigue des opérateurs dans la modélisation et la simulation des systèmes de production." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC003/document.

Full text
Abstract:
Le développement rapide des technologies de l’information dans l’usine du futur nécessite de repenser l’organisation des systèmes de production. Si l’importance des opérateurs est bien reconnue dans l’industrie 4.0, les facteurs humains restent cependant insuffisamment pris en considération dans les méthodes d’organisation. La simulation est parmi les méthodes largement utilisées pour étudier les systèmes de production et évaluer leurs performances. Toutefois, les approches de simulation existantes et les logiciels disponibles sont centrés sur les dimensions techniques de ces systèmes (machines, transport, règles de priorité, etc.). Malheureusement, les facteurs humains, particulièrement la fatigue des opérateurs, semble être très insuffisamment pris en compte dans les modèles de simulation. Dans ce contexte, la présente thèse vise à étudier dans quelle mesure la fatigue pourrait être intégrée dans les modèles de simulation des ateliers de production. Un cadre conceptuel combinant différents paradigmes de modélisation est ainsi proposé pour aider à concevoir de tels modèles. Le paradigme de simulation à événements discrets est utilisé pour décrire la dynamique de fonctionnement des ateliers. Le paradigme d’agent intelligent est utilisé pour modéliser les opérateurs et intégrer leur comportement de fatigue que nous avons modélisé en utilisant la simulation continue. Nous avons également utilisé la logique floue pour caractériser les facteurs de pénibilité, connus de façon imprécise, et leur impact sur l’évolution de la fatigue. Nous avons montré comment le cadre conceptuel proposé peut être mis en œuvre de façon assez générique avec le logiciel Anylogic. L’approche proposée a ensuite été utilisée pour aborder deux différents problèmes de production: le premier concerne l’affectation dynamique des opérateurs sur les machines et le deuxième est relatif à l’agencement de machines lors de la phase de conception des ateliers. Ceci nous a permis d’illustrer l’utilité de l’approche propose et montrer sa pertinence. L’analyse des résultats de simulation permet d’apporter des connaissances à la fois sur les performances des systèmes et sur les tendances d’évolution de la fatigue des opérateurs durant le travail. De tels résultats aident à réfléchir sur la façon dont laquelle nous pourrions améliorer les méthodes d’organisation et de gestion des ateliers pour contribuer à l’amélioration de leurs performances et au bien-être de leurs opérateurs
The quick development of information technology in the factory of the future requires rethinking about the organization of production systems. Although the importance of the workers in the industry 4.0, human factors are still insufficiently taken into consideration in the organizational methods. Simulation is among the methods widely used to study production systems and evaluate their performances. However, the existing simulation approaches and the available softwares mainly focus on technical dimensions of these systems (machines, transport, priority rules, etc.). Unfortunately, human factors, particularly workers’ fatigue, seem to be very insufficiently taken into account in the simulation models. In this context, this thesis aims to study how the workers’ fatigue could be integrated into the simulation models of workshops. A framework combining different modelling paradigms is proposed to help in designing such models. Discrete event simulation is used to describe the dynamic of the working process in workshops. The paradigm of intelligent agent is used to model operators and integrate their behavior of fatigue, which has been modeled using continuous simulation paradigms. We have also used fuzzy logic in order to characterize the arduousness’s factors, known imprecisely, and impacts on the evolution of the workers’ fatigue. We have shown how the proposed framework can be implemented can be implemented generically enough with the software ANYLOGIC. The proposed approach has been then used to address two different production problems: the first one concerns the dynamic assignment of workers to machines and the second is related to the machines layout in the design stage of the system. This illustrated the utility of the proposed approach and showed its relevance. The analysis of the simulation results yields some knowledge on both the performance of the systems and on trends of the evolution the operators’ fatigue during the work. Such results help to thank on how to improve the methods of organization and management of the workshops so to contribute to the improvement of their performances and the well-being of their operators
APA, Harvard, Vancouver, ISO, and other styles
47

Martin, Thérèse. "L'expérience de visite des enfants en musées de sciences dans le cadre des loisirs : logiques d'interprétation et enjeux d'un dispositif communicationnel." Phd thesis, Université Charles de Gaulle - Lille III, 2011. http://tel.archives-ouvertes.fr/tel-00783563.

Full text
Abstract:
Cette recherche s'intéresse à l'interprétation des enfants dans le cadre de leur expérience muséale sur le temps des loisirs, lors de la visite en famille ; elle s'inscrit parmi les questions de la médiation de savoirs dans le contexte de deux expositions temporaires à thème, relevant d'institutions muséales de sciences. Cette recherche, descriptive et compréhensive a nécessité la mise en place d'un dispositif communicationnel méthodologique, " la mise en situation de rôle de guide " pour mettre au jour les logiques d'interprétation des enfants en tant que médiateurs entre l'exposition et un visiteur (le chercheur). Les enfants procèdent à des mises en relation avec les objets, le lieu, l'institution, et à des interactions avec le chercheur qui forment le substrat de récits de médiation soumis à notre analyse. Tout en tenant compte de la construction de la médiation en situation de guide, cette analyse a donné lieu à l'élaboration de cadres en jeu pour interpréter, selon les espaces discursifs de l'exposition de sciences (espace de la rhétorique, du jeu, de la performance) ainsi que l'espace de l'esthétique propre à la médiation des expositions retenues. Ce qui a permis d'élaborer quatre figures d'enfants-interprètes et leurs déclinaisons qui révèlent les modes d'appropriation de l'exposition par les enfants. Il s'agit de la figure de l'apprenant (selon l'approche de l'observateur, de l'expérimentateur et du perspicace), la figure du butineur explorateur, la figure du co-constructeur par le partage (selon l'approche du partage de connaissances ou du partage de la sensibilité esthétique), la figure de l'inventeur passionné (l'approche du passionné par son centre d'intérêt, par la scénographie, par le jeu). Dans le contexte muséologique, cette recherche s'inscrit plus largement dans une approche phénoménologique visant à comprendre les relations établies par les enfants avec le monde, ici avec le " monde synthétique " de l'exposition. Ce qui revient à comprendre la construction par les enfants du " monde utopique " de l'exposition lors de la visite. La médiation a permis de mettre en évidence à travers les relations, l'idée de partage lors de la visite, et de mieux connaître la culture muséale des enfants.
APA, Harvard, Vancouver, ISO, and other styles
48

Bribosia, Emmanuelle. "La protection des droits fondamentaux dans l'ordre juridique communautaire: le poids respectif des logiques fonctionnelle et autonome dans le cadre normatif et jurisprudentiel." Doctoral thesis, Universite Libre de Bruxelles, 2001. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211769.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Safavian-Martinon, Marguerite. "Le lien entre le diplôme et la logique d'acteur relative à la carrière : Une explication du rôle du diplôme dans la carrière des jeunes cadres." Paris 1, 1998. http://www.theses.fr/1998PA010068.

Full text
Abstract:
Par rapport aux theories classiques (du capital humain, du signal, et du filtre), qui procurent par ailleurs un eclairage pertinent sur les grandes ecoles de gestion, l'originalite de notre these est d'aborder le role du diplome par ses effets sur le diplome lui-meme. Ayant adopte un paradigme d'apprehension de la carriere inspire des axiomes de l'analyse strategique, nous nous sommes interessee a l'individu comme acteur libre dans la construction de sa carriere, sous contraintes. L'etude est centree sur "la logique d'acteur relative a la carriere", traduite par certaines "attitudes de carriere" (preferences, vision des possibles, croyances). La selection des personnalites a l'entree des grandes ecoles, et la "socialisation" probable pendant la scolarite, permettent de postuler l'existence d'un lien entre le diplome possede et ces attitudes. Des entretiens biographiques ont ete menes aupres de 24 jeunes cadres diplomes de hec ou de dess universitaire. Une analyse de contenu de type structural a mis en evidence la nature et l'homogeneite des attitudes des diplomes de hec, ainsi que leur specificite par rapport a celles des universitaires. Des hypotheses ont ainsi ete formulees, puis conceptualisees, et enfin soumises a des tests statistiques bases sur 300 reponses a un questionnaire construit ad hoc. Les resultats revelent une influence differente du diplome chez les hommes et chez les femmes. Dans le cas des hommes, certaines preferences (ex : pour les perspectives de carriere), certaines croyances instrumentales (ex : comportements politiques, commencer sa carriere dans une grande entreprise connue), et la vision des possibles sont significativement liees au diplome. Les liens ainsi demontres entre le diplome et certaines attitudes ont ete explicites a l'aide de variables intermediaires (valeurs, estime de soi, integration dans la "communaute des anciens")
Unlike the classical theories of human capital, signaling and screening, which also provide a relevant insight on french management schools (known as "grandes ecoles"), the originality of the present study is to try to analyze the effects of the corresponding degree on the graduate himself. Having established a general paradigm of careers based on the strategic analysis theory, we focused on the actor's career rationale, covering a number of career attitudes (preferences, perception of possibilities, believes). We assumed these attitudes were related to the nature of the diploma, due to both the specific entry selection to the "grandes ecoles" and the peculiar "socialization" likely to develop during the studies. We conducted 24 biographical interviews of graduates from hec (the leading "grande ecole") or university dess (postgraduate diploma). A structural content analysis pointed out that hec graduates displayed homogenous attitudes, which differed significantly from those characterizing university graduates. A set of hypothesis were suggested, and conceptualized, and then tested through a specific ad hoc questionnaire, filled in by 300 young managers. Variance analysis and multiple regressions were used to assess the hypothesis. The results suggested different influences of the diploma for men and women. For men, some preferences (ex : career perspectives), some instrumental believes (ex : political behavior, starting in a reputable multinational company), and the perception of possibilities are significantly related to the degree. The relations between the diploma and some attitudes were further explained with intermediary variables (values, self-esteem, and integration in alumni networks)
APA, Harvard, Vancouver, ISO, and other styles
50

Bouhaouala, Malek. "Micro-mentalités et logiques d'action des dirigeants des petites entreprises du tourisme sportif : contribution à une sociologie économique du sport." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10154.

Full text
Abstract:
Ce travail consiste a placer la subjectivite des dirigeants de petites et de tres petites entreprises (pe-tpe) au centre de la comprehension et de l'explication du fonctionnement et de l'evolution des pe-tpe du tourisme sportif. Pour ce faire, en s'inspirant de la sociologie economique weberienne, un modele a ete construit autour du concept de micro-mentalite. Les resultats empiriques, issus d'une approche qualitative, ont rendu possible la construction d'une taxonomie des dirigeants et des pe-tpe sur la base de traits specifiques relatifs aux micro-mentalites et au fonctionnement des entreprises (comportements economiques et choix organisationnels des dirigeants). La mise en mouvement de la taxonomie et la reconstruction d'itineraires socio-professionnels et sportifs des dirigeants ont permis de comprendre et d'expliquer sociologiquement, d'une part, la regulation du marche et, d'autre part, la genese et le changement des micro-mentalites et des entreprises.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography